KR102315523B1 - Method of and system for eliminating background of image - Google Patents

Method of and system for eliminating background of image Download PDF

Info

Publication number
KR102315523B1
KR102315523B1 KR1020140006735A KR20140006735A KR102315523B1 KR 102315523 B1 KR102315523 B1 KR 102315523B1 KR 1020140006735 A KR1020140006735 A KR 1020140006735A KR 20140006735 A KR20140006735 A KR 20140006735A KR 102315523 B1 KR102315523 B1 KR 102315523B1
Authority
KR
South Korea
Prior art keywords
value
region
edge
background
present
Prior art date
Application number
KR1020140006735A
Other languages
Korean (ko)
Other versions
KR20150086722A (en
Inventor
배순민
구자영
임정은
백영민
김대환
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020140006735A priority Critical patent/KR102315523B1/en
Publication of KR20150086722A publication Critical patent/KR20150086722A/en
Application granted granted Critical
Publication of KR102315523B1 publication Critical patent/KR102315523B1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47BTABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
    • A47B47/00Cabinets, racks or shelf units, characterised by features related to dismountability or building-up from elements
    • A47B47/0008Three-dimensional corner connectors, the legs thereof being received within hollow, elongated frame members
    • AHUMAN NECESSITIES
    • A47FURNITURE; DOMESTIC ARTICLES OR APPLIANCES; COFFEE MILLS; SPICE MILLS; SUCTION CLEANERS IN GENERAL
    • A47BTABLES; DESKS; OFFICE FURNITURE; CABINETS; DRAWERS; GENERAL DETAILS OF FURNITURE
    • A47B96/00Details of cabinets, racks or shelf units not covered by a single one of groups A47B43/00 - A47B95/00; General details of furniture
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16BDEVICES FOR FASTENING OR SECURING CONSTRUCTIONAL ELEMENTS OR MACHINE PARTS TOGETHER, e.g. NAILS, BOLTS, CIRCLIPS, CLAMPS, CLIPS OR WEDGES; JOINTS OR JOINTING
    • F16B12/00Jointing of furniture or the like, e.g. hidden from exterior
    • F16B12/02Joints between panels and corner posts

Abstract

본 발명은 배경 제거 방법 및 시스템에 관한 것으로, 본 발명의 일 실시예는 움직임 영역을 획득하는 움직임 영역 탐지부; 상기 움직임 영역을 구역 별로 나누는 구역 분할부; 상기 구역 별로 가로 평균 에지값과 세로 평균 에지값을 산출하는 에지값 산출부; 상기 구역 별로 가로 평균 에지값과 세로 평균 에지값 중 큰 값을 에지 성분값으로 결정하는 에지 성분값 판단부; 상기 에지 성분값이 기준치 이하인 구역을 배경 구역으로 판단하여 제거하는 배경 제거부; 를 포함하는 배경 제거 시스템을 제공한다.The present invention relates to a method and system for removing a background, and an embodiment of the present invention includes: a motion region detector for acquiring a motion region; a zone division unit dividing the movement area into zones; an edge value calculator for calculating a horizontal average edge value and a vertical average edge value for each zone; an edge component value determination unit that determines a larger value among a horizontal average edge value and a vertical average edge value for each region as an edge component value; a background removal unit for determining and removing a region having the edge component value equal to or less than a reference value as a background region; It provides a background removal system comprising a.

Description

배경 제거 방법 및 시스템{Method of and system for eliminating background of image}{Method of and system for eliminating background of image}

본 발명은 배경 제거 방법 및 시스템에 관한 것으로, 움직임 탐지 영역을 구역 별로 나누고 에지 성분값이 기준치 이하인 구역을 배경 영역으로 판단하여 제거하는 배경 성분 제거 방법 및 시스템에 관한 것이다. The present invention relates to a method and system for removing a background, and to a method and system for removing a background component by dividing a motion detection area into regions and determining a region having an edge component value less than or equal to a reference value as a background region.

근래 들어 다양한 분야에서 다양한 용도로 감시 시스템에 대한 수요가 증가하고 있다. 일반적인 감시 시스템은 감시 대상 영역에 카메라를 설치하고, 카메라의 영상을 감시자가 모니터링하는 방법을 사용한다. 이와 같은 방법은 인건비를 증가시키고 감시자가 감시할 수 있는 범위에 한계가 존재한다는 문제점이 있으므로, 감시 영상에서 영상 분석 기법(image processing)을 통해 움직임 영역을 검출하고자 하는 시도가 있어왔다.In recent years, the demand for monitoring systems for various purposes in various fields is increasing. A general surveillance system uses a method in which a camera is installed in a surveillance target area, and a monitor monitors an image of the camera. Since this method increases the labor cost and there is a problem that there is a limit in the range that a monitor can monitor, there have been attempts to detect a motion region in a surveillance image through image processing.

이러한 영상 분석 기법은 영상 정보로부터 움직이는 물체를 감지하거나 이 물체의 행동을 분석하는 기능을 포함한다. 영상 분석 기법은 침입/도난 감시, 움직이는 물체의 감시 등 보안 시스템의 관리 인력을 대체 또는 보조할 수 있어 감시 시스템의 효율성을 높이는 데 도움을 준다.Such an image analysis technique includes a function of detecting a moving object from image information or analyzing the behavior of the object. The video analysis technique can replace or supplement the management personnel of the security system, such as intrusion/theft monitoring and the monitoring of moving objects, thereby helping to increase the effectiveness of the surveillance system.

그러나 대부분의 감시 시스템이 장시간의 영상 스트림을 수신하고 있으므로, 한정된 자원 안에서 실시간으로 수신되는 영상 스트림에서 움직임 영역을 검출하기 위해서는 연산량이 적은 영상 분석 기법이 필요하다.However, since most surveillance systems receive a video stream for a long time, an image analysis technique with a small amount of computation is required to detect a motion region in a video stream received in real time within a limited resource.

본 발명은 움직임 탐지 영역을 복수개의 구역으로 분할하고, 에지 성분값이 기준치 이하인 구역을 배경으로 판단하여 제거하는 것을 일 목적으로 한다.An object of the present invention is to divide a motion detection region into a plurality of regions, and to remove a region having an edge component value equal to or less than a reference value as a background.

본 발명의 일 실시예는 움직임 영역을 획득하는 움직임 영역 탐지부; 상기 움직임 영역을 구역 별로 나누는 구역 분할부; 상기 구역 별로 가로 평균 에지값과 세로 평균 에지값을 산출하는 에지값 산출부; 상기 구역 별로 가로 평균 에지값과 세로 평균 에지값 중 큰 값을 에지 성분값으로 결정하는 에지 성분값 판단부; 상기 에지 성분값이 기준치 이하인 구역을 배경 구역으로 판단하여 제거하는 배경 제거부; 를 포함하는 배경 제거 시스템을 제공한다.An embodiment of the present invention includes a motion region detector for acquiring a motion region; a zone division unit dividing the movement area into zones; an edge value calculator for calculating a horizontal average edge value and a vertical average edge value for each zone; an edge component value determination unit that determines a larger value among a horizontal average edge value and a vertical average edge value for each region as an edge component value; a background removal unit for determining and removing a region having the edge component value equal to or less than a reference value as a background region; It provides a background removal system comprising a.

본 발명에 있어서, 상기 구역 분할부는 상기 움직임 영역을 가로 또는 세로로 하나 이상의 구역으로 분할할 수 있다.In the present invention, the region divider may divide the movement region into one or more regions horizontally or vertically.

본 발명에 있어서, 상기 배경 제거부는 가장 자리의 구역이 제거되었을 때만 내측 영역의 구역을 배경 구역으로 판단할 수 있다.In the present invention, the background removing unit may determine the region of the inner region as the background region only when the region of the edge is removed.

본 발명에 있어서, 상기 구역 별로 픽셀값의 표준 편차를 산출하는 표준 편차 산출부; 를 추가적으로 포함하고, 상기 배경 제거부는 상기 표준 편차 산출부가 산출한 표준 편차가 특정 값 이하인 경우에만 해당 구역으로 배경으로 판단할 수 있다.In the present invention, the standard deviation calculator for calculating the standard deviation of the pixel value for each area; may be additionally included, and the background removing unit may determine the background as the corresponding area only when the standard deviation calculated by the standard deviation calculating unit is less than or equal to a specific value.

본 발명의 다른 실시예는 움직임 영역을 획득하는 움직임 영역 탐지 단계; 상기 움직임 영역을 구역 별로 나누는 구역 분할 단계; 상기 구역 별로 가로 평균 에지값과 세로 평균 에지값을 산출하는 에지값 산출 단계; 상기 구역 별로 가로 평균 에지값과 세로 평균 에지값 중 큰 값을 에지 성분값으로 결정하는 에지 성분값 판단 단계; 상기 에지 성분값이 기준치 이하인 구역을 배경 구역으로 판단하여 제거하는 배경 제거 단계; 를 포함하는 배경 제거 방법을 제공한다.Another embodiment of the present invention includes a motion region detection step of acquiring a motion region; zone division step of dividing the movement area into zones; an edge value calculation step of calculating a horizontal average edge value and a vertical average edge value for each zone; an edge component value determination step of determining a larger value among a horizontal average edge value and a vertical average edge value for each region as an edge component value; a background removal step of determining and removing a region in which the edge component value is equal to or less than a reference value as a background region; It provides a background removal method comprising a.

본 발명에 있어서, 상기 구역 별로 픽셀값의 표준 편차를 산출하는 표준 편차 산출 단계; 를 추가적으로 포함하고, 상기 배경 제거 단계는 상기 표준 편차 산출부가 산출한 표준 편차가 특정 값 이하인 경우에만 해당 구역으로 배경으로 판단할 수 있다.In the present invention, the standard deviation calculating step of calculating the standard deviation of the pixel value for each area; may be additionally included, and the background removal step may determine the background as the corresponding area only when the standard deviation calculated by the standard deviation calculator is less than or equal to a specific value.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition to this, another method for implementing the present invention, another system, and a computer readable recording medium for recording a computer program for executing the method are further provided.

본 발명에 의하면, 연산량이 적으면서도 정확한 움직임 탐지 영역에서의 배경 구역 제거 방법을 제공할 수 있다.According to the present invention, it is possible to provide a method for removing a background area in an accurate motion detection area with a small amount of computation.

도 1은 본 발명의 일 실시예에 따른 배경 제거 시스템을 나타낸 도면이다.
도 2는 본 발명의 일 실시예에 따른 배경 제거 서버의 내부 구성을 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따라 구역 분할된 움직임 탐지 영역을 예시하고 있다.
도 4는 본 발명의 일 실시예에 따라 에지값을 산출하기 위해 사용할 수 있는 필터들이다.
도 5는 본 발명의 일 실시예에 따라 각 구역 별로 에지 성분값을 산출하는 예를 도시한 것이다.
도 6은 본 발명의 일 실시예에 따라 표준 편차 산출부(150)가 각 구역 별로 표준 편차를 산출하는 예를 나타낸 것이다.
도 7은 본 발명의 일 실시예에 따른 배경 제거 방법의 실행 순서를 나타낸 도면이다.
1 is a diagram illustrating a background removal system according to an embodiment of the present invention.
2 is a diagram illustrating an internal configuration of a background removal server according to an embodiment of the present invention.
3 illustrates a zoned motion detection area according to an embodiment of the present invention.
4 is a filter that can be used to calculate an edge value according to an embodiment of the present invention.
5 is a diagram illustrating an example of calculating an edge component value for each zone according to an embodiment of the present invention.
6 illustrates an example in which the standard deviation calculating unit 150 calculates the standard deviation for each zone according to an embodiment of the present invention.
7 is a diagram illustrating an execution sequence of a background removal method according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이러한 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 본 명세서에 기재되어 있는 특정 형상, 구조 및 특성은 본 발명의 정신과 범위를 벗어나지 않으면서 일 실시예로부터 다른 실시예로 변경되어 구현될 수 있다. 또한, 각각의 실시예 내의 개별 구성요소의 위치 또는 배치도 본 발명의 정신과 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 행하여지는 것이 아니며, 본 발명의 범위는 특허청구범위의 청구항들이 청구하는 범위 및 그와 균등한 모든 범위를 포괄하는 것으로 받아들여져야 한다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 구성요소를 나타낸다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0010] DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [0023] Reference is made to the accompanying drawings, which show by way of illustration specific embodiments in which the present invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the present invention. It should be understood that the various embodiments of the present invention are different but need not be mutually exclusive. For example, certain shapes, structures, and characteristics described herein may be implemented with changes from one embodiment to another without departing from the spirit and scope of the present invention. In addition, it should be understood that the location or arrangement of individual components within each embodiment may be changed without departing from the spirit and scope of the present invention. Accordingly, the following detailed description is not to be taken in a limiting sense, and the scope of the present invention should be taken to cover the scope of the claims and all equivalents thereto. In the drawings, like reference numerals refer to the same or similar elements throughout the various aspects.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 여러 실시예에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, various embodiments of the present invention will be described in detail with reference to the accompanying drawings in order to enable those of ordinary skill in the art to easily practice the present invention.

도 1은 본 발명의 일 실시예에 따른 배경 제거 시스템을 나타낸 도면이다.1 is a diagram illustrating a background removal system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 배경 제거 시스템은 배경 제거 서버(100), 복수의 감시 카메라들(200) 및 네트워크(300)를 포함한다.Referring to FIG. 1 , the background removal system of the present invention includes a background removal server 100 , a plurality of surveillance cameras 200 , and a network 300 .

도 1을 참조하면, 복수 개의 감시 카메라들(200)이 네트워크(300)를 통해 배경 제거 서버(100)와 데이터를 주고받고 있다. 구체적으로, 복수 개의 카메라들(200)은 통신 채널(DCOM)을 통하여 배경 제거 서버(100)와 통신하면서, 영상 데이터 채널(DIMA)을 통하여 라이브 뷰 동영상 데이터를 배경 제거 서버(100)에 전달한다. 물론 복수 개의 감시 카메라가 아닌 한 개의 감시 카메라만 배경 제거 서버(100)와 통신할 수도 있고, 한 개의 감시 카메라 또는 복수 개의 감시 카메라들이 복수 개의 배경 제거 서버(100)들과 통신할 수도 있는 등 다양한 변형이 가능함은 물론이다.Referring to FIG. 1 , a plurality of surveillance cameras 200 exchange data with the background removal server 100 through a network 300 . Specifically, the plurality of cameras 200 communicate with the background removal server 100 through the communication channel (DCOM), and transmit live view video data to the background removal server 100 through the image data channel (DIMA). . Of course, not a plurality of monitoring cameras, only one monitoring camera may communicate with the background removal server 100 , and one monitoring camera or a plurality of monitoring cameras may communicate with a plurality of background removal servers 100 , etc. Of course, variations are possible.

여기서 통신 채널(DCOM) 및 영상 데이터 채널(DIMA)을 형성하는 네트워크(300)는 유선 또는 무선으로 데이터나 명령을 송수신할 수 있는 모든 수단이 될 수 있다. 예를 들어, 네트워크(300)는 케이블을 통하여 유선으로 복수 개의 카메라들(200)과 배경 제거 서버(100)를 연결할 수도 있으며, 무선 랜 등을 사용하여 무선으로 복수 개의 카메라들(200)과 배경 제거 서버(100)를 연결할 수도 있다.Here, the network 300 forming the communication channel (DCOM) and the image data channel (DIMA) may be any means capable of transmitting and receiving data or commands by wire or wirelessly. For example, the network 300 may connect the plurality of cameras 200 and the background removal server 100 by wire through a cable, and wirelessly connect the plurality of cameras 200 and the background using a wireless LAN, etc. It is also possible to connect the removal server 100 .

배경 제거 서버(100)는 일반 컴퓨팅 장치 및 서버 장치 등이 제한 없이 사용될 수 있다. 예를 들어, 배경 제거 서버(100)로 감시 카메라용 컨트롤 시스템 등이 사용될 수도 있을 것이다. 배경 제거 서버(100)는 필요에 따라 복수 개의 카메라들(200)로부터의 실시간 동영상을 저장할 수도 있다.Background removal server 100 may be used without limitation, such as general computing devices and server devices. For example, a control system for a surveillance camera, etc. may be used as the background removal server 100 . The background removal server 100 may store a real-time video from the plurality of cameras 200 as necessary.

배경 제거 서버(100)는 복수 개의 감시 카메라들(200)로부터 획득한 영상에서 움직임 탐지 영역을 획ㄷ그한 후 에지 성분 분석을 통해 배경 구역을 제거하는 역할을 한다. 특히, 배경 제거 서버(100)는 복수 개의 감시 카메라들(200)로부터 획득한 영상에서 배경으로 판단되는 영역을 구역 별로 제거함으로써 움직임 탐지를 위한 영상 처리에 있어서 연산량을 줄일 수 있다.The background removal server 100 serves to remove the background area through edge component analysis after a motion detection area is marked in the images obtained from the plurality of surveillance cameras 200 . In particular, the background removal server 100 can reduce the amount of computation in image processing for motion detection by removing the region determined as the background from the images obtained from the plurality of surveillance cameras 200 by region.

도 2는 본 발명의 일 실시예에 따른 배경 제거 서버의 내부 구성을 나타낸 도면이다.2 is a diagram illustrating an internal configuration of a background removal server according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 일 실시예에 따른 배경 제거 서버(100)는 움직임 영역 탐지부(110), 구역 분할부(120), 에지값 산출부(130), 에지 성분값 판단부(140), 표준 편차 산출부(150) 및 배경 제거부(160)를 포함한다.Referring to FIG. 2 , the background removal server 100 according to an embodiment of the present invention includes a motion region detection unit 110 , a zone division unit 120 , an edge value calculation unit 130 , and an edge component value determination unit ( 140 ), a standard deviation calculating unit 150 , and a background removing unit 160 .

기존의 움직임 영역 탐지 방법은 그림자를 움직이는 객체로 탐지하거나, 조명 변화 구간을 움직이는 객체로 탐지하거나, 움직임의 잔상을 객체로 포함시키는 등 직접적인 객체의 움직임이 없는 주변 영역까지도 움직임 영역으로 탐지하는 문제점이 있었다. 본 발명의 일 실시예에서는 상술한 문제점을 해결하기 위하여 연산량이 적으면서도 탐지된 움직임 영역 중 배경 영역을 정확하게 제거할 수 있는 배경 제거 방법을 제시한다. 이를 위해, 본 발명의 일 실시예에 따른 배경 제거 서버(100)는 획득된 움직임 영상을 구역 별로 분할하고 평균 에지값을 산출한 후 에지 성분값이 기준치 이하인 구역을 배경으로 판단하여 제거한다. 이하에서는, 배경 제거 서버(100)의 각 내부 구성 요소들이 수행하는 역할을 중심으로 본 발명의 일 실시예에 따른 배경 제거 방법을 상세히 알아보기로 한다.The existing motion area detection method has a problem of detecting even the surrounding area where there is no direct object movement as a moving area, such as detecting a shadow as a moving object, detecting a lighting change section as a moving object, or including an afterimage of movement as an object. there was. In one embodiment of the present invention, in order to solve the above-described problem, a background removal method capable of accurately removing a background region among detected motion regions with a small amount of computation is provided. To this end, the background removal server 100 according to an embodiment of the present invention divides the obtained motion image by region, calculates an average edge value, and determines and removes a region having an edge component value equal to or less than a reference value as a background. Hereinafter, a background removal method according to an embodiment of the present invention will be described in detail with a focus on the roles performed by each internal component of the background removal server 100 .

먼저, 움직임 영역 탐지부(110)는 본 발명의 일 실시예에 따라 감시 카메라(200)가 획득한 영상으로부터 움직임 탐지 영역을 획득하는 역할을 수행한다. 감시 영상으로부터 움직임 탐지 영역을 획득하는 역할은 이전 프레임과 현재 프레임의 픽셀값 변화를 이용하는 등의 기존의 움직임 영역 탐지 방법을 제한 없이 차용할 수 있다.First, the motion region detector 110 serves to acquire a motion detection region from an image acquired by the surveillance camera 200 according to an embodiment of the present invention. For the role of acquiring the motion detection region from the surveillance image, the existing motion region detection method such as using changes in pixel values of the previous frame and the current frame can be borrowed without limitation.

도 2의 실시예에서는 비록 움직임 영역 탐지부(110)가 배경 제거 서버(100) 내에 존재하는 것으로 도시되었지만, 본 발명의 다른 일 실시예에서는 움직임 영역 탐지부(110)가 다른 서버 혹은 장치, 혹은 감시 카메라(200) 내부에 포함될 수 있다.In the embodiment of FIG. 2 , although the motion region detection unit 110 is shown to exist in the background removal server 100 , in another embodiment of the present invention, the motion region detection unit 110 is installed in another server or device, or It may be included in the surveillance camera 200 .

구역 분할부(120)는 본 발명의 일 실시예에 따라 획득된 움직임 탐지 영역을 복수개의 구역으로 분할하는 역할을 수행한다. 구역 분할부(120)는 움직임 탐지 영역을 가로 혹은 세로로 분할할 수 있다.The zone divider 120 divides the motion detection area obtained according to an embodiment of the present invention into a plurality of zones. The zone divider 120 may divide the motion detection area horizontally or vertically.

도 3은 본 발명의 일 실시예에 따라 구역 분할된 움직임 탐지 영역을 예시하고 있다.3 illustrates a zoned motion detection area according to an embodiment of the present invention.

도 3의 (a)를 참조하면, 구역 분할부(120)는 움직임 탐지 영역(MD)을 가로 방향으로 4개의 구역(h_1, h_2, h_3, h_4)으로 분할하였다. 또한, 도 3의 (b)를 참조하면, 구역 분할부(120)는 움직임 탐지 영역(MD)을 세로 방향으로 4개의 구역(v_1, v_2, v_3, v_4)으로 분할하였다. 도 3의 (a) 및 (b)에서 볼 수 있는 바와 같이, 가로 구역 혹은 세로 구역은 움직임 탐지 영역(MD)이지만 실제 객체를 포함하지 않은 구역을 포함할 수 있다. 보다 상세히, 제1 가로 구역(h_1) 및 제4 세로 구역(v_4)은 움직임 탐지 영역(MD)에는 포함되지만 실질적인 움직임 객체를 포함하고 있지 않다.Referring to FIG. 3A , the region divider 120 divides the motion detection area MD into four regions h_1, h_2, h_3, and h_4 in the horizontal direction. Also, referring to (b) of FIG. 3 , the zone divider 120 divides the motion detection area MD into four zones v_1, v_2, v_3, and v_4 in the vertical direction. As can be seen from (a) and (b) of FIG. 3 , the horizontal or vertical area may include a motion detection area MD but not including an actual object. In more detail, the first horizontal section h_1 and the fourth vertical section v_4 are included in the motion detection area MD, but do not include an actual moving object.

에지값 산출부(130)는 본 발명의 일 실시예에 따라 에지값을 산출하고, 각 구역 별로 가로 평균 에지값과 세로 평균 에지값을 산출하는 역할을 수행한다. 본 발명의 일 실시예에서, 에지값 산출부(130)는 에지값을 산출하기 위해 에지 필터를 사용할 수 있다. 에지값에는 가로 에지값과 세로 에지값이 있으며, 가로 에지값은 세로 그라디언트(gradient)를 구한 값이고, 세로 에지값은 가로 그라디언트(gradient)를 구한 값이다.The edge value calculator 130 calculates an edge value according to an embodiment of the present invention and calculates a horizontal average edge value and a vertical average edge value for each zone. In an embodiment of the present invention, the edge value calculator 130 may use an edge filter to calculate an edge value. The edge value includes a horizontal edge value and a vertical edge value. A horizontal edge value is a value obtained by obtaining a vertical gradient, and a vertical edge value is a value obtained by obtaining a horizontal gradient.

도 4는 본 발명의 일 실시예에 따라 에지값을 산출하기 위해 사용할 수 있는 필터들이다.4 is a filter that can be used to calculate an edge value according to an embodiment of the present invention.

도 4를 참조하면, 에지값을 산출하기 위한 에지 필터로 소벨 필터(sobel filter) 및 프리윗 필터(Prewitt filter)가 예시되어 있다. 에지값 산출부(130)는 본 발명의 일 실시예에 따라 에지값을 산출하기 위해 도 4에 나타난 소벨 필터 혹은 프리윗 필터를 사용할 수 있다. 보다 상세히, 에지값 산출부(130)는 세로 에지값을 산출하기 위해 소벨 필터 혹은 프리윗 필터의 Gx 필터를 사용하고, 가로 에지값을 산출하기 위해 소벨 필터 혹은 프리윗 필터의 Gy 필터를 사용할 수 있다.Referring to FIG. 4 , a Sobel filter and a Prewitt filter are exemplified as edge filters for calculating an edge value. The edge value calculating unit 130 may use the Sobel filter or the Pre-Witt filter shown in FIG. 4 to calculate the edge value according to an embodiment of the present invention. In more detail, the edge value calculating unit 130 may use a Gx filter of a Sobel filter or a PreWitt filter to calculate a vertical edge value, and use a Gy filter of a Sobel filter or a PreWitt filter to calculate a horizontal edge value. have.

에지값 산출부(130)는 에지값을 산출한 후, 구역 별로 에지값의 평균을 산출할 수 있다. 에지값 산출부(130)가 산출한 구역 별 평균 에지값에 대하여, 가로 평균 에지값은 Mean(hor), 세로 평균 에지값은 Mean(ver)로 나타낼 수 있다.After calculating the edge value, the edge value calculator 130 may calculate an average of the edge values for each zone. With respect to the average edge value for each region calculated by the edge value calculator 130 , the horizontal average edge value may be expressed as Mean(hor) and the vertical average edge value may be expressed as Mean(ver).

에지 성분값 판단부(140)는 구역 별로 가로 평균 에지값과 세로 평균 에지값 중 큰 값을 에지 성분값으로 결정하는 역할을 한다. 에지 성분값 판단부(140)에 의해 결정되는 에지 성분값은 Max(Mean(hor), Mean(ver))로 나타낼 수 있다.The edge component value determining unit 140 serves to determine a larger value among a horizontal average edge value and a vertical average edge value for each zone as an edge component value. The edge component value determined by the edge component value determining unit 140 may be expressed as Max(Mean(hor), Mean(ver)).

도 5는 본 발명의 일 실시예에 따라 각 구역 별로 에지 성분값을 산출하는 예를 도시한 것이다.5 is a diagram illustrating an example of calculating an edge component value for each zone according to an embodiment of the present invention.

도 5의 (a)를 참조하면, 에지 성분값 판단부(140)는 움직임 탐지 영역(MD)의 가로 방향으로 생성된 구역들(h_1, h_2, h_3, h_4) 각각에 대하여 에지 성분값 Max(Mean(hor), Mean(ver))을 산출하는 것을 알 수 있다. 도 5의 (b)에서도 마찬가지로, 에지 성분값 판단부(140)는 움직임 탐지 영역(MD)의 세로 방향으로 생성된 구역들(v_1, v_2, v_3, v_4) 각각에 대하여 에지 성분값 Max(Mean(hor), Mean(ver))을 산출하는 것을 알 수 있다.Referring to (a) of FIG. 5 , the edge component value determining unit 140 determines the edge component value Max( It can be seen that Mean(hor), Mean(ver)) is calculated. Similarly to FIG. 5B , the edge component value determination unit 140 sets the edge component value Max(Mean) for each of the zones v_1, v_2, v_3, and v_4 generated in the vertical direction of the motion detection area MD. It can be seen that (hor), Mean(ver)) are calculated.

배경 제거부(160)는 에지 성분값이 기준치 이하인 구역을 배경 구역으로 판단하여 제거하는 역할을 수행한다. 에지 성분값 판단부(140)에 의해 판단되는 에지 성분값은 구역 별로 가로 평균 에지값과 세로 평균 에지값 중 큰 값을 취한 값이므로, 에지 성분값이 기준치 이하라는 것은 해당 구역의 에지값이 객체를 나타낼 정도로 크지 않다는 것을 의미한다. 따라서, 배경 제거부(160)는 에지 성분값이 기준치 이하인 경우 해당 구역을 배경으로 판단하여 제거할 수 있다. 이때, 기준치는 사용자에 의해 정해지는 값으로 해당 이미지의 특성에 따라 자유롭게 변경될 수 있다.The background removing unit 160 determines and removes a region having an edge component value equal to or less than a reference value as a background region. Since the edge component value determined by the edge component value determination unit 140 is a value obtained by taking a larger value among a horizontal average edge value and a vertical average edge value for each zone, the fact that the edge component value is less than or equal to the reference value means that the edge value of the corresponding zone is an object. It means that it is not large enough to indicate Accordingly, when the edge component value is less than or equal to the reference value, the background removing unit 160 may determine the corresponding area as the background and remove it. In this case, the reference value is a value determined by the user and can be freely changed according to the characteristics of the corresponding image.

즉, 배경 제거부(160)는 도 5의 (a)와 같은 예에서 가로 방향으로 생성된 구역들(h_1, h_2, h_3, h_4) 중 기준치 이하의 에지 성분값을 가지는 구역을 배경으로 판단하고 움직임 탐지 영역(MD)에서 제거할 수 있다. 마찬가지로, 배경 제거부(160)는 도 5의 (b)와 같은 예에서 세로 방향으로 생성된 구역들(v_1, v_2, v_3, v_4) 중 기준치 이하의 에지 성분값을 가지는 구역을 배경으로 판단하고 움직임 탐지 영역(MD)에서 제거할 수 있다. 예를 들어, 기준치가 50인 경우, 제1 가로 구역(h_1)의 에지 성분값이 45인 경우 배경 제거부(160)는 제1 가로 구역(h_1)을 배경으로 판단하고 움직임 탐지 영역(MD)에서 제거할 수 있다.That is, the background removing unit 160 determines, as a background, a region having an edge component value less than or equal to the reference value among the regions h_1, h_2, h_3, and h_4 generated in the horizontal direction in the example shown in FIG. It can be removed from the motion detection area (MD). Similarly, the background removing unit 160 determines a region having an edge component value less than or equal to the reference value among the regions v_1, v_2, v_3, and v_4 generated in the vertical direction in the example shown in FIG. 5(b) as the background, It can be removed from the motion detection area (MD). For example, when the reference value is 50 and the edge component value of the first horizontal region h_1 is 45, the background removing unit 160 determines the first horizontal region h_1 as the background and determines the motion detection area MD. can be removed from

본 발명의 일 실시예에 따르면, 배경 제거부(160)는 움직임 탐지 영역(MD)의 가장자리부터 판단하여 배경 구역을 제거하고, 가장자리 구역이 배경 구역이 아닌 경우에는 그 안쪽 구역은 배경 구역으로 제거하지 않을 수 있다. 보다 구체적으로, 도 5의 (a)의 예에서, 배경 제거부(160)는 제1 가로 구역(h_1)이 배경 구역인지를 판단한 후, 배경 구역인 경우에만 제2 가로 구역(h_2)의 에지 성분값이 기준치 이하일 때 배경 구역으로 판단한다. 혹은 제4 가로 구역(h_4)이 배경 구역인지를 판단한 후, 배경 구역인 경우에만 제3 가로 구역(h_3)의 에지 성분값이 기준치 이하일 때 배경 구역으로 판단한다. 이는 움직임 탐지 영역(MD)에서 중간 구역의 에지 성분값만 갑자기 낮아지는 경우는 촬상 환경 상의 오류 혹은 이미지 자체의 오류일 확률이 높으므로, 먼저 가장 자리 구역이 배경 구역인지를 판단한 후 배경 구역인 경우에만 중간 구역의 배경 영역 여부를 검사하기 위해서이다.According to an embodiment of the present invention, the background removing unit 160 removes the background area by determining from the edge of the motion detection area MD, and when the edge area is not the background area, the inner area is removed as the background area. may not More specifically, in the example of FIG. 5A , the background removing unit 160 determines whether the first horizontal region h_1 is a background region, and then, only in the case of the background region, the edge of the second horizontal region h_2 . When the component value is below the reference value, it is judged as a background area. Alternatively, after determining whether the fourth horizontal region h_4 is a background region, it is determined as a background region when the edge component value of the third horizontal region h_3 is equal to or less than a reference value only in the case of the background region. This is because when only the edge component value of the middle section suddenly decreases in the motion detection area (MD), it is highly likely to be an error in the imaging environment or an error in the image itself. Only to check whether the background area of the middle section.

표준 편차 산출부(150)는 본 발명의 일 실시예에 따라 구역 별로 픽셀값의 표준 편차를 산출하는 역할을 한다.The standard deviation calculator 150 serves to calculate the standard deviation of pixel values for each region according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따라 표준 편차 산출부(150)가 각 구역 별로 표준 편차를 산출하는 예를 나타낸 것이다.6 illustrates an example in which the standard deviation calculating unit 150 calculates the standard deviation for each zone according to an embodiment of the present invention.

도 6의 (a)를 참조하면, 움직임 탐지 영역(MD)을 가로 방향으로 4개의 구역으로 나누고, 각 구역의 픽셀 값들의 표준 편차를 Std(im)로 산출한 것을 알 수 있다. 또한, 도 6의 (b)를 참조하면, 움직임 탐지 영역(MD)을 세로 방향으로 4개의 구역으로 나누고, 각 구역의 표준 편차를 Std(im)으로 산출한 것을 알 수 있다. 표준 편차 산출부(150)가 산출한 각 구역의 표준 편차는 해당 구역에서 픽셀값이 얼마나 변동되었는지를 가늠하는 척도가 될 수 있다. 예를 들어, 제1 가로 구역(h_1)의 표준 편차가 제4 가로 구역(h_4)의 표준 편차보다 작다면, 제1 가로 구역(h_1)은 픽셀 값의 변화가 작고 따라서 배경 영역일 확률이 제4 가로 구역(h_4)의 경우보다 크다.Referring to FIG. 6A , it can be seen that the motion detection area MD is divided into four regions in the horizontal direction, and the standard deviation of pixel values of each region is calculated as Std(im). Also, referring to FIG. 6B , it can be seen that the motion detection area MD is divided into four zones in the vertical direction, and the standard deviation of each zone is calculated as Std(im). The standard deviation of each area calculated by the standard deviation calculator 150 may be a measure of how much the pixel value is changed in the corresponding area. For example, if the standard deviation of the first horizontal region h_1 is smaller than the standard deviation of the fourth horizontal region h_4, the first horizontal region h_1 has a small change in pixel value, and thus the probability of being a background region is second. 4 is larger than the case of the horizontal region (h_4).

따라서, 표준 편차 산출부(150)가 산출한 표준 편차 값은 배경 제거부(160)가 배경을 제거할 때 보조적인 판단 기준으로 사용될 수 잇다.Accordingly, the standard deviation value calculated by the standard deviation calculating unit 150 may be used as an auxiliary criterion when the background removing unit 160 removes the background.

배경 제거부(160)는 에지 성분값이 기준치 이하인 구역이더라도, 해당 구역의 표준 편차 값이 특정값 이하인 경우에만 해당 구역을 배경으로 판단하여 움직임 탐지 영역(MD)에서 제거할 수 있다. 예를 들어, 움직임 탐지 영역(MD)의 제1 가로 구역(h_1)의 에지 성분값이 기준치 이하인 경우에도 표준 편차 값이 특정값 이상이라면 제1 가로 구역(h_1)을 배경으로 판단하지 않을 수 있다.Even in a region having an edge component value equal to or less than the reference value, the background removing unit 160 may determine the region as a background and remove it from the motion detection region MD only when the standard deviation value of the region is equal to or less than a specific value. For example, even when the edge component value of the first horizontal region h_1 of the motion detection area MD is less than or equal to the reference value, if the standard deviation value is greater than or equal to a specific value, the first horizontal region h_1 may not be determined as the background. .

표준 편차 산출부(150)가 산출한 표준 편차를 고려하여 배경을 제거하는 경우에도, 마찬가지로 가장자리 구역부터 판단하여 가장자리 구역이 배경인 경우에만 내측의 구역을 배경으로 판단할 수 잇다.Even when the background is removed in consideration of the standard deviation calculated by the standard deviation calculator 150 , the inner region may be determined as the background only when the edge region is the background by judging from the edge region.

도 7은 본 발명의 일 실시예에 따른 배경 제거 방법의 실행 순서를 나타낸 도면이다.7 is a diagram illustrating an execution sequence of a method for removing a background according to an embodiment of the present invention.

먼저, 움직임 영역 탐지부(110)가 움직임 영역을 획득한다(S1).First, the motion region detector 110 acquires a motion region (S1).

다음으로, 구역 분할부(120)가 움직임 영역을 가로 또는 세로 방향으로 n개의 구역으로 분할한다(S2).Next, the zone dividing unit 120 divides the movement region into n zones in the horizontal or vertical direction ( S2 ).

다음으로, 에지값 산출부(130)는 n개 구역 별로 가로 평균 에지값과 세로 평균 에지값을 산출한다(S3).Next, the edge value calculating unit 130 calculates a horizontal average edge value and a vertical average edge value for each n areas ( S3 ).

다음으로, 에지 성분값 판단부(140)는 산출된 가로 평균 에지값과 세로 평균 에지값 중 큰 값을 해당 구역의 에지 성분값으로 결정한다(S4).Next, the edge component value determining unit 140 determines the greater of the calculated horizontal average edge value and the vertical average edge value as the edge component value of the corresponding region ( S4 ).

다음으로, 배경 제거부(160)는 i값에 1을 할당하고(S5), 제i 구역의 산출된 에지 성분값이 기준치 이하인 구역인지 판단(S6)한 후, 기준치 이하가 아닌 경우 i에 i+1을 할당하고 S6 단계로 돌아간다.Next, the background removing unit 160 assigns 1 to the i value (S5), determines whether the calculated edge component value of the i-th region is less than or equal to the reference value (S6), and then determines whether the value of the i-th region is less than or equal to the reference value (S6). Assign +1 and go back to step S6.

에지 성분값이 기준치 이하인 경우, 배경 제거부(160)는 표준 편차 산출부(150)가 산출한 제i 구역의 표준 편차가 특정값 이하인지를 판단하여(S7), 특정값 이하가 아니라면 i에 i+1을 할당하고 S6 단계로 돌아간다.When the edge component value is less than or equal to the reference value, the background removing unit 160 determines whether the standard deviation of the i-th area calculated by the standard deviation calculating unit 150 is equal to or less than a specific value (S7), Allocate i+1 and return to step S6.

표준 편차가 특정값 이하인 경우, 제i 구역을 움직임 탐지 영역에서 제거한다(S8).When the standard deviation is less than or equal to a specific value, the i-th zone is removed from the motion detection area (S8).

마지막으로, i에 할당된 값이 n인 경우 절차를 종료하고(S9), i값이 n이 아닌 경우 i에 i+1을 할당하고 S6 단계로 돌아간다(S9)Finally, if the value assigned to i is n, the procedure ends (S9). If the value of i is not n, i+1 is assigned to i and the process returns to step S6 (S9).

이상 설명된 본 발명에 따른 실시예는 다양한 컴퓨터 구성요소를 통하여 실행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등과 같은, 프로그램 명령어를 저장하고 실행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의하여 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용하여 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위하여 하나 이상의 소프트웨어 모듈로 변경될 수 있으며, 그 역도 마찬가지이다.The embodiments according to the present invention described above may be implemented in the form of program instructions that can be executed through various computer components and recorded in a computer-readable recording medium. The computer-readable recording medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the computer-readable recording medium may be specially designed and configured for the present invention, or may be known and available to those skilled in the art of computer software. Examples of computer-readable recording media include hard disks, magnetic media such as floppy disks and magnetic tapes, optical recording media such as CD-ROMs and DVDs, and magneto-optical media such as floppy disks. medium), and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. A hardware device may be converted into one or more software modules to perform processing in accordance with the present invention, and vice versa.

본 발명에서 설명하는 특정 실행들은 일 실시 예들로서, 어떠한 방법으로도 본 발명의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다. 또한, 도면에 도시된 구성 요소들 간의 선들의 연결 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것으로서, 실제 장치에서는 대체 가능하거나 추가의 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들로서 나타내어질 수 있다. 또한, “필수적인”, “중요하게” 등과 같이 구체적인 언급이 없다면 본 발명의 적용을 위하여 반드시 필요한 구성 요소가 아닐 수 있다.The specific implementations described in the present invention are only examples, and do not limit the scope of the present invention in any way. For brevity of the specification, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted. In addition, the connection or connection members of the lines between the components shown in the drawings exemplarily represent functional connections and/or physical or circuit connections, and in an actual device, various functional connections, physical connections that are replaceable or additional may be referred to as connections, or circuit connections. In addition, unless there is a specific reference such as “essential” or “importantly”, it may not be a necessary component for the application of the present invention.

본 발명의 명세서(특히 특허청구범위에서)에서 “상기”의 용어 및 이와 유사한 지시 용어의 사용은 단수 및 복수 모두에 해당하는 것일 수 있다. 또한, 본 발명에서 범위(range)를 기재한 경우 상기 범위에 속하는 개별적인 값을 적용한 발명을 포함하는 것으로서(이에 반하는 기재가 없다면), 발명의 상세한 설명에 상기 범위를 구성하는 각 개별적인 값을 기재한 것과 같다. 마지막으로, 본 발명에 따른 방법을 구성하는 단계들에 대하여 명백하게 순서를 기재하거나 반하는 기재가 없다면, 상기 단계들은 적당한 순서로 행해질 수 있다. 반드시 상기 단계들의 기재 순서에 따라 본 발명이 한정되는 것은 아니다. 본 발명에서 모든 예들 또는 예시적인 용어(예들 들어, 등등)의 사용은 단순히 본 발명을 상세히 설명하기 위한 것으로서 특허청구범위에 의해 한정되지 않는 이상 상기 예들 또는 예시적인 용어로 인해 본 발명의 범위가 한정되는 것은 아니다. 또한, 당업자는 다양한 수정, 조합 및 변경이 부가된 특허청구범위 또는 그 균등물의 범주 내에서 설계 조건 및 팩터에 따라 구성될 수 있음을 알 수 있다.In the specification of the present invention (especially in the claims), the use of the term “above” and similar referential terms may be used in both the singular and the plural. In addition, when a range is described in the present invention, each individual value constituting the range is described in the detailed description of the invention as including the invention to which individual values belonging to the range are applied (unless there is a description to the contrary). same as Finally, the steps constituting the method according to the present invention may be performed in an appropriate order unless the order is explicitly stated or there is no description to the contrary. The present invention is not necessarily limited to the order in which the steps are described. The use of all examples or exemplary terms (eg, etc.) in the present invention is merely for the purpose of describing the present invention in detail, and unless defined by the claims, the scope of the present invention is limited by the examples or exemplary terminology. it's not going to be In addition, those skilled in the art will recognize that various modifications, combinations, and changes may be made in accordance with design conditions and factors within the scope of the appended claims or their equivalents.

100: 배경 제거 서버 110: 움직임 영역 탐지부
120: 구역 분할부 130: 에지값 산출부
140: 에지 성분값 판단부 150: 표준 편차 산출부
160: 배경 제거부 200: 감시 카메라
300: 네트워크
100: background removal server 110: motion area detection unit
120: zone division unit 130: edge value calculation unit
140: edge component value determination unit 150: standard deviation calculation unit
160: background removal unit 200: surveillance camera
300: network

Claims (6)

영상에서 움직임 영역을 획득하는 움직임 영역 탐지부;
상기 움직임 영역을 복수의 구역들로 분할하는 구역 분할부;
상기 복수의 구역들 각각에서, 가로 평균 에지값과 세로 평균 에지값을 산출하는 에지값 산출부;
상기 복수의 구역들 각각에서, 가로 평균 에지값과 세로 평균 에지값 중 큰 값을 각 구역의 에지 성분값으로 결정하는 에지 성분값 판단부; 및
상기 복수의 구역들 중 에지 성분값이 기준치 이하인 구역을 배경 구역으로 판단하여 제거하는 배경 제거부;
를 포함하고,
상기 배경 제거부는 상기 복수의 구역들 중 가장 자리의 구역이 제거되었을 때만 내측의 구역들이 배경 구역인지 여부를 판단하는, 배경 제거 시스템.
a motion region detector for acquiring a motion region from an image;
a region dividing unit dividing the moving region into a plurality of regions;
an edge value calculator for calculating a horizontal average edge value and a vertical average edge value in each of the plurality of regions;
an edge component value determination unit that determines, in each of the plurality of zones, a larger value among a horizontal average edge value and a vertical average edge value as an edge component value of each zone; and
a background removing unit for determining and removing a region having an edge component value less than or equal to a reference value among the plurality of regions as a background region;
including,
and the background removing unit determines whether inner regions are background regions only when an edge region among the plurality of regions is removed.
삭제delete 삭제delete 제1항에 있어서,
상기 복수의 구역들 각각의 픽셀값의 표준 편차를 산출하는 표준 편차 산출부;를 추가적으로 포함하고,
상기 배경 제거부는 상기 표준 편차 산출부가 산출한 표준 편차가 특정 값 이하인 구역을 배경 구역으로 판단하는, 배경 제거 시스템.
According to claim 1,
It additionally includes; a standard deviation calculator for calculating the standard deviation of the pixel values of each of the plurality of regions;
wherein the background removing unit determines a region in which the standard deviation calculated by the standard deviation calculating unit is equal to or less than a specific value as the background region.
삭제delete 삭제delete
KR1020140006735A 2014-01-20 2014-01-20 Method of and system for eliminating background of image KR102315523B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140006735A KR102315523B1 (en) 2014-01-20 2014-01-20 Method of and system for eliminating background of image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140006735A KR102315523B1 (en) 2014-01-20 2014-01-20 Method of and system for eliminating background of image

Publications (2)

Publication Number Publication Date
KR20150086722A KR20150086722A (en) 2015-07-29
KR102315523B1 true KR102315523B1 (en) 2021-10-21

Family

ID=53876216

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140006735A KR102315523B1 (en) 2014-01-20 2014-01-20 Method of and system for eliminating background of image

Country Status (1)

Country Link
KR (1) KR102315523B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002096702A (en) * 2000-09-22 2002-04-02 Nissan Motor Co Ltd Vehicle-to-vehicle distance estimation device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3793258B2 (en) * 1995-10-03 2006-07-05 日本放送協会 Moving image processing apparatus and method
JP3114668B2 (en) * 1997-10-03 2000-12-04 日本電気株式会社 Object detection / background removal method, apparatus, and recording medium recording program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002096702A (en) * 2000-09-22 2002-04-02 Nissan Motor Co Ltd Vehicle-to-vehicle distance estimation device

Also Published As

Publication number Publication date
KR20150086722A (en) 2015-07-29

Similar Documents

Publication Publication Date Title
CN104103030B (en) Image analysis method, camera apparatus, control apparatus and control method
KR102335045B1 (en) Method for detecting human-object using depth camera and device
JP7078139B2 (en) Video stabilization methods and equipment, as well as non-temporary computer-readable media
US20200175692A9 (en) Low-complexity motion detection based on image edges
EP3379509A1 (en) Apparatus, method, and image processing device for smoke detection
JP6270433B2 (en) Information processing apparatus, information processing method, and information processing system
CN104954747B (en) Video monitoring method and device
JP6233624B2 (en) Information processing system, information processing method, and program
US20170351924A1 (en) Crowd Monitoring System
US10853949B2 (en) Image processing device
CN111583118B (en) Image stitching method and device, storage medium and electronic equipment
JP2014006586A (en) Information processor, and control method and computer program thereof
US20160165191A1 (en) Time-of-approach rule
US20160134810A1 (en) Image capturing apparatus, method of controlling the same, monitoring camera system, and storage medium
KR101454644B1 (en) Loitering Detection Using a Pedestrian Tracker
Rao et al. Real-time speed estimation of vehicles from uncalibrated view-independent traffic cameras
KR20160044757A (en) Method and Apparatus for Analyzing Traffic Situation
CN106612385A (en) Video detection method and video detection device
KR102315523B1 (en) Method of and system for eliminating background of image
JP2016207185A (en) Movement determination device, movement determination method, and movement determination program
JPWO2018179119A1 (en) Video analysis device, video analysis method, and program
Sincan et al. Moving object detection by a mounted moving camera
Sofwan et al. Implementation of vehicle traffic analysis using background subtraction in the Internet of Things (IoT) architecture
JP2023036054A (en) Target counting method, apparatus, device, and storage medium
US20130195317A1 (en) Apparatus for measuring traffic using image analysis and method thereof

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)