KR101496407B1 - Image process apparatus and method for closed circuit television security system - Google Patents

Image process apparatus and method for closed circuit television security system Download PDF

Info

Publication number
KR101496407B1
KR101496407B1 KR20130020836A KR20130020836A KR101496407B1 KR 101496407 B1 KR101496407 B1 KR 101496407B1 KR 20130020836 A KR20130020836 A KR 20130020836A KR 20130020836 A KR20130020836 A KR 20130020836A KR 101496407 B1 KR101496407 B1 KR 101496407B1
Authority
KR
South Korea
Prior art keywords
image
coordinates
center coordinates
center
image processing
Prior art date
Application number
KR20130020836A
Other languages
Korean (ko)
Other versions
KR20140106796A (en
Inventor
김성수
Original Assignee
충북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 충북대학교 산학협력단 filed Critical 충북대학교 산학협력단
Priority to KR20130020836A priority Critical patent/KR101496407B1/en
Publication of KR20140106796A publication Critical patent/KR20140106796A/en
Application granted granted Critical
Publication of KR101496407B1 publication Critical patent/KR101496407B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Abstract

본 발명은 보안용 CCTV 영상 처리 장치 및 영상 처리 방법에 관한 것으로서, 영상처리된 흑백영상으로부터 물체를 흰색으로, 배경을 검정색으로 이진화하여 물체와 배경을 구분하고, 이진화된 영상으로부터 각 픽셀에서의 물체의 유효성을 판별하고, 물체의 유효성 판별이 완료된 물체의 중심좌표를 결정하고, 물체의 중심좌표를 기준으로 하여 움직임영역을 생성하고, 물체의 중심좌표를 추적하고, 물체의 중심좌표가 움직임영역을 벗어날 경우에 해당 영상을 저장한다. 본 발명에 따르면, 움직임영역을 기준으로 하여 물체의 이동정도를 정확하게 판단함으로써, 보안에 필요로 하는 유효한 영상만을 저장할 수 있으며, 이동하는 물체의 주변에 형성되는 움직임영역만을 영상 처리하도록 함으로써, 영상 처리 속도를 향상시킬 수 있다.The present invention relates to a security CCTV image processing apparatus and an image processing method, in which an object and a background are separated by binarizing an object from a monochrome image subjected to image processing to white and a background to black, Determining the center coordinates of the object whose effectiveness has been determined, generating a motion region with reference to the center coordinates of the object, tracking the center coordinates of the object, and determining the center coordinates of the object as the movement region And stores the image in case of escaping. According to the present invention, only a valid image required for security can be stored by accurately determining the degree of movement of an object with reference to the movement region, and by performing image processing only on a movement region formed around the moving object, Speed can be improved.

Description

보안용 CCTV 영상 처리 장치 및 영상 처리 방법{IMAGE PROCESS APPARATUS AND METHOD FOR CLOSED CIRCUIT TELEVISION SECURITY SYSTEM}TECHNICAL FIELD [0001] The present invention relates to a security CCTV image processing apparatus and an image processing method,

본 발명은 영상 처리 장치 및 영상 처리 방법에 관한 것으로, 더욱 상세하게는 영상으로부터 이동하는 물체를 판별하여 해당 영상을 저장하는 보안용 CCTV 영상 처리 장치 및 영상 처리 방법에 관한 것이다.
The present invention relates to an image processing apparatus and an image processing method, and more particularly, to a security CCTV image processing apparatus and image processing method for identifying an object moving from an image and storing the image.

최근 다양한 분야에서 영상 처리 기술이 응용되고 있으며, 그 대표적인 예가 보안 시스템에 적용되는 것일 것이다.Recently, image processing technology has been applied in various fields, and a representative example thereof is applied to a security system.

즉, 보안 시스템의 카메라를 통해 수신되는 방대한 데이터를 실시간 처리 및 저장하기 위한 다양한 영상 처리 기술들이 제안되고 있다.That is, various image processing techniques for real-time processing and storing vast amount of data received through a camera of a security system have been proposed.

그러면, 여기서 기존의 영상 처리 기술에 대해 설명하기로 한다.
Hereinafter, the conventional image processing technique will be described.

도 1은 기존의 영상 처리 기술의 흐름도이다.1 is a flowchart of a conventional image processing technique.

도 1을 참조하면, 카메라로부터 전달된 영상을 수신하면(S1), 현재 영상이 입력될 때마다 기준 영상과의 비교가 이루어지게 되며(S2), 현재 영상과 기준 영상 간의 비교 결과(S3), 현재 영상과 기준 영상이 동일하다면 단계 S1으로 리턴하고, 현재 영상과 기준 영상이 동일하지 않다면 현재 영상을 저장소에 저장한다(S4).Referring to FIG. 1, when an image transmitted from a camera is received (S 1), a comparison with a reference image is performed every time a current image is input (S 2) If the current image and the reference image are the same, the process returns to step S1. If the current image and the reference image are not the same, the current image is stored in the storage (S4).

즉, 카메라로부터 영상이 입력될 때마다 모든 프레임을 영상 처리하지 않고, 상황 변화가 발생한 현재 영상에 대해서만 영상 처리를 수행하도록 하여, 데이터 처리량 및 저장량을 줄일 수 있도록 하고 있다. 이러한 영상 처리 기술은, 특히 보안을 필요로 하는 장소(영상 변화가 적은 장소)에 유용하게 이용될 수 있을 것이다.
That is, every frame is not subjected to image processing every time an image is input from the camera, and image processing is performed only on the current image in which a change in the situation has occurred, thereby reducing data throughput and storage amount. Such an image processing technique may be useful particularly in a place requiring security (a place where the image change is small).

그런데, 기존에는 기준 영상과 현재 영상의 비교 방법으로서, 기준 영상과 현재 영상을 각 픽셀의 값을 일대일로 비교하는 pixel-to-pixel 비교 방법을 사용함으로써, 예를 들어 27만 픽셀을 감안하면, 1/30 초 동안에 27만개 이상의 데이터를 비교해야 하므로 고성능의 영상 처리 장치를 필요로 하는 단점이 있다. 이에 영상 처리 장치에 따라 실시간 영상 처리 속도에 한계가 있을 수 있다.Conventionally, as a method of comparing a reference image and a current image, if a pixel-to-pixel comparison method of comparing the reference image and the current image one by one with each pixel value is used, for example, It requires a high-performance image processing apparatus because it needs to compare 270,000 or more data in 1/30 second. Therefore, real-time image processing speed may be limited depending on the image processing apparatus.

한편, 실질적으로 상황 변화가 발생하지 않았음에도 불구하고, 주변 밝기 등의 변화에 반응하여 현재 영상이 변화된 것으로 판단(오인작동)함으로써, 불필요한 영상이 저장되는 단점이 있다. 즉, 정확한 상황 변화를 인지하는 영상 처리 기술이 아직은 미흡한 실정이다.On the other hand, there is a disadvantage that an unnecessary image is stored by judging that the current image has been changed (misoperation) in response to a change in ambient brightness and the like even though the situation has not substantially changed. In other words, image processing technology that recognizes the exact situation change is not enough yet.

이에, 보안 시스템의 카메라를 통해 수신되는 방대한 데이터를 최대한으로 줄이기 위해서는, 보안에 필요로 하는 유효한 영상만을 저장하는 새로운 기법의 영상 처리 기술이 필요하다 할 것이다.
Therefore, in order to reduce the vast amount of data received through the camera of the security system, a new technique of image processing technology for storing only valid images required for security will be needed.

대한민국 공개특허공보 제10-2011-000037485호(공개일 2011.04.13.)Korean Patent Laid-Open Publication No. 10-2011-000037485 (published on April 23, 2011)

따라서, 본 발명은 상기한 종래 기술의 문제점을 해결하기 위해 이루어진 것으로서, 본 발명의 목적은 보안 시스템의 카메라를 통해 수신되는 방대한 데이터를 최대한으로 줄이기 위해, 물체를 식별한 후, 해당 물체의 주변에 움직임영역을 설정하여, 움직임영역을 벗어난 경우에만 영상을 저장하도록 하는 보안용 CCTV 영상 처리 장치 및 영상 처리 방법을 제공하는데 있다.
SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above-mentioned problems of the prior art, and it is an object of the present invention to provide a security system, which is capable of minimizing a large amount of data received through a camera of a security system, The present invention also provides a security CCTV image processing apparatus and an image processing method for setting a moving area and storing an image only when the moving area is out of the moving area.

상기와 같은 목적을 달성하기 위한 본 발명의 보안용 CCTV 영상 처리 장치는, 카메라로부터 전달된 컬러영상을 흑백영상으로 변환하여 물체와 배경을 판별하는 물체판별부; 픽셀에서의 상기 물체의 유효성을 판별하는 유효성 판별부; 상기 물체의 중심좌표를 생성하는 중심좌표 결정부; 및 상기 물체의 중심좌표가 움직임영역을 벗어나는지를 판단하여 영상저장 여부를 결정하는 물체움직임 판별부를 포함하는 것을 특징으로 한다.According to another aspect of the present invention, there is provided a security CCTV image processing apparatus comprising: an object discrimination unit for converting a color image transmitted from a camera into a monochrome image to discriminate between an object and a background; A validity determining unit for determining the validity of the object in the pixel; A center coordinate determination unit for generating center coordinates of the object; And an object motion determining unit determining whether to store the image by determining whether the center coordinates of the object are out of the movement area.

이 때, 상기 물체판별부는, 컬러영상을 흑백영상을 변환하는 흑백영상 변환부와, 상기 물체를 흰색으로, 상기 배경을 검정색으로 정의하여 이진화시키는 이진화부를 포함하고, 상기 물체움직임 판별부는, 상기 물체의 중심좌표를 중심으로 한 상기 움직임영역을 생성하는 움직임영역 생성부와, 상기 물체의 중심좌표를 추적하는 중심좌표 추적부와, 상기 물체의 중심좌표가 움직임영역 내부에 존재하는지 여부를 판단하는 움직임 판단부를 포함한다.
In this case, the object determining unit may include a monochrome image converting unit for converting a monochrome image into a color image, and a binarizing unit for binarizing the object by defining white as the background and black as the background, A center coordinate tracking unit for tracking the center coordinates of the object, a motion determination unit for determining whether the center coordinates of the object exist inside the movement area, And a judgment unit.

한편, 본 발명의 보안용 CCTV 영상 처리 방법은, 영상처리된 흑백영상으로부터 물체를 흰색으로, 배경을 검정색으로 이진화하여 물체와 배경을 구분하는 단계; 상기 이진화된 영상으로부터 각 픽셀에서의 상기 물체의 유효성을 판별하는 단계; 상기 물체의 유효성 판별이 완료된 물체의 중심좌표를 결정하는 단계; 상기 물체의 중심좌표를 기준으로 하여 움직임영역을 생성하는 단계; 상기 물체의 중심좌표를 추적하는 단계; 및 상기 물체의 중심좌표가 움직임영역을 벗어날 경우에 해당 영상을 저장하는 단계를 포함하는 것을 특징으로 한다.
Meanwhile, the security CCTV image processing method of the present invention includes the steps of: binarizing an object from a monochrome image subjected to image processing to white and a background to black to divide an object and a background; Determining validity of the object at each pixel from the binarized image; Determining center coordinates of an object whose validity of the object has been determined; Generating a motion region based on the center coordinates of the object; Tracking the center coordinates of the object; And storing the image when the center coordinates of the object are out of the movement area.

상술한 바와 같이, 본 발명에 의한 보안용 CCTV 영상 처리 장치 및 영상 처리 방법에 따르면, 움직임영역을 설정하여 물체의 이동여부를 정확하게 판단할 수 있으므로 보안에 필요로 하는 유효한 영상만을 저장할 수 있다. 이에 저장량을 줄일 수 있을 것이다.As described above, according to the security CCTV image processing apparatus and image processing method of the present invention, it is possible to accurately determine whether an object is moved by setting a movement region, so that only valid images required for security can be stored. Therefore, the amount of storage can be reduced.

또한 본 발명에 따르면, 이동하는 물체의 주변에 형성되는 움직임영역만을 영상 처리하도록 함으로써, 영상 처리 속도를 향상시킬 수 있다.Further, according to the present invention, image processing speed can be improved by performing image processing only on a moving region formed around a moving object.

그리고 본 발명에 따르면, 보안에 필요로 하는 영상만을 저장할 수 있으므로 효율적인 보안 시스템을 구축할 수 있을 것이다.
According to the present invention, only an image required for security can be stored, and thus an efficient security system can be constructed.

도 1은 기존의 영상 처리 기술의 흐름도이다.
도 2는 본 발명의 일실시예에 의한 보안용 CCTV 영상 처리 장치의 제어회로블록도이다.
도 3은 본 발명의 일실시예에 의한 보안용 CCTV 영상 처리 방법의 흐름도이다.
도 4는 저장된 현재영상 데이터 폴더를 나타낸 도면이다.
도 5는 시간 지연을 시키지 않았을 때 영상 업로드가 실패한 예이다.
도 6은 불완전하게 업로드 되는 이미지를 나타낸 도면이다.
도 7은 완전하게 업로드 된 이미지를 나타낸 도면이다.
도 8은 밝기민감도에 따른 차영상의 비교표이다.
도 9는 잘못된 인덱스의 접근 예를 나타낸 도면이다.
도 10은 기준 영상과의 차영상에서 잡음을 제거한 결과를 나타낸 도면이다.
도 11은 영상의 좌표값 표현 방법을 나타낸 개념도이다.
도 12는 좌상단, 우상단 중심좌표 계산 실험 결과를 나타낸 도면이다.
도 13은 좌하단, 우하단 중심좌표 계산 실험 결과를 나타낸 도면이다.
도 14는 물체 중심좌표와 움직임영역이 표시된 도면이다.
도 15는 움직임영역 안과 밖에서의 거리 계산 및 침입자 탐지를 판단하는 도면이다.
도 16은 홈페이지의 메인 페이지를 나타낸 도면이다.
도 17은 센서 정보 출력 페이지를 나타낸 도면이다.
도 18은 홈(Home) 제어 페이지를 나타낸 도면이다.
도 19는 캡쳐 사진 출력 페이지를 나타낸 도면이다.
도 20은 어플 실행 시 첫화면을 나타낸 도면이다.
도 21은 홈페이지 첫화면을 나타낸 도면이다.
도 22는 센서 정보 확인 페이지를 나타낸 도면이다.
도 23은 홈 제어 페이지를 나타낸 도면이다.
도 24는 클릭시점의 촬영 페이지를 나타낸 도면이다.
1 is a flowchart of a conventional image processing technique.
2 is a block diagram of a control circuit of a security CCTV image processing apparatus according to an embodiment of the present invention.
3 is a flowchart illustrating a security CCTV image processing method according to an exemplary embodiment of the present invention.
4 is a view showing a stored current image data folder.
5 shows an example in which the image upload fails when the time delay is not set.
Figure 6 is an illustration of an image that is incompletely uploaded.
7 is a diagram showing a completely uploaded image.
8 is a comparison chart of difference images according to brightness sensitivity.
9 is a diagram showing an example of an access to an erroneous index.
10 is a diagram showing a result of removing noise from a difference image with a reference image.
11 is a conceptual diagram showing a method of expressing coordinate values of an image.
12 is a graph showing the result of calculation of coordinates of upper left and upper right coordinates.
FIG. 13 is a diagram showing the result of calculation of the coordinates of the lower left and right lower center coordinates.
14 is a diagram showing the object center coordinates and the movement area.
Fig. 15 is a diagram for judging the distance calculation in the movement area and the intruder detection.
16 is a view showing the main page of the homepage.
17 is a diagram showing a sensor information output page.
18 is a diagram showing a home control page.
19 is a diagram showing a captured picture output page.
20 is a diagram showing a first screen when an application is executed.
21 is a view showing the first screen of the homepage.
22 is a diagram showing a sensor information confirmation page.
23 is a diagram showing a home control page.
24 is a view showing a photographing page at the time of the click.

이하, 본 발명의 보안용 CCTV 영상 처리 장치 및 영상 처리 방법에 대하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.
Hereinafter, a security CCTV image processing apparatus and an image processing method according to the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 일실시예에 의한 보안용 CCTV 영상 처리 장치의 제어회로블록도이다.2 is a block diagram of a control circuit of a security CCTV image processing apparatus according to an embodiment of the present invention.

도 2를 참조하면, 카메라(미도시)로부터 전달된 컬러(RGB)영상을 흑백영상으로 변환하여 물체와 배경을 판별하는 물체판별부(1)와, 픽셀에서의 물체의 유효성을 판별하는 유효성 판별부(2)와, 물체의 중심좌표를 생성하는 중심좌표 결정부(3)와, 물체의 중심좌표가 움직임영역을 벗어나는지를 판단하여 영상저장 여부를 결정하는 물체움직임 판별부(4)를 포함한다.
Referring to FIG. 2, an object discriminating unit 1 for discriminating between an object and a background by converting a color (RGB) image transmitted from a camera (not shown) into a monochrome image, a validity discriminating unit A center coordinate determination unit 3 for generating center coordinates of the object, and an object motion determination unit 4 for determining whether the center coordinates of the object deviate from the movement region and storing the image .

물체판별부(1)는, 컬러영상을 흑백영상을 변환하는 흑백영상 변환부(11)와, 물체를 흰색으로, 배경을 검정색으로 정의하여 이진화시키는 이진화부(12)를 포함한다.
The object discriminating section 1 includes a monochrome image converting section 11 for converting a monochrome image into a color image, and a binarizing section 12 for binarizing the object by defining the object as white and the background as black.

물체움직임 판별부(4)는, 물체의 중심좌표를 중심으로 한 움직임영역을 생성하는 움직임영역 생성부(41)와, 물체의 중심좌표를 추적하는 중심좌표 추적부(42)와, 물체의 중심좌표가 움직임영역 내부에 존재하는지 여부를 판단하는 움직임 판단부(43)를 포함한다.The object movement determining unit 4 includes a movement area generating unit 41 for generating a movement area around the center coordinates of the object, a center coordinate tracking unit 42 for tracking the center coordinates of the object, And a motion determiner 43 for determining whether or not coordinates exist in the movement area.

여기서, 움직임영역은 물체의 중심좌표를 중심으로 한 원(Circle)으로 정의하는 것이 바람직하다.
Here, the movement region is preferably defined as a circle centered on the center of the object.

도 3은 본 발명의 일실시예에 의한 보안용 CCTV 영상 처리 방법의 흐름도이다.3 is a flowchart illustrating a security CCTV image processing method according to an exemplary embodiment of the present invention.

도 3을 참조하면, 카메라로부터 영상이 전달되면(S11), 물체판별부(1)의 흑백영상 변환부(11)는 컬러(RGB)영상을 흑백영상으로 변환하고(S12), 이어서 물체판별부(1)의 이진화부(12)는 흑백영상으로부터 물체를 흰색으로, 배경을 검정색으로 이진화하여 물체와 배경을 구분한다(S13).Referring to FIG. 3, when an image is transmitted from the camera (S11), the monochrome image converting unit 11 of the object determining unit 1 converts the color (RGB) image into a monochrome image (S12) The binarization unit 12 of the binarization unit 1 binarizes an object from a monochrome image to white and a background to black to distinguish the object from the background (S13).

이어서, 유효성 판별부(2)는 이진화된 영상으로부터 각 픽셀에서의 물체의 유효성을 판별한다(S14). 즉, 전체 픽셀을 탐색하면서 흰색 픽셀이 탐지되면 흰색 픽셀의 주변 8개 픽셀의 데이터를 조사하여 흰색으로 표현되는 픽셀이 예를 들어 5개 이상이면 가운데 픽셀은 유효한 픽셀로 판정하고, 그렇지 않으면 잡음으로 판정하여 제거한다. 잡음은 검정색으로 처리한다.Then, the validity determination unit 2 determines the validity of the object in each pixel from the binarized image (S14). That is, if a white pixel is detected while searching all the pixels, the data of eight surrounding pixels of the white pixel are examined, and if the number of pixels represented by white is five or more, the middle pixel is determined to be a valid pixel, It is determined and removed. The noise is processed in black.

이어서, 중심좌표 결정부(3)에서는 물체의 유효성 판별이 완료된 물체의 중심좌표를 결정한다(S15).Subsequently, the center coordinate determination unit 3 determines the center coordinates of the object whose effectiveness has been determined (S15).

이어서, 물체움직임 판별부(4)의 움직임영역 생성부(41)에서는 물체의 중심좌표를 중심으로 한 움직임영역을 생성한다(S16). 움직임영역이 생성되면, 바람직하게는 영상 처리 속도를 향상시키기 위해 움직임영역에 대한 영상 처리만을 수행할 수도 있을 것이다.Subsequently, the motion-area generating unit 41 of the object-motion determining unit 4 generates a motion region around the center coordinates of the object (S16). When the motion region is generated, it is preferable to perform only the image processing for the motion region in order to improve the image processing speed.

이후, 물체움직임 판별부(4)의 중심좌표 추적부(42)는 물체의 중심좌표를 추적하고(S17), 이에 물체움직임 판별부(4)의 움직임 판단부(43)는 물체의 중심좌표가 움직임영역을 벗어났는지를 판단하여(S18), 물체의 중심좌표가 움직임영역을 벗어났다고 판단할 경우에는 해당 영상을 저장한다(S19). 한편, 물체의 중심좌표가 움직임영역을 벗어나지 않았다고 판단할 경우에는 배경으로 간주한다(S20).
Thereafter, the center coordinate tracking unit 42 of the object motion determination unit 4 tracks the center coordinates of the object (S17), and the motion determination unit 43 of the object motion determination unit 4 determines that the center coordinates of the object are If it is determined that the center coordinates of the object are out of the movement area, the image is stored (S19). On the other hand, when it is determined that the center coordinates of the object do not deviate from the movement area, it is regarded as the background (S20).

그러면, 여기서 상기와 같이 구성된 보안용 CCTV 영상 처리 장치 및 방법의 구체적인 실시예를 설명하기로 한다.
Hereinafter, a specific embodiment of the security CCTV image processing apparatus and method configured as described above will be described.

본 발명의 보안용 CCTV 영상 처리 방법이 실행되는 영상프로그램은 크게 2가지 기능이 있다. 첫 번째 기능은 카메라로부터 입력되는 영상을 확인 할 수 있는 '현재 영상 보기'이고, 두 번째 기능은 '침입자 확인'이다.
The video program in which the security CCTV image processing method of the present invention is executed has two functions. The first function is 'View Current Image' to check the image input from the camera, and the second function is 'Check for intruders'.

먼저 첫 번째 기능인 '현재 영상 보기'를 실행하면, '촬영중'이름의 새창에 카메라로부터 입력받은 영상이 출력된다. 이 때, 도 4에 도시된 바와 같이, '현재 영상 보기' 버튼을 클릭하면 버튼을 클릭한 시점에 카메라로부터 입력받은 영상이 캡처되어 서버에 'capture.jpeg'라는 이름으로 저장된다.First, if you execute the first function 'View Current Image', the image input from the camera is output to a new window named 'Shooting'. At this time, as shown in FIG. 4, when the 'view current image' button is clicked, the image captured from the camera at the time of clicking the button is captured and stored in the server as 'capture.jpeg'.

여기서, '현재 영상 보기' 버튼을 클릭했을 때 연결되는 페이지가 출력되기 전에 영상프로그램이 현재 영상을 서버 경로에 저장을 해야 하는데, 이 시간을 맞추기 위하여 의도적으로 해당 페이지의 시작부분에 반복문을 수행함으로서 시간지연을 발생시킬 필요가 있다. 만약, 시간지연을 발생시키지 않으면 도 5에서와 같이 이미지 로드가 제대로 되지 않을 수 있다.In this case, when the 'view current image' button is clicked, the image program must store the current image in the server path before the connected page is outputted. By intentionally executing the loop statement at the beginning of the page to match this time, It is necessary to generate a time delay. If the time delay is not generated, the image load may not be properly performed as shown in FIG.

이 때, 반복문을 얼마나 수행해야 하느냐는 서버의 사양에 따라 달라진다. 예를 들어, Intel(R) Core(TM) i5 750 2.67GHz , DDR3 4G RAM일 경우, 1 ~ 9,999,999까지 반복문을 수행했을 때 제대로 업로드가 수행 되는 것을 확인할 수 있다. 한편, 1 ~ 999,999 까지 반복문을 수행하였을 때는, 도 6에 도시된 바와 같이, 10번 중에 2 ~ 3회 정도 이미지 업로드가 불완전하게 되는 것을 확인할 수 있다.At this point, how much of the loop should be done depends on the server specification. For example, in case of Intel (R) Core (TM) i5 750 2.67GHz, DDR3 4G RAM, it can be confirmed that the upload is executed properly when the loop is executed from 1 to 9,999,999. On the other hand, when the loop is performed from 1 to 999,999, it can be seen that the image upload is incomplete about 2 to 3 times in 10 times as shown in FIG.

반복문을 활용하여 1부터 9,999,999 까지 반복문을 수행하였을 때는, 도 7에 도시된 바와 같이, 카메라로부터 입력되는 영상이 제대로 캡쳐되어 웹 브라우저에 출력되는 것을 확인할 수 있다.
When the iterative statement is used to perform the loop from 1 to 9,999,999, the image input from the camera is properly captured and output to the web browser as shown in FIG.

한편, 영상프로그램의 두 번째 기능은 '침입자 확인' 기능이다. 카메라로부터 입력되는 영상을 홀수 프레임과 짝수 프레임으로 구분하여 연속적으로 두 영상의 차영상 연산을 수행한다. 만약 기준 화면을 등록하고, 이 기준 화면과의 차영상을 구하는 방식으로 구현하면 카메라의 위치가 옮겨지거나 빛의 세기가 기준 영상과 조그만 달려져도 그 시점으로부터 계속해서 서버에 정지 영상이 저장된다. 제한된 저장 공간에서 이런 식으로 지속적으로 영상이 저장되는 일이 발생하면 안된다. 이를 보완하기 위해 기준 영상과의 차영상 연산이 아닌 실시간으로 입력되는 영상에서 홀수와 짝수 번호를 매겨 연속적으로 차영상 연산을 수행한다면 이러한 문제점을 보완 할 수 있다.
On the other hand, the second function of the video program is the 'intruder identification' function. The image input from the camera is divided into odd-numbered frames and even-numbered frames, and difference images of two images are successively performed. If a reference image is registered and a difference image is obtained from the reference image, a still image is continuously stored in the server even if the position of the camera is shifted or the intensity of the light is small relative to the reference image. It should not happen that images are stored continuously in this limited space. In order to compensate for this problem, it is possible to compensate for this problem by performing continuous difference image operation by inputting odd and even numbers in the real-time input image rather than the difference image operation with the reference image.

먼저, 차영상을 구하는데 있어 밝기민감도를 고려한다.First, the sensitivity of brightness is considered in obtaining the difference image.

영상은 2차원으로 생성되므로 2중 반복문을 통하여 픽셀 값에 접근한다. 두 영상에 동일 좌표에 위치한 데이터의 값을 뺀 절대 값을 value라는 변수에 저장하고, 이 값이 지정된 상수 값 LITE_SENSITIVITY(밝기 민감도) 이상이면 subCount변수의 값을 하나씩 증가시킨다. 이 subCount에 저장된 값이 MOVEMENT_SENSITIVITY(움직임 민감도)이상이면 image_01과 image_02는 다른 영상이라고 판정하고 차영상 연산 결과를 출력하게 된다.Since the image is generated in two dimensions, it approaches the pixel value through the double loop. The absolute value obtained by subtracting the value of the data located at the same coordinates from the two images is stored in the variable value. If the value is greater than or equal to the specified constant value LITE_SENSITIVITY, the value of the subCount variable is incremented by one. If the value stored in this subCount is equal to or greater than MOVEMENT_SENSITIVITY (motion sensitivity), it is determined that image_01 and image_02 are different images, and the result of the difference image operation is output.

여기서, LITE_SENSITIVITY(밝기 민감도)라는 상수를 이용하여 두 영상의 차이를 판별하는 이유는, 밝기 값이 수시로 변하고 이에 상당히 민감하게 반응하기 때문이다.The reason why the difference between the two images is discriminated by using a constant called LITE_SENSITIVITY is that the brightness value varies from time to time and it is very sensitive to the change.

도 8에 도시된 바와 같이, 민감도를 20으로 설정했을 때 가장 완벽하게 물체를 배경으로부터 분리할 수 있다는 것을 확인 할 수 있다. 민감도가 너무 낮으면 배경에 잡음이 많이 발생하여 제대로 된 물체의 검출이 어렵고, 또한 민감도를 너무 높게 설정하면 밝기 값의 변화에 따른 물체를 제대로 검출해 내지 못하는 것을 확인 할 수 있다. 이 실험을 통하여 실험 환경에 따라서 적절하게 밝기 민감도를 설정할 필요가 있다는 결론을 내릴 수 있다.As shown in FIG. 8, when the sensitivity is set to 20, it can be confirmed that the object can be separated from the background most perfectly. When the sensitivity is too low, it is difficult to detect a proper object because a lot of background noise occurs. If the sensitivity is set too high, it can be confirmed that the object can not be detected properly due to a change in the brightness value. Through this experiment, it can be concluded that it is necessary to set the brightness sensitivity appropriately according to the experimental environment.

우선, 차영상과 같은 크기의 이미지 변수를 생성하여 색상 값을 모두 0(검정색)으로 초기화 시켜준다. 그 후 차영상 이미지 데이터에 접근을 위해 2중 반복문을 사용하는데 테두리 쪽 픽셀은 탐색하지 않기 위해 적절히 인덱스 값을 조정해준다. 이는 픽셀을 탐색하면서 주변 8개 픽셀을 함께 탐색을 해야 되기 때문에 인덱스 접근 오류를 방지하기 위함이다. 참고로 도 9는 잘못된 인덱스의 접근 예를 도시하고 있다.First, image variables of the same size as the difference image are generated, and the color values are all initialized to 0 (black). We then use a double loop to access the secondary image data, but adjust the index value appropriately to avoid searching the border pixels. This is to prevent an index access error because it is necessary to search 8 pixels around the pixel while searching for the pixel. For reference, FIG. 9 shows an example of the access to the wrong index.

이처럼 이미지 데이터를 2중 반복문으로 탐색하면서 유효한 데이터로 추정되는 픽셀에서 유효성 테스트를 하게 된다. 아직 잡음을 제거한 것이 아니라 단지 물체로 추정되는 픽셀을 탐색만 했을 뿐이므로 이 픽셀이 유효한 정보를 표현해 주는지 아니면 잡음인지를 판단해 주는 단계가 필요하기 때문이다.In this way, the image data is searched as a double loop, and the validity test is performed on the pixels that are estimated as valid data. This is because we have not yet removed the noise, but merely searched for a pixel that is supposed to be an object, so we need a step that determines whether this pixel represents valid information or noise.

총 9개의 픽셀 데이터를 검색하게 되는데, 이 중에 50% 이상이라는 조건을 가정할 경우, 9개 중 5개 이상이 검출되어야 유효한 픽셀이라고 판단을 내린다. 만약 5개 미만이면 해당 픽셀은 잡음으로 판정 짓고 배경으로 간주해 버린다. 이러한 방식으로 잡음을 제거하여 실험한 결과는 도 10과 같다.
If a condition of 50% or more is detected, it is judged that five or more of the nine pixels should be detected to be a valid pixel. If the number of pixels is less than 5, the pixel is judged as noise and considered as background. The result of the experiment by removing the noise in this manner is shown in FIG.

한편, 잡음을 제거하면 배경에서 사용자가 원하는 정보를 좀 더 정확하게 얻어낼 수 있다. 본 발명의 영상프로그램에서 다루는 중심좌표 계산법은 검정색 배경에서 행 단위와 열 단위로 각각 탐색을 수행하여 흰색으로 표현되는 객체의 빈도를 조사하고, 가장 빈도가 높은 행과 열의 좌표를 구해서 이를 참고하여 물체의 가로, 세로 중심좌표를 구한다. 영상의 좌표는 좌측상단을 시작점(0, 0)으로 하여 오른쪽으로는 너비 인덱스 값이 증가하고 아래로는 높이 인덱스 값이 증가하게 된다. 즉, 도 11에서와 같이 좌표값이 표현된다.
On the other hand, eliminating the noise makes it possible to obtain more precise information desired by the user in the background. In the center coordinate calculation method of the present invention, the search is performed in units of rows and columns on a black background to examine the frequency of objects represented by white, and the coordinates of rows and columns having the highest frequency are obtained. The coordinates of the horizontal and vertical centers of the image. The coordinates of the image are the starting point (0, 0) at the upper left corner, the width index value is increasing at the right, and the height index value is decreasing at the lower right. That is, coordinate values are expressed as shown in FIG.

위에서 정의한 함수로 중심좌표 값을 계산한 결과는 도 12(좌상단, 우상단), 도 13(좌하단, 우하단)과 같다. 우선 영상의 상단에 물체가 탐지되었을 때 좌표 값을 계산한 결과를 분석해 보기로 한다. 실험에서 쓰인 영상의 크기는 가로 640 픽셀, 세로 480 픽셀이다.
The result of calculating the center coordinate value with the function defined above is as shown in Fig. 12 (upper left corner, upper right corner) and Fig. 13 (lower left corner, lower right corner). First, let's analyze the result of calculating coordinate values when an object is detected at the top of the image. The size of the image used in the experiment is 640 pixels in width and 480 pixels in height.

도 12를 참고하면, 좌상단과 우상단의 좌표를 계산한 결과를 확인할 수 있는데, 우선 영상을 행단위로 보면 가장 픽셀 밀도가 높은 곳이 손가락이 표시된 행이다. 이 때 좌표가 바로 영상의 높이에 해당한다. 두 영상을 비교해보면 손가락이 뻗어져 있는 높이가 비슷한 것을 확인 할 수 있고, 계산 결과 또한 상당히 비슷한 것을 확인 할 수 있다. 하지만 가로 좌표가 큰 차이가 나는데 영상에 열 단위로 보면 가장 밀도가 높은 곳이 각각 좌측 끝부분과 우측 끝 부분이기 때문에 왼쪽 좌상단 그림은 가로좌표가 0에 가깝게 나와야 하고 우상단 그림은 640에 가깝게 나와야 한다. 실험결과 이에 부합하는 실험데이터가 나온 것을 확인 할 수 있다.
Referring to FIG. 12, the results of calculating the coordinates of the upper left corner and the upper right corner can be confirmed. First, when the image is viewed on the row, the pixel having the highest pixel density is the row in which the finger is displayed. At this time, the coordinates correspond to the height of the image. When comparing two images, it can be confirmed that the height of the fingers is similar, and the calculation result is also very similar. However, since there is a large difference in abscissa, the highest density in the image in terms of the thermal unit is the left end and the right end, respectively, so that the left upper left figure should be close to 0 and the upper right figure should be close to 640 . As a result of the experiment, it can be confirmed that the experimental data corresponding to this is appeared.

도 13을 참고하면, 객체가 하단에 탐지되었을 때 실험한 결과로서, 먼저 좌하단 영상부터 살펴보면, 행 단위로 객체를 보면 가장 빈도가 높은 곳이 손가락 아래 주먹 쥔 부분인 것임을 눈으로도 확인 할 수 있다. 이때의 좌표가 바로 객체의 세로 좌표가 되고 하단부에 위치하고 있기 때문에 480에 가까운 숫자가 표시되어야 한다. 그 다음 열 단위로 객체를 보게 되면 손가락 부분과 주먹을 쥔 분이 같은 열에 표시 되어 있는 부분이 가장 빈도가 높으므로 이때의 좌표가 바로 객체의 가로 좌표가 된다. 영상의 너비가 680 픽셀인데 좌측 끝부분에서 조금 떨어진 곳에 위치해 있으므로 대략 100 이내의 좌표임을 대략적으로 알 수 있다. 실험 한 결과 좌 하단에 위치한 객체의 중심좌표는 세로: 470, 가로: 70 정도에 계산 되는 것을 확인 할 수 있고 이는 위에서 대략적으로 예측한 수치와도 비슷하게 측정되는 것을 확인 할 수 있다. 우 하단의 위치한 객체의 중심좌표는 마찬가지로 우선 행단위로 봐서 가장 흰색으로 표현된 픽셀의 빈도가 높은 곳을 찾아야 한다. 그 때의 좌표가 객체의 세로 좌표가 된다. 좌 하단의 그림과 비교 했을 때 그 빈도가 높은 행이 약간 높은 곳에 위치 해 있음을 알 수 있고 그러면 객체의 세로좌표는 약간 낮게 측정될 것이라는 것을 예측할 수 있다. 혼돈의 여지가 있을 수도 있는데, 영상의 원점이 좌상단에 위치해 있고 밑으로 내려갈수록 세로좌표 값이 감소하는 것이 아니라 증가한다는 것을 상기할 필요가 있다. 실험결과 우 하단에 위치한 객체의 세로 좌표는 좌하단에 위치한 객체의 세로 좌표보다 약간 낮게 나온 것을 확인 할 수 있고 이는 미리 예측한 결과와 맞아 떨어지는 것을 확인 할 수 있다. 가로 좌표는 열 단위로 볼 때 빈도가 가장 높은 곳이 손가락과 주먹을 쥔 부분이 함께 있는 열이고, 이 때의 좌표가 객체의 가로 좌표가 된다. 우측 끝에 위치 해 있으므로 가로 좌표는 640에 근접한 수치가 나올 것을 예측 할 수 있고 실험결과 우 하단에 위치한 객체의 중심 가로좌표는 565가 나온 것을 확인 할 수 있다. 이 또한 실험 전 예측한 결과와 부합하는 것을 확인 할 수 있고, 도 12와 도 13의 실험결과를 종합해 보면, 중심좌표를 제대로 계산할 수 있다는 것을 확인 할 수 있다.
Referring to FIG. 13, as a result of the experiment when the object is detected at the lower end, it can be visually confirmed that the object with the highest frequency is the object under the finger have. Since the coordinates at this time are the ordinate of the object and are located at the lower end, a number close to 480 should be displayed. Then, when you see the object in the column unit, the part with the finger and the one holding the fist is the most frequently displayed in the same column, so the coordinates at this time are the abscissa of the object. Since the width of the image is 680 pixels and it is located a little away from the left end, it is roughly known that it is within about 100 coordinates. Experimental results show that the center coordinates of the object located at the lower left are calculated as 470 in the vertical direction and 70 in the horizontal direction, which is similar to the roughly predicted value. The coordinates of the center of the object located at the lower right corner should similarly be looked up on the first row to find the place where the white pixel is most frequently displayed. The coordinates at that time are the ordinate of the object. Compared with the figure at the bottom left, we can see that the high-frequency row is located at a slightly higher elevation and it can be predicted that the ordinate of the object will be measured slightly lower. There may be room for chaos, but it should be recalled that the origin of the image is located at the upper left corner, and the vertical coordinate value increases rather than decreases. Experimental results show that the vertical coordinate of the object located at the bottom right is slightly lower than the vertical coordinate of the object located at the bottom left, which confirms that it matches the predicted result. The abscissa is the column with the highest frequency when viewed in terms of columns, with the finger and the fisted part together, and the coordinates at this time are the abscissa of the object. Since we are located at the right end, it is predicted that the abscissa will be close to 640, and we can confirm that the center abscissa of the object located at the lower right corner is 565. It can be confirmed that this is also in agreement with the results predicted before the experiment. Taking the experimental results of FIGS. 12 and 13 together, it can be confirmed that the center coordinates can be calculated properly.

이어서, 침입자를 판별하는 과정을 진행하게 된다.Then, the process of determining the intruder is performed.

도 14를 참조하면, 중심좌표를 계산한 다음 객체의 중심좌표를 기준으로 일정한 거리를 기준으로 움직임영역을 설정해 주어야 한다. 우선 처음 움직임이 감지되었을 때 이 객체의 높이 중심점과 너비 중심점을 각각 ref_h_point 와 ref_w_point 로 선언된 변수에 대입한다. 이 정보를 바탕으로 일정한 거리를 반지름으로 갖는 원을 그려서 움직임영역을 설정해 주어야 한다. 그리고 이후에 카메라로부터 연속적으로 입력되는 프레임에서 마찬가지로 높이 중심과 너비 중심을 계산하여 center_h_point 와 center_w_point 로 선언된 변수에 대입하여 현재 움직임을 기준점과 다른 색으로 표시하는 과정을 거쳐야 한다.Referring to FIG. 14, after calculating the center coordinates, the movement area should be set based on a certain distance based on the center coordinates of the object. First, when the first motion is detected, assign the height center point and the width center point of this object to the variables declared as ref_h_point and ref_w_point, respectively. Based on this information, it is necessary to set a movement area by drawing a circle having a certain distance as a radius. Then, in the frame input continuously from the camera, the center of height and the center of the width are similarly computed, and the current motion is displayed in a color different from the reference point by substituting into the variable declared as center_h_point and center_w_point.

OpenCV에서는 이미지에 원을 그리는 내장함수를 지원한다. 바로 cvCircle() 이라는 함수인데 이 함수에 전달되는 인자는 순서대로 다음과 같다. 즉, '원을 그리는 이미지가 저장된 변수', '원의 중심좌표', '반지름', '선의 색깔', '선의 두께', '선의 형태', '중심점으로부터 이동'을 포함한다.OpenCV supports built-in functions that draw a circle on an image. Here is the function called cvCircle (). That is, it includes 'Variable in which the image to be drawn is stored', 'Center coordinates of circle', 'Radius', 'Line color', 'Line thickness', 'Line shape', 'Move from center point'.

위 함수를 보면 움직임영역은 빨간색으로 표시되고 현재 움직임이 감지되는 객체의 표시는 녹색으로 표시되는 것을 확인 할 수 있다. 실험 결과는 도 15와 같다.In the above function, the movement area is displayed in red, and the object in which the current motion is detected is displayed in green. The results of the experiment are shown in Fig.

도 15를 참고하면, 배경에서 처음 손바닥이 표시되었을 때 중심점을 구하여 이 중심점을 기준으로 설정된 영역만큼 빨간색으로 원을 그려주고 이 후에 지속적으로 손바닥의 움직임을 포착하여 초록색으로 해당 중심좌표를 출력해준다. 만약에 손바닥의 움직임이 빨간색 원의 안쪽에서 감지된다면 침입자가 아니고 단지 움직이는 배경으로 간주하지만, 빨간색 원의 밖으로 벗어날 경우에 이는 일정한 움직임이 있는 배경이 아닌 새로운 물체가 움직였다고 판단하여 침입자로 간주하게 되고, 해당 시점의 영상을 저장한다. 이때, 바람직하게는 영상 처리 속도를 향상시키기 위해 움직임영역에 대한 영상 처리만을 수행할 수도 있을 것이다.
Referring to FIG. 15, when a palm is displayed for the first time in the background, a center point is obtained, a circle is drawn as much as the set area based on the center point, and then the movement of the palm is continuously captured to output the corresponding center coordinates in green. If the movement of the palm is detected inside the red circle, it is considered to be the moving background, not the intruder. However, if the palm movement is outside the red circle, it is regarded as the intruder by judging that the new object moves instead of the background with constant movement , And stores the image at that point in time. At this time, it is preferable to perform only the image processing for the moving region in order to improve the image processing speed.

본 발명에서 제시하는 본 발명의 보안용 CCTV 영상 처리 장치 및 영상 처리 방법은 PC 및 스마트폰 등에서 원격 모니터링 및 제어를 수행할 수 있다.The security CCTV image processing apparatus and image processing method of the present invention presented in the present invention can perform remote monitoring and control in a PC, a smart phone, and the like.

먼저, 웹 서버 구축 및 홈페이지 제작하여, 도 16에서와 같이, 로그인 화면으로 회원가입하거나 로그인이 가능하도록 하고 있다.First, a web server is constructed and a homepage is created, and a login screen can be registered or logged in as shown in FIG.

로그인을 하면, 도 17에 도시된 바와 같이, 센서에서 받은 측정값(전압, 전류, 유효전력, 무효전력, 피상전력, 역률, 온도, 습도)들이 표시된다. 즉, 본 발명은 PC 및 스마트폰을 이용하여 도어, 창문, 전등의 제어 뿐 아니라 이들의 모니터링이 가능하도록 하고 있다.When logging in, the measured values (voltage, current, active power, reactive power, apparent power, power factor, temperature, and humidity) received from the sensor are displayed as shown in FIG. That is, the present invention enables control of doors, windows, and electric lamps as well as monitoring thereof by using a PC and a smart phone.

'장치제어하기'를 클릭하면, 도 18과 같은 페이지로 이동하며, 현재 홈(Home)의 상태가 표시되며, 홈의 문, 전구를 원격으로 제어 할 수 있다.When the user clicks 'Control device', the screen is moved to the page as shown in FIG. 18, the current state of the home is displayed, and the doors and bulbs of the home can be remotely controlled.

그리고, '현재영상보기'를 클릭하면, 도 19에서와 같이, 클릭 시점에서의 카메라가 사진을 캡처하여 보여준다. 집안에 카메라를 설치하여 집안 상태를 확인 할 수 있다. 즉, 현재 집안의 상태를 확인하여 전구가 켜졌는지, 문이 열렸는지 침입자가 있는지 확인 할 수 있다.
If the user clicks 'View Current Image', as shown in FIG. 19, the camera at the click point captures and displays the photograph. You can check the status of your house by installing a camera in your house. In other words, you can check the current status of the house to see if the light bulb is on, the door is open, or there is an intruder.

한편, 본 발명은 스마트폰을 통해서도 실행될 수 있다.Meanwhile, the present invention can also be implemented through a smart phone.

외출 시 이동하면서 홈페이지에 접속을 하여 집안 상태를 확인하고 제어를 하기 위해 스마트폰에서 가능하도록 연동할 수 있다. 스마트폰에서 홈페이지를 접속하도록 어플리케이션을 만들었다. 어플리케이션을 실행하면 바로 홈페이지 메인 화면으로 이동하게 하였다. 이로써 이동시에도 집이 아닌 멀리 있어도 언제든지 집안 상태를 확인하고 제어 할 수 있도록 하였다. 스마트폰에 apk파일을 설치하여 MyHome이라는 어플리케이션을 만들었다. 어플리케이션을 실행하면 첫 화면(도 20)이 디스플레이된다. 클릭 버튼을 누르면 도 21에서와 같이 홈페이지 메인화면으로 접속되고, 도 22 내지 도 24에서와 같이, 센서 정보 확인, 장치제어하기, 현재영상보기 등의 기능을 수행할 수 있다.
When you go out, you can go to the homepage to check the house status and control it so that it can be linked to the smart phone. I created an application to access the homepage from the smartphone. When I run the application, I go to the homepage main screen. This allows you to check and control the state of the house at any time, even when you are away from home. I installed an apk file on my smartphone and created an application called MyHome. When the application is executed, the first screen (FIG. 20) is displayed. When the user clicks the click button, the user is connected to the home page main screen as shown in FIG. 21, and can perform functions such as checking sensor information, controlling the device, and viewing a current image, as shown in FIGS.

이상에서 몇 가지 실시예를 들어 본 발명을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시예로 국한되는 것이 아니고 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형실시될 수 있다.
While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, is intended to cover various modifications and equivalent arrangements included within the spirit and scope of the invention.

1 : 물체판별부
11 : 흑백영상 변환부
12 : 이진화부
2 : 유효성 판별부
3 : 중심좌표 결정부
4 : 물체움직임 판별부
41 : 움직임영역 생성부
42 : 중심좌표 추적부
43 : 움직임 판단부
1: object discrimination unit
11: B &
12: binarization unit
2: validity discrimination unit
3: center coordinate determination unit
4: object motion discrimination unit
41:
42: center coordinate tracking unit
43:

Claims (3)

카메라로부터 전달된 컬러영상을 흑백영상으로 변환하는 흑백영상 변환부와, 물체를 흰색으로, 배경을 검정색으로 정의하여 이진화시키는 이진화부를 포함하는 물체판별부;
픽셀에서의 상기 물체의 유효성을 판별하는 유효성 판별부;
상기 물체의 중심좌표를 생성하는 중심좌표 결정부; 및
상기 물체의 중심좌표를 중심으로 한 움직임영역을 생성하는 움직임영역 생성부와, 상기 물체의 중심좌표를 추적하는 중심좌표 추적부와, 상기 물체의 중심좌표가 움직임영역 내부에 존재하는지 여부를 판단하여 영상저장 여부를 결정하는 움직임 판단부를 포함하는 물체움직임 판별부를 포함하며;
상기 유효성 판별부는, 흰색 픽셀이 탐지되면 주변 픽셀을 조사하여 흰색 픽셀이 설정개수 이상이면 유효한 픽셀로 판단하며;
상기 중심좌표 결정부는, 검정색 배경에서 행 단위와 열 단위로 각각 탐지하여 흰색으로 표현되는 객체의 빈도를 조사하고, 빈도가 가장 높은 행과 열의 좌표를 중심좌표로 결정하며;
상기 물체움직임 판별부는,
상기 카메라로부터 실시간으로 입력되는 영상을 홀수 프레임과 짝수 프레임으로 구분하여 연속적으로 상기 홀수 프레임과 짝수 프레임 간의 두 영상의 차영상 연산을 수행하며,
상기 차영상 연산은, 상기 홀수 프레임과 짝수 프레임의 동일 좌표에 위치한 데이터 간의 절대값이 미리 설정된 밝기 민감도보다 클 경우에 카운트값을 증가시키고, 상기 카운트값이 미리 설정된 움직임 민감도보다 클 경우에 다른 영상으로 판정하여 결과를 출력하며,
상기 움직임영역은 상기 물체의 중심좌표를 중심으로 한 원으로 정의하며,
상기 움직임영역이 생성되면, 상기 원에 대한 영상처리만 수행하는 보안용 CCTV 영상 처리 장치.
An object discrimination unit including a monochrome image converting unit for converting a color image transferred from a camera into a monochrome image, and a binarizing unit for binarizing the object by defining white as a background and black as a background;
A validity determining unit for determining the validity of the object in the pixel;
A center coordinate determination unit for generating center coordinates of the object; And
A center coordinate tracking unit for tracking the center coordinates of the object, and a determination unit for determining whether the center coordinates of the object exist within the movement area An object motion determining unit that determines whether or not to store an image;
Wherein the validity determination unit checks surrounding pixels when a white pixel is detected, and determines that the effective pixel is a white pixel if the number of white pixels is greater than or equal to the set number;
The center coordinate determination unit detects the frequency of the object represented by white in the row and column units on the black background and determines the coordinates of the row and column having the highest frequency as the center coordinates;
The object movement determining unit may determine,
Numbered frame and an even-numbered frame, and performs a difference image operation of two images continuously between the odd-numbered frame and the even-numbered frame,
Wherein the difference image operation increases the count value when the absolute value between data located at the same coordinates of the odd frame and the even frame is greater than a preset brightness sensitivity, and when the count value is greater than a preset motion sensitivity, And outputs a result,
Wherein the movement region defines a circle centered on the center of the object,
Wherein when the moving area is generated, only the image processing for the circle is performed.
삭제delete 청구항 1의 장치를 이용하여 보안용 CCTV 영상 처리를 수행하는 방법으로서,
영상처리된 흑백영상으로부터 물체를 흰색으로, 배경을 검정색으로 이진화하여 물체와 배경을 구분하는 단계;
상기 이진화된 영상으로부터 각 픽셀에서의 상기 물체의 유효성을 판별하는 단계;
상기 물체의 유효성 판별이 완료된 물체의 중심좌표를 결정하는 단계;
상기 물체의 중심좌표를 기준으로 하여 움직임영역을 생성하는 단계;
상기 물체의 중심좌표를 추적하는 단계; 및
상기 물체의 중심좌표가 움직임영역을 벗어날 경우에 해당 영상을 저장하는 단계를 포함하며,
상기 물체의 유효성을 판별하는 단계에서는, 흰색 픽셀이 탐지되면 주변 픽셀을 조사하여 흰색 픽셀이 설정개수 이상이면 유효한 픽셀로 판단하며;
상기 중심좌표를 결정부하는 단계에서는, 검정색 배경에서 행 단위와 열 단위로 각각 탐지하여 흰색으로 표현되는 객체의 빈도를 조사하고, 빈도가 가장 높은 행과 열의 좌표를 중심좌표로 결정하며;
상기 움직임영역을 생성하는 단계에서는,
실시간으로 입력되는 영상을 홀수 프레임과 짝수 프레임으로 구분하여 연속적으로 상기 홀수 프레임과 짝수 프레임 간의 두 영상의 차영상 연산을 수행하며,
상기 차영상 연산은, 상기 홀수 프레임과 짝수 프레임의 동일 좌표에 위치한 데이터의 값을 뺀 절대값을 연산하고, 상기 절대값이 미리 설정된 밝기 민감도보다 클 경우에 카운트값을 증가시키고, 상기 카운트값이 미리 설정된 움직임 민감도보다 클 경우에 다른 영상으로 판정하여 결과를 출력하며,
상기 움직임영역은 상기 물체의 중심좌표를 중심으로 한 원으로 정의하며,
상기 움직임영역이 생성되면, 상기 원에 대한 영상처리만 수행하는 보안용 CCTV 영상 처리 방법.
A method for performing security CCTV image processing using the apparatus of claim 1,
Separating an object and a background by binarizing an object from a monochrome image subjected to image processing to white and a background to black;
Determining validity of the object at each pixel from the binarized image;
Determining center coordinates of an object whose validity of the object has been determined;
Generating a motion region based on the center coordinates of the object;
Tracking the center coordinates of the object; And
And storing the image when the center coordinates of the object deviate from the movement area,
In the step of determining the effectiveness of the object, if a white pixel is detected, surrounding pixels are checked to determine that the white pixel is a valid pixel if the number of white pixels is greater than the set number;
In the step of determining the center coordinates, the frequency of an object represented by white is detected by detecting row units and column units on a black background, respectively, and coordinates of rows and columns having the highest frequency are determined as center coordinates;
In the step of generating the moving region,
Numbered frame and an even-numbered frame, and performs a difference image operation of two images continuously between the odd-numbered frame and the even-numbered frame,
Wherein the difference image operation is performed by calculating an absolute value obtained by subtracting the value of data located at the same coordinates of the odd frame and the even frame from each other and increasing the count value when the absolute value is greater than a predetermined brightness sensitivity, Determines a different image and outputs a result when it is larger than a preset motion sensitivity,
Wherein the movement region defines a circle centered on the center of the object,
When the moving region is created, performs only image processing on the circle.
KR20130020836A 2013-02-27 2013-02-27 Image process apparatus and method for closed circuit television security system KR101496407B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130020836A KR101496407B1 (en) 2013-02-27 2013-02-27 Image process apparatus and method for closed circuit television security system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130020836A KR101496407B1 (en) 2013-02-27 2013-02-27 Image process apparatus and method for closed circuit television security system

Publications (2)

Publication Number Publication Date
KR20140106796A KR20140106796A (en) 2014-09-04
KR101496407B1 true KR101496407B1 (en) 2015-02-27

Family

ID=51754920

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130020836A KR101496407B1 (en) 2013-02-27 2013-02-27 Image process apparatus and method for closed circuit television security system

Country Status (1)

Country Link
KR (1) KR101496407B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022025752A1 (en) * 2020-07-28 2022-02-03 Mimos Berhad A system and method for tracking objects in a dynamic environment from a sequence of captured images

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102464781B1 (en) * 2015-06-25 2022-11-07 에스케이 텔레콤주식회사 Method and Apparatus for Detecting Entity Using Difference of Image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050048062A (en) * 2003-11-18 2005-05-24 삼성전자주식회사 Method and apparatus of human detection and privacy protection system employing the same
KR20100118820A (en) * 2009-04-29 2010-11-08 부경대학교 산학협력단 Adaptive surveillance video saving method about inanimate object movement amount

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050048062A (en) * 2003-11-18 2005-05-24 삼성전자주식회사 Method and apparatus of human detection and privacy protection system employing the same
KR20100118820A (en) * 2009-04-29 2010-11-08 부경대학교 산학협력단 Adaptive surveillance video saving method about inanimate object movement amount

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022025752A1 (en) * 2020-07-28 2022-02-03 Mimos Berhad A system and method for tracking objects in a dynamic environment from a sequence of captured images

Also Published As

Publication number Publication date
KR20140106796A (en) 2014-09-04

Similar Documents

Publication Publication Date Title
CN109727275B (en) Object detection method, device, system and computer readable storage medium
CN101515998B (en) Image processing apparatus, image processing method, and program
JP2004510363A (en) Sensors and imaging systems
EP3082065A1 (en) Duplicate reduction for face detection
KR100362328B1 (en) Face-image processing apparatus
KR102050821B1 (en) Method of searching fire image based on imaging area of the ptz camera
CN111476194B (en) Detection method for working state of sensing module and refrigerator
KR102481995B1 (en) On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof
KR101212082B1 (en) Image Recognition Apparatus and Vison Monitoring Method thereof
KR101496407B1 (en) Image process apparatus and method for closed circuit television security system
KR20180044587A (en) Method for generating foreground using multiple background model and apparatus thereof
CN111462188A (en) Camera movement detection method and system
KR101509593B1 (en) Image classification method and apparatus for preset tour camera
CN104268534A (en) Intelligent box control system of triggering type video surveillance and control method thereof
JP4292371B2 (en) Mobile monitoring device
KR101982258B1 (en) Method for detecting object and object detecting apparatus
Tsesmelis et al. Tamper detection for active surveillance systems
KR20200059643A (en) ATM security system based on image analyses and the method thereof
EP3477941A1 (en) Method and controller for controlling a video processing unit to facilitate detection of newcomers in a first environment
US10726249B2 (en) Method and electronic apparatus for wave detection
US11790041B2 (en) Method and system for reducing false positives in object detection neural networks caused by novel objects
Lee et al. An intelligent video security system using object tracking and shape recognition
KR20190001873A (en) Apparatus for searching object and method thereof
JP4614778B2 (en) Image creation method for moving object extraction
Chang et al. Improved adaptive vibe and the application for segmentation of complex background

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
X091 Application refused [patent]
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
X701 Decision to grant (after re-examination)
N231 Notification of change of applicant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180205

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200204

Year of fee payment: 6