KR20210024935A - Apparatus for monitoring video and apparatus for analyzing video, and on-line machine learning method - Google Patents
Apparatus for monitoring video and apparatus for analyzing video, and on-line machine learning method Download PDFInfo
- Publication number
- KR20210024935A KR20210024935A KR1020190104761A KR20190104761A KR20210024935A KR 20210024935 A KR20210024935 A KR 20210024935A KR 1020190104761 A KR1020190104761 A KR 1020190104761A KR 20190104761 A KR20190104761 A KR 20190104761A KR 20210024935 A KR20210024935 A KR 20210024935A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- learning
- background image
- candidate
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 영상을 촬영하여 감시하는 장치와 촬영 영상을 분석하는 장치 및 이들 장치들이 영상으로부터 객체를 탐지하기 위해 기계 학습하는 온라인 기계 학습 방법에 관한 것이다.The present invention relates to an apparatus for capturing and monitoring an image, an apparatus for analyzing a captured image, and an online machine learning method in which these devices perform machine learning to detect an object from an image.
CCTV(Closed Circuit Television), 휴대폰 카메라 등을 활용한 다양한 컴퓨터 비젼 기술이 사진(이미지) 및 동영상(비디오)에 적용되어 사진이나 동영상으로부터 사람, 자동차, 동물 등의 원하는 객체를 검출하고 인식할 수 있게 되었고, 딥 러닝(Deep Learning) 등의 기계 학습법과 접목하여 객체 검출 및 인식의 정확성 향상을 도모하고 있으나, 만족할만한 수준에 이르지 못하였다.Various computer vision technologies using CCTV (Closed Circuit Television) and mobile phone cameras are applied to photos (images) and videos (videos) to detect and recognize desired objects such as people, cars, and animals from photos or videos. It is trying to improve the accuracy of object detection and recognition by combining it with machine learning methods such as deep learning, but it has not reached a satisfactory level.
일 실시예에 따르면, 영상으로부터 객체를 탐지하도록 사전에 초기 학습된 객체 탐지기에 대하여 감시 영역에 대한 촬영 영상을 이용해 감시 영역의 촬영 환경을 적응적으로 추가 학습시키는 영상 감시장치 및 그 학습 방법을 제공한다.According to an embodiment, there is provided an image monitoring apparatus and a learning method for adaptively additionally learning a photographing environment of a monitoring region by using a photographed image of a monitoring region with respect to an object detector that has been initially learned to detect an object from an image. do.
또한, 다른 실시예에 따르면, 영상으로부터 객체를 탐지하도록 사전에 초기 학습된 서버단의 객체 탐지기에 대하여 영상 감시장치의 촬영 영상을 이용하여 감시 영역의 촬영을 추가로 학습시키는 영상 분석 장치 및 그 학습 방법을 제공한다.In addition, according to another embodiment, an image analysis device for additionally learning the shooting of a surveillance area using a photographed image of an image monitoring device for an object detector of a server side, which is initially learned to detect an object from an image, and learning the same. Provides a way.
본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problem to be solved of the present invention is not limited to those mentioned above, and another problem to be solved that is not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
본 발명의 제 1 관점에 따라 온라인 기계 학습을 수행하는 영상 감시장치는, 감시 영역을 촬영하여 촬영 영상을 생성하는 촬영부와, 영상 내에서 감시 대상 객체를 탐지하도록 초기 학습된 상태에서, 상기 촬영부로부터 입력되는 촬영 영상에서 상기 감시 대상 객체를 탐지하는 객체 탐지부와, 상기 촬영 영상 중 적어도 하나 이상의 배경 영상을 선정한 후, 상기 선정된 배경 영상을 이용하여 상기 감시 영역에 대한 촬영 환경이 반영되도록 상기 객체 탐지부를 추가 학습시키는 학습부를 포함할 수 있다.An image monitoring apparatus for performing online machine learning according to a first aspect of the present invention includes a photographing unit for generating a photographed image by photographing a monitoring region, and in a state in which the photographing unit is initially learned to detect an object to be monitored within the image. After selecting at least one background image among the object detection unit for detecting the object to be monitored from the captured image input from the unit and the captured image, the shooting environment for the surveillance area is reflected by using the selected background image. It may include a learning unit for additionally learning the object detection unit.
본 발명의 제 2 관점에 따라 영상으로부터 감시 대상 객체를 탐지하도록 초기 학습된 객체 탐지기의 온라인 기계 학습 방법은, 감시 영역을 촬영한 촬영 영상 중 배경 영상을 선정하는 단계와, 상기 선정된 배경 영상을 이용하여 상기 감시 영역에 대한 촬영 환경이 반영되도록 상기 객체 탐지기를 추가 학습시키는 단계를 포함할 수 있다.According to a second aspect of the present invention, an online machine learning method of an object detector initially learned to detect an object to be monitored from an image includes the steps of selecting a background image from a photographed image of a surveillance area, and selecting the selected background image. And further learning the object detector to reflect the photographing environment for the surveillance area.
본 발명의 제 3 관점에 따라 컴퓨터 프로그램을 저장하고 있는 컴퓨터 판독 가능 기록매체의 상기 컴퓨터 프로그램은, 상기 온라인 기계 학습 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함한다.According to the third aspect of the present invention, the computer program of the computer-readable recording medium storing the computer program includes instructions for causing the processor to perform the online machine learning method.
본 발명의 제 4 관점에 따른 영상 분석 장치는, 영상으로부터 감시 대상 객체를 탐지하도록 사전 학습된 객체 탐지부와, 감시 영역을 촬영한 촬영 영상 중 배경 영상을 선정한 후, 상기 선정된 배경 영상을 이용하여 상기 감시 영역에 대한 촬영 환경이 반영되도록 상기 객체 탐지부를 추가 학습시키는 학습부를 포함할 수 있다.An image analysis apparatus according to a fourth aspect of the present invention includes an object detection unit pre-trained to detect an object to be monitored from an image, and after selecting a background image from a photographed image of a surveillance area, the selected background image is used. Thus, it may include a learning unit for additionally learning the object detection unit so that the photographing environment for the monitoring area is reflected.
본 발명의 실시예에 의하면, 영상으로부터 객체를 탐지하도록 사전에 초기 학습된 객체 탐지기에 대하여 감시 영역에 대한 촬영 영상을 이용해 감시 영역의 촬영을 적응적으로 추가 학습시킨다. 이로써, 객체 검출 및 인식 기능이 감시 영역의 촬영에 최적화되어 객체 탐지의 정확성이 크게 향상되는 효과가 있다.According to an embodiment of the present invention, an object detector, which is initially learned to detect an object from an image, is adaptively additionally learned to capture a surveillance area by using a captured image for the surveillance area. As a result, object detection and recognition functions are optimized for capturing the surveillance area, thereby greatly improving the accuracy of object detection.
도 1은 본 발명의 실시예들에 따른 영상 감시 및 분석 시스템의 구성도이다.
도 2는 도 1에 도시된 영상 감시장치의 구성도이다.
도 3은 본 발명의 제 1 실시예에 따른 영상 감시장치의 기계 학습 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 제 2 실시예에 따른 영상 감시장치의 기계 학습 방법을 설명하기 위한 흐름도이다.
도 5는 도 4에 나타낸 영상 감시장치의 기계 학습 방법을 부연 설명하기 위하여 배경 영상을 선정하는 과정을 나타낸 도면이다.
도 6은 도 5에 나타낸 배경 영상을 선정하는 과정 중 획득되는 프레임간 차분 영상의 예시도이다.
도 7은 도 1에 도시된 영상 분석 서버장치의 구성도이다.
도 8은 본 발명의 제 3 실시예에 따른 영상 분석 서버장치의 기계 학습 방법을 설명하기 위한 흐름도이다.
도 9는 본 발명의 제 4 실시예에 따른 영상 분석 서버장치의 기계 학습 방법을 설명하기 위한 흐름도이다.
도 10은 본 발명의 실시예들에 따른 기계 학습 방법에 의한 객체 탐지 결과를 예시한 도면이다.
도 11 및 도 12는 본 발명의 실시예들에 따른 기계 학습 방법에서 추가 기계 학습에 이용되는 영상을 예시한 도면이다.1 is a block diagram of an image monitoring and analysis system according to embodiments of the present invention.
FIG. 2 is a block diagram of the video surveillance apparatus shown in FIG. 1.
3 is a flowchart illustrating a machine learning method of an image monitoring apparatus according to a first embodiment of the present invention.
4 is a flowchart illustrating a machine learning method of an image monitoring apparatus according to a second embodiment of the present invention.
5 is a diagram illustrating a process of selecting a background image in order to further explain the machine learning method of the video surveillance apparatus shown in FIG. 4.
6 is an exemplary diagram of an inter-frame difference image acquired during a process of selecting a background image shown in FIG. 5.
7 is a configuration diagram of the image analysis server device shown in FIG. 1.
8 is a flowchart illustrating a machine learning method of an image analysis server device according to a third embodiment of the present invention.
9 is a flowchart illustrating a machine learning method of an image analysis server device according to a fourth embodiment of the present invention.
10 is a diagram illustrating an object detection result by a machine learning method according to embodiments of the present invention.
11 and 12 are diagrams illustrating images used for additional machine learning in a machine learning method according to embodiments of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention, and a method of achieving them will become apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various forms, and only these embodiments make the disclosure of the present invention complete, and those skilled in the art to which the present invention pertains. It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of known functions or configurations will be omitted except when actually necessary in describing the embodiments of the present invention. In addition, terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to the intention or custom of users or operators. Therefore, the definition should be made based on the contents throughout the present specification.
도 1은 본 발명의 실시예들에 따른 영상 감시 및 분석 시스템(100)의 구성도이다.1 is a block diagram of an image monitoring and
도 1을 참조하면 영상 감시 및 분석 시스템(100)은 영상 감시장치(110), 영상 분석 서버장치(120), 모니터링 장치(130)를 포함한다.Referring to FIG. 1, an image monitoring and
이러한 영상 감시 및 분석 시스템(100)은 영상으로부터 감시 대상 객체를 탐지하도록 사전에 초기 학습된 객체 탐지기를 영상 감시장치(110) 또는 영상 분석 서버장치(120)에 포함하며, 영상 감시장치(110) 또는 영상 분석 서버장치(120)는 영상 감시장치(110)에 의한 감시 영역의 촬영 영상을 이용해 객체 탐지기에 감시 영역의 촬영을 적응적으로 추가 학습시킨다. 예를 들어, 영상 감시 및 분석 시스템(100)은 감시 영역에 설치되기 전에 오프라인 기계 학습(Offline Machine Learning)을 통해 객체를 탐지할 수 있도록 객체 탐지기가 사전에 초기 학습되고, 감시 영역에 설치된 후에 온라인 기계 학습(Online Machine Learning)을 통해 감시 영역의 촬영을 영상 감시장치(110) 또는 영상 분석 서버장치(120)의 객체 탐지기에 추가 학습시킬 수 있다. 이를 위해, 영상 감시장치(110) 또는 영상 분석 서버장치(120)는 마이크로프로세서(microprocessor) 등과 같은 컴퓨팅 연산장치를 포함할 수 있다. 여기서, 영상 분석 서버장치(120)는 영상 감시 장치(110)에 대하여 영상 분석 서비스를 제공한다는 의미로 서버장치로 기재하였고, 개시된 영상 분석 서버장치(120)는 영상 분석 장치의 일종이라 할 수 있다.Such an image monitoring and
도 2는 영상 감시장치(110)에 객체 탐지기로서 객체 탐지부(112)가 포함된 실시예를 나타낸 것이고, 이러한 실시예에 따르면 영상 분석 서버장치(120) 또한 객체 탐지기를 포함할 수 있다.FIG. 2 shows an embodiment in which the
도 1 및 도 2를 참조하여 본 발명의 실시예에 따른 영상 감시 및 분석 시스템(100)에 대하여 살펴보기로 한다.An image monitoring and
영상 감시장치(110)는 감시 영역을 촬영하여 촬영 영상을 생성하는 촬영부(111)를 포함하고, 촬영 영상을 포함한 각종 정보를 영상 분석 서버장치(120) 및 모니터링 장치(130)와 송수신하는 통신부(114)를 포함한다. 예를 들어, 영상 감시장치(110)는 CCTV(Closed Circuit Television)용 카메라로 구현될 수 있으나, 이에 한정되는 것은 아니고 감시 영역을 촬영할 수 있는 모든 장치를 포함할 수 있다.The
이러한 영상 감시장치(110)는 촬영 영상으로부터 감시 대상 객체를 탐지하도록 사전에 초기 학습된 객체 탐지부(112)를 포함할 수 있다. 이러한 객체 탐지부(112)는 학습부(113)에 의하여 감시 영역의 촬영이 적응적으로 추가 학습될 수 있다. 예를 들어, 감시 영역의 촬영에 대한 추가 학습에는 감시 영역에 대한 촬영 영상이 이용될 수 있다. 객체 탐지부(112)는 감시 영역의 촬영 영상을 실시간으로 분석하여 객체를 검출 및 인식하고, 객체 인식 결과를 영상 분석 서버장치(120) 및 모니터링 장치(130)로 전송하도록 통신부(114)를 제어한다. 예를 들어, 객체 탐지부(112)는 객체를 탐지하도록 미리 설계된 신경망을 학습하고, 학습된 신경망을 기반으로 촬영 영상 내의 객체를 검출 및 인식할 수 있다.Such an
영상 감시장치(110)는 감시 영역에 대한 촬영 영상을 이용해 객체 탐지부(112)에 대하여 감시 영역의 촬영을 적응적으로 추가 학습시키는 학습부(113)를 포함할 수 있다.The
영상 감시장치(110)의 학습부(113)는 기 설정된 실행 조건에 기초하여 객체 탐지부(112)의 추가 학습이 필요한지 여부를 판단할 수 있는데, 실행 조건으로는 초기화 후 촬영부(111)의 감시 영역에 대한 촬영 영상의 수, 촬영 시간 또는 객체 탐지부(112)에 의한 객체의 검출 횟수 중 하나 이상이 기 설정될 수 있다. 예를 들어, 감시 영역에 대한 촬영 영상의 수가 "1"일 때, 객체의 검출 횟수가 "0"일 때, 감시 영역에 외부의 객체가 들어오지 않을 가능성이 높은 시각(예컨대, 야간 등) 등이 추가 학습이 필요한지 여부를 판단할 수 있는 실행 조건으로서 미리 설정될 수 있다.The
또한, 영상 감시장치(110)의 학습부(113)는 촬영 영상 중 감시 대상 객체가 존재하지 않는 영상을 추출하여 배경 영상을 선정한 후, 선정된 배경 영상을 이용하여 감시 영역에 대한 촬영이 반영되도록 객체 탐지부(112)를 추가 학습시킬 수 있다.In addition, the
학습부(113)는 촬영 영상을 프레임 단위로 비교하여 변화가 발생한 프레임의 이전 프레임을 후보 영상으로 선정한 후, 후보 영상과 기 설정된 기준 영상과의 비교 결과에 기초하여 후보 영상 중 신규 배경 영상을 선정할 수 있다. 아울러, 학습부(113)는 신규 배경 영상의 선정을 배경 영상이 기 설정된 개수만큼 선정될 때까지 촬영 영상의 프레임 시간순서에 따라 반복하고, 신규 배경 영상은 다음의 프레임 시간순서에서 신규 배경 영상의 선정시 기준 영상으로 설정될 수 있다. 예를 들어, 학습부(113)는 촬영 영상으로부터 가장 최근에 선정된 배경 영상을 기준 영상으로 설정하고, 후보 영상과 기준 영상을 추가로 대비하여 후보 영상을 배경 영상으로 선정할 수 있다. 즉, 학습부(113)는 촬영 영상을 기 설정된 간격의 프레임 단위로 분석하여, 변화가 발생한 프레임의 이전 프레임 중에서 배경 영상을 선정하되, 배경 영상이 기 설정된 개수만큼 선정될 때까지 촬영 영상을 시간 순서에 따라 분석하여 배경 영상을 추가 선정할 수 있다. 학습부(113)는 변화가 발생한 프레임의 이전 프레임을 후보 영상으로 선정하고, 후보 영상을 기준으로 기 설정된 시간 동안의 평균 움직임 값에 기초하여 후보 영상을 배경 영상으로 선정할 수 있다. 예를 들어, 학습부(113)는 촬영 영상에서 흑백 성분(luminance)을 추출하거나 촬영 영상을 흑백 영상으로 변환한 후 매 프레임마다 프레임 단위로 비교하기 위하여 흑백 영상에 대하여 프레임간 차분 영상을 획득할 수 있다. 그리고, 학습부(113)는 임의 프레임의 프레임간 차분 영상 내에서 객체의 움직임 발생이 파악되면 임의 프레임의 직전 프레임을 후보 영상으로 선정할 수 있다. 그리고, 학습부(113)는 후보 영상이 선정되기 전에 기 설정된 시간 동안의 평균 움직임 값을 계산하고, 계산된 평균 움직임 값과 기 설정된 임계 움직임 값의 비교 결과에 기초하여 신규 배경 영상으로의 선정 여부를 결정할 수 있다. 또한, 학습부(113)는 후보 영상이 선정되면 기 설정된 시간 동안 다음 후보 영상을 선정하지 않고 휴지할 수 있다.The
한편, 영상 감시장치(110)의 학습부(113)는 촬영부(111)의 촬영 영상으로부터 획득한 감시 영역에 대한 촬영을 네거티브 세트(negative set)로 학습을 진행하여 과적합(overfitting)하는 학습법을 수행할 수 있다. 예를 들어, 촬영부(111)에 의한 감시 영역에 대한 촬영 영상의 수가 "1"이면 영상 감시 및 분석 시스템(100)을 감시 영역에 설치하고 있는 중 또는 설치한 직후일 가능성이 매우 높기 때문에 최초의 촬영 영상에는 객체 검출 및 인식의 대상이 되는 원하는 객체가 없는 상태로 간주함으로써, 추가 학습을 통해 객체 탐지부(112)의 딥 러닝 웨이트 파일을 영상 감시장치(110)에 의한 감시 영역의 촬영에 최적화되도록 미세하게 변형시킬 수 있다. 또는, 학습부(113)는 배경 영상을 선정한 경우, 배경 영상은 감지 대상 객체가 없기 때문에 배경 영상을 이용한 추가 학습을 통해 객체 탐지부(112)의 딥 러닝 웨이트 파일을 영상 감시장치(110)에 의한 감시 영역의 촬영에 최적화되도록 미세하게 변형시킬 수 있다.On the other hand, the
영상 분석 서버장치(120)는 영상 감시장치(110)로부터 전송된 객체 인식 결과에 기초하여 사전에 정의된 하나 이상의 이벤트를 감지할 수 있고, 감지된 이벤트에 따른 정보를 모니터링 장치(130)로 전송할 수 있다. 영상 감시장치(110)가 복수의 감시 영역에서 각각 운용되는 경우에 영상 분석 서버장치(120)는 복수의 영상 감시장치(110)를 통합 운용하거나 중앙 제어할 수 있다.The image
모니터링 장치(130)는 영상 감시장치(110)로부터 촬영된 영상을 수신하여 실시간으로 디스플레이 할 수 있다. 그리고, 모니터링 장치(130)는 영상 분석 서버장치(120)로부터 수신한 정보에 따라 경보 발생 등과 같은 적절한 이벤트를 발생시킬 수 있다. 또한, 모니터링 장치(130)는 영상 감시장치(110)로부터 전송된 객체 인식 결과를 실시간으로 디스플레이 할 수 있고, 객체 인식 결과에 대한 운영자 등에 의한 판단 정보를 객체의 인식 결과에 대한 피드백으로서 영상 감시장치(110) 또는 영상 분석 서버장치(120)로 전송할 수 있다.The
도 3은 본 발명의 제 1 실시예에 따른 영상 감시장치(100)의 기계 학습 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a machine learning method of the
도 1 내지 도 3을 참조하여 제 1 실시예에 따른 영상 감시장치(100)의 기계 학습 방법에 대해 자세히 살펴보기로 한다.The machine learning method of the
먼저, 영상 감시 및 분석 시스템(100)을 유통 및 설치하기 전에 영상 감시장치(110)의 객체 탐지부(112)가 추후 감시 영역에서 객체를 탐지하고 인식할 수 있도록 하기 위해 미리 설계된 신경망을 사전에 초기 학습시킨다. 예를 들어, 컨볼루션 신경망(CNN: Convolutional Neural Network)이나 순환 신경망(RNN: Recurrent Neural Network) 또는 컨볼루션 신경망과 순환 신경망의 조합 등 다양한 신경망을 이용하여 오프라인 기계 학습을 수행할 수 있고, 학습 결과로서 딥 러닝 웨이트 파일이 생성될 수 있다. 이처럼, 객체를 탐지 및 인식할 수 있도록 사전에 초기 학습시킨 객체 탐지부(112)를 포함하는 영상 감시장치(110)가 공장 등에서 제조되어 유통될 수 있고, 객체 탐지부(112)가 사전에 초기 학습된 상태가 초기화 상태이다(S310).First, before distribution and installation of the video monitoring and
이후, 영상 감시장치(110)를 소정의 감시 영역에 설치하고, 영상 분석 서버장치(120) 및 모니터링 장치(130)와 통신망을 통해 연결하여 온라인 상태를 구축한다.Thereafter, the
그러면, 영상 감시장치(110)의 촬영부(111)는 감시 영역에 대하여 영상을 촬영할 수 있는 상태에 놓이고, 학습부(113)는 기 설정된 실행 조건에 기초하여 객체 탐지부(112)의 추가 학습이 필요한지 여부를 판단한다. 여기서, 실행 조건으로는 초기화 후 촬영부(111)의 감시 영역에 대한 촬영 영상의 수, 촬영 시간 또는 객체 탐지부(112)에 의한 객체의 검출 횟수 중 하나 이상이 기 설정될 수 있다. 예를 들어, 감시 영역에 대한 촬영 영상의 수가 "1"일 때가 실행 조건으로 사전에 설정된 경우, 촬영부(111)가 감시 영역을 최초로 촬영(S320)한 때에 학습부(113)는 실행 조건이 만족하는 것으로 파악하여 객체 탐지부(112)에 대한 추가 학습이 필요한 것으로 판단할 수 있다(S330).Then, the photographing
학습부(113)가 객체 탐지부(112)에 대하여 수행하는 추가 학습은 촬영부(111)에 의해 촬영된 감시 영역의 촬영 영상이 이용된다. 예를 들어, 학습부(113)는 촬영부(111)의 촬영 영상으로부터 획득한 감시 영역에 대한 촬영을 네거티브 세트로 학습을 진행하여 과적합하는 온라인 러닝을 수행할 수 있다. 예를 들어, 촬영 영상으로부터 추출될 수 있는 감시 영역의 실내 구조, 실외 조명 상황, 실내 가구 배치 등과 같은 환경 정보가 객체 탐지부(112)에 적응적으로 추가 학습될 수 있다. 영상 감시 및 분석 시스템(100)을 감시 영역에 설치하고 있는 중 또는 설치한 직후에 촬영된 영상 내에는 객체 탐지 및 인식의 대상이 되는 원하는 객체가 없는 상태로 간주하고, 네거티브 세트를 이용한 추가 학습을 통해 객체 탐지부(112)의 사전 초기 학습에 의해 생성되어 있던 딥 러닝 웨이트 파일을 영상 감시장치(110)에 의한 감시 영역의 촬영에 최적화되도록 미세하게 변형시킬 수 있다. 여기서, 영상 감시장치(110)가 복수의 감시 영역에서 각각 운용되는 경우에 서로 다른 감시 영역에서 운용 중인 복수의 객체 탐지부(112)는 서로 다른 감시 영역에 의한 서로 다른 실내 구조, 서로 다른 실외 조명 환경, 서로 다른 실내 가구 배치 등이 추가로 학습될 수 있다(S340).The additional learning performed by the
이후, 영상 감시장치(110)의 객체 탐지부(112)는 단계 S340를 통해 감시 영역의 촬영에 최적화된 상태에서 촬영부(111)에 의한 감시 영역의 촬영 영상에서 원하는 객체를 탐지 및 인식하고, 객체 인식 결과를 영상 분석 서버장치(120) 및 모니터링 장치(130)로 전송하도록 통신부(114)를 제어한다(S350).Thereafter, the
도 4는 본 발명의 제 2 실시예에 따른 영상 감시장치(110)의 기계 학습 방법을 설명하기 위한 흐름도이고, 도 5는 도 4에 나타낸 영상 감시장치(110)의 기계 학습 방법을 부연 설명하기 위하여 배경 영상을 선정하는 과정을 나타낸 도면이다.4 is a flowchart illustrating a machine learning method of the
도 1, 도 2, 도 4 및 도 5를 참조하여 본 발명의 제 2 실시예에 따른 영상 감시 및 분석 시스템(100)에 대하여 살펴보기로 한다.An image monitoring and
먼저, 영상 감시 및 분석 시스템(100)을 유통 및 설치하기 전에 영상 감시장치(110)의 객체 탐지부(112)가 추후 감시 영역에서 객체를 탐지할 수 있도록 하기 위해 미리 설계된 신경망을 사전에 초기 학습시킨다. 예를 들어, 컨볼루션 신경망(CNN)이나 순환 신경망(RNN) 또는 컨볼루션 신경망과 순환 신경망의 조합 등 다양한 신경망을 이용하여 오프라인 러닝을 수행할 수 있고, 학습 결과로서 초기 학급 웨이트 파일이 생성될 수 있다. 이처럼, 객체를 탐지할 수 있도록 사전 초기 학습시킨 객체 탐지부(112)를 포함하는 영상 감시장치(110)가 공장 등에서 제조되어 유통될 수 있다.First, before distributing and installing the video monitoring and
이후, 영상 감시장치(110)를 소정의 감시 영역에 설치하고, 영상 분석 서버장치(120) 및 모니터링 장치(130)와 통신망을 통해 연결하여 온라인 상태를 구축한다.Thereafter, the
그러면, 영상 감시장치(110)의 촬영부(111)는 감시 영역을 촬영해 촬영 영상을 생성하여 객체 탐지부(112) 및 학습부(113)에 제공한다(S410).Then, the photographing
여기서, 학습부(113)는 촬영부(111)에 의한 촬영 영상 중 감시 영역에 대한 촬영이 반영되도록 추가 학습을 시킬 때에 이용하기 위한 배경 영상을 선정하는 과정을 수행하게 된다. 여기서, 배경 영상은 감시 대상 객체가 존재하지 않는 영상을 의미할 수 있다. 촬영 영상 중 감시 영역에 대한 촬영이 반영되도록 추가 학습하는 과정은 온라인 기계 학습 기술이라 할 수 있고, 이러한 온라인 기계 학습 기술은 소수의 학습 데이터베이스가 필요하다. 그 이유는 학습의 빈도가 캐태스트로픽 포게팅(catastrophic forgetting) 문제를 막기 위해 매우 적은 횟수여야 하며, 이 때 의미 없는 학습 영상의 수가 많을 경우 반드시 필요한 학습 이미지가 사용되지 않을 확률이 매우 높기 때문이다. 예를 들어, 학습에 반드시 필요한 영상은 100장의 영상 중 50번째 영상과 90번째 영상일 경우, 학습에 100장의 영상을 모두 사용하는 경우 적은 학습 과정 중에 50번째 영상과 90번째의 영상이 단 한번도 사용되지 않을 수 있다. 하지만 100장의 영상 중 50번째 영상과 90번째 영상을 정확하게 샘플링을 하여 학습에 사용하면 그 성능 향상이 눈에 띄게 높아질 수 있는 것이다. 그러므로, 네거티브 온라인 학습을 적용하기 위해서는 감시 대상 객체(예컨대, 사람)가 존재하지 않는 배경 영상을 선정할 필요가 있고, 감시 대상 객체가 존재하지 않는 영상 중에서 한 장을 배경 영상을 선정할 필요가 있다. 그 이유는 촬영 영상 내에 어떠한 움직임이 있기 전에 촬영된 구간의 영상은 모두 다 같기 때문이다. 예를 들어, 오전 6시에 촬영부(111)가 "ON" 상태가 된 후 오전 9시 이후에 사람이 등장하였다고 가정하면, 3시간 동안의 영상은 움직임이 발견되지 않을 경우에 거의 같다. 따라서 3시간 동안의 모든 영상을 학습에 사용하기 보다는 이 중에 한 장만 사용하는 것이 매우 효과적이고, 이처럼 네거티브 온라인 학습에 사용할 영상을 찾는 과정이 배경 영상을 선정하는 과정이다.Here, the
이러한 배경 영상을 선정하는 과정을 살펴보면, 학습부(113)는 먼저 앞선 배경 영상 선정 과정 중에 배경 영상으로 선정된 영상의 개수가 기 설정된 배경 영상 개수를 만족하는지를 판단한다(S421). 이러한 단계 S421에서, 기 설정된 배경 영상의 개수보다 앞서 선정된 배경 영상의 개수가 작으면 배경 영상을 추가로 선정하는 과정을 수행하게 된다. 즉, 배경 영상의 추가 선정이 필요하다고 판단되는 경우에 이후 설명될 단계 S430까지를 수행하게 된다.Looking at the process of selecting such a background image, the
학습부(113)는 단계 S410의 촬영 영상으로부터 흑백 성분(luminance)을 추출하거나 촬영 영상을 흑백 영상으로 변환(S422)한 후 기 설정된 간격의 프레임 단위로, 예컨대 매 프레임마다 프레임 단위로 비교하기 위하여 흑백 영상에 대하여 프레임간 차분 영상을 획득할 수 있다. 도 5에는 현재 프레임 영상(Fn)과 바로 이전 프레임의 영상(Fn - 1)의 차분 영상(FDn)을 계산하는 예를 나타내었다. 예를 들어, 도 6에 예시한 바와 같이 현재 프레임과 이전 프레임의 차이, 즉 움직이는 객체의 윤곽선 정도만 포함하는 프레임간 차분 영상이 획득될 수 있다(S423).The
그리고, 학습부(113)는 임의 프레임의 프레임간 차분 영상 내에서 객체의 움직임 발생이 파악(S424)되면 임의 프레임의 이전 프레임들 중 샘플링을 통해 어느 한 프레임을 배경 영상의 후보 영상으로 선정할 수 있다. 예컨대, 학습부(113)는 객체의 움직임 발생이 파악된 임의 프레임의 직전 프레임을 배경 영상의 후보 영상으로 선정할 수 있다(S425).And, the
여기서, 단계 S425에서 선정된 배경 영상의 후보 영상은 배경 영상으로 선정하기에 부적합한 영상이 포함되어 있을 수 있다. 예를 들어, 근시간 내에 객체의 움직임이 없다가 잠시 움직임이 발생 후 다시 움직임이 없는 패턴이 반복되었을 경우 단계 S425에서 객체가 포함된 영상이 후보 영상으로 선정될 수 있기 때문에, 이러한 후보 영상은 배경 영상으로 선정하기에 부적합하다고 할 수 있다. 이러한 부적합 영상을 필터링하기 위하여 학습부(113)는 단계 S425에서 배경 영상의 후보 영상이 선정된 경우, 후보 영상이 선정되기 전에 기 설정된 시간 동안(예컨대, 150초 동안)의 평균 움직임 값을 계산하고, 계산된 평균 움직임 값과 기 설정된 임계 움직임 값을 비교하며, 평균 움직임 값이 임계 움직임 값을 초과하는 경우에는 단계 S425에서 선정된 영상을 배경 영상의 후보 영상에서 제외시킬 수 있다(S426).Here, the candidate image of the background image selected in step S425 may include an image inappropriate to be selected as a background image. For example, if there is no movement of an object within a short period of time and then a pattern without movement is repeated again after a moment of movement, an image containing an object may be selected as a candidate image in step S425, so such a candidate image is used as a background image. It can be said that it is not suitable to be selected as a video. In order to filter out such a nonconforming image, when a candidate image of the background image is selected in step S425, the
그리고, 학습부(113)는 단계 S426을 통과한 후보 영상이 존재하면, 기 설정된 시간 동안 다음 후보 영상을 선정하지 않고 휴지할 수 있다. 이는 휴지 시간(sleep time)을 갖지 않고 다음 후보 영상을 선정하게 되면, 이후 단계 S426을 다시 수행할 때에 평균 움직임 값이 임계 움직임 값을 초과하지 않더라도 매우 유사할 확률이 높기 때문에, 이처럼 배경 영상으로 선정하기에 부적합한 영상이 단계 S426을 통과하는 것을 방지하기 위한 것이다(S427).In addition, if there is a candidate image that has passed step S426, the
다음으로, 학습부(113)는 단계 S426을 통과한 후보 영상과 기 설정된 기준 영상을 비교하고(S428), 후보 영상과 기준 영상의 차이가 기 설정된 임계값 이상 차이가 있는 경우(S429)에 단계 S426을 통과한 후보 영상을 신규 배경 영상으로 선정할 수 있다(S430). 여기서, 신규 배경 영상으로 선정된 영상은 다음의 프레임 시간순서에서 신규 배경 영상의 선정시 기준 영상으로 설정될 수 있다. 즉, 단계 S426을 통과한 후보 영상과 비교되는 기준 영상은 이미 선정된 배경 영상 중에서 가장 최근에 배경 영상으로 선정된 것이 이용될 수 있다. 예를 들어, 단계 S428 및 S429가 최초로 수행되는 경우에 기준 영상은 존재하지 않을 수 있고, 이 경우에는 단계 S426을 통과한 후보 영상이 필연적으로 배경 영상으로 선정될 수 있다. 예를 들어, 단계 S429에서 후보 영상과 기준 영상을 비교할 때에 영상 비교를 위하여 SSIM(structural similarity) 알고리즘을 사용할 수 있다. SSIM 알고리즘은 기준 영상(Fo)과 후보 영상, 즉 단계 S426을 통과한 현재 프레임 영상(Fn)의 밝기가 다르거나 콘트라스트(contrast)가 다르거나 또는 영상 내 구조가 다른 경우에 그 값이 0에 가까워 지고, 일치할수록 1에 가까워 진다.Next, the
단계 S422 내지 단계 S430은 필요한 만큼 반복될 수 있다. 즉, 촬영 영상을 기 설정된 간격의 프레임 단위로 분석하여, 변화가 발생한 프레임의 이전 프레임 중에서 배경 영상을 선정하되, 배경 영상이 기 설정된 개수만큼 선정될 때까지 촬영 영상을 시간 순서에 따라 분석하여 배경 영상을 추가로 선정할 수 있다.Steps S422 to S430 may be repeated as needed. In other words, the captured image is analyzed in units of frames at a preset interval, and a background image is selected from the previous frames of the frame in which the change has occurred, but the captured image is analyzed in chronological order until the background image is selected as many times as the background image. Additional videos can be selected.
단계 S421에서 배경 영상으로 선정된 영상의 개수가 기 설정된 배경 영상 개수를 만족하면, 학습부(113)는 선정된 배경 영상을 이용하여 감시 영역에 대한 촬영이 반영되도록 객체 탐지부(112)를 추가 학습시킨다. 예를 들어, 학습부(113)는 감시 대상 객체가 존재하지 않는 배경 영상으로부터 획득한 감시 영역에 대한 촬영을 네거티브 세트로 학습을 진행하여 과적합하는 온라인 러닝을 수행할 수 있다. 예를 들어, 배경 영상으로부터 추출될 수 있는 감시 영역의 실내 구조, 실외 조명 상황, 실내 가구 배치 등과 같은 환경 정보가 객체 탐지부(112)에 적응적으로 추가 학습될 수 있다. 이로써, 사전 초기 학습에 의해 생성되어 있던 초기 학습 웨이트 파일이 영상 감시장치(110)에 의한 감시 영역의 촬영에 최적화되도록 미세하게 변형되어 추가 학습 웨이트 파일이 생성될 수 있다. 여기서, 영상 감시장치(110)가 복수의 감시 영역에서 각각 운용되는 경우에 서로 다른 감시 영역에서 운용 중인 복수의 객체 탐지부(112)는 서로 다른 감시 영역에 의한 서로 다른 실내 구조, 서로 다른 실외 조명 환경, 서로 다른 실내 가구 배치 등이 추가로 학습될 수 있다(S440).When the number of images selected as the background image in step S421 satisfies the preset number of background images, the
이후, 영상 감시장치(110)의 객체 탐지부(112)는 단계 S440를 통해 감시 영역의 촬영에 최적화된 상태에서 촬영부(111)에 의한 감시 영역의 촬영 영상에서 감지 대상 객체를 검출 및 인식하고, 객체 인식 결과에 의한 탐지 정보를 영상 분석 서버장치(120) 및 모니터링 장치(130)로 전송하도록 통신부(114)를 제어한다(S450).Thereafter, the
도 7은 영상 분석 서버장치(120)에 객체 탐지기로서 객체 탐지부(121)가 포함된 실시예를 나타낸 것이고, 이러한 실시예에 따르면 영상 감시장치(110) 또한 객체 탐지기를 포함할 수 있다.7 shows an embodiment in which the image
도 1 및 도 7을 참조하여 본 발명의 실시예에 따른 영상 감시 및 분석 시스템(100)에 대하여 살펴보기로 한다.An image monitoring and
영상 감시장치(110)는 감시 영역의 영상을 촬영하고, 촬영 영상을 포함한 각종 정보를 영상 분석 서버장치(120) 및 모니터링 장치(130)와 송수신할 수 있다. 예를 들어, 영상 감시장치(110)는 CCTV용 카메라로 구현될 수 있으나, 이에 한정되는 것은 아니고 감시 영역의 영상을 촬영할 수 있는 모든 장치를 포함할 수 있다.The
이러한 영상 감시장치(110)는 촬영 영상으로부터 객체를 탐지하도록 사전에 초기 학습된 객체 탐지기를 포함할 수 있다. 영상 감시장치(110)는 객체 탐지기를 이용해 감시 영역의 촬영 영상을 실시간으로 분석하여 객체를 탐지 및 인식한 후, 객체 인식 결과를 영상 분석 서버장치(120) 및 모니터링 장치(130)로 전송할 수 있다. 객체 탐지기는 객체를 검출하고 인식하도록 미리 설계된 신경망을 학습하고, 학습된 신경망을 기반으로 촬영 영상 내의 객체를 검출 및 인식할 수 있다.Such an
영상 분석 서버장치(120)는 영상 감시장치(110)로부터 전송된 감시 영역에 대한 촬영 영상으로부터 객체를 탐지하도록 사전에 초기 학습된 객체 탐지부(121)를 포함할 수 있고, 영상 감시장치(110) 및 모니터링 장치(130)와 각종 정보를 송수신할 수 있는 통신부(123)를 포함할 수 있다. 이러한 객체 탐지부(121)는 학습부(122)에 의하여 감시 영역의 촬영이 적응적으로 추가 학습될 수 있다. 예를 들어, 감시 영역의 촬영에 대한 추가 학습에는 감시 영역에 대한 촬영 영상이 이용될 수 있다. 객체 탐지부(121)는 감시 영역의 촬영 영상을 실시간으로 분석하여 객체를 검출 및 인식하고, 객체 인식 결과를 영상 감시장치(110) 및 모니터링 장치(130)로 전송하도록 통신부(123)를 제어한다. 객체 탐지부(121)는 객체를 검출하고 인식하도록 미리 설계된 신경망을 학습하고, 학습된 신경망을 기반으로 촬영 영상 내의 객체를 검출 및 인식할 수 있다. 또한, 객체 탐지부(121)는 영상 감시장치(110)로부터 전송된 객체 인식 결과에 기초하여 사전에 정의된 하나 이상의 이벤트를 감지할 수 있고, 감지된 이벤트에 따른 정보를 모니터링 장치(130)로 전송하도록 통신부(123)를 제어할 수 있다. 영상 감시장치(110)가 복수의 감시 영역에서 각각 운용되는 경우에 객체 탐지부(121)는 복수의 영상 감시장치(110)를 통합 운용하거나 중앙 제어할 수 있다.The image
영상 분석 서버장치(120)는 감시 영역에 대한 촬영 영상을 이용해 객체 탐지부(121)에 대하여 감시 영역의 촬영을 적응적으로 추가 학습시키는 학습부(122)를 포함할 수 있다. 여기서, 영상 감시장치(110)가 복수의 감시 영역에서 각각 운용되는 경우에 서로 다른 감시 영역에 의한 서로 다른 실내 구조, 서로 다른 실외 조명 환경, 서로 다른 실내 가구 배치 등이 추가로 학습될 수 있다. 학습부(122)는 기 설정된 실행 조건에 기초하여 객체 탐지부(121)의 추가 학습이 필요한지 여부를 판단할 수 있는데, 실행 조건으로는 초기화 후 영상 감시장치(110)의 감시 영역에 대한 촬영 영상의 수, 촬영 시간 또는 객체의 인식 결과에 대한 모니터링 장치(130)의 피드백 결과 중 하나 이상이 기 설정될 수 있다. 예를 들어, 감시 영역에 대한 촬영 영상의 수가 "1"일 때, 감시 영역에 외부의 객체가 들어오지 않을 가능성이 높은 시각(예컨대, 야간 등), 객체의 인식 결과에 대한 피드백 결과가 "거짓(false)"일 때 등이 추가 학습이 필요한지 여부를 판단할 수 있는 실행 조건으로서 미리 설정될 수 있다.The image
또는, 영상 분석 서버장치(120)의 학습부(122)는 촬영 영상 중 감시 대상 객체가 존재하지 않는 배경 영상을 선정한 후, 선정된 배경 영상을 이용하여 감시 영역에 대한 촬영이 반영되도록 객체 탐지부(121)를 추가 학습시킬 수 있다. 여기서, 학습부(122)는 촬영 영상을 프레임 단위로 비교하여 변화가 발생한 프레임의 이전 프레임을 후보 영상으로 선정한 후, 후보 영상과 기 설정된 기준 영상과의 비교 결과에 기초하여 후보 영상 중 신규 배경 영상을 선정할 수 있다. 아울러, 학습부(122)는 신규 배경 영상의 선정을 배경 영상이 기 설정된 개수만큼 선정될 때까지 촬영 영상의 프레임 시간순서에 따라 반복하고, 신규 배경 영상은 다음의 프레임 시간순서에서 신규 배경 영상의 선정시 기준 영상으로 설정될 수 있다. 즉, 배경 영상이 기 설정된 개수만큼 선정될 때까지 촬영 영상을 시간 순서에 따라 분석하여 배경 영상을 추가로 선정할 수 있다. 예를 들어, 학습부(122)는 촬영 영상에서 흑백 성분을 추출하거나 촬영 영상을 흑백 영상으로 변환한 후 기 설정된 간격의 프레임 단위로 분석하기 위하여, 예컨대 매 프레임마다 프레임 단위로 비교하기 위하여 흑백 영상에 대하여 프레임간 차분 영상을 획득할 수 있다. 그리고, 학습부(122)는 임의 프레임의 프레임간 차분 영상 내에서 객체의 움직임 발생이 파악되면 임의 프레임의 직전 프레임을 후보 영상으로 선정할 수 있다. 그리고, 학습부(122)는 후보 영상이 선정되기 전에 기 설정된 시간 동안의 평균 움직임 값을 계산하고, 계산된 평균 움직임 값과 기 설정된 임계 움직임 값의 비교 결과에 기초하여 신규 배경 영상으로의 선정 여부를 결정할 수 있다. 또한, 학습부(122)는 후보 영상이 선정되면 기 설정된 시간 동안 다음 후보 영상을 선정하지 않고 휴지할 수 있다.Alternatively, the
한편, 영상 분석 서버장치(120)의 학습부(122)는 영상 감시장치(110)의 촬영 영상으로부터 획득한 감시 영역에 대한 촬영을 네거티브 세트(negative set)로 학습을 진행하여 과적합(overfitting)하는 학습법을 수행할 수 있다. 예를 들어, 영상 감시장치(110)에 의한 감시 영역에 대한 촬영 영상의 수가 "1"이면 영상 감시 및 분석 시스템(100)을 감시 영역에 설치하고 있는 중 또는 설치한 직후일 가능성이 매우 높기 때문에 최초의 촬영 영상에는 객체 탐지 및 인식의 대상이 되는 원하는 객체가 없는 상태로 간주함으로써, 추가 학습을 통해 객체 탐지부(121)의 딥 러닝 웨이트 파일을 영상 감시장치(110)에 의한 감시 영역의 촬영에 최적화되도록 미세하게 변형시킬 수 있다. 또는, 학습부(122)는 배경 영상을 선정한 경우, 배경 영상은 감지 대상 객체가 없기 때문에 배경 영상을 이용한 추가 학습을 통해 객체 탐지부(121)의 딥 러닝 웨이트 파일을 영상 감시장치(110)에 의한 감시 영역의 촬영에 최적화되도록 미세하게 변형시킬 수 있다.On the other hand, the
모니터링 장치(130)는 영상 감시장치(110)로부터 촬영된 영상을 수신하여 실시간으로 디스플레이 할 수 있다. 그리고, 모니터링 장치(130)는 영상 분석 서버장치(120)로부터 수신한 정보에 따라 경보 발생 등과 같은 적절한 이벤트를 발생시킬 수 있다. 또한, 모니터링 장치(130)는 영상 감시장치(110) 또는 영상 분석 서버장치(120)로부터 전송된 객체 인식 결과를 실시간으로 디스플레이 할 수 있고, 객체 인식 결과에 대한 운영자 등에 의한 판단 정보를 객체의 인식 결과에 대한 피드백으로서 영상 감시장치(110) 또는 영상 분석 서버장치(120)로 전송할 수 있다.The
도 8은 본 발명의 제 3 실시예에 따른 영상 분석 서버장치(120)의 기계 학습 방법을 설명하기 위한 흐름도이다.8 is a flowchart illustrating a machine learning method of the image
도 1, 도 7 및 도 8을 참조하여 제 3 실시예에 따른 영상 분석 서버장치(120)의 기계 학습 방법에 대해 자세히 살펴보기로 한다.A machine learning method of the image
먼저, 영상 감시 및 분석 시스템(100)을 유통 및 설치하기 전에 영상 감시장치(110)의 객체 탐지기 및 영상 분석 서버장치(120)의 객체 탐지부(121)가 영상 내에 포함된 객체를 탐지하도록 하기 위해 미리 설계된 신경망을 사전에 초기 학습시킨다. 예를 들어, 컨볼루션 신경망이나 순환 신경망 또는 컨볼루션 신경망과 순환 신경망의 조합 등 다양한 신경망을 이용하여 오프라인 러닝을 수행할 수 있고, 학습 결과로서 딥 러닝 웨이트 파일이 생성될 수 있다. 이처럼, 객체를 탐지하도록 사전 초기 학습시킨 객체 탐지기를 포함하는 영상 감시장치(110) 및 객체 탐지부(121)를 포함하는 영상 분석 서버장치(120)가 공장 등에서 제조되어 유통될 수 있고, 오프라인 러닝에 의해 사전 초기 학습된 상태가 초기화 상태이다.First, before distribution and installation of the image monitoring and
이후, 영상 감시장치(110)를 소정의 감시 영역에 설치하고, 영상 분석 서버장치(120) 및 모니터링 장치(130)와 통신망을 통해 연결하여 온라인 상태를 구축한다.Thereafter, the
그러면, 영상 감시장치(110)는 감시 영역에 대하여 영상을 촬영할 수 있는 상태에 놓이고, 영상 분석 서버장치(120)의 학습부(122)는 기 설정된 실행 조건에 기초하여 객체 탐지부(121)의 추가 학습이 필요한지 여부를 판단한다. 여기서, 실행 조건으로는 초기화 후 영상 감시장치(110)의 감시 영역에 대한 촬영 영상의 수, 촬영 시간 또는 객체의 인식 결과에 대한 모니터링 장치(130)의 피드백 결과 중 하나 이상이 기 설정될 수 있다. 예를 들어, 감시 영역에 대한 촬영 영상의 수가 "1"일 때가 실행 조건으로 사전에 설정된 경우, 영상 감시장치(110)가 감시 영역을 최초로 촬영(S810)하여 영상 분석 서버장치(120) 및 모니터링 장치(130)에 전송하였을 때에 학습부(122)는 실행 조건이 만족하는 것으로 파악하여 객체 탐지부(121)에 대한 추가 학습이 필요한 것으로 판단할 수 있다(S820).Then, the
학습부(122)가 객체 탐지부(121)에 대하여 수행하는 추가 학습은 영상 감시장치(110)에 의해 촬영된 감시 영역의 촬영 영상이 이용된다. 예를 들어, 촬영 영상으로부터 추출될 수 있는 감시 영역의 실내 구조, 실외 조명 상황, 실내 가구 배치 등과 같은 환경 정보가 객체 탐지부(121)에 적응적으로 추가 학습될 수 있다. 여기서, 학습부(122)는 영상 감시장치(110)의 촬영 영상으로부터 획득한 감시 영역에 대한 촬영을 네거티브 세트로 학습을 진행하여 과적합하는 온라인 러닝을 수행함으로써 새로운 과적합 모델을 생성할 수 있다. 영상 감시 및 분석 시스템(100)을 감시 영역에 설치하고 있는 중 또는 설치한 직후에 촬영된 영상 내에는 객체 탐지 및 인식의 대상이 되는 원하는 객체가 없는 상태로 간주하고, 네거티브 세트를 이용한 추가 학습을 통해 객체 탐지부(121)의 사전 초기 학습에 의해 생성되어 있던 딥 러닝 웨이트 파일을 영상 감시장치(110)에 의한 감시 영역의 촬영에 최적화되도록 미세하게 변형시킬 수 있다(S830).The additional learning performed by the
그리고, 객체 탐지부(121)는 단계 S830의 추가 학습에 의해 생성된 과적합 모델을 영상 감시장치(110)로 전송하도록 통신부(123)를 제어할 수 있고, 통신부(123)는 객체 탐지부(121)에 의하여 단계 S830에서 생성된 과적합 모델을 객체 탐지부(121)의 제어에 따라 영상 감시장치(110)로 송신할 수 있다(S840).In addition, the
그러면, 영상 감시장치(110)는 영상 분석 서버장치(120)로부터 추가 학습의 결과물인 과적합 모델을 수신할 수 있고, 사전 초기 학습된 상태인 객체 탐지기는 추가 학습된 과적합 모델을 적용하는 온라인 러닝을 수행할 수 있다. 이로써, 영상 감시장치(110)는 감시 영역의 촬영에 최적화된다. 여기서, 영상 감시장치(110)가 복수의 감시 영역에서 각각 운용되는 경우에 서로 다른 감시 영역에 의한 서로 다른 실내 구조, 서로 다른 실외 조명 환경, 서로 다른 실내 가구 배치 등이 추가로 학습될 수 있다. 이후, 영상 감시장치(110)는 감시 영역의 촬영에 최적화된 상태에서 감시 영역의 영상을 촬영하고, 촬영 영상에서 원하는 객체를 탐지 및 인식하며, 객체 인식 결과를 영상 분석 서버장치(120) 및 모니터링 장치(130)로 전송할 수 있다.Then, the
한편, 단계 S820에서 영상 분석 서버장치(120)의 학습부(122)는 영상 감시장치(110)에 의한 객체의 인식 결과에 대한 모니터링 장치(130)의 피드백 결과에 기초하여 객체 탐지부(121)의 추가 학습이 필요한 실행 조건이 만족하는지를 판단할 수 있다. 예를 들어, 모니터링 장치(130)로부터 객체의 인식 결과에 대한 피드백 결과로서, "거짓(false)"이 수신(S810)될 때에 기 설정된 실행 조건이 만족하는 것으로 파악하여 추가 학습이 필요한 것으로 판단할 수 있다(S820). 이후, 앞서 설명한 바와 같이 단계 S830 및 S840이 수행될 수 있다.On the other hand, in step S820, the
도 9는 본 발명의 제 4 실시예에 따른 영상 분석 서버장치(120)의 기계 학습 방법을 설명하기 위한 흐름도이다.9 is a flowchart illustrating a machine learning method of the image
도 1, 도 7 및 도 9를 참조하여 본 발명의 제 4 실시예에 따른 영상 감시 및 분석 시스템(100)에 대하여 살펴보기로 한다.An image monitoring and
먼저, 영상 감시 및 분석 시스템(100)을 유통 및 설치하기 전에 영상 감시장치(110)의 객체 탐지기 및 영상 분석 서버장치(120)의 객체 탐지부(121)가 영상 내에 포함된 객체를 탐지하도록 하기 위해 미리 설계된 신경망을 사전에 초기 학습시킨다. 예를 들어, 컨볼루션 신경망이나 순환 신경망 또는 컨볼루션 신경망과 순환 신경망의 조합 등 다양한 신경망을 이용하여 오프라인 기계 학습을 수행할 수 있고, 학습 결과로서 딥 러닝 웨이트 파일이 생성될 수 있다. 이처럼, 객체를 탐지하도록 사전 초기 학습시킨 객체 탐지기를 포함하는 영상 감시장치(110) 및 객체 탐지부(121)를 포함하는 영상 분석 서버장치(120)가 공장 등에서 제조되어 유통될 수 있고, 오프라인 기계 학습에 의해 사전 초기 학습된 상태가 초기화 상태이다.First, before distribution and installation of the image monitoring and
이후, 영상 감시장치(110)를 소정의 감시 영역에 설치하고, 영상 분석 서버장치(120) 및 모니터링 장치(130)와 통신망을 통해 연결하여 온라인 상태를 구축한다.Thereafter, the
그러면, 영상 감시장치(110)는 감시 영역에 대하여 영상을 촬영할 수 있는 상태에 놓이고, 영상 감시장치(110)는 감시 영역을 촬영하여 촬영 영상을 생성하며, 감시 영역에 대한 촬영 영상을 영상 분석 서버장치(120) 및 모니터링 장치(130)에 제공하고, 영상 분석 서버장치(120)의 통신부(123)는 영상 감시 장치(110)로부터 촬영 영상을 수신하여 객체 탐지부(121) 및 학습부(122)에 제공한다(S910).Then, the
그리고, 학습부(122)는 영상 감시 장치(110)에 의한 촬영 영상 중 감시 영역에 대한 촬영이 반영되도록 추가 학습을 시킬 때에 이용하기 위한 배경 영상을 선정하는 과정을 수행하게 된다. 배경 영상을 선정하는 과정이 필요한 이유에 대해서는 도 4를 참조하여 앞서 설명하였다.In addition, the
이러한 배경 영상을 선정하는 과정을 살펴보면, 학습부(122)는 먼저 앞선 배경 영상 선정 과정 중에 배경 영상으로 선정된 영상의 개수가 기 설정된 배경 영상 개수를 만족하는지를 판단한다(S921). 이러한 단계 S921에서, 기 설정된 배경 영상의 개수보다 앞서 선정된 배경 영상의 개수가 작으면 배경 영상을 추가로 선정하는 과정을 수행하게 된다. 즉, 배경 영상의 추가 선정이 필요하다고 판단되는 경우, 예를 들어 배경 영상이 기 설정된 개수만큼 선정될 때까지 촬영 영상을 시간 순서에 따라 분석하여 배경 영상을 추가로 선정하는 절차, 즉 이후 설명될 단계 S930까지를 수행하게 된다.Looking at the process of selecting such a background image, the
학습부(122)는 단계 S910의 촬영 영상으로부터 흑백 성분을 추출하거나 촬영 영상을 흑백 영상으로 변환(S922)한 후 기 설정된 간격의 프레임 단위로 분석하기 위하여, 예컨대 매 프레임마다 프레임 단위로 비교하기 위하여 흑백 영상에 대하여 프레임간 차분 영상을 획득할 수 있다. 예를 들어, 도 6에 예시한 바와 같이 현재 프레임과 이전 프레임의 차이, 즉 움직이는 객체의 윤곽선 정도만 포함하는 프레임간 차분 영상이 획득될 수 있다(S923).The
그리고, 학습부(122)는 임의 프레임의 프레임간 차분 영상 내에서 객체의 움직임 발생이 파악(S924)되면 임의 프레임의 이전 프레임들 중 샘플링을 통해 어느 한 프레임을 배경 영상의 후보 영상으로 선정할 수 있다. 예컨대, 학습부(122)는 객체의 움직임 발생이 파악된 임의 프레임의 직전 프레임을 배경 영상의 후보 영상으로 선정할 수 있다(S925).In addition, when the motion of the object is detected in the inter-frame difference image of the arbitrary frame (S924), the
여기서, 단계 S925에서 선정된 배경 영상의 후보 영상은 배경 영상으로 선정하기에 부적합한 영상이 포함되어 있을 수 있다. 예를 들어, 근시간 내에 객체의 움직임이 없다가 잠시 움직임이 발생 후 다시 움직임이 없는 패턴이 반복되었을 경우 단계 S925에서 객체가 포함된 영상이 후보 영상으로 선정될 수 있기 때문에, 이러한 후보 영상은 배경 영상으로 선정하기에 부적합하다고 할 수 있다. 이러한 부적합 영상을 필터링하기 위하여 학습부(122)는 단계 S925에서 배경 영상의 후보 영상이 선정된 경우, 후보 영상이 선정되기 전에 기 설정된 시간 동안(예컨대, 150초 동안)의 평균 움직임 값을 계산하고, 계산된 평균 움직임 값과 기 설정된 임계 움직임 값을 비교하며, 평균 움직임 값이 임계 움직임 값을 초과하는 경우에는 단계 S925에서 선정된 영상을 배경 영상의 후보 영상에서 제외시킬 수 있다(S926).Here, the candidate image of the background image selected in step S925 may include an image inappropriate to be selected as the background image. For example, if there is no movement of an object within a short period of time and then a motionless pattern is repeated after a brief movement occurs, an image containing an object may be selected as a candidate image in step S925. It can be said that it is not suitable to be selected as a video. In order to filter out such a nonconforming image, when the candidate image of the background image is selected in step S925, the
그리고, 학습부(122)는 단계 S926을 통과한 후보 영상이 존재하면, 기 설정된 시간 동안 다음 후보 영상을 선정하지 않고 휴지할 수 있다. 이는 휴지 시간(sleep time)을 갖지 않고 다음 후보 영상을 선정하게 되면, 이후 단계 S926을 다시 수행할 때에 평균 움직임 값이 임계 움직임 값을 초과하지 않더라도 매우 유사할 확률이 높기 때문에, 이처럼 배경 영상으로 선정하기에 부적합한 영상이 단계 S926을 통과하는 것을 방지하기 위한 것이다(S927).In addition, if there is a candidate image that has passed step S926, the
다음으로, 학습부(122)는 단계 S926을 통과한 후보 영상과 기 설정된 기준 영상을 비교하고(S928), 후보 영상과 기준 영상의 차이가 기 설정된 임계값 이상 차이가 있는 경우(S929)에 단계 S926을 통과한 후보 영상을 신규 배경 영상으로 선정할 수 있다(S930). 여기서, 신규 배경 영상으로 선정된 영상은 다음의 프레임 시간순서에서 신규 배경 영상의 선정시 기준 영상으로 설정될 수 있다. 즉, 단계 S926을 통과한 후보 영상과 비교되는 기준 영상은 이미 선정된 배경 영상 중에서 가장 최근에 배경 영상으로 선정된 것이 이용될 수 있다. 예를 들어, 단계 S928 및 S929가 최초로 수행되는 경우에 기준 영상은 존재하지 않을 수 있고, 이 경우에는 단계 S926을 통과한 후보 영상이 필연적으로 배경 영상으로 선정될 수 있다. 예를 들어, 단계 S929에서 후보 영상과 기준 영상을 비교할 때에 영상 비교를 위하여 SSIM(structural similarity) 알고리즘을 사용할 수 있다.Next, the
단계 S922 내지 단계 S930이 필요한 만큼 반복되어, 단계 S921에서 배경 영상으로 선정된 영상의 개수가 기 설정된 배경 영상 개수를 만족하면, 학습부(122)는 선정된 배경 영상을 이용하여 감시 영역에 대한 촬영이 반영되도록 객체 탐지부(121)를 추가 학습시킨다. 예를 들어, 학습부(122)는 감시 대상 객체가 존재하지 않는 배경 영상으로부터 획득한 감시 영역에 대한 촬영을 네거티브 세트로 학습을 진행하여 과적합하는 온라인 러닝을 수행할 수 있다. 예를 들어, 배경 영상으로부터 추출될 수 있는 감시 영역의 실내 구조, 실외 조명 상황, 실내 가구 배치 등과 같은 환경 정보가 객체 탐지부(121)에 적응적으로 추가 학습될 수 있다. 이로써, 사전 초기 학습에 의해 생성되어 있던 초기 학습 웨이트 파일이 영상 감시장치(110)에 의한 감시 영역의 촬영에 최적화되도록 미세하게 변형되어 추가 학습 웨이트 파일이 생성될 수 있다(S940).Steps S922 to S930 are repeated as many times as necessary, and if the number of images selected as the background image in step S921 satisfies the preset number of background images, the
그리고, 객체 탐지부(121)는 단계 S940의 추가 학습에 의해 생성된 과적합 모델을 영상 감시장치(110)로 전송하도록 통신부(123)를 제어할 수 있고, 통신부(123)는 객체 탐지부(121)에 의하여 단계 S940에서 생성된 과적합 모델을 객체 탐지부(121)의 제어에 따라 영상 감시장치(110)로 송신할 수 있다(S950).In addition, the
그러면, 영상 감시장치(110)는 영상 분석 서버장치(120)로부터 추가 학습의 결과물인 과적합 모델을 수신할 수 있고, 사전 초기 학습된 상태인 객체 탐지기는 추가 학습된 과적합 모델을 적용하는 온라인 러닝을 수행할 수 있다. 이로써, 영상 감시장치(110)는 감시 영역의 촬영에 최적화된다. 여기서, 영상 감시장치(110)가 복수의 감시 영역에서 각각 운용되는 경우에 서로 다른 감시 영역에 의한 서로 다른 실내 구조, 서로 다른 실외 조명 환경, 서로 다른 실내 가구 배치 등이 추가로 학습될 수 있다. 이후, 영상 감시장치(110)는 감시 영역의 촬영에 최적화된 상태에서 감시 영역의 영상을 촬영하고, 촬영 영상에서 원하는 객체를 탐지 및 인식하며, 객체 인식 결과를 영상 분석 서버장치(120) 및 모니터링 장치(130)로 전송할 수 있다.Then, the
도 10은 본 발명의 실시예들에 따른 기계 학습 방법에 의한 객체 탐지 결과를 예시한 도면으로서, 왼쪽은 사전 초기 학습(오프라인 기계 학습) 상태의 객체 탐지 결과이고, 오른쪽은 사전 초기 학습(오프라인 기계 학습) 및 추가 학습(온라인 기계 학습) 상태의 객체 탐지 결과이다. 사전 초기 학습 시에는 수십 만장의 사람 영상을 이용해 딥 러닝을 수행하였고, 추가 학습 시에는 감시 영역에 대한 1장의 촬영 영상을 이용해 약 10번에 걸쳐서 반복 학습하는 딥 러닝을 수행하였다. 사전 초기 학습만 수행한 경우에는 왼쪽 하단에서 사람이 아닌 객체에 대해 사람으로 오류 인식하였으나 추가 학습을 수행한 경우에는 이러한 오류 인식이 발생하지 않았다.10 is a diagram illustrating an object detection result by the machine learning method according to embodiments of the present invention, the left is the object detection result in the pre-initial learning (offline machine learning) state, the right is the pre-initial learning (offline machine learning) Learning) and additional learning (online machine learning). During the initial preliminary learning, deep learning was performed using hundreds of thousands of human images, and when additional learning was performed, deep learning was performed over 10 times using one photographed image for the surveillance area. In the case of performing only the preliminary initial learning, an object other than a human was recognized as a human in the lower left corner, but when additional learning was performed, such error recognition did not occur.
도 11 및 도 12는 본 발명의 실시예들에 따른 기계 학습 방법에 이용된 영상을 예시한 도면이다. 도 3을 참조하여 설명한 제 1 실시예에 따른 기계 학습 방법에 따라 도 11에 예시한 것과 동일한 5장의 영상을 이용하여 추가 기계 학습을 수행하고, 도 4를 참조하여 설명한 제 2 실시예에 따른 기계 학습 방법에 따라 도 11에 예시한 것과 동일한 1장의 영상과 도 12에 예시한 것과 동일한 1장의 영상을 이용하여 추가 기계 학습을 수행하였다. 객체 탐지 성능을 지표라 할 수 있는 AP(Average Precision) 성능이 제 1 실시예는 0.8311로 측정되었고 제 2 실시예는 0.9105로 측정되었다.11 and 12 are diagrams illustrating images used in a machine learning method according to embodiments of the present invention. According to the machine learning method according to the first embodiment described with reference to FIG. 3, additional machine learning is performed using the same five images as illustrated in FIG. 11, and the machine according to the second embodiment described with reference to FIG. Depending on the learning method, additional machine learning was performed using the same image as that illustrated in FIG. 11 and the same image as that illustrated in FIG. 12. The average precision (AP) performance, which can be referred to as the object detection performance as an index, was measured as 0.8311 in the first embodiment and 0.9105 in the second embodiment.
지금까지 설명한 바와 같이 본 발명의 실시예들에 의하면, 영상으로부터 객체를 탐지하도록 사전 초기 학습된 객체 탐지기에 대하여 감시 영역에 대한 촬영 영상을 이용해 감시 영역의 촬영을 추가로 학습시킨다. 이로써, 객체 탐지 기능이 감시 영역의 촬영에 최적화되어 객체 검출 및 인식의 정확성이 크게 향상되는 효과가 있다.As described so far, according to the embodiments of the present invention, the object detector, which is initially learned to detect an object from an image, is additionally learned to capture the surveillance area by using the captured image for the surveillance area. As a result, the object detection function is optimized for photographing the surveillance area, and thus the accuracy of object detection and recognition is greatly improved.
본 발명에 첨부된 각 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 기록매체에 저장된 인스트럭션들은 흐름도의 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Combinations of each step in each flowchart attached to the present invention may be performed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general purpose computer, special purpose computer or other programmable data processing equipment, the instructions executed by the processor of the computer or other programmable data processing equipment are the functions described in each step of the flowchart. Will create a means of doing things. These computer program instructions can also be stored on a computer-usable or computer-readable recording medium that can be directed to a computer or other programmable data processing equipment to implement a function in a specific manner, so that the computer-readable or computer-readable medium. It is also possible to produce an article of manufacture containing instruction means for performing the functions described in each step of the flow chart with instructions stored on the recording medium. Since computer program instructions can also be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible for the instructions to perform the processing equipment to provide steps for executing the functions described in each step of the flowchart.
또한, 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each step may represent a module, segment, or part of code that contains one or more executable instructions for executing the specified logical function(s). In addition, it should be noted that in some alternative embodiments, the functions mentioned in the steps may occur out of order. For example, two steps shown in succession may in fact be performed substantially simultaneously, or the steps may sometimes be performed in the reverse order depending on the corresponding function.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
본 발명의 실시예에 의하면, 객체의 탐지를 사전에 초기 학습된 객체 탐지기에 대하여 감시 영역의 촬영을 추가로 학습시켜 객체 탐지 기능을 감시 영역의 촬영에 최적화시킴으로써, 객체 검출 및 인식의 정확성이 크게 향상된다. 이러한 본 발명의 실시예들은 CCTV(Closed Circuit Television) 감시 시스템을 포함하여 침입 감지 및 보안 기술분야에 적용 및 이용할 수 있다.According to an embodiment of the present invention, by optimizing the object detection function to the photographing of the monitoring region by additionally learning the photographing of the monitoring region for the object detector, which has been initially learned to detect the object, the accuracy of object detection and recognition is greatly improved. Improves. The embodiments of the present invention can be applied and used in the field of intrusion detection and security technology, including a CCTV (Closed Circuit Television) monitoring system.
100: 영상 감시 및 분석 시스템
110: 영상 감시장치 111: 촬영부
112: 객체 탐지부 113: 학습부
114: 통신부
120: 영상 분석 서버장치 121: 객체 탐지부
122: 학습부 123: 통신부
130: 모니터링 장치100: video surveillance and analysis system
110: video monitoring device 111: photographing unit
112: object detection unit 113: learning unit
114: communication department
120: image analysis server device 121: object detection unit
122: Learning Department 123: Communication Department
130: monitoring device
Claims (20)
감시 영역을 촬영하여 촬영 영상을 생성하는 촬영부와,
영상 내에서 감시 대상 객체를 탐지하도록 초기 학습된 상태에서, 상기 촬영부로부터 입력되는 촬영 영상에서 상기 감시 대상 객체를 탐지하는 객체 탐지부와,
상기 촬영 영상 중 적어도 하나 이상의 배경 영상을 선정한 후, 상기 선정된 배경 영상을 이용하여 상기 감시 영역에 대한 촬영 환경이 반영되도록 상기 객체 탐지부를 추가 학습시키는 학습부를 포함하는
영상 감시장치.As a video surveillance device that performs online machine learning,
A photographing unit that photographs the surveillance area and generates a photographed image;
An object detection unit that detects the monitoring target object in a captured image input from the photographing unit in a state in which it is initially learned to detect a monitoring target object in an image;
After selecting at least one background image among the captured images, comprising a learning unit for additionally learning the object detection unit so that the shooting environment for the surveillance area is reflected by using the selected background image.
Video surveillance device.
상기 학습부는, 상기 촬영 영상 중에서 상기 감시 대상 객체가 존재하지 않는 영상을 추출하여 상기 배경 영상으로 선정하는 것인
영상 감시장치.The method of claim 1,
The learning unit extracts an image in which the object to be monitored does not exist from the photographed image and selects it as the background image.
Video surveillance device.
상기 학습부는, 상기 촬영 영상을 기 설정된 간격의 프레임 단위로 분석하여, 변화가 발생한 프레임의 이전 프레임 중에서 상기 배경 영상을 선정하되, 상기 배경 영상이 기 설정된 개수만큼 선정될 때까지 상기 촬영 영상을 시간 순서에 따라 분석하여 상기 배경 영상을 추가로 선정하는 것인
영상 감시장치.The method of claim 1,
The learning unit analyzes the captured image in units of frames at a preset interval, selects the background image from the previous frames of the frame in which the change has occurred, and time the captured image until the background image is selected by a preset number. To further select the background image by analyzing according to the sequence
Video surveillance device.
상기 학습부는, 상기 변화가 발생한 프레임의 이전 프레임을 후보 영상으로 선정하고, 상기 후보 영상을 기준으로 기 설정된 시간 동안의 평균 움직임 값에 기초하여 상기 후보 영상을 상기 배경 영상으로 선정하는
영상 감시장치.The method of claim 3,
The learning unit selects a previous frame of the frame in which the change has occurred as a candidate image, and selects the candidate image as the background image based on an average motion value for a preset time based on the candidate image.
Video surveillance device.
상기 학습부는, 상기 변화가 발생한 프레임을 식별하기 위해 상기 촬영 영상의 흑백 성분을 비교한 차분 영상에서 움직임을 검출하는 것인
영상 감시장치.The method of claim 4,
The learning unit is configured to detect motion in a difference image obtained by comparing black and white components of the photographed image to identify the frame in which the change has occurred.
Video surveillance device.
상기 학습부는, 상기 촬영 영상으로부터 가장 최근에 선정된 배경 영상을 기준 영상으로 설정하고, 상기 후보 영상과 상기 기준 영상을 추가로 대비하여 상기 후보 영상을 상기 배경 영상으로 선정하는 것인
영상 감시장치.The method of claim 4,
The learning unit sets the background image most recently selected from the photographed image as a reference image, and selects the candidate image as the background image by additionally comparing the candidate image and the reference image.
Video surveillance device.
상기 학습부는, 상기 후보 영상이 선정되면 기 설정된 시간 동안 다음 후보 영상을 선정하지 않고 휴지하는
영상 감시장치.The method of claim 4,
When the candidate image is selected, the learning unit pauses without selecting a next candidate image for a preset time.
Video surveillance device.
상기 학습부는, 상기 배경 영상을 이용하여 상기 감시 영역에 대한 촬영 환경을 네거티브 세트(negative set)로 학습을 진행하여 과적합(overfitting)하는
영상 감시장치.The method of claim 1,
The learning unit learns the photographing environment for the surveillance area as a negative set using the background image to perform overfitting.
Video surveillance device.
감시 영역을 촬영한 촬영 영상 중 배경 영상을 선정하는 단계와,
상기 선정된 배경 영상을 이용하여 상기 감시 영역에 대한 촬영 환경이 반영되도록 상기 객체 탐지기를 추가 학습시키는 단계를 포함하는
온라인 기계 학습 방법.As an online machine learning method of an object detector initially learned to detect an object to be monitored from an image,
The step of selecting a background image from among the photographed images captured in the surveillance area, and
And additionally learning the object detector to reflect the photographing environment for the surveillance area by using the selected background image.
Online machine learning method.
상기 배경 영상을 선정하는 단계는, 상기 촬영 영상 중에서 상기 감시 대상 객체가 존재하지 않는 영상을 추출하여 상기 배경 영상으로 선정하는 것인
온라인 기계 학습 방법.The method of claim 9,
The selecting of the background image includes extracting an image in which the object to be monitored does not exist from the photographed image and selecting it as the background image.
Online machine learning method.
상기 배경 영상을 선정하는 단계는, 상기 촬영 영상을 기 설정된 간격의 프레임 단위로 분석하여, 변화가 발생한 프레임의 이전 프레임 중에서 상기 배경 영상을 선정하되, 상기 배경 영상이 기 설정된 개수만큼 선정될 때까지 상기 촬영 영상을 시간 순서에 따라 분석하여 상기 배경 영상을 추가로 선정하는 것인
온라인 기계 학습 방법.The method of claim 9,
In the selecting of the background image, the captured image is analyzed in units of frames at a preset interval, and the background image is selected from the previous frames of the frame in which the change has occurred, until the background image is selected as many as a preset number. To further select the background image by analyzing the captured image according to a time sequence
Online machine learning method.
상기 배경 영상을 선정하는 단계는, 상기 변화가 발생한 프레임의 이전 프레임을 후보 영상으로 선정하고, 상기 후보 영상을 기준으로 기 설정된 시간 동안의 평균 움직임 값에 기초하여 상기 후보 영상을 상기 배경 영상으로 선정하는
온라인 기계 학습 방법.The method of claim 11,
In the selecting of the background image, the previous frame of the frame in which the change has occurred is selected as a candidate image, and the candidate image is selected as the background image based on an average motion value for a preset time based on the candidate image. doing
Online machine learning method.
상기 배경 영상을 선정하는 단계는, 상기 변화가 발생한 프레임을 식별하기 위해 상기 촬영 영상의 흑백 성분을 비교한 차분 영상에서 움직임을 검출하는
온라인 기계 학습 방법.The method of claim 12,
The selecting of the background image includes detecting motion in a difference image obtained by comparing the black and white components of the captured image to identify the frame in which the change has occurred.
Online machine learning method.
상기 배경 영상을 선정하는 단계는, 상기 촬영 영상으로부터 가장 최근에 선정된 배경 영상을 기준 영상으로 설정하고, 상기 후보 영상과 상기 기준 영상을 추가로 대비하여 상기 후보 영상을 상기 배경 영상으로 선정하는
온라인 기계 학습 방법.The method of claim 12,
The selecting of the background image includes setting the most recently selected background image from the captured image as a reference image, and selecting the candidate image as the background image by additionally comparing the candidate image with the reference image.
Online machine learning method.
상기 배경 영상을 선정하는 단계는, 상기 후보 영상이 선정되면 기 설정된 시간 동안 다음 후보 영상을 선정하지 않고 휴지하는
온라인 기계 학습 방법.The method of claim 12,
In the selecting of the background image, when the candidate image is selected, the next candidate image is not selected for a preset time and is paused.
Online machine learning method.
상기 객체 탐지기를 추가 학습시키는 단계는, 상기 배경 영상을 이용하여 상기 감시 영역에 대한 촬영 환경을 네거티브 세트(negative set)로 학습을 진행하여 과적합(overfitting)하는
온라인 기계 학습 방법.The method of claim 9,
The step of additionally learning the object detector may include overfitting by learning a photographing environment for the surveillance area in a negative set using the background image.
Online machine learning method.
상기 컴퓨터 프로그램은,
제 9 항 내지 제 16 항 중 어느 한 항에 따른 방법을 프로세서가 수행하도록 하기 위한 명령어를 포함하는, 컴퓨터 판독 가능한 기록매체.As a computer-readable recording medium storing a computer program,
The computer program,
A computer-readable recording medium comprising instructions for causing a processor to perform the method according to any one of claims 9 to 16.
감시 영역을 촬영한 촬영 영상 중 배경 영상을 선정한 후, 상기 선정된 배경 영상을 이용하여 상기 감시 영역에 대한 촬영 환경이 반영되도록 상기 객체 탐지부를 추가 학습시키는 학습부를 포함하는
영상 분석 장치.An object detection unit that has been pre-trained to detect an object to be monitored from an image,
After selecting a background image from the photographed images photographed in the surveillance region, the object detection unit further learns to reflect the photographing environment for the surveillance region by using the selected background image.
Video analysis device.
상기 학습부는, 상기 촬영 영상을 프레임 단위로 비교하여 변화가 발생한 프레임의 이전 프레임을 후보 영상으로 선정한 후, 상기 후보 영상과 기 설정된 기준 영상과의 비교 결과에 기초하여 상기 후보 영상 중 신규 배경 영상을 선정하는
영상 분석 장치.The method of claim 18,
The learning unit compares the captured image on a frame-by-frame basis and selects a previous frame of the frame in which the change has occurred as a candidate image, and then selects a new background image among the candidate images based on a result of comparing the candidate image with a preset reference image. Elected
Video analysis device.
상기 학습부는, 상기 배경 영상을 이용하여 상기 감시 영역에 대한 환경을 네거티브 세트(negative set)로 학습을 진행하여 과적합(overfitting)하는
영상 분석 장치.The method of claim 18,
The learning unit performs learning of the environment for the surveillance area in a negative set using the background image to overfitting.
Video analysis device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190104761A KR20210024935A (en) | 2019-08-26 | 2019-08-26 | Apparatus for monitoring video and apparatus for analyzing video, and on-line machine learning method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190104761A KR20210024935A (en) | 2019-08-26 | 2019-08-26 | Apparatus for monitoring video and apparatus for analyzing video, and on-line machine learning method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20210024935A true KR20210024935A (en) | 2021-03-08 |
Family
ID=75185059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190104761A KR20210024935A (en) | 2019-08-26 | 2019-08-26 | Apparatus for monitoring video and apparatus for analyzing video, and on-line machine learning method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20210024935A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102351433B1 (en) | 2021-06-28 | 2022-01-17 | 주식회사 스누아이랩 | Apparatus for Reularization of Video Overfitting and Driving Method Thereof |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101910542B1 (en) | 2017-06-21 | 2018-10-22 | 에스케이 텔레콤주식회사 | Image Analysis Method and Server Apparatus for Detecting Object |
-
2019
- 2019-08-26 KR KR1020190104761A patent/KR20210024935A/en active Search and Examination
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101910542B1 (en) | 2017-06-21 | 2018-10-22 | 에스케이 텔레콤주식회사 | Image Analysis Method and Server Apparatus for Detecting Object |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102351433B1 (en) | 2021-06-28 | 2022-01-17 | 주식회사 스누아이랩 | Apparatus for Reularization of Video Overfitting and Driving Method Thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109040709B (en) | Video monitoring method and device, monitoring server and video monitoring system | |
KR101423916B1 (en) | Method and apparatus for recognizing the plural number of faces | |
KR101464344B1 (en) | Surveillance camera and image managing system, and method for detecting abnormal state by training normal state of surveillance image | |
US8451329B2 (en) | PTZ presets control analytics configuration | |
KR101849365B1 (en) | Appratus and method for processing image | |
JP2008077517A (en) | Camera block detection system | |
JP2017228082A (en) | Tracking device, tracking method, and program | |
KR20190103855A (en) | Apparatus and method of searching fire image based on imaging area of the ptz camera | |
KR102282470B1 (en) | Camera apparatus and method of object tracking using the same | |
US8923552B2 (en) | Object detection apparatus and object detection method | |
KR102077632B1 (en) | Hybrid intellgent monitoring system suing local image analysis and cloud service | |
KR101695127B1 (en) | Group action analysis method by image | |
KR101371647B1 (en) | Apparatus for detecting fire flame based image data and method of the same | |
KR20210024935A (en) | Apparatus for monitoring video and apparatus for analyzing video, and on-line machine learning method | |
KR101020670B1 (en) | Security system with remotetest function | |
KR102658563B1 (en) | Apparatus for monitoring video, apparatus for analyzing video and learning methods thereof | |
KR101272631B1 (en) | Apparatus for detecting a moving object and detecting method thereof | |
JP2019153986A (en) | Monitoring system, management apparatus, monitoring method, computer program, and storage medium | |
JP6266088B2 (en) | Person detection device and person detection method | |
US20210344875A1 (en) | Method and system for identifying a video camera of a video surveillance environment | |
JP4954459B2 (en) | Suspicious person detection device | |
CN112804492A (en) | Communication prompting method and device for electronic cat eye | |
KR102527133B1 (en) | Server for distinguishing video analysis target and control method thereof | |
JP6576287B2 (en) | Movie processing apparatus and movie processing method | |
KR101482646B1 (en) | Intelligent security system linking with smart device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination |