KR101926510B1 - Wide area surveillance system based on facial recognition using wide angle camera - Google Patents

Wide area surveillance system based on facial recognition using wide angle camera Download PDF

Info

Publication number
KR101926510B1
KR101926510B1 KR1020180029639A KR20180029639A KR101926510B1 KR 101926510 B1 KR101926510 B1 KR 101926510B1 KR 1020180029639 A KR1020180029639 A KR 1020180029639A KR 20180029639 A KR20180029639 A KR 20180029639A KR 101926510 B1 KR101926510 B1 KR 101926510B1
Authority
KR
South Korea
Prior art keywords
image
target object
time
stereoscopic image
wide
Prior art date
Application number
KR1020180029639A
Other languages
Korean (ko)
Inventor
이경순
Original Assignee
주식회사 월드씨엔에스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 월드씨엔에스 filed Critical 주식회사 월드씨엔에스
Priority to KR1020180029639A priority Critical patent/KR101926510B1/en
Application granted granted Critical
Publication of KR101926510B1 publication Critical patent/KR101926510B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • G06K9/00302
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

The present invention relates to a wide area surveillance system based on facial recognition using a wide-angle camera and, more specifically, relates to a system capable of obtaining a plurality of images based on a target subject (human) through a plurality of wide-angle cameras, thereby tracking the behavior or movement of the subject while identifying the face of the subject three-dimensionally. In particular, based on the images taken through the plurality of wide-angle cameras, an image for three-dimensionally observing a subject is provided, so that the subject can be efficiently tracked and surveilled based on facial recognition. Moreover, in order to accurately decode a large amount of images taken for a long time, subjects appearing in a space, in which the images are taken, are confirmed, and the subjects are overlapped with the space at the same time, so that the movement or behavior of all the subjects can be accurately confirmed. Therefore, the present invention is capable of improving reliability and competitiveness in security and surveillance system fields, especially visual image-based security and surveillance fields, CCTV-based security and surveillance fields, and IoT-based security and surveillance fields as well as relevant and similar fields.

Description

광각카메라를 이용한 안면인식 기반의 광역 감시 시스템{Wide area surveillance system based on facial recognition using wide angle camera}[0002] Wide area surveillance system based on facial recognition using a wide angle camera [0003]

본 발명은 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템에 관한 것으로서, 보다 상세하게는 다수 개의 광각카메라를 이용하여 대상객체(사람)를 중심으로 하는 다수의 영상을 획득하고, 이를 통해 대상객체의 안면부를 입체적으로 파악하면서 대상객체의 움직임이나 행동을 추적할 수 있도록 한 것이다.The present invention relates to a wide area surveillance system based on face recognition using a wide angle camera, and more particularly, to a wide area surveillance system using a wide angle camera to acquire a plurality of images centered on a target object (person) using a plurality of wide angle cameras, It is able to track the movement or behavior of the target object while grasping the face in three dimensions.

특히, 본 발명은 다수 개의 광각카메라를 이용하여 촬영된 영상을 기반으로, 대상객체를 입체적으로 관찰할 수 있는 영상을 제공함으로써, 안면인식을 기반으로 대상객체를 효율적으로 추적 및 감시할 수 있는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템에 관한 것이다.In particular, the present invention provides an image capable of observing a target object in a three-dimensional manner based on an image captured using a plurality of wide-angle cameras, thereby providing a wide angle To a wide area surveillance system based on facial recognition using a camera.

CCTV와 같은 보안 및 감시용 카메라 등은 주택가, 도로 또는 각종 시설물 등에 광범위하게 설치되어 있으며, 이러한 카메라를 이용하는 보안 및 감시 시스템은 범죄예방을 효과적으로 수행하고 범죄발생시에도 보다 빠르게 범죄사건을 해결할 수 있는 기술로 자리잡고 있다.Security and surveillance cameras, such as CCTV, are widely installed in residential areas, roads, and various facilities. Security and surveillance systems using such cameras are effective in preventing crime and resolving crime cases more quickly in the event of a crime .

일반적으로 보안 및 감시 시스템은, 감시대상지역에 다수의 카메라를 설치하여 해당 지역에 대한 영상을 실시간으로 확보하고, 관리자는 중앙관제실 등에서 해당 영상을 감시하게 된다.Generally, a security and surveillance system installs a plurality of cameras in a surveillance area to acquire images of the surveillance area in real time, and an administrator monitors surveillance images in a central control room.

그러나, 이와 같은 보안 및 감시 시스템은 소수의 관리자가 많은 지역을 시각적으로 감시해야 하므로, 시야가 분산되고 특정 지역만을 집중적으로 감시할 수 없기 때문에, 범죄가 발생되는 등의 중요한 순간을 놓치는 경우가 빈번하게 발생하였으며, 추후 이를 확인하기 위해서는 모든 영상기록을 일일이 재검색해야 하는 어려움이 있었다.However, such a security and surveillance system requires a small number of administrators to visually monitor a large number of areas. Therefore, since visibility is dispersed and only a specific area can not be intensively monitored, an important moment such as the occurrence of a crime is missed frequently And there was a difficulty in re-searching all the video records in order to confirm this later.

이를 해결하기 위하여, 관리자가 시각적으로 감시해야 하는 객체들에 대하여, 영상인식 기법을 통해 영상 속의 객체를 자동으로 인식하고 추적하는 기술들이 개발되고 있다.In order to solve this problem, techniques for automatically recognizing and tracking objects in a video image through an image recognition technique have been developed for objects to be visually monitored by an administrator.

예를 들어, 하기의 선행기술문헌인 대한민국 등록특허공보 제10-1364046호 '동영상에서 객체를 추적하는 방법 및 그 장치'(이하 '선행기술'이라 한다)는 영상 속의 객체가 움직임에 따라 달라지는 형상(크기, 기울어짐, 변형 등)의 변화에 대응하여 해당 객체를 효율적으로 추적하기 위한 것이다.For example, Korean Patent Registration No. 10-1364046 " Method and apparatus for tracking an object in a moving image " (hereinafter referred to as " prior art " (Size, slope, deformation, etc.) of the object.

선행기술을 보다 구체적으로 살펴보면, 영상 속의 객체에 대한 특징점을 추출한 후, 해당 특징점을 이용하여 추적함으로써, 복잡한 배경 환경속에서 다양한 객체를 정확히 추적할 수 있도록 한 것이다.More specifically, the prior art extracts feature points of an object in a video and then tracks the feature points to accurately track various objects in a complex background environment.

이와 같은 영상인식을 통한 추적기능을 이용하게 되면, 관리자의 부담이 크게 감소하기 때문에 보다 효율적인 감시가 이루어질 수 있다.Using the tracking function through image recognition greatly reduces the burden on the administrator, so that more efficient monitoring can be performed.

그러나, 영상인식을 통한 보안 및 감시 시스템에서 수행되는 이동물체(대상객체를 말하며, 주로 사람) 검출 기법은 영상 속의 객체를 검출하는 과정에서, 객체 인식의 정확성 및 처리속도 등에 있어서, 인식의 오류 등과 같은 한계가 존재할 수 밖에 없으며, 이로 인해 시스템의 신뢰성에 있어서 문제점이 발생할 수 밖에 없었다.However, the moving object (target object, mainly human) detection technique performed in the security and surveillance system through image recognition can not detect errors in the recognition accuracy and processing speed, There is such a limit that there is a problem, which causes problems in the reliability of the system.

결과적으로, 보안 및 감시 시스템을 운용하는 입장에서, 시스템에 대한 충분한 신뢰성을 확보하기 위해서는 관리자가 직접 영상들을 확인하는 과정을 거칠 수 밖에는 없었다.As a result, from the viewpoint of operating the security and surveillance system, in order to secure sufficient reliability of the system, the administrator has to manually check the images.

또한, 선행기술과 같은 종래의 보안 및 감시 시스템은, 단순히 대상객체(사람) 자체의 이동에 대한 추적 및 이동경로에 대한 정보만을 제공하는데 그치고 있다는 아쉬움이 있었다.In addition, conventional security and surveillance systems such as the prior art have merely provided only information on the tracking and movement path of the movement of the target object (person) itself.

대한민국 등록특허공보 제10-1364046호 '동영상에서 객체를 추적하는 방법 및 그 장치'Korean Patent Registration No. 10-1364046 'Method and apparatus for tracking objects in moving images'

상기와 같은 문제점을 해결하기 위해서, 본 발명은 다수 개의 광각카메라를 이용하여 대상객체(사람)를 중심으로 하는 다수의 영상을 획득하고, 이를 통해 대상객체의 안면부를 입체적으로 파악하면서 대상객체의 움직임이나 행동을 추적할 수 있도록 하는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템을 제공하는데 목적이 있다.In order to solve the above problems, the present invention provides a method for acquiring a plurality of images centered on a target object (person) using a plurality of wide-angle cameras, And to provide a wide-area surveillance system based on facial recognition using a wide-angle camera capable of tracking a behavior.

특히, 본 발명은 다수 개의 광각카메라를 이용하여 촬영된 영상을 기반으로, 대상객체를 입체적으로 관찰할 수 있는 영상을 제공함으로써, 안면인식을 기반으로 대상객체를 효율적으로 추적 및 감시할 수 있는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템을 제공하는데 목적이 있다.In particular, the present invention provides an image capable of observing a target object in a three-dimensional manner based on an image captured using a plurality of wide-angle cameras, thereby providing a wide angle And to provide a wide area surveillance system based on facial recognition using a camera.

또한, 본 발명은 장시간 촬영된 많은 양의 영상을 정확히 판독할 수 있도록 하기 위하여, 해당 영상이 촬영된 공간에 출현한 객체들을 확인하고, 해당 공간(배경영상)에 다수의 객체를 동시에 오버랩(Overlap)함으로써, 짧은 시간 동안 모든 객체에 대한 움직임이나 행동을 정확히 확인할 수 있는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템을 제공하는데 목적이 있다.In order to accurately read a large number of images photographed for a long time, the present invention confirms objects appearing in a space where the corresponding image is photographed, and simultaneously overlaps a plurality of objects in the space (background image) The object of the present invention is to provide a wide-area surveillance system based on facial recognition using a wide-angle camera which can accurately confirm movement or behavior of all objects for a short time.

상기와 같은 목적을 달성하기 위해서, 본 발명에 따른 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템은, 전방향영상을 획득하는 다수 개의 광각카메라; 상기 광각카메라들을 통해 촬영된 촬영시점별 원본영상에서, 대상객체 및 해당 대상객체의 안면부를 확인하는 객체확인부; 및 상기 대상객체의 안면부가 확인된 촬영시점별 원본영상에 대하여, 대상객체의 안면부가 영상의 중심에 위치하도록 각 촬영시점별 원본영상을 보정하여 촬영시점별 안면영상을 생성하는 객체영상처리부; 및 상기 객체영상처리부에서 생성된 촬영시점별 안면영상을 기반으로, 해당 대상객체의 안면부에 대한 안면부입체영상을 생성하는 입체영상제공부;를 포함한다.In order to achieve the above object, a wide area surveillance system based on facial recognition using a wide angle camera according to the present invention includes: a plurality of wide angle cameras for acquiring omni-directional images; An object identifying unit for identifying a target object and a face portion of the target object in an original image according to a photographing point photographed through the wide angle cameras; And an object image processing unit for generating a facial image at a photographing time point by correcting an original image at each photographing time point so that the facial part of the object is located at the center of the image with respect to the original image of the photographing point at which the facial part of the target object is identified. And a stereoscopic image generating unit for generating a face stereoscopic image for a face portion of the object based on the face image by the shooting time point generated by the object image processing unit.

또한, 상기 입체영상제공부는, 시분할(Time slicing) 촬영 기법을 이용하여 해당 대상객체의 안면부가 포함된 복수 개의 촬영시점별 안면영상으로부터 안면부입체영상을 생성할 수 있다.In addition, the stereoscopic image processing may generate a face stereoscopic image from a plurality of facial images including a facial portion of a target object using a time slicing imaging technique.

또한, 상기 안면부입체영상을 확인하여 대상객체의 객체시점을 확인하는 객체시점확인모듈; 및 상기 광각카메라를 통해 촬영된 영상 중 상기 객체시점확인모듈에서 확인된 객체시점에 대응하는 객체시점별 원본영상을 추출하는 객체시점영상추출모듈;를 더 포함하고, 상기 입체영상제공부는, 상기 객체시점영상추출모듈에서 추출된 객체시점별 원본영상을 기반으로, 해당 객체가 바라보는 영역의 입체영상을 생성하여 제공할 수 있다.An object viewpoint checking module for checking the object viewpoint of the target object by checking the face portion stereoscopic image; And an object view image extracting module for extracting an original image of an object view corresponding to an object view identified by the object view confirmation module among the images photographed through the wide angle camera, The stereoscopic image of the area viewed by the object can be generated and provided based on the original image of the object view point extracted from the viewpoint image extracting module.

또한, 상기 입체영상제공부는, 일정시간 동안 상기 광각카메라들을 통해 촬영된 촬영시점별 원본영상에 포함된 적어도 하나의 대상객체를 추출하고, 추출된 대상객체를 동일한 배경영상에 오버랩(Overlap)한 시간압축입체영상을 생성하여 제공할 수 있다.In addition, the stereoscopic image processing may include extracting at least one target object included in the original image at the photographing point photographed through the wide angle cameras for a predetermined period of time, overlapping the extracted target object with the same background image A compressed stereoscopic image can be generated and provided.

또한, 상기 입체영상제공부는, 사용자에 의해 특정 대상객체가 선택되면, 해당 대상객체가 나타난 시점부터 사라지는 시점까지의 안면부입체영상을 제공할 수 있다.In addition, the stereoscopic image processing may provide a face stereoscopic image from a time point when the target object is displayed to a time point when the target object disappears when the user selects the specific object object.

또한, 상기 입체영상제공부는, 상기 대상객체가 촬영된 시간대별로 설정된 객체표시정보에 매칭되도록 해당 대상객체를 보정한 후, 상기 배경영상에 오버랩할 수 있다.In addition, the stereoscopic image processing may overlap the background image after correcting the target object so that the target object is matched with the object display information set for each time period during which the target object is photographed.

또한, 상기 입체영상제공부는, 상기 대상객체를 배경영상에 오버랩하는 과정에서, 상기 대상객체의 움직임을 분석하여 경고상황으로 판단될 경우, 해당 대상객체를 경고상태로 오버랩할 수 있다.In addition, the stereoscopic image processing may analyze the motion of the target object in the process of overlapping the target object with the background image, and may overlap the target object in a warning state when it is determined as a warning situation.

또한, 상기 입체영상제공부로부터 제공된 오버랩영상으로부터 특정 대상객체의 움직임을 분석하고, 해당 지역의 디지털맵을 호출하여 해당 대상객체의 예측이동경로를 확인하는 객체추적부;를 더 포함할 수 있다.The object tracking unit may further analyze the movement of a specific object from the overlapped image provided from the stereoscopic image system and call a digital map of the corresponding region to confirm a predicted movement path of the corresponding object.

또한, 상기 광각카메라를 통해 촬영된 원본영상을 수집하여 상기 객체확인부로 제공하는 영상수집부; 및 상기 예측이동경로 중 적어도 다른 일부를 촬영할 수 있으며, 상기 영상수집부와 사물인터넷기반으로 연동하여 촬영된 영상 중 적어도 일부를 제공하는 IoT카메라;를 더 포함하며, 상기 영상제공부는, 상기 객체추적부에서 확인된 예측이동경로를 기반으로, 상기 영상수집부를 통해 광각카메라로부터 제공된 영상과 IoT카메라로부터 제공된 영상에서 대상객체를 추출하여 배경영상에 오버랩할 수 있다.An image collection unit for collecting an original image photographed through the wide angle camera and providing the collected image to the object verification unit; And an IoT camera capable of photographing at least another part of the predicted movement path and providing at least a part of the images taken in cooperation with the image collecting unit on the object Internet basis, The target object can be extracted from the image provided from the wide angle camera and the image provided from the IoT camera through the image collecting unit and overlapped with the background image based on the predicted moving path confirmed by the IoT camera.

또한, 상기 영상제공부는, 상기 광각카메라로부터 제공된 영상의 적어도 일부를 이용하여 상기 IoT카메라로부터 제공된 영상을 광각영상으로 보정한 후, 대상객체를 해당 영상에 오버랩할 수 있다.In addition, the image preparation may correct an image provided from the IoT camera to a wide angle image using at least a part of the image provided from the wide angle camera, and then overlap the target object with the corresponding image.

상기와 같은 해결수단에 의해, 본 발명은 다수 개의 광각카메라를 이용하여 대상객체(사람)를 중심으로 하는 다수의 영상을 획득하고, 이를 통해 대상객체의 안면부를 입체적으로 파악하면서 대상객체의 움직임이나 행동을 추적할 수 있는 장점이 있다.According to the present invention, a plurality of images centered on a target object (person) are acquired using a plurality of wide-angle cameras, and the motion of the target object is obtained through three- It has the advantage of tracking behavior.

특히, 본 발명은 다수 개의 광각카메라를 이용하여 촬영된 영상을 기반으로, 대상객체를 입체적으로 관찰할 수 있는 영상을 제공함으로써, 안면인식을 기반으로 대상객체를 효율적으로 추적 및 감시할 수 있는 장점이 있다.In particular, the present invention provides an image capable of observing a target object in three dimensions based on an image photographed using a plurality of wide angle cameras, thereby effectively tracking and monitoring a target object based on facial recognition .

또한, 본 발명은 입체적으로 파악된 안면부의 영상을 기반으로, 대상객체의 시선을 추적할 수 있는 장점이 있다.In addition, the present invention has an advantage in that it can track the gaze of a target object based on a stereoscopic image of a facial part.

이에, 본 발명은 범죄자(대상객체) 입장에서의 시선파악을 통해 범죄모의 상황을 예측하고 대비하여 범죄예방효과를 향상시킬 수 있는 효과가 있다.Accordingly, the present invention has the effect of enhancing the crime prevention effect by predicting and preparing the state of the criminal simulation through the sight line of the criminal (object object).

또한, 본 발명은 범죄발생시 해당 지역 중심으로 다수의 대상객체(사람)들의 시선을 확인하고 해당 범죄와의 연관성을 유추하여 사건해결에 도움을 줄 수 있는 장점이 있다.In addition, the present invention has an advantage in that when a crime occurs, a plurality of target objects (people) are gazed at the center of the area, and the association with the crime can be deduced to help solve the case.

또한, 본 발명은 하나의 배경영상에 다수의 객체를 동시에 오버랩하여 디스플레이 함으로써, 장시간 촬영된 많은 양의 영상을 단시간 내에 정확히 판독할 수 있는 장점이 있다.Also, the present invention is advantageous in that a large number of images photographed for a long time can be accurately read in a short time by displaying a plurality of objects simultaneously overlapping on one background image.

이에, 본 발명은 감시카메라를 통해 획득된 영상을 담당자가 직접 시각적으로 판독하는 과정에서, 짧은 시간 동안 많은 양의 영상을 확인하고, 영상 속의 객체(사람 등)의 움직임이나 행동을 추적할 수 있는 장점이 있다.Accordingly, in the process of visually reading an image acquired through a surveillance camera by a person in charge, a large amount of images can be checked for a short time, and motion or behavior of an object (such as a person) in the image can be tracked There are advantages.

또한, 본 발명은 시간압축영상을 디스플레이하는 과정에서, 특정 객체를 선택하게 되면, 해당 객체를 기준으로 정상적인 속도의 영상을 디스플레이함으로써, 해당 객체(사람)의 행동과 주변상황 등을 보다 정확하게 판별할 수 있는 장점이 있다.In addition, according to the present invention, when a specific object is selected in the process of displaying the time-compressed image, the normal speed image is displayed based on the object, thereby more accurately determining the behavior of the object (person) There are advantages to be able to.

다시 말해, 본 발명은 다수의 객체들을 시각적으로 동시에 관찰할 수 있으며, 특정 객체가 의심행동을 하는 경우 해당 객체에 대하여 정상적인 상태에서 관찰하는 것이 가능하도록 하는 장점이 있다.In other words, the present invention is capable of visually observing a plurality of objects at the same time, and is capable of observing a corresponding object in a normal state when a specific object is suspicious.

또한, 본 발명은 IoT를 기반으로 하는 다양한 카메라들과 연동하여, 보다 넓은 지역에 대한 감시가 가능하도록 함으로써, 시스템의 구축 및 운용에 대한 비용은 크게 절감하면서도, 감시지역은 대폭적으로 확장할 수 있는 장점이 있다.In addition, the present invention can interoperate with various cameras based on IoT to enable surveillance over a wider area, thereby greatly reducing the cost of construction and operation of the system, There are advantages.

이를 통해, 본 발명은 보안 및 감시 시스템의 운용에 대한 시간적 및 공간적 한계를 극복할 수 있으며, 보다 효율적인 시스템 운용이 가능하도록 하는 장점이 있다.Accordingly, the present invention can overcome the time and space limitation of the operation of the security and surveillance system, and has the advantage of enabling more efficient operation of the system.

따라서, 보안 및 감시 시스템 분야, 특히 시각적 영상 기반의 보안 및 감시 분야, CCTV를 이용한 보안 및 감시 분야, IoT 기반의 보안 및 감시 분야는 물론, 이와 유사 내지 연관된 분야에서 신뢰성 및 경쟁력을 향상시킬 수 있다.Accordingly, it is possible to improve reliability and competitiveness in the field of security and surveillance system, in particular, security and surveillance based on visual image, security and surveillance using CCTV, security and surveillance based on IoT, and similar or related fields .

도 1은 본 발명에 의한 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템의 일 실시예를 나타내는 구성도이다.
도 2 내지 도 4는 도 1에 나타난 입체영상제공부가 안면인식 및 시선추적 하는 방법의 실시예들을 설명하는 도면이다.
도 5 내지 도 8은 도 1에 나타난 입체영상제공부가 시간압축영상을 제공하는 방법의 실시예들을 설명하는 도면이다.
도 9는 도 1의 다른 일 실시예를 나타내는 구성도이다.
FIG. 1 is a block diagram illustrating an embodiment of a wide-area surveillance system based on facial recognition using a wide-angle camera according to the present invention.
FIGS. 2 to 4 are diagrams for explaining embodiments of a method for facial recognition and eye tracking of the stereoscopic image providing unit shown in FIG.
5 to 8 are views for explaining embodiments of a method of providing a time-compressed image shown in FIG.
Fig. 9 is a configuration diagram showing another embodiment of Fig. 1. Fig.

본 발명에 따른 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템에 대한 예는 다양하게 적용할 수 있으며, 이하에서는 첨부된 도면을 참조하여 가장 바람직한 실시 예에 대해 설명하기로 한다.An example of a wide area surveillance system based on facial recognition using the wide angle camera according to the present invention can be variously applied, and a most preferred embodiment will be described below with reference to the accompanying drawings.

도 1은 본 발명에 의한 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템의 일 실시예를 나타내는 구성도이다.FIG. 1 is a block diagram illustrating an embodiment of a wide-area surveillance system based on facial recognition using a wide-angle camera according to the present invention.

도 1을 참조하면, 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템(100)은 광각카메라(110), 객체확인부(120), 객체영상처리부(130) 및 입체영상제공부(140)를 포함하며, 이하에서 설명되는 영상은 정지영상은 물론 동영상을 포함하는 포괄적 의미로 이해할 수 있다.1, a wide area surveillance system 100 based on facial recognition using a wide angle camera includes a wide angle camera 110, an object verification unit 120, an object image processing unit 130, and a stereoscopic image processing unit 140 , The image described below can be understood as a comprehensive meaning including a moving image as well as a still image.

광각카메라(110)는 전방향(360°)영상을 획득하기 위한 것으로, 도 1에 나타난 바와 같이 복수 개의 렌즈가 구성될 수 있으며, 복수 개의 렌즈를 통해 획득된 영상은 영상처리 알고리즘을 통해 하나의 전방향영상으로 통합될 수 있다. 여기서, 다수의 영상을 하나의 전방향영상으로 통합하는 영상처리 알고리즘은 당업자의 요구에 따라 다양한 방법을 적용할 수 있으므로, 특정한 것에 한정하지는 않는다.As shown in FIG. 1, a plurality of lenses can be constructed, and an image obtained through a plurality of lenses can be converted into a single image And can be integrated into an omnidirectional image. Here, the image processing algorithm for integrating a plurality of images into one omni-directional image can be applied to various methods according to the needs of those skilled in the art.

객체확인부(120)는 광각카메라들을 통해 촬영된 촬영시점별 원본영상(전방향영상)에서, 대상객체 및 해당 대상객체의 안면부를 확인하는 것으로, 영상인식을 통해 해당 원본영상에 포함된 객체, 특히 움직이는 객체(예를 들어, 사람)를 확인할 수 있으며, 해당 객체인 사람의 안면부를 인식할 수 있다. 여기서, 특정 영상으로부터 움직이는 대상객체 및 그 객체의 안면부를 확인하는 방법에 대해서는 앞서와 마찬가지로 특정한 것에 한정하지 않음은 물론이다.The object identifying unit 120 identifies a target object and a face portion of the target object at an image-capturing time point (an omnidirectional image) photographed through wide angle cameras, and detects an object included in the original image through image recognition, In particular, it is possible to identify a moving object (for example, a person) and recognize the face of the person as the object. Here, the method of identifying the moving object and the face portion of the moving object from the specific image is not limited to the specific one as described above.

객체영상처리부(130)는 객체확인부(120)를 통해 대상객체의 안면부가 확인된 촬영시점별 원본영상을 수신한 후, 해당 영상에서 대상객체의 안면부가 영상의 중심에 위치하도록 각 촬영시점별 원본영상을 보정하여 촬영시점별 안면영상을 생성한다.The object image processing unit 130 receives the original image of the photographing point at which the facial part of the target object is identified through the object identifying unit 120 and then determines whether the facial part of the object is located at the center of the image The original image is corrected to generate a facial image at the time of photographing.

다시 말해, 해당 객체가 영상의 중심에 위치하도록 카메라를 조절하여 촬영하는 방식이 아니라, 전방향 영상을 획득하는 광각카메라(110)에 의해 촬영된 영상 자체를 보정하여 해당 대상객체가 영상의 중심에 위치하도록 조정할 수 있다.In other words, not the method of photographing by adjusting the camera so that the object is positioned at the center of the image, but the image captured by the wide-angle camera 110 acquiring the omnidirectional image is corrected, Position.

입체영상제공부(140)는 객체영상처리부(130)에서 생성된 촬영시점별 안면영상을 기반으로, 해당 대상객체의 안면부에 대한 안면부입체영상을 생성한다.The stereoscopic image generation unit 140 generates a face stereoscopic image for the face portion of the target object based on the face image by the shooting time point generated by the object image processing unit 130. [

또한, 입체영상제공부(140)는 해당 대상객체의 시선방향을 확인할 수 있다.In addition, the stereoscopic image processing unit 140 can confirm the direction of the line of sight of the target object.

일반적으로, 특정 사람의 시선방향을 추적하기 위해서는 안면부를 근접촬영한 영상을 기반으로 분석하는 것이 일반적이나, 본 발명과 같은 시스템에서는 특정 사람을 근접하여 촬영할 수 있는 경우는 극히 드물다.Generally, in order to track a specific person's gaze direction, it is common to analyze the face image based on a close-up image. However, in the system of the present invention, it is extremely rare that a specific person can be photographed close to the subject.

따라서, 본 발명의 입체영상제공부(140)는 앞서와 같이 안면부에 대한 안면부입체영상과 더불어, 해당 대상객체의 움직임(몸통의 방향 등)과 행동을 연관분석함으로써, 대상객체가 어느 방향을 바라보는지 유추할 수 있다.Accordingly, the stereoscopic image processing unit 140 of the present invention analyzes the motion of the target object (the direction of the torso) and the behavior, as well as the face image of the face portion in the face portion as described above, Can be inferred.

다시 말해, 본 발명은 사람의 눈을 직접 확인하여 시선을 추적하는 방식이 아니라, 사람의 안면부와 몸통 등이 향하는 방향과 특정 행동 등에 기초하여 어느 방향을 바라보는지 유추하는 방식으로 대상객체의 시선방향을 확인할 수 있다.In other words, the present invention is not a method of directly tracking a person's eyes to track a person's eyes, but rather a method of inferring in which direction a person is looking based on a direction and a specific behavior of a face and torso of a person, can confirm.

이하에서는, 유추된 시선방향을 이용하여 범죄를 예방하거나 해결할 수 있도록 하기 위한 영상을 제공하는 방법에 대해 살펴보기로 한다.Hereinafter, a method of providing images to prevent or solve crime using the inferred direction of the eyes will be described.

도 2 내지 도 4는 도 1에 나타난 입체영상제공부가 안면인식 및 시선추적 하는 방법의 실시예들을 설명하는 도면이다.FIGS. 2 to 4 are diagrams for explaining embodiments of a method for facial recognition and eye tracking of the stereoscopic image providing unit shown in FIG.

도 2를 참조하면, 하나의 대상객체는 다수 개의 광각카메라(110)에 의해 촬영될 수 있다.Referring to FIG. 2, one object may be photographed by a plurality of wide-angle cameras 110.

이와 같이, 하나의 대상객체를 다양한 시점에서 촬영하게 되면, 시분할(Time slicing) 촬영 기법을 이용하여 해당 대상객체의 안면부가 포함된 복수 개의 촬영시점별 안면영상으로부터 안면부입체영상을 생성할 수 있다. 여기서, 시분할 촬영 기법은, 피사체가 갑자기 정지한 상태에서 마치 카메라가 피사체 주위를 도는 것처럼 보이게 만드는 기술로, 피사체 주위에 다수의 카메라를 위치시키고 특정 시점에서 모든 카메라가 동시에 피사체를 촬영한 후, 이 영상을 이용하여 피사체를 중심으로 하는 영상을 만드는 기법이다.In this manner, when one object is photographed at various points in time, a face slice stereoscopic image can be generated from a plurality of facial images including a facial portion of a target object using a time slicing imaging technique. Here, the time-divisional shooting technique is a technique for making the camera appear to be turning around the subject in a state where the subject suddenly stops. After a plurality of cameras are positioned around the subject and all the cameras simultaneously shoot the subject at a certain time, It is a technique to create an image centered on a subject using an image.

따라서, 도 2에 나타난 바와 같이 복수의 광각카메라(100)를 이용하여 특정 대상객체를 동시에 촬영하게 되면, 이를 바탕으로 하여 시분할 촬영 기법과 같은 영상을 획득할 수 있다.Accordingly, as shown in FIG. 2, when a plurality of wide-angle cameras 100 are used to photograph a specific object at the same time, an image such as a time-division photographing technique can be acquired based on the photographing.

특히, 본 발명에서 구성되는 광각카메라는, 특정 방향을 촬영하는 것이 아니라 전방향을 촬영한 영상을 획득할 수 있으므로, 한번의 촬영으로 동시에 다수 개의 대상객체에 대한 입체영상을 획득할 수 있다.In particular, since the wide-angle camera constructed in the present invention can acquire images taken in all directions, rather than photographing a specific direction, it is possible to acquire stereoscopic images of a plurality of object objects at the same time in one shot.

한편, 입체영상제공부(140)는 도 1에 나타난 바와 같이 객체시점확인모듈(141) 및 객체시점영상추출모듈(142)을 더 포함할 수 있다.The stereoscopic image processing unit 140 may further include an object viewpoint confirmation module 141 and an object viewpoint image extraction module 142 as shown in FIG.

객체시점확인모듈(141)은 앞서 설명한 바와 같이, 안면부입체영상을 확인하여 대상객체의 객체시점을 확인하는 것으로, 도 3에 나타난 바와 같이 다수 개의 광각카메라(110)에 의해 촬영된 영상을 분석하여 해당 대상객체의 시선(도 3에서 박스형 화살표)을 확인할 수 있다.As described above, the object-view-confirmation module 141 analyzes an image captured by a plurality of wide-angle cameras 110 as shown in FIG. 3 by confirming an object viewpoint of a target object by checking a face-based stereoscopic image And the sight line of the target object (box arrow in FIG. 3) can be confirmed.

객체시점영상추출모듈(142)은 객체시점확인모듈(141)에서 확인된 대상객체가 바라보는 물체(T) 등을 영상으로 확인할 수 있도록 하기 위한 것으로, 앞서 설명한 보와 같이 본 발명의 광각카메라(110)는 전방향에 대한 영상을 획득할 수 있으므로, 도 3에 나타난 바와 같이 광각카메라(110)를 통해 촬영된 영상 중 객체시점확인모듈(141)에서 확인된 객체시점에 대응하는 객체시점별 원본영상(도 3에서 점선으로 표시한 방향의 영상)을 추출할 수 있다.The object viewpoint image extraction module 142 is for allowing an object T to be viewed by the object object identified by the object viewpoint confirmation module 141 to be visually confirmed. As described above, the wide viewpoint camera 110 may acquire images for all directions. Therefore, as shown in FIG. 3, among the images photographed through the wide-angle camera 110, The image (the image in the direction indicated by the dotted line in Fig. 3) can be extracted.

이에, 입체영상제공부(140)는 객체시점영상추출모듈(142)에서 추출된 객체시점별 원본영상을 기반으로, 해당 객체가 바라보는 영역의 입체영상을 생성하여 제공할 수 있다.The stereoscopic image synthesis unit 140 may generate and provide a stereoscopic image of an area viewed by the object based on the original image of the object view extracted from the object view image extraction module 142.

따라서, 본 발명은 대상객체, 예를 들어 범죄자에 대한 감시 및 추적을 통해, 해당 범죄자가 어떤 지역이나 물건을 관찰했는지를 확인하고, 해당 영상을 분석하여 해당 범죄자가 어떤 범죄를 하려고 하는지를 확인할 수 있으며, 이를 통해 해당 범죄를 예방할 수 있는 대책을 수립할 수 있다.Accordingly, the present invention can check which region or object has been observed by the target object, for example, the criminal, and analyze the image to determine which crime the criminal intends to commit , It is possible to establish countermeasures to prevent such crime.

또한, 본 발명은 특정 범죄가 발생한 경우, 도 4에 나타난 바와 같이 해당 범죄가 발생한 시간 및 지역에 대한 영상을 획득하고, 앞서 설명한 영상처리를 통해 통해, 범죄와 관련된 물건(T)을 누가 가장 많이 주시하였는지를 확인한 후, 이를 토대로 하여 해당 범죄를 해결할 수 있도록 할 수 있다.Also, in the case where a specific crime occurs, the present invention acquires an image of a time and an area where the crime occurred, as shown in FIG. 4, and obtains a crime-related object (T) And that the crime concerned can be resolved based on this.

한편, 시각적 영상을 기반으로 하는 보안 및 감시 시스템의 경우, 소수의 관리자가 많은 지역에 설치된 영상들을 모두 확인하기에는 어려움이 있을 수 있으므로, 이하에서는 이러한 문제를 해결할 수 있는 방법에 대해 살펴보기로 한다.On the other hand, in the case of a security and surveillance system based on a visual image, it may be difficult for a few administrators to confirm all the images installed in a large area. Hereinafter, a method for solving such a problem will be described.

도 5 내지 도 8은 도 1에 나타난 입체영상제공부가 시간압축영상을 제공하는 방법의 실시예들을 설명하는 도면으로, 일정시간 동안 해당 감시지역에 5명이 나타난 경우를 예로 하여 설명하기로 한다.5 to 8 are views for explaining embodiments of a method of providing a time-compressed image shown in FIG. 1, in which five persons are displayed in a corresponding surveillance area for a predetermined time.

도 2를 참조하면, 객체확인부(120)가 광각카메라(110)를 통해 일정시간 동안 촬영된 전방향영상을 분석하여, 서로 다른 시간(t1 내지 t5)에 5명의 사람(객체, 'a' 내지 'e')이 해당 감시지역에 나타난 것을 확인할 수 있다.2, the object verification unit 120 analyzes an omnidirectional image photographed for a predetermined period of time through the wide-angle camera 110 and generates five persons 'a' at different times t1 to t5, To 'e') appear in the monitored area.

이에, 객체확인부(120)가 객체영상처리부(130)를 통해 해당 객체에 대한 정보를 입체영상제공부(140)로 전송하면, 입체영상제공부(140)는 해당 원본영상으로부터 각각의 객체('a' 내지 'e')들을 추출한 후, 도 5의 하부에 나타난 바와 같이 하나의 배경영상에 추출된 객체('a' 내지 'e')들을 오버렙(Overlap)할 수 있다.If the object identifying unit 120 transmits information about the object to the stereoscopic image processing unit 140 through the object image processing unit 130, the stereoscopic image stereoscopic image processing unit 140 extracts each object 'a' 'To' e ') and then overlay the extracted objects' a' to 'e' in one background image as shown in the lower part of FIG.

이때, 입체영상제공부(140)는 추출된 대상객체의 투명도를 조절하여, 배경영상이 비춰지도록 오버랩할 수 있다.At this time, the stereoscopic image processing unit 140 may adjust the transparency of the extracted object so as to overlap the background image.

이후, 관리자가 시간압축영상을 확인하는 과정에서, 특정 객체의 움직임을 집중적으로 관찰하고자 할 경우, 도 6의 (a)에 나타난 바와 같이 배경영상에 객체들이 오버랩된 시간압축영상에서 해당 객체(b)를 선택할 수 있다.When the administrator intends to observe the motion of a specific object in the process of checking the time compressed image, as shown in FIG. 6 (a), the corresponding object b in the time- ) Can be selected.

이와 같이 관리자에 의해 특정 객체가 선택되면, 입체영상제공부(140)는 도 6의 (b)에 나타난 바와 같이 해당 대상객체(b)가 나타난 시점(t2)부터 사라지는 시점(t2')까지에 해당하는 대상객체(b)의 노출시간(Δt2) 동안의 원본영상(도 6의 (c))을 제공할 수 있다.When a specific object is selected by the administrator as described above, the stereoscopic image method 140 may be applied to the stereoscopic image processing from the time t2 at which the corresponding object b appears to the time t2 'at which the corresponding object b disappears as shown in FIG. 6 (b) (Fig. 6 (c)) during the exposure time [Delta] t2 of the target object (b)

따라서, 관리자는 도 5와 같은 과정을 통해 일정 시간 동안의 영상을 짧은 시간 동안 확인할 수 있으며, 필요시 특정 사람을 선택하여 해당 사람의 행동이나 움직임을 보다 명확하게 확인할 수 있다.Accordingly, the administrator can check the image for a certain period of time for a short time through the process as shown in FIG. 5, and if necessary, can select a specific person to more clearly confirm the behavior or movement of the person.

또한, 본 발명은 하나의 배경영상에 등장하는 객체들이 나타나는 순서를 시각적으로 쉽게 파악할 수 있도록, 각각의 객체를 차별화하여 디스플레이 할 수 있다.In addition, the present invention can differentiate and display each object so that the order in which objects appearing in one background image can be visually recognized easily.

이를 보다 구체적으로 살펴보면, 입체영상제공부(140)는 대상객체가 촬영된 시간대별로 설정된 객체표시정보에 매칭되도록 해당 대상객체를 보정한 후, 배경영상에 해당 대상객체들을 오버랩할 수 있다. 여기서, 객체표시정보는 해당 대상객체를 배경화면에 오버랩하는 방법에 대해 설정한 것으로, 각각의 대상객체의 투명도를 조절하거나 색체, 명암, 채도 등을 조절하여 표시할 수 있으며, 각각의 대상객체에 숫자나 문자, 기호 등을 부여하여 표시할 수 있다.More specifically, the stereoscopic image processor 140 may correct the target object so that the target object is matched with the object display information set according to the photographed time zone, and then overlap the target objects with the background image. Here, the object display information is set for a method of overlapping the target object on the background screen. The object display information can be displayed by adjusting the transparency of each target object or adjusting the color, contrast, and saturation. Numbers, letters, symbols, and the like.

예를 들어, 해당 감시지역을 촬영한 시간(일정시간)이 오전 및 오후 시간을 포함할 경우, 오전시간에 나타난 객체는 붉은색 테두리 선이 나타나도록 표시하고, 오후시간에 나타난 객체는 파란색 테두리 선이 나타나도록 표시할 수 있다.For example, if the time taken to capture the surveillance region (a certain amount of time) includes morning and afternoon times, the object shown in the morning time will be displayed with a red border line, and the object displayed in the afternoon time will be displayed with a blue border line Can be displayed.

이와 같이 특정 시간대별로 객체를 차별화하여 표시할 경우, 관리자가 하나의 영상에 포함된 다수의 객체들 간의 연관관계, 동선, 움직임 등을 보다 쉽게 파악할 수 있다.In this way, when an object is differentiated and displayed according to a specific time period, an administrator can more easily grasp the relationship, movement, motion, and the like among a plurality of objects included in one image.

또한, 입체영상제공부(140)는 객체확인부(120)를 통해 도 5 및 도 6의 (b)에 나타난 바와 같이 대상객체가 촬영된 시간을 확인할 수 있고, 대상객체가 촬영된 시간의 상대적 순서에 따라 객체표시정보에 매칭되도록 해당 대상객체를 보정할 수 있다.In addition, the stereoscopic image preparation unit 140 can confirm the time at which the target object was photographed as shown in FIGS. 5 and 6 (b) through the object verification unit 120, The target object can be corrected so as to match the object display information.

예를 들어, 입체영상제공부(140)는 확인하고자 하는 영상의 전체 시간을 다수의 시간간격으로 분할 한 후, 각 시간대별 순서에 따라 도 7의(a)에 나타난 바와 같이 대상객체의 투명도, 명암, 채도 중 적어도 하나에 대하여, 각 특성이 점차적으로 변화하도록 설정할 수 있다.For example, the stereoscopic image processing unit 140 divides the entire time of the image to be checked into a plurality of time intervals, and then, according to the order of the respective time periods, as shown in FIG. 7A, , And saturation of each of the plurality of pixels.

다른 예로, 입체영상제공부(140)는 도 7의 (b)에 나타난 바와같이 대상각체가 해당 감시지역에 나타난 순서에 따라 숫자를 부여할 수 있다.As another example, the stereoscopic image preparation unit 140 may assign a number according to the order in which the object is displayed in the monitoring area, as shown in FIG. 7 (b).

이와 같이 시계열적 순서에 따라 시각적인 차별성을 부여한 객체를 배경영상에 오버랩함으로써, 관리자가 각 대상객체들간의 관련성 등을 보다 명확하게 확인할 수 있다.By overlapping the object with visual differentiation according to the time series in this way, it is possible for the manager to more clearly confirm the relationship between the respective objects.

또한, 입체영상제공부(140)는 대상객체를 배경영상에 오버랩하는 과정에서, 대상객체의 움직임을 분석하여 경고상황(도난, 사고 등이 발생)으로 판단될 경우, 해당 대상객체를 경고상태로 오버랩할 수 있다. 여기서, 경고상태는 해당 대상객체가 붉은색으로 점멸되도록 하거나, 느낌표 등이 부여되도록 설정한 상태를 포함할 수 있다.In addition, the stereoscopic image analysis unit 140 analyzes the motion of the target object in the process of overlapping the target object with the background image, and when the stereoscopic image analysis unit 140 determines that an alert situation (theft, accident, or the like occurs) can do. Here, the warning state may include a state in which the target object is blinking in red, or an exclamation point is set to be given.

따라서, 관리자는 이와 같이 경고상태가 표시된 대상객체를 선택하여 도 6에 나타난 바와 같은 과정을 통해, 해당 대상객체가 어떠한 행동을 하는지 보다 명확하게 파악할 수 있다.Accordingly, the administrator can select the target object indicated with the warning status and clearly understand the behavior of the target object through the process as shown in FIG.

한편, 관리자에 의해 선택된 대상객체가 두 명(b 및 d)일 경우, 입체영상제공부(140)는 각각의 대상객체에 대하여 정상적인 시간에서의 영상을 제공할 수 있다.On the other hand, when the target object selected by the administrator is two persons (b and d), the stereoscopic image preparation unit 140 can provide an image at a normal time with respect to each target object.

이때, 도 8의 (a)에 나타난 바와 같이 각 객체가 해당 감시지역에 나타난 시간 중 일부의 시간이 중복될 경우, 입체영상제공부(140)는 중복된 시간에 대하여 두 객체를 차별화하여 표시함으로써, 관리자가 두 객체간의 시계열적 순서를 쉽게 파악하도록 할 수 있다.8 (a), when each object overlaps a part of the time shown in the surveillance area, the stereoscopic image processing unit 140 differentiates and displays the two objects with respect to the overlapping time, The administrator can easily grasp the time-series sequence between two objects.

다시 말해, 입체영상제공부(140)는 대상객체에 대하여, 도 8의 (b)에 나타난 바와 같이 확인된 시간의 경과에 따라 객체표시정보를 그라데이션(Gradation) 기법으로 표현하여 배경영상에 오버랩할 수 있다.In other words, the stereoscopic image processing unit 140 can display the object display information by the gradation technique according to the elapsed time as shown in FIG. 8 (b), and can overlap the background image have.

이와 같은 그라데이션 기법은 해당 대상객체가 나타난 영상을 정상적인 시간으로 재생하는 경우에 한정하는 것은 아니며, 두 대상객체를 하나의 배경영상에 동시에 오버랩하여 디스플레이하는 경우에도 적용할 수 있다.Such a gradation technique is not limited to a case in which an image in which the target object is displayed is reproduced in a normal time, but the present invention can also be applied to a case where two target objects are overlapped and displayed simultaneously on one background image.

따라서, 본 발명은 관리자가 일정시간 동안의 영상을 짧은 시간 내에 확인할 수 있도록 함은 물론, 각 대상객체들 간의 시계열적 우선순위를 쉽게 파악할 수 있도록 함으로써, 대상객체들 간의 연관관계나 관련성 등을 고려하여 보다 명확한 객체 추적이 가능하도록 할 수 있다.Accordingly, the present invention allows an administrator to check an image for a predetermined period of time in a short time, and also can easily grasp the time-series priorities among the target objects, thereby taking into consideration the relationship and the relevance among the target objects So that more clear object tracking is possible.

도 9는 도 1의 다른 일 실시예를 나타내는 구성도이다.Fig. 9 is a configuration diagram showing another embodiment of Fig. 1. Fig.

도 9를 참조하면, 본 발명의 광각카메라를 이용한 안면인식 기반의 객체 추적 시스템(100)은 객체추적부(150)를 더 포함할 수 있다.Referring to FIG. 9, the facial recognition-based object tracking system 100 using the wide angle camera of the present invention may further include an object tracking unit 150.

객체추적부(150)는 입체영상제공부(140)로부터 제공된 오버랩영상으로부터 특정 대상객체의 움직임을 분석하고, 해당 지역의 디지털맵을 호출하여 해당 대상객체의 예측이동경로를 확인하는 것으로, 해당 디지털맵에서 광각카메라(110)가 설치된 지점을 확인하고, 해당 오버랩영상과 비교함으로써, 디지털맵상에서 해당 대상객체가 어느 방향으로 이동하는지를 예측할 수 있다.The object tracking unit 150 analyzes a motion of a specific target object from the overlap image provided from the stereoscopic image processing unit 140 and calls a digital map of the corresponding region to confirm a predicted movement path of the corresponding object, The location where the wide-angle camera 110 is installed is checked and compared with the overlapped image, it is possible to predict in which direction the corresponding object moves on the digital map.

이때, 광각카메라를 이용한 안면인식 기반의 객체 추적 시스템(100)은 디지털맵상에서 기존에 설치된 카메라의 위치를 확인하고, 해당 대상객체의 예측이동경로를 감시하는 카메라를 확인하여 해당 대상객체에 대한 지속적인 추적이 가능하도록 할 수 있다. 여기서, 기존에 설치된 카메라는 IoT를 기반으로 영상데이터를 송수신할 수 있는 IoT카메라(211)와 연동될 수 있다.At this time, the facial recognition-based object tracking system 100 using the wide angle camera confirms the position of the camera installed in the digital map, identifies the camera monitoring the predicted movement path of the target object, You can make it traceable. Here, the existing camera may be interlocked with the IoT camera 211 capable of transmitting and receiving image data based on IoT.

다시 말해, IoT카메라(211)는 사물인터넷기반으로 광각카메라를 이용한 안면인식 기반의 객체 추적 시스템(100)과 연동할 수 있으며, 예측이동경로 중 적어도 다른 일부(광각카메라에 의해 촬영되는 영역을 제외한 영역)를 촬영하고, 촬영된 영상 중 적어도 일부를 제공할 수 있다.In other words, the IoT camera 211 can operate in conjunction with the facial recognition based object tracking system 100 using a wide angle camera based on the object Internet, and at least another part of the predicted movement path (excluding the region photographed by the wide- Area), and provide at least some of the photographed images.

이를 위하여 광각카메라를 이용한 안면인식 기반의 객체 추적 시스템(100)는, 도 9에 나타난 바와 같이 IoT카메라(211)와 사물인터넷기반으로 연동되며, IoT카메라(211)를 통해 촬영된 영상을 객체확인부(120)로 제공하는 영상수집부(121)를 더 포함할 수 있다.For this purpose, the facial recognition-based object tracking system 100 using the wide angle camera is interlocked with the IoT camera 211 on the basis of the object Internet as shown in FIG. 9, And an image acquisition unit 121 for providing the image data to the image processing unit 120.

이에, 입체영상제공부(140)는 객체추적부(150)에서 확인된 예측이동경로를 기반으로, 영상수집부(121)를 통해 광각카메라(110)로부터 제공된 영상과 IoT카메라(211)로부터 제공된 영상에서 대상객체를 추출하여 배경영상에 오버랩할 수 있다.Based on the predicted movement path confirmed by the object tracking unit 150, the stereoscopic image synthesis unit 140 generates a stereoscopic image based on the image provided from the wide angle camera 110 and the image provided from the IoT camera 211 through the image acquisition unit 121 The target object can be extracted from the background image and overlapped with the background image.

이때, 입체영상제공부(140)는 관리자에게 일정한 품질의 영상을 제공하기 위하여, IoT카메라(211)로부터 제공된 영상을 광각영상으로 보정하여 제공할 수 있다.At this time, the stereoscopic image preparation unit 140 may provide the image provided from the IOT camera 211 as a wide-angle image by providing it to the administrator in order to provide the image with a constant quality.

보다 구체적으로, 입체영상제공부(140)는 광각카메라(110)로부터 제공된 영상의 적어도 일부를 이용하여 IoT카메라(211)로부터 제공된 영상을 광각영상으로 보정한 후, 대상객체를 해당 영상에 오버랩할 수 있다.More specifically, the stereoscopic image preparation unit 140 may correct the image provided from the IoT camera 211 to a wide-angle image using at least a part of the image provided from the wide-angle camera 110, have.

따라서, 본 발명의 광각카메라를 이용한 안면인식 기반의 객체 추적 시스템(100)은 대상 감시지역에 이미 설치된 카메라 등을 활용하여 광역 감시가 가능하기 때문에, 최소한의 비용으로 효율적인 광역 감시 시스템의 구축 및 운용이 가능하도록 할 수 있다.Therefore, the object tracking system 100 based on the facial recognition using the wide angle camera of the present invention can perform wide area surveillance using a camera already installed in a target surveillance area, so that an efficient wide area surveillance system can be constructed and operated at a minimum cost. .

이상에서 본 발명에 의한 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템에 대하여 설명하였다. 이러한 본 발명의 기술적 구성은 본 발명이 속하는 기술분야의 당업자가 본 발명의 그 기술적 사상이나 필수적 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다.The wide area monitoring system based on facial recognition using the wide angle camera according to the present invention has been described above. It will be understood by those skilled in the art that the technical features of the present invention may be embodied in other specific forms without departing from the spirit or essential characteristics thereof.

그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며, 한정적인 것이 아닌 것으로서 이해되어야 한다.It is to be understood, therefore, that the embodiments described above are in all respects illustrative and not restrictive.

100 : 광역 감시 시스템
110 : 광각카메라 111 : IoT카메라
120 : 객체확인부 121 : 영상수집부
130 : 객체영상처리부
140 : 입체영상제공부
150 : 객체추적부
100: Wide area monitoring system
110: Wide angle camera 111: IoT camera
120: Object Identification Unit 121:
130: object image processing unit
140: Stereoscopic Imaging
150: Object tracking unit

Claims (10)

전방향영상을 획득하는 다수 개의 광각카메라;
상기 광각카메라들을 통해 촬영된 촬영시점별 원본영상에서, 다수의 대상객체 및 해당 대상객체의 안면부를 확인하는 객체확인부; 및
상기 대상객체의 안면부가 확인된 촬영시점별 원본영상에 대하여, 대상객체의 안면부가 영상의 중심에 위치하도록 각 촬영시점별 원본영상을 보정하여 촬영시점별 안면영상을 생성하는 객체영상처리부;
상기 객체영상처리부에서 생성된 촬영시점별 안면영상을 기반으로, 해당 대상객체의 안면부에 대한 안면부입체영상을 생성하는 입체영상제공부;
상기 안면부입체영상을 확인하여 대상객체의 객체시점을 확인하는 객체시점확인모듈; 및
상기 광각카메라를 통해 촬영된 영상 중 상기 객체시점확인모듈에서 확인된 객체시점에 대응하는 객체시점별 원본영상을 추출하는 객체시점영상추출모듈;를 더 포함하고,
상기 입체영상제공부는,
시분할(Time slicing) 촬영 기법을 이용하여 해당 대상객체의 안면부가 포함된 복수 개의 촬영시점별 안면영상으로부터 안면부입체영상을 생성하고, 상기 객체시점영상추출모듈에서 추출된 객체시점별 원본영상을 기반으로, 해당 객체가 바라보는 영역의 입체영상을 생성하여 제공하며, 일정시간 동안 상기 광각카메라들을 통해 촬영된 촬영시점별 원본영상에 포함된 다수의 대상객체를 추출하고, 추출된 대상객체들을 동일한 하나의 배경영상에 오버랩(Overlap)한 시간압축입체영상을 생성하여 제공하며,
상기 시간압축입체영상은,
추출된 대상객체들의 노출시간 중 가장 긴 노출시간이, 해당 시간압축입체영상의 총 노출시간으로 결정되는 것을 특징으로 하는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템.
A plurality of wide angle cameras for acquiring omnidirectional images;
An object identifying unit for identifying a plurality of target objects and a face portion of the target object in an original image according to a shooting point photographed through the wide angle cameras; And
An object image processing unit for generating a facial image at a photographing time point by correcting an original image at each photographing time point so that a facial part of the object is located at the center of the image with respect to the original image of the photographing point at which the face part of the target object is identified;
A stereoscopic image generating unit for generating a facial image stereoscopic image for a face portion of a target object based on a facial image generated at the imaging time point generated by the object image processing unit;
An object viewpoint checking module for checking the object viewpoint of the target object by checking the face portion stereoscopic image; And
And an object viewpoint image extraction module for extracting an original viewpoint image corresponding to an object viewpoint identified by the object viewpoint confirmation module among the images photographed through the wide angle camera,
In the stereoscopic image processing,
A face slice stereoscopic image is generated from a plurality of facial images including a facial portion of a target object by using a time slicing photography technique and the face stereoscopic image is generated based on the original image of the object view extracted from the object view image extraction module A plurality of target objects included in the original image of the photographing point photographed through the wide angle cameras are extracted for a predetermined period of time, A time compressed stereoscopic image is generated and overlapped with the background image,
The time-compressed stereoscopic image may include:
Wherein the longest exposure time among the exposure times of the extracted object objects is determined as a total exposure time of the time compressed stereoscopic image.
제 1항에 있어서,
상기 입체영상제공부는,
사용자에 의해 특정 대상객체가 선택되면, 해당 대상객체가 나타난 시점부터 사라지는 시점까지의 안면부입체영상을 제공하는 것을 특징으로 하는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템.
The method according to claim 1,
In the stereoscopic image processing,
When the user selects a specific target object, provides a face stereoscopic image from a point of time when the target object is displayed to a point of time when the target object disappears, based on the facial recognition.
제 1항에 있어서,
상기 입체영상제공부는,
상기 대상객체가 촬영된 시간대별로 설정된 객체표시정보에 매칭되도록 해당 대상객체를 보정한 후, 상기 배경영상에 오버랩하는 것을 특징으로 하는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템.
The method according to claim 1,
In the stereoscopic image processing,
Wherein the controller corrects the target object so that the target object is matched with the object display information set for each of the photographed time zones, and then overlaps the background image with the background image.
제 1항에 있어서,
상기 입체영상제공부는,
상기 대상객체를 배경영상에 오버랩하는 과정에서, 상기 대상객체의 움직임을 분석하여 경고상황으로 판단될 경우, 해당 대상객체를 경고상태로 오버랩하는 것을 특징으로 하는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템.
The method according to claim 1,
In the stereoscopic image processing,
Wherein when the object is determined to be in a warning state, the target object is overlapped with a warning state in a process of overlapping the target object with the background image. system.
제 1항에 있어서,
상기 입체영상제공부로부터 제공된 오버랩영상으로부터 특정 대상객체의 움직임을 분석하고, 해당 지역의 디지털맵을 호출하여 해당 대상객체의 예측이동경로를 확인하는 객체추적부;를 더 포함하는 것을 특징으로 하는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템.
The method according to claim 1,
And an object tracking unit for analyzing a movement of a specific object from the overlap image provided from the stereoscopic image system and calling a digital map of the corresponding area to confirm a predicted movement path of the object, Wide Area Monitoring System Based on Facial Recognition Using.
제 5항에 있어서,
상기 광각카메라를 통해 촬영된 원본영상을 수집하여 상기 객체확인부로 제공하는 영상수집부; 및
상기 예측이동경로 중 적어도 다른 일부를 촬영할 수 있으며, 상기 영상수집부와 사물인터넷기반으로 연동하여 촬영된 영상 중 적어도 일부를 제공하는 IoT카메라;를 더 포함하며,
상기 입체영상제공부는,
상기 객체추적부에서 확인된 예측이동경로를 기반으로, 상기 영상수집부를 통해 광각카메라로부터 제공된 영상과 IoT카메라로부터 제공된 영상에서 대상객체를 추출하여 배경영상에 오버랩하는 것을 특징으로 하는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템.
6. The method of claim 5,
An image collecting unit collecting an original image photographed through the wide angle camera and providing the collected original image to the object verifying unit; And
And an IoT camera capable of capturing at least another part of the predicted movement path and providing at least a part of the images taken in cooperation with the image collecting unit based on the object Internet,
In the stereoscopic image processing,
Wherein the target object is extracted from the image provided from the wide angle camera and the image provided from the IoT camera and overlapped with the background image based on the predicted movement path confirmed by the object tracking unit. A recognition - based wide area surveillance system.
제 6항에 있어서,
상기 입체영상제공부는,
상기 광각카메라로부터 제공된 영상의 적어도 일부를 이용하여 상기 IoT카메라로부터 제공된 영상을 광각영상으로 보정한 후, 대상객체를 해당 영상에 오버랩하는 것을 특징으로 하는 광각카메라를 이용한 안면인식 기반의 광역 감시 시스템.
The method according to claim 6,
In the stereoscopic image processing,
Wherein the at least one part of the image provided from the wide angle camera is used to correct an image provided from the IoT camera to a wide angle image and then the target object is overlapped with the corresponding image.
삭제delete 삭제delete 삭제delete
KR1020180029639A 2018-03-14 2018-03-14 Wide area surveillance system based on facial recognition using wide angle camera KR101926510B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180029639A KR101926510B1 (en) 2018-03-14 2018-03-14 Wide area surveillance system based on facial recognition using wide angle camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180029639A KR101926510B1 (en) 2018-03-14 2018-03-14 Wide area surveillance system based on facial recognition using wide angle camera

Publications (1)

Publication Number Publication Date
KR101926510B1 true KR101926510B1 (en) 2019-03-07

Family

ID=65760765

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180029639A KR101926510B1 (en) 2018-03-14 2018-03-14 Wide area surveillance system based on facial recognition using wide angle camera

Country Status (1)

Country Link
KR (1) KR101926510B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200105766A (en) 2020-08-21 2020-09-09 김동현 Security system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100091607A (en) * 2009-02-11 2010-08-19 엘지디스플레이 주식회사 Method of controlling view of stereoscopic image and stereoscopic image display using the same
KR20130032620A (en) * 2011-09-23 2013-04-02 김용국 Method and apparatus for providing moving picture using 3d user avatar
KR101364046B1 (en) 2012-11-05 2014-02-19 재단법인대구경북과학기술원 Method and apparatus for object tracking in video sequences
KR20150093972A (en) * 2014-02-10 2015-08-19 한국전자통신연구원 Method and apparatus for reconstructing 3d face with stereo camera
JP2015154409A (en) * 2014-02-18 2015-08-24 キヤノン株式会社 Imaging apparatus, control method of imaging apparatus, program, and storage medium
KR101808587B1 (en) * 2017-08-03 2017-12-13 주식회사 두원전자통신 Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100091607A (en) * 2009-02-11 2010-08-19 엘지디스플레이 주식회사 Method of controlling view of stereoscopic image and stereoscopic image display using the same
KR20130032620A (en) * 2011-09-23 2013-04-02 김용국 Method and apparatus for providing moving picture using 3d user avatar
KR101364046B1 (en) 2012-11-05 2014-02-19 재단법인대구경북과학기술원 Method and apparatus for object tracking in video sequences
KR20150093972A (en) * 2014-02-10 2015-08-19 한국전자통신연구원 Method and apparatus for reconstructing 3d face with stereo camera
JP2015154409A (en) * 2014-02-18 2015-08-24 キヤノン株式会社 Imaging apparatus, control method of imaging apparatus, program, and storage medium
KR101808587B1 (en) * 2017-08-03 2017-12-13 주식회사 두원전자통신 Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200105766A (en) 2020-08-21 2020-09-09 김동현 Security system

Similar Documents

Publication Publication Date Title
KR101215948B1 (en) Image information masking method of monitoring system based on face recognition and body information
KR100849689B1 (en) watching control system having an auto picture pop-up function and controlling method for the same
US10887553B2 (en) Monitoring system and monitoring method
KR101036947B1 (en) The automatic guard system to prevent the crime and accident using computer video image analysis technology
EP2770733A1 (en) A system and method to create evidence of an incident in video surveillance system
RU2268497C2 (en) System and method for automated video surveillance and recognition of objects and situations
KR101442669B1 (en) Method and apparatus for criminal acts distinction using intelligent object sensing
KR101084914B1 (en) Indexing management system of vehicle-number and man-image
CN108460319B (en) Abnormal face detection method and device
JP4617286B2 (en) Unauthorized passing person detection device and unauthorized passing person recording system using the same
JP5088463B2 (en) Monitoring system
KR102046591B1 (en) Image Monitoring System and Method for Monitoring Image
KR101926510B1 (en) Wide area surveillance system based on facial recognition using wide angle camera
JP2017167800A (en) Monitoring system, information processor, monitoring method, and monitoring program
JP4985742B2 (en) Imaging system, method and program
WO2021199853A1 (en) Information registration device, information registration system, information registration method and program storage medium
KR101926435B1 (en) Object tracking system using time compression method
US20230088660A1 (en) Identity-concealing motion detection and portraying device
US11106895B1 (en) Video alert and secondary verification system and method
KR101539944B1 (en) Object identification method
WO2003005315A1 (en) Vision based method and apparatus for detecting an event requiring assistance or documentation
JP4954459B2 (en) Suspicious person detection device
JP5580686B2 (en) Reporting device
WO2009066994A2 (en) Method for detecting unattended object and removal of static object
JP2004128615A (en) Person monitoring system