KR101464192B1 - Multi-view security camera system and image processing method thereof - Google Patents

Multi-view security camera system and image processing method thereof Download PDF

Info

Publication number
KR101464192B1
KR101464192B1 KR1020130057258A KR20130057258A KR101464192B1 KR 101464192 B1 KR101464192 B1 KR 101464192B1 KR 1020130057258 A KR1020130057258 A KR 1020130057258A KR 20130057258 A KR20130057258 A KR 20130057258A KR 101464192 B1 KR101464192 B1 KR 101464192B1
Authority
KR
South Korea
Prior art keywords
information
image
security camera
attention
security
Prior art date
Application number
KR1020130057258A
Other languages
Korean (ko)
Inventor
조택연
윤현선
조성준
조윤설
길혜원
Original Assignee
홍익대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍익대학교 산학협력단 filed Critical 홍익대학교 산학협력단
Priority to KR1020130057258A priority Critical patent/KR101464192B1/en
Application granted granted Critical
Publication of KR101464192B1 publication Critical patent/KR101464192B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing

Abstract

The present invention relates to an image processing method of a multi-view security camera system. The multi-view security camera system includes: multiple security cameras which are installed in different positions; a wired/wireless network which mutually connects the security cameras; an image processor which receives and processes image information which is obtained from the security cameras through the wired/wireless network; and a database which stores information processed in the image processor. The image processor processes image information by passing: an object determining step of determining whether an attention object exists in an image or not by receiving the image obtained from the security cameras; an object extracting step of extracting a recognizable object if the attention object does not exists; an object converting step of converting multiple of unique information into three-dimensional object information by inserting the multiple of unique information into the extracted object; and an information storing step of extracting only key information from the three-dimensional object information and storing the key information in the database.

Description

다시점 보안 카메라 시스템 및 영상 처리 방법{MULTI-VIEW SECURITY CAMERA SYSTEM AND IMAGE PROCESSING METHOD THEREOF} BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a multi-view security camera system and an image processing method,

본 발명은 다시점 보안 카메라 시스템의 영상 처리 방법에 관한 것이며, 더욱 상세하게는 다시점 보안 카메라를 통해 얻은 영상으로부터 원하는 대상에 대한 정보를 적은 정보량으로도 정확하게 구분할 수 있는 다시점 보안 카메라 시스템의 영상 처리 방법에 관한 것이다.The present invention relates to an image processing method of a multi-viewpoint security camera system, and more particularly, to a multi-viewpoint security camera system capable of correctly distinguishing information about a desired object from an image obtained through a multi- And a method of processing the same.

최근에는 교통 상황의 실시간 감시나 교통 정보의 제공, 또는 각종 보안의 목적으로 다양한 형태의 카메라가 도로나 인도, 주택가, 골목 등 곳곳에 설치되고 있다(이하에서는 이러한 여러 카메라들을 편의상 '보안 카메라'로 부르기로 한다).In recent years, various types of cameras have been installed in various places such as roads, India, residential areas, and alleys for real-time monitoring of traffic conditions, provision of traffic information, or various security purposes (hereinafter, ).

이러한 보안 카메라들은 그 용도에 따라 GPS 칩이 내장되거나, 와이파이(wi-fi)/블루투스/지그비 등의 수단에 의해 관리 서버 등의 네트워크에 연결될 수 있다. 보안 카메라들의 용이한 관리를 위해 각각의 보안 카메라들은 고유의 IP 주소 등과 같은 식별자를 가질 수도 있다.These security cameras may be integrated with a GPS chip or connected to a network such as a management server by means of wi-fi, Bluetooth or ZigBee depending on the purpose. For ease of management of security cameras, each security camera may have an identifier such as a unique IP address or the like.

또한, 보안 카메라는 특정 목적을 위해 하나 이상의 카메라가 복합적으로 장착되어 하나의 보안 카메라 모듈을 구성하여 다시점 영상(복수의 카메라로 같은 피사체와 배경을 촬영하여 얻어지는 동화상)을 촬영할 수 있으며, 줌인/줌아웃 등의 기능을 구비할 수도 있다.In addition, the security camera can capture a multi-view image (a moving image obtained by photographing the same subject and a background with a plurality of cameras) by composing one security camera module by combining one or more cameras for a specific purpose, A zoom-out function and the like may be provided.

전술한 보안 카메라를 이용하여 단순 정보만을 수집하여 특정 목적으로 이용할 수도 있고(예를 들어, 실시간 교통 상황 보기), 특정 대상을 찾기 위한 용도(예를 들어, 교통사고 시 뺑소니 차량 찾기 등)로 사용될 수도 있다.The security camera may be used to collect only simple information and use it for a specific purpose (for example, to view real-time traffic conditions), to find a specific object (for example, to find a hit-and-run vehicle in a traffic accident) It is possible.

특히, 특정 대상을 찾기 위한 용도로 보안 카메라의 촬영 영상을 활용하는 예가 점점 증가하고 있다. 또한, 단순한 2차원 영상 정보가 아닌 3차원 영상 정보를 이용할 경우 특정 대상을 찾기가 좀 더 용이해지는 장점이 있으나, 정확도가 떨어지는 문제가 있다.Especially, there are increasingly examples of using photographed images of security cameras for the purpose of finding a specific object. In addition, there is an advantage that it becomes easier to find a specific object when using three-dimensional image information rather than simple two-dimensional image information, but there is a problem that accuracy is low.

따라서 영상 정보로부터 좀 더 정밀하게 특정 대상을 찾아낼 수 있는 새로운 영상 처리 방법이 필요하게 되었다.Therefore, there is a need for a new image processing method capable of detecting a specific object more precisely from image information.

또 종래에는 영상 데이터가 차지하는 용량이 너무 커서 보관과 관리가 번거롭고 비용도 많이 소모되었는바, 영상 정보의 품질은 유지하면서도 정보의 양을 줄일 수 있는 방안이 필요하다.
In addition, conventionally, the capacity occupied by the image data is so large that it is cumbersome and costly to store and manage. Therefore, it is necessary to reduce the amount of information while maintaining the quality of the image information.

본 발명의 목적은 영상 정보로부터 특정 대상을 정밀하게 찾아낼 수 있도록 영상 정보를 처리하는 다시점 보안 카메라 시스템의 영상 처리 방법을 제공하는 것이다.An object of the present invention is to provide an image processing method of a multi-view security camera system that processes image information so that a specific object can be precisely detected from the image information.

상기와 같은 목적을 달성하기 위하여, 본 발명은 각기 다른 위치에 설치된 다수의 보안 카메라, 상기 보안 카메라를 상호 연결하는 유/무선 네트워크, 상기 유/무선 네트워크를 통해 상기 보안 카메라로부터 획득한 영상 정보를 전송받아 처리하는 영상처리장치 및 상기 영상처리장치에서 처리된 정보를 저장하는 데이터베이스를 포함하여 구성되는 다시점 보안 카메라 시스템에 있어서, 상기 영상처리장치는, 상기 보안 카메라로부터 획득된 영상을 수신하여 기설정된 주의 대상 객체가 상기 영상에 존재하는지를 판단하는 대상판단단계; 상기 주의 대상 객체가 존재하지 않으면 인식 가능한 객체를 추출하는 객체추출단계; 상기 추출된 객체에 다수의 고유 정보를 삽입하여 3차원 객체 정보로 변환하는 객체변환단계; 및 상기 3차원 객체 정보 중 주요 정보만을 추출하여 상기 데이터베이스로 저장하는 정보저장단계를 거쳐 상기 영상 정보를 처리하는 것을 특징으로 하는 다시점 보안 카메라 시스템의 영상처리방법을 제공한다.According to an aspect of the present invention, there is provided a security camera system including a plurality of security cameras installed at different positions, a wired / wireless network connecting the security cameras, image information obtained from the security camera through the wired / And a database for storing information processed by the image processing apparatus, wherein the image processing apparatus comprises: an image processing unit for receiving an image acquired from the security camera, A target determining step of determining whether a set target object exists in the image; An object extracting step of extracting a recognizable object if the care object does not exist; An object transforming step of inserting a plurality of unique information into the extracted object and transforming the extracted object into three-dimensional object information; And extracting only the main information among the three-dimensional object information and storing the extracted main information in the database, and processes the image information through an information storing step.

상기 대상판단단계에서 상기 주의 대상 객체가 존재하면, 상기 데이터베이스로부터 상기 주의 대상 객체에 맵핑되는 상기 3차원 객체 정보를 호출하는 정보호출단계; 상기 주의 대상 객체에 상기 3차원 객체 정보를 맵핑하는 정보맵핑단계를 더 포함하는 것을 특징으로 한다.An information calling step of calling the three-dimensional object information mapped to the attention object from the database if the object of attention exists in the object determining step; And an information mapping step of mapping the three-dimensional object information to the attention object.

상기 정보호출단계 이후, 상기 영상으로부터 상기 주의 대상의 새로운 고유 정보를 추출하여 상기 3차원 객체 정보를 갱신하는 정보갱신단계를 더 포함하는 것을 특징으로 한다.And an information updating step of, after the information calling step, extracting new unique information of the subject of interest from the image and updating the three-dimensional object information.

상기 주의 대상 객체는 사람, 동물, 사물 중 적어도 어느 하나인 것을 특징으로 한다.The attention object is at least one of a human being, an animal, and an object.

상기 고유 정보는 객체 자체를 식별하기 위한 식별 정보, 이동 경로 정보, 자세 정보, 행동 정보, 얼굴과 신체 체형 정보 및 골격 정보를 포함하는 생물학적 정보, 촬영된 시간 정보를 포함하는 메타 정보 중 적어도 어느 하나인 것을 특징으로 한다.The unique information includes at least one of identification information for identifying the object itself, movement route information, posture information, behavior information, biological information including face and body shape information and skeleton information, and meta information including captured time information .

상기 객체추출단계에서 상기 인식 가능한 객체가 사람이면 상기 식별 정보로 얼굴 정보를 사용하는 것을 특징으로 한다.And the face information is used as the identification information if the recognizable object is a person in the object extracting step.

상기 주요 정보는 상기 3차원 객체 정보로의 변환에 필요한 최적, 최소량의 필수 정보인 것을 특징으로 한다.And the main information is an optimum and minimum amount of essential information necessary for conversion into the three-dimensional object information.

상기 객체추출단계에서 상기 인식 가능한 객체는 사람, 의복, 신발, 소지품, 자동차, 동물 중 적어도 어느 하나인 것을 특징으로 한다.In the object extracting step, the recognizable object may be at least one of a person, clothing, shoes, belongings, automobile, and animal.

또한, 본 발명은 각기 다른 위치에 설치된 다수의 보안 카메라; 상기 보안 카메라를 상호 연결하는 유/무선 네트워크; 상기 유/무선 네트워크를 통해 상기 보안 카메라로부터 획득한 영상 정보를 전송받아 처리하는 영상처리장치; 및 상기 영상처리장치에서 처리된 정보 중 주요 정보만을 저장하는 데이터베이스를 포함하여 구성되며, 상기 보안 카메라는 복수의 카메라가 모듈화되어 하나의 보안 카메라를 구성하는 것을 특징으로 한다.The present invention also relates to a plurality of security cameras installed at different positions; A wired / wireless network interconnecting the security cameras; An image processing apparatus for receiving and processing image information acquired from the security camera through the wired / wireless network; And a database for storing only important information among the information processed in the image processing apparatus, wherein the plurality of cameras are modularized to form one security camera.

상기 영상처리장치는 각기 다른 방향 및 거리, 각기 다른 시점에 상기 보안 카메라로부터 획득된 영상을 통합하여 처리하고, 상기 통합 처리된 영상으로부터 기설정된 주의 대상 객체가 있는지를 판별하는 것을 한다.The image processing apparatus integrates and processes the images obtained from the security camera at different directions, distances, and different time points, and determines whether there is a pre-set attention target object from the integrated processed image.

상기 영상처리장치는 상기 주의 대상 객체가 존재하지 않으면, 인식 가능한 객체를 추출하고 상기 추출된 객체에 다수의 고유 정보를 삽입하여 3차원 객체 정보로 변환한 후, 상기 3차원 객체 정보 중 주요 정보만을 추출하여 상기 데이터베이스로 저장하는 것을 한다.The image processing apparatus extracts a recognizable object and inserts a plurality of unique information into the extracted object to convert the extracted object into three-dimensional object information, and then extracts only important information among the three-dimensional object information And stores it in the database.

상기 영상처리장치는 상기 주의 대상 객체가 존재하면, 상기 데이터베이스로부터 상기 주의 대상 객체에 맵핑되는 상기 3차원 객체 정보를 호출해 상기 주의 대상 객체에 상기 3차원 객체 정보를 맵핑하며, 상기 영상으로부터 상기 주의 대상의 새로운 고유 정보를 추출하여 상기 3차원 객체 정보를 갱신하는 것을 특징으로 한다.Wherein the image processing apparatus maps the three-dimensional object information to the attention object by calling the three-dimensional object information mapped to the attention object from the database if the object of attention exists, Extracting new unique information of the object, and updating the three-dimensional object information.

상기 고유 정보는 객체 자체를 식별하기 위한 식별 정보, 이동 경로 정보, 자세 정보, 행동 정보, 얼굴과 신체 체형 정보 및 골격 정보를 포함하는 생물학적 정보, 촬영된 시간 정보를 포함하는 메타 정보 중 적어도 어느 하나인 것을 특징으로 한다.The unique information includes at least one of identification information for identifying the object itself, movement route information, posture information, behavior information, biological information including face and body shape information and skeleton information, and meta information including captured time information .

상기 주의 대상 객체는 사람, 동물, 사물 중 적어도 어느 하나이며, 상기 주의 대상 객체가 사람이면 상기 고유 정보로 얼굴 정보를 사용하는 것을 특징으로 한다.The attention object is at least one of a person, an animal, and an object, and the face information is used as the unique information if the object of attention is a person.

상기 영상처리장치에서 통합 처리하는 영상은 상호 근방 또는 근방계에 위치한 상기 보안 카메라로부터 획득한 영상인 것을 특징으로 한다.And the image processed by the image processing apparatus is an image obtained from the security camera located in the vicinity of or in proximity to each other.

이상 설명한 바와 같이, 본 발명의 다시점 보안 카메라 시스템의 영상 처리 방법은 다수의 다시점 보안 카메라로부터 얻어진 영상 빅 데이터를 효율적으로 처리하고 저장함으로써 특정 대상의 지정, 판별, 추적 및 관리가 가능해진다.As described above, the image processing method of the multi-viewpoint security camera system according to the present invention efficiently designates, identifies, tracks, and manages a specific object by processing and storing image big data obtained from a plurality of multi-viewpoint security cameras.

특히 저장하여야 할 정보량을 최소로 함으로써, 비용을 절감하고 효율을 높일 수 있다. In particular, it is possible to reduce the cost and increase the efficiency by minimizing the amount of information to be stored.

또한, 영상 빅 데이터의 효율적인 처리에 따른 결과를 다양한 산업 분야에 이용할 수 있는 장점이 있다.In addition, there is an advantage that the result of efficient processing of video big data can be utilized in various industrial fields.

도 1은 본 발명의 한 실시예에 따른 다시점 보안 카메라 시스템을 도시한 블럭도.
도 2는 본 발명의 한 실시예에 따른 다시점 보안 카메라 시스템의 영상처리방법을 도시한 순서도.
1 is a block diagram illustrating a multi-view security camera system in accordance with an embodiment of the present invention.
2 is a flowchart illustrating an image processing method of a multi-viewpoint security camera system according to an embodiment of the present invention;

이하에서는 본 발명의 한 실시예에 따른 다시점 보안 카메라 시스템의 영상 처리 방법에 대해 도면을 참조하여 상세히 설명한다.Hereinafter, an image processing method of a multi-viewpoint security camera system according to an embodiment of the present invention will be described in detail with reference to the drawings.

도 1에 도시된 바와 같이, 본 발명은 다수의 다시점 보안 카메라(100)와, 이들을 연결하는 유/무선 네트워크(200)와, 다시점 보안 카메라(100)들로부터 수집한 영상 데이터를 저장 및 처리하는 영상처리장치(300)와, 최종 처리된 영상 데이터 중 필수 데이터만을 백업하는 데이터베이스(400)가 하나의 시스템으로 연계되어 구현될 수 있다.As shown in FIG. 1, the present invention includes a plurality of multi-viewpoint security cameras 100, a wired / wireless network 200 connecting them, And a database 400 for backing up only necessary data among the final processed image data may be implemented in a system.

다수의 보안 카메라(100)는 도로나 인도, 주택가, 골목 등 곳곳에 설치되어 있으며, 용이한 관리를 위해 각각의 보안 카메라들은 고유의 IP 주소 등과 같은 식별자를 갖는다. 보안 카메라(100)는 복수의 카메라가 하나의 모듈 형태로 구성될 수 있으며, 이 경우 각각의 카메라는 각기 다른 촬영 범위와 목적으로 사용될 수 있다.A plurality of security cameras 100 are installed in various places such as a road, a house, a residential area, an alley, etc. For easy management, each security camera has an identifier such as a unique IP address. The security camera 100 may have a plurality of cameras configured in the form of one module, in which case each camera can be used for different shooting ranges and purposes.

예를 들어, 제1카메라는 저해상도로 넓은 영역을 촬영하고, 제2카메라는 고해상도 망원으로 좁은 영역을 자세히 촬영하도록 구성될 수 있다. 즉, 제1카메라가 배경을 촬영하면, 이 과정에서 인식된 주의 대상(특정 목적을 위해 임시로 지정된 특정 대상을 의미하며, 혼자 길을 가는 아이나 애완동물, 위험행동대상으로 지정된 특정 인물, 응급구조 대상 등일 수 있음)에 대해 제2카메라가 정밀 추적해 고해상도의 이미지를 획득하는 방식이다. 이를 위해, 제2카메라에는 고해상도의 CCD와, 줌인/줌아웃 기능의 렌즈가 장착될 수 있다. 또 보안 카메라(100)는 주의 대상의 효율적인 촬영을 위해 적외선 등과 같은 다른 스펙트럼 영역의 이미지를 촬영하는 제3카메라와, 저광량 환경에서도 촬영이 가능한 고감도 CCD를 장착한 제4카메라를 추가로 구비할 수도 있다.For example, the first camera may be configured to capture a large area at a low resolution, and the second camera may be configured to photograph a narrow area in detail with a high-resolution telephoto. That is, when the first camera captures the background, the attention object recognized in this process (which means a specific object temporarily designated for a specific purpose, which means a person or a pet traveling alone, a specific person designated as a dangerous behavior object, Object, etc.), the second camera obtains a high-resolution image by precise tracking. To this end, a high-resolution CCD and a zoom-in / zoom-out function lens may be mounted on the second camera. In addition, the security camera 100 may further include a third camera that captures an image of another spectral range such as an infrared ray and a fourth camera that includes a high-sensitivity CCD that can capture images even in a low light amount environment It is possible.

이러한 보안 카메라(100)는 위치 정보 획득을 위해 GPS 칩이 내장될 수 있고, 와이파이/블루투스/지그비 등의 유/무선 네트워크(200)에 의해 영상처리장치(300)에 연결될 수 있다.The security camera 100 may include a GPS chip for acquiring location information and may be connected to the image processing apparatus 300 by a wired / wireless network 200 such as Wi-Fi / Bluetooth / ZigBee.

보안 카메라(100)가 주의 대상을 한 화면으로 촬영할 수 없을 경우, 모듈화된 복수의 카메라로 주의 대상을 일부분씩 촬영하면 영상처리장치(300)에서 이를 합성해 하나의 고해상도 이미지로 통합할 수 있다. 이를 위해 보안 카메라(100)는 상하좌우 회전하는 기능 및 방향 벡터 인식 기능을 갖는 것이 바람직하다.When the security camera 100 can not shoot a subject on a screen, the subject is photographed by a plurality of modular cameras, and the image processing apparatus 300 can combine the subject into a single high-resolution image. For this, the security camera 100 preferably has a function of rotating up and down and right and left and a function of recognizing a direction vector.

또는, 하나의 주의 대상을 여러 위치에 설치된 보안 카메라(100)를 통해 촬영한 후 영상처리장치(300)에서 이를 통합 및 처리하여 3차원 입체 영상 데이터로 변환할 수도 있다.Alternatively, one object of caution may be photographed through a security camera 100 installed at various locations, and then the image processing apparatus 300 may integrate and process the object to convert the object into three-dimensional stereoscopic image data.

이렇게 하나 이상 또는 다수의 보안 카메라(100)를 공조하여 사각지대를 최소화하고, 다양한 각도 및 거리에서 촬영된 영상을 획득함으로써 주의 대상을 좀 더 정확하게 판별 및 추적할 수 있게 된다.In this manner, one or more security cameras 100 can be cooperated to minimize blind spots, and images captured at various angles and distances can be obtained to more accurately identify and track attention targets.

더 나아가, 사용자의 사전 동의가 있는 차량용 블랙박스의 보안 카메라를 연계하는 경우에는 이동성을 확보할 수 있기 때문에 차량의 이동에 의한 여러 시점 및 거리에서의 연속 영상 촬영 데이터를 획득하여 활용할 수도 있다. 차량용 블랙박스 뿐만 아니라, 공공기관의 경우 사전 동의가 있는 네트워크 연결 가능한 디지털 기기에 장착된 카메라의 영상 정보 역시 동일한 방법으로 활용될 수 있다.Furthermore, when a security camera of a vehicle black box having a prior consent of a user is linked, mobility can be ensured, so that continuous image capturing data at various viewpoints and distances due to vehicle movement can be acquired and utilized. In the case of a public institution, not only a black box for a vehicle but also a video image of a camera mounted on a network-connectable digital device with prior agreement can be utilized in the same manner.

전술한 보안 카메라(100)로부터 촬영된 영상은 보안 카메라의 고유 IP 주소 등의 식별자, 카메라의 위치를 나타내는 GPS 정보, 촬영 시간, 벡터 정보, 카메라로부터 촬영 대상까지의 거리/줌 비율 등의 메타 정보가 함께 저장되어 보안 카메라(100)의 자체 저장 공간 또는 관리 서버에 저장되거나, 유/무선 네트워크(200)를 통해 영상처리장치(300)로 전송된다. 이렇게 자체 저장 또는 전송된 영상 데이터는 서로 다른 관리 서버에 저장되더라도 동일한 처리 프로토콜을 이용하는 경우 서로 연결 및 통합되어 하나의 빅 데이터(big data, 데이터의 생성 양ㆍ주기ㆍ형식 등이 기존 데이터에 비해 너무 크기 때문에, 종래의 방법으로는 수집ㆍ저장ㆍ검색ㆍ분석이 어려운 방대한 데이터)를 구성하게 된다.The image photographed from the above-described security camera 100 includes an identifier such as a unique IP address of the security camera, GPS information indicating the position of the camera, shooting time, vector information, meta information such as a distance / Stored in the security server 100 or in the management server or transmitted to the image processing apparatus 300 through the wired / Even if the image data thus stored or transmitted is stored in different management servers, when the same processing protocol is used, they are connected and integrated so that one big data (data amount, period, format, etc.) The conventional method constitutes a large amount of data which is difficult to collect, store, search, and analyze).

영상처리장치(300)는 전술한 영상 빅 데이터(보안 카메라들로부터 획득된 다양한 영상 정보를 통합한 대용량 데이터를 의미함)를 처리하며, 처리된 영상 빅 데이터에서 특정 목적에 부합하는 정보를 추출하여 데이터베이스(400) 또는 특정 기관 등에 전송한다.The image processing apparatus 300 processes the above-described image big data (meaning large data obtained by combining various image information obtained from security cameras), extracts information corresponding to a specific purpose from the processed image big data To the database 400 or a specific institution.

영상처리장치(300)는 영상 정보를 신체 정보, 얼굴 정보, 자세 정보, 사물 정보로 나누어 처리할 수 있으며, 처리된 상기 정보들을 다시 골격 정보 및 움직임 패턴 정보 등으로 구분하여 추출한 후 해당 대상을 객체화한다. 객체화된 대상에 전술한 고유 정보를 삽입하여 데이터베이스(400)에 최종 저장한다. 이에 대해 도 2를 참조하여 상세히 설명하면 다음과 같다(이하에서는 별도로 언급이 없더라도 각종 데이터의 처리 주체는 영상처리장치로 이해되어야 할 것이다).The image processing apparatus 300 can divide the image information into body information, face information, posture information, and object information. The image processing apparatus 300 extracts the processed information by dividing the processed information into skeleton information and movement pattern information, do. And inserts the above-described unique information into the object to be objectized and finally stores it in the database 400. [ This will be described in detail with reference to FIG. 2 (hereinafter, the subject of processing various data should be understood as an image processing apparatus, although not mentioned separately).

먼저 신체 정보를 처리하는 방법은 촬영된 이미지들을 통합해 피사체(전술한 주의 대상)를 객체화함으로써 구현된다.First, a method of processing body information is realized by integrating photographed images and objectizing a subject (the subject of attention described above).

보안 카메라(100)로부터 획득한 영상 속에서 주의 대상에 해당하는 피사체의 여러 각도(시점) 이미지를 통합하고, 이들 이미지가 공통적으로 나타내는 주의 대상 피사체를 사물 또는 사람으로 인식하게 된다(S100, S200). 이러한 이미지들에 공통적으로 내포된 피사체가 동일사물 또는 동일인으로 판단되면 기 저장된 3차원 객체 정보를 데이터베이스(400)로부터 호출하고(S110), 호출된 3차원 객체 정보를 주의 대상 객체에 맵핑한다(S130). 주의 대상에 해당하는 새로운 정보가 존재하는 경우, 데이터베이스(400)에 저장될 3차원 객체 정보를 갱신한다(S150).(Viewpoint) images of the subject corresponding to the attention object in the image acquired from the security camera 100, and recognizes the subject of interest, which is common to these images, as a thing or a person (S100, S200) . If it is determined that the object commonly included in these images is the same object or the same person, the previously stored three-dimensional object information is called from the database 400 (S110), and the called three-dimensional object information is mapped to the attention object ). If there is new information corresponding to the attention object, the 3D object information to be stored in the database 400 is updated (S150).

호출할 3차원 객체 정보가 없거나, 영상에 주의 대상 객체가 없는 경우, 인식된 피사체를 3차원 모델로 객체화 시키고(S300), 객체화된 피사체를 토대로 관련 정보를 부착하고 분석해 피사체의 의미를 추출하게 된다.If the 3D object information to be called does not exist, or if there is no object to be caught in the image, the recognized object is objectified to the 3D model (S300), and the related information is attached and analyzed based on the objectized object to extract the meaning of the object .

3차원 모델이란, 폴리곤 바탕(polygons base, 폴리곤으로 표현되는 기하학적 3차원 모델)의 3차원 정보일 수도 있고, 여러 장의 이미지를 집합으로 추출하는 영상적 3차원 모델(두 장의 위상이 다른 이미지를 통합해 입체 영상으로 해석하는 인지지능과 같이 여러 장의 이미지를 통합해 중간 이미지를 생성하는 알고리즘) 정보일 수도 있다.The three-dimensional model may be three-dimensional information of a polygonal base (a geometric three-dimensional model represented by a polygon) or an image three-dimensional model that extracts a plurality of images as a set (two phase- (Eg, cognitive intelligence that interprets images as stereoscopic images), or an algorithm that combines multiple images to generate an intermediate image.

객체화(objectify)란 영상 정보에서 주의 대상으로서 의미원소를 추출하고 이를 하나의 실질적 존재 대상으로 삼아, 그 대상에 대한 정보를 점진적으로 부착시킴으로써 하나의 구체적 의미 대상을 형성하는 것이다. 좀 더 쉽게 설명하면, 영상 속의 주의 대상이 '사람'으로 추출되면, 해당 인물에 식별 ID를 부여하고, 해당 ID를 중심으로 고유 정보를 추가하는 것이다. 고유 정보는 의복, 소지품 등 피사체 자체를 식별하기 위한 정보와, 이동 경로 정보, 자세 정보, 행동 정보, 얼굴과 신체 체형 정보 등과 같은 생물학적 정보, 그리고 촬영된 시간 정보 등이 포함될 수 있다.Objectification is to extract a semantic element as an object of attention in image information, and to make a concrete object by gradually attaching information about the object as a substantial object of existence. More specifically, when the subject of interest in the video is extracted as a person, an identification ID is assigned to the person, and unique information is added around the ID. The unique information may include information for identifying the subject itself such as clothing and belongings, biological information such as route information, attitude information, behavior information, face and body information, and time information of the photograph.

주의 대상은 대부분 움직이는 피사체인 경우가 많으므로, 주의 대상이 각 시간과 각 위치에서 다수의 보안 카메라에 노출되는 모습은 조금씩 상이하다. 즉 같은 위치에 있는 보안 카메라(100)라고 하더라도 각기 다른 시간과 각기 다른 각도에서 촬영된 주의 대상 이미지가 획득될 수 있다. 또는 동시간이나 각기 다른 시간에 각기 다른 각도에 설치된 각기 다른 보안 카메라(100)를 통해 주의 대상 이미지가 촬영될 수 있다. 주의 대상 피사체를 더욱 정밀하게 추출하기 위해 보안 카메라(100)들 중 서로 근방에 위치한 보안 카메라(100)에서 획득한 화상 정보를 통합하는 것이 바람직하다.Since the subject of attention is often a moving subject, the appearance of the subject being exposed to a plurality of security cameras at each time and position is slightly different. That is, even when the security camera 100 is located at the same position, the attention image photographed at different angles and at different angles can be obtained. Or the attention image can be taken via different security cameras 100 installed at different times at the same time or at different times. It is preferable to integrate the image information obtained from the security camera 100 located near each other among the security cameras 100 in order to extract the subject of interest more precisely.

여기서 근방이란, 촬영한 영상이 포함하는 공간 혹은 대상의 전부 또는 일부분이 화상으로 겹치거나 의미로 중첩되어 화상에 기록된 대상의 의미를 파악하는데 서로 보완할 수 있는 공간적 관계를 의미하며, 이러한 근방의 집합을 근방계로 정의할 수 있다. 따라서 움직이는 피사체의 경우, 근방의 집합인 근방계는 대상의 움직임에 따라 변할 수 있다.Here, the proximity means a spatial relationship in which all or a part of the space or object included in the photographed image overlaps or overlaps with the image and can complement each other to grasp the meaning of the object recorded in the image, A set can be defined as a neighborhood system. Therefore, in the case of a moving subject, the nearby system, which is a nearby set, may change depending on the motion of the object.

이렇게 촬영된 주의 대상 피사체에 관한 이미지들은 종래의 3차원 모델 변환 방법을 통해 3차원 모델 정보로 변환되며, 피사체의 영상에서 추출된 3차원 모델에는 주의 대상을 촬영한 이미지 중 가장 해상도가 높고 선명한 이미지가 우선적으로 맵핑된다.The captured images of the subject of interest are converted into three-dimensional model information through a conventional three-dimensional model conversion method. In the three-dimensional model extracted from the image of the subject, the highest resolution and sharp image Is preferentially mapped.

객체화된 주의 대상이 사람인 경우, 피사체를 구분하는 가장 좋은 식별 방법은 얼굴 정보가 된다. 따라서 피사체가 사람으로 판별되면 영상처리장치(300)는 피사체의 얼굴 정보를 처리한다.If the objectized attention object is a person, the best identification method for distinguishing the object is the face information. Accordingly, if the subject is determined as a person, the image processing apparatus 300 processes the face information of the subject.

얼굴 정보는 기본적으로 무표정한 얼굴을 기준으로 하며, 주의 대상 피사체의 표정들 중에서 가장 해상도가 높은 각 표정의 얼굴 이미지를 모두 저장한다. 피사체의 주요 이미지를 하나 이상 다중 저장 및 맵핑함으로써 주의 대상의 식별력을 높일 수 있다. 즉 다중 맵핑은 선명하게 촬영된 이미지 중 각기 다른 표정의 영상을 하나의 모델에 맵핑함으로써, 주의 대상이 각기 다른 표정을 하고 있더라도 다중 맵핑된 표정 중 하나에 매칭될 수 있으므로 해당 피사체의 구별이 보다 쉬워지게 할 수 있다. 이렇게 인식 및 맵핑된 얼굴 정보는 피사체를 구별하는 최종 ID로 사용될 수 있다.The face information basically refers to the expressionless face and stores all the facial images of each facial expression having the highest resolution among the facial expressions of the attention object. By multiplying and storing one or more main images of a subject, it is possible to increase the discrimination power of the attention object. In other words, the multiple mappings can be matched to one of the multiple mapped facial expressions even when the subject of attention has a different facial expression by mapping images of different facial expressions among the clearly captured images to one model, You can. The face information thus recognized and mapped can be used as the final ID for distinguishing the subject.

객체화된 주의 대상이 사람을 포함한 생물인 경우, 자세 정보가 추가로 맵핑될 수 있다.If the objected attention object is a creature including a person, attitude information can be further mapped.

즉 영상 정보로부터 변환된 3차원 피사체 모델에 신체의 운동에서 읽혀진 자세 정보를 통합해 관절을 삽입할 수 있다. 이렇게 삽입된 관절을 기준으로 자세 정보를 삽입하면서 피사체의 객체정보를 수정한다. 피사체가 사람인 경우, 걸음걸이 등과 같은 자세의 특성은 사람을 구분하는 중요한 단서가 될 수 있다.In other words, joints can be inserted by integrating the attitude information read from the motion of the body into the three-dimensional object model converted from the image information. The object information of the subject is corrected while the attitude information is inserted based on the inserted joint. If the subject is a person, the characteristic of the posture such as walking, etc. can be an important clue for distinguishing a person.

3차원 모델로 변환된 주의 대상의 자세와 행동으로부터 관절의 위치를 추출하고, 추출된 관절 위치 정보로부터 주의 대상 골격의 해부학적 정보를 3차원 모델에 입힐 수 있다. 이렇게 삽입된 3차원 골격 정보를 토대로 자세와 행동 패턴을 삽입하여 피사체 정보를 결합하여 구성함으로써 주의 대상에 대한 정보의 데이터량을 높은 비율로 압축하는 것과 동일한 효과가 있다.The position of the joint can be extracted from the attitude and behavior of the attention object transformed into the 3D model, and the anatomical information of the attention object skeleton can be applied to the 3D model from the extracted joint position information. The posture and the behavior pattern are inserted based on the inserted three-dimensional skeleton information to combine the object information, thereby providing the same effect as compressing the data amount of the information on the attention object at a high ratio.

보다 상세히 설명하면, 근방을 형성하는 보안 카메라(100)를 통해 획득한 영상을 통합한 통합 영상으로부터 각각의 보안 카메라(100)의 공간적 위상 차이는 미리 알 수 있으므로, 이러한 위상 차이와 주의 대상의 자세 변화(시계열적 연속 변화)로부터 주의 대상의 관절 위치를 추출할 수 있다. 이렇게 추출된 관절 위치를 연결해 골격을 구성하고, 골격 정보를 기준으로 움직임 패턴(동적 자세 혹은 태도, 신체 골격의 물리적 특성)들을 추출할 수 있다.More specifically, since the spatial phase difference of each security camera 100 can be known in advance from the integrated image obtained by combining the images acquired through the security camera 100 forming the neighborhood, The joint position of the subject of interest can be extracted from the change (time series continuous change). The extracted joint positions are connected to form a skeleton, and a movement pattern (dynamic attitude or attitude, physical characteristics of the body skeleton) can be extracted based on the skeleton information.

골격 정보를 바탕으로 연속 이미지의 시계열적 운동 구조로부터 움직임 패턴을 추출할 수 있다. 이 때, 가장 보편적인 움직임을 기본 패턴으로 설정하게 되며, 기본 패턴으로 구분된 움직임이 일정 시간 이상 지속되거나 또는 일정 공간 구간에서 지속되는 경우, 해당 움직임은 기본 패턴으로 대체할 수 있다. 이렇게 기본 패턴을 추출하고, 기본 패턴과 다른 움직임 패턴은 따로 추출되어 여러 개의 움직임 패턴이 추출될 수 있다. 이러한 움직임 패턴들을 지속적으로 추출하고 통합 및 수정해 최종 움직임 패턴으로 변환하고, 이를 구조적으로 구분해 정리함으로써 주의 대상의 움직임은 종류별로 구분되어 추출될 수 있다.Based on the skeleton information, the motion pattern can be extracted from the temporal motional structure of the continuous image. In this case, the most common motion is set as a basic pattern. If the motion classified by the basic pattern lasts for a predetermined time or continues in a certain space section, the motion can be replaced with a basic pattern. The basic pattern is extracted in this manner, and the motion patterns different from the basic pattern can be extracted separately and a plurality of motion patterns can be extracted. These movement patterns are continuously extracted, integrated and modified, converted into final movement patterns, and structurally classified and arranged, so that the movement of the attention object can be classified and extracted.

이렇게 결합된 주의 대상의 생물학적 정보를 바탕으로 발걸음 소리, 이동 속도 등과 같은 행동 패턴을 추론하는 시뮬레이션을 할 수 있다. 이를 통해 객체화된 3차원 주의 대상의 다음 발견 위치를 예측하는 등의 활용이 가능하다.Based on the combined biological information of the subject, it is possible to simulate behavioral patterns such as footsteps and speed of movement. It is possible to utilize it to predict the next discovery location of the objectized three-dimensional attention object.

전술한 바와 같이 3차원 객체 정보로 변환될 수 있는 대상은 사람, 의복, 신발, 소지품, 자동차, 동물 등으로 다양하며, 이러한 객체화 및 변환은 보안 카메라(100) 뿐만 아니라 전술한 블랙박스 등에 의해 촬영된 영상이 모두 통합된 영상 빅 데이터와 대조함으로써 각각의 대상과 매칭되는 정보를 추출할 수 있다.
As described above, objects that can be converted into three-dimensional object information include people, clothing, shoes, personal belongings, automobiles, animals, and the like. Such objectification and conversion are performed not only by the security camera 100, It is possible to extract information matched with each object by collating all the combined images with the combined image big data.

보안 카메라(100)로부터 획득한 영상 정보를 통합하고, 통합된 정보로부터 주의 대상 피사체를 3차원 객체로 변환하는 과정이 완료되면, 3차원 객체로 인식된 대상의 가공 전 영상 정보들은 일정 기간 동안 보존된 후 주요 정보(3차원 객체로의 변환에 필요한 최적, 최소량의 필수 정보)만을 남겨두고 삭제되며, 남겨진 주요 정보는 데이터베이스(400)에 저장된다(S400).After the process of integrating the image information acquired from the security camera 100 and converting the attention object into the three-dimensional object from the integrated information is completed, the pre-processing image information of the object recognized as the three- The remaining important information is stored in the database 400 (S400). In this case, the main information is deleted while leaving only the essential information (the optimum and minimum necessary information necessary for conversion into the three-dimensional object).

예를 들어, 사물 정보 중에서 자동차와 같이 표준의 범위가 좁은 사물(다른 사물에 비해 표준적인 형태가 있어 인식이 용이한 사물)은 보안 카메라(100)가 획득한 영상 중 가장 해상도가 높고 선명한 영상을 기준으로 하며, 영상 빅 데이터를 통해 대상의 객체 정보, 움직임 궤적 등을 추출할 수 있다. 이들을 결합해 움직임을 렌더링한 후 객체 인식을 위한 기본 정보, 선명한 소수의 영상, 움직임 궤적, 객체 정보 등 필수 정보만을 데이터베이스(400)에 저장한다.For example, an object having a narrow range of standards (such as an automobile) having a narrow range of standards (an object having a standard form as compared with other objects and easy to recognize) is a high resolution and sharp image And can extract object information, movement trajectory, and the like of the object through the video big data. After the motion is rendered, motion information is stored in the database 400, such as basic information for recognizing the object, clear images, motion trajectory, and object information.

소지품과 같이 표준의 범위가 광범위한 사물(다른 사물에 비해 표준적인 형태가 따로 없이 그 형태가 매우 다양해 인식이 어려운 사물)의 경우, 보안 카메라(100)가 획득한 영상 중 가장 해상도가 높고 선명한 영상을 기준으로 하되, 사물의 인식률을 높이기 위해 다수의 영상을 남기는 것이 바람직하다. 또한, 영상 빅 데이터로부터 사용자의 착용 위치와 착용 위치의 변화, 움직임 궤적도 함께 추출하여 이들을 결합하고 움직임을 렌더링한다. 그 후 필수 정보만 남기고 삭제하여 데이터베이스(400)에 저장한다. 저장되는 정보는 자동차 등과 같이 인식이 용이한 사물보다는 많은 양이 된다.In the case of objects having a wide range of standards such as personal belongings (objects whose standard shapes are not so different from other objects and whose shapes are so diverse that it is hard to recognize), the security camera 100 obtains the highest resolution and clear images It is preferable to leave a large number of images in order to increase the recognition rate of objects. Also, it extracts the changes of the user's wearing position and wearing position, and the motion locus from the video big data, combines them, and renders the motion. Thereafter, the necessary information is deleted and stored in the database 400. The stored information is more than an object that is easy to recognize, such as an automobile.

또 강아지 등과 같은 생물의 경우에는 사람과 동일한 방식으로 정보를 처리하고 저장하게 된다.In the case of creatures such as dogs, information is processed and stored in the same manner as a person.

데이터베이스(400)에는 전술한 객체 정보들뿐만 아니라, 공간 정보가 추가적으로 저장될 수 있다. 여기서 공간 정보는 상호 근방에 위치한 보안 카메라(100)들을 통해 획득한 공간의 3차원 형상 정보와 GIS(Geographic Information System, 지리정보시스템) 정보를 결합해 생성될 수 있다. 기후와 날씨의 시간적 변화 및 인공 조명의 변화 상태, 그밖에 특이한 변화가 발생하는 것 역시 전술한 공간 정보와 통합되어 저장될 수 있다. 실제 획득한 공간의 3차원 형상 정보와 GIS 정보를 결합하면 보안 카메라(100)를 통해 획득된 영상의 사각 지대를 최소화할 수 있으며, 이를 활용해 신규 카메라의 설치 위치와 높이를 효율적으로 도출할 수도 있다.In addition to the above-described object information, the database 400 may additionally store spatial information. Here, the spatial information may be generated by combining three-dimensional shape information of a space acquired through the security cameras 100 located near each other and GIS (Geographic Information System) information. Temporal changes in climate and weather, changes in artificial lighting, and other unusual changes can also be stored together with the aforementioned spatial information. Combining the 3D shape information of the actual acquired space with the GIS information can minimize the blind spot of the image acquired through the security camera 100 and can efficiently utilize the position and height of the new camera have.

데이터의 저장 및 재생은 동영상 표준 기구인 MPEG(Moving Picture Experts Group)에서 정의하고 있는 동영상 표준에 따라 압축 저장 및 재생되며, 이러한 동영상 압축 기술은 일반적으로 사용되는 기술 표준이므로 그 상세한 설명은 생략하기로 한다.The storage and reproduction of data is compression-stored and reproduced according to a moving picture standard defined by Moving Picture Experts Group (MPEG), which is a moving picture standard mechanism. Since this moving picture compression technique is a commonly used technical standard, a detailed description thereof will be omitted do.

영상처리장치(300)는 새롭게 획득되는 영상 정보로부터 특정 주의 대상이 인식되면 이전의 객체 정보와 통합하여 새로운 정보를 업데이트 한다.The image processing apparatus 300 integrates the previous object information and updates the new information when the object of specific attention is recognized from newly acquired image information.

데이터베이스(400)에는 영상처리장치(300)에서 처리한 최종 데이터가 저장되며, 영상처리장치(300)를 통해 업데이트되는 새로운 객체 정보와 이전 객체 정보의 통합 정보 역시 저장된다.The final data processed by the image processing apparatus 300 is stored in the database 400 and the new object information updated through the image processing apparatus 300 and the previous information of the previous object are also stored.

데이터베이스(400)에 저장되는 최종 데이터는 모두 3차원 정보로, 데이터베이스(400)에는 영상처리장치(300)에서 사람이나 사물 등으로 구분하고 여기에 위치나 움직임 정보 등을 삽입하여 3차원 객체로 변환한 정보 중 필수 정보만이 저장되는 것이기 때문이다.The final data stored in the database 400 are all three-dimensional information. In the database 400, the image processing apparatus 300 divides the final data into a human being or an object, and inserts position and motion information into the three- This is because only essential information among the information is stored.

특정 기관에서 특정 목적으로 어떤 주의 대상을 지정하는 경우, 영상처리장치(300)는 실시간으로 보안 카메라(100)를 통해 획득되는 영상과 데이터베이스(400)에 저장된 3차원 객체 정보를 비교하여 주의 대상과 맵핑되는 정보를 추출한다. 그 후 실시간 영상에서 주의 대상이 인식되면, 영상처리장치(300)는 새로운 정보를 업데이트하여 데이터베이스(400)에 저장하며, 전술한 특정 기관으로 해당 정보를 전송할 수 있다.When a specific institution designates an object of attention for a specific purpose, the image processing apparatus 300 compares the image obtained through the security camera 100 with the three-dimensional object information stored in the database 400 in real time, Extract the mapped information. Thereafter, when the attention object is recognized in the real time image, the image processing apparatus 300 updates the new information, stores it in the database 400, and can transmit the corresponding information to the above-mentioned specific institution.

데이터베이스(400)에 저장된 객체 정보는 하나의 보안 카메라(100)로부터 획득된 단순 영상 정보가 아닌, 다수의 보안 카메라(100)로부터 획득된 다시점(각기 다른 시간적, 공간적 정보를 통합 및 추출한) 객체 정보이므로, 주의 대상의 인식이 훨씬 더 정밀하고 정확해질 수 있다.The object information stored in the database 400 is not the simple image information obtained from one security camera 100 but the object information obtained from the plurality of security cameras 100 (obtained by integrating and extracting different temporal and spatial information) Because it is information, awareness of attention can be much more precise and accurate.

본 발명에서 기존에 각각의 보안 카메라에 자체적으로 저장되던 영상 정보를 유/무선 네트워크를 통해 추출하여 하나의 영상 빅 데이터를 구성하고, 구성된 영상 빅 데이터로부터 특정 대상만을 추출하여 관련된 필수 정보를 해당 대상에 삽입해 3차원 객체 정보로 변환하고 필수 정보만을 저장하는 방식이다. 또한, 저장되는 3차원 객체 정보는 단순 객체 정보가 아닌, 시공간적으로 다시점의 여러 정보(형상, 골격, 움직임 패턴, 공간 등)를 포함하고 있어 객체간의 분리가 용이한 장점이 있다. 이는 영상 빅 데이터 자체라고 봐도 무방할 정도로 활용이 어려웠던 수많은 객체 정보를 활용 가능한 정보로 압축하여 저장하는 것과 동일한 효과를 갖게 된다.In the present invention, the image information previously stored in each security camera is extracted through a wired / wireless network to construct one image big data, extracts only a specific object from the configured image big data, And converts it into three-dimensional object information and stores only essential information. In addition, the stored 3D object information includes not only simple object information, but also various information (shape, skeleton, movement pattern, space, etc.) of a multi-point space in time and space, thereby facilitating separation between objects. This has the same effect as compressing and storing a large amount of object information which is difficult to use even if it is considered as the video big data itself, as the usable information.

본 발명의 바람직한 실시예에 대해 특정 용어들을 사용하여 기재하였으나, 그러한 기재는 오로지 본 발명을 설명하기 위한 것이며, 다음의 청구범위의 기술적 사상 및 범위로부터 이탈되지 않는 범위 내에서 다양하게 변경될 수 있는 것으로 이해되어야 한다.While the preferred embodiments of the present invention have been described using specific terms, such description is for the purpose of describing the present invention only and is not to be taken in a way that will depart from the spirit and scope of the following claims .

100: 다시점 보안 카메라 200: 유/무선 네트워크
300: 영상처리장치 400: 데이터베이스
100: Multi-point security camera 200: wired / wireless network
300: image processing apparatus 400: database

Claims (15)

각기 다른 위치에 설치된 다수의 보안 카메라, 상기 보안 카메라를 상호 연결하는 유/무선 네트워크, 상기 유/무선 네트워크를 통해 상기 보안 카메라로부터 획득한 영상 정보를 전송받아 처리하는 영상처리장치 및 상기 영상처리장치에서 처리된 정보를 저장하는 데이터베이스를 포함하여 구성되는 다시점 보안 카메라 시스템에서 수행되는 영상처리방법에 있어서,
상기 영상처리장치는,
상기 보안 카메라로부터 획득된 영상을 수신하여 주의 대상 객체가 상기 영상에 존재하는지를 판단하는 대상판단단계;
상기 주의 대상 객체가 존재하지 않으면 인식 가능한 객체를 추출하는 객체추출단계;
상기 추출된 객체에 다수의 고유 정보를 삽입하여 3차원 객체 정보로 변환하는 객체변환단계; 및
상기 3차원 객체 정보 중 주요 정보만을 추출하여 상기 데이터베이스로 저장하는 정보저장단계를 거쳐 상기 영상 정보를 처리하되,
상기 정보저장단계는
상기 보안 카메라가 획득한 영상 빅 데이터 가운데 가장 해상도가 높고 선명한 소수의 영상에 궤적을 결합하여 필수 정보만을 저장하여 수행되는 것을 특징으로 하는 다시점 보안 카메라 시스템의 영상처리방법.
A plurality of security cameras installed at different positions, a wired / wireless network for interconnecting the security cameras, an image processing device for receiving and processing image information acquired from the security camera through the wired / wireless network, And a database for storing information processed in the multi-point security camera system, the method comprising the steps of:
The image processing apparatus comprising:
A target determining step of receiving an image obtained from the security camera and determining whether a target object exists in the image;
An object extracting step of extracting a recognizable object if the care object does not exist;
An object transforming step of inserting a plurality of unique information into the extracted object and transforming the extracted object into three-dimensional object information; And
Extracting only the main information among the three-dimensional object information, and storing the main information in the database,
The information storage step
Wherein the security camera combines trajectories with a high-resolution and sharp-numbered image having the highest resolution among the image big data acquired by the security camera, and stores only essential information.
제1항에 있어서,
상기 대상판단단계에서 상기 주의 대상 객체가 존재하면, 상기 데이터베이스로부터 상기 주의 대상 객체에 맵핑되는 상기 3차원 객체 정보를 호출하는 정보호출단계;
상기 주의 대상 객체에 상기 3차원 객체 정보를 맵핑하는 정보맵핑단계를 더 포함하는 것을 특징으로 하는 다시점 보안 카메라 시스템의 영상처리방법.
The method according to claim 1,
An information calling step of calling the three-dimensional object information mapped to the attention object from the database if the object of attention exists in the object determining step;
Further comprising an information mapping step of mapping the three-dimensional object information to the attention object.
제2항에 있어서,
상기 정보호출단계 이후, 상기 영상으로부터 상기 주의 대상의 새로운 고유 정보를 추출하여 상기 3차원 객체 정보를 갱신하는 정보갱신단계를 더 포함하는 것을 특징으로 하는 다시점 보안 카메라 시스템의 영상처리방법.
3. The method of claim 2,
Further comprising an information updating step of, after the information calling step, updating the three-dimensional object information by extracting new unique information of the attention object from the image.
제1항에 있어서,
상기 주의 대상 객체는 사람, 동물, 사물 중 적어도 어느 하나인 것을 특징으로 하는 다시점 보안 카메라 시스템의 영상처리방법.
The method according to claim 1,
Wherein the attention object is at least one of a human being, an animal, and an object.
제1항에 있어서,
상기 고유 정보는 객체 자체를 식별하기 위한 식별 정보, 이동 경로 정보, 자세 정보, 행동 정보, 얼굴과 신체 체형 정보 및 골격 정보를 포함하는 생물학적 정보, 촬영된 시간 정보를 포함하는 메타 정보 중 적어도 어느 하나인 것을 특징으로 하는 다시점 보안 카메라 시스템의 영상처리방법.
The method according to claim 1,
The unique information includes at least one of identification information for identifying the object itself, movement route information, posture information, behavior information, biological information including face and body shape information and skeleton information, and meta information including captured time information And the image processing method of the multi-view security camera system.
제5항에 있어서,
상기 객체추출단계에서 상기 인식 가능한 객체가 사람이면 상기 식별 정보로 얼굴 정보를 사용하는 것을 특징으로 하는 다시점 보안 카메라 시스템의 영상처리방법.
6. The method of claim 5,
Wherein the face information is used as the identification information if the recognizable object is a person in the object extraction step.
삭제delete 제1항에 있어서,
상기 객체추출단계에서 상기 인식 가능한 객체는 사람, 의복, 신발, 소지품, 자동차, 동물 중 적어도 어느 하나인 것을 특징으로 하는 다시점 보안 카메라 시스템의 영상처리방법.
The method according to claim 1,
Wherein the recognizable object in the object extraction step is at least one of a human, clothing, shoes, belongings, automobile, and animal.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020130057258A 2013-05-21 2013-05-21 Multi-view security camera system and image processing method thereof KR101464192B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130057258A KR101464192B1 (en) 2013-05-21 2013-05-21 Multi-view security camera system and image processing method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130057258A KR101464192B1 (en) 2013-05-21 2013-05-21 Multi-view security camera system and image processing method thereof

Publications (1)

Publication Number Publication Date
KR101464192B1 true KR101464192B1 (en) 2014-11-24

Family

ID=52291331

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130057258A KR101464192B1 (en) 2013-05-21 2013-05-21 Multi-view security camera system and image processing method thereof

Country Status (1)

Country Link
KR (1) KR101464192B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210158535A (en) * 2020-06-24 2021-12-31 한국과학기술연구원 Method for determinig serach region using region information and object information and systme performing the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110060180A (en) * 2009-11-30 2011-06-08 한국전자통신연구원 Method and apparatus for producing 3d models by interactively selecting interested objects
KR20120054971A (en) * 2010-11-22 2012-05-31 엘지이노텍 주식회사 Method of tracing object using and network camera therefor
KR20120076175A (en) * 2010-12-29 2012-07-09 건아정보기술 주식회사 3d street view system using identification information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110060180A (en) * 2009-11-30 2011-06-08 한국전자통신연구원 Method and apparatus for producing 3d models by interactively selecting interested objects
KR20120054971A (en) * 2010-11-22 2012-05-31 엘지이노텍 주식회사 Method of tracing object using and network camera therefor
KR20120076175A (en) * 2010-12-29 2012-07-09 건아정보기술 주식회사 3d street view system using identification information

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210158535A (en) * 2020-06-24 2021-12-31 한국과학기술연구원 Method for determinig serach region using region information and object information and systme performing the same
KR102450028B1 (en) * 2020-06-24 2022-10-05 한국과학기술연구원 Method for determinig serach region using region information and object information and systme performing the same
US11663801B2 (en) 2020-06-24 2023-05-30 Korea Institute Of Science And Technology Method for determining search region using region information and object information and system performing the same

Similar Documents

Publication Publication Date Title
KR101172747B1 (en) Camera tracking monitoring system and method using thermal image coordinates
CN110830756B (en) Monitoring method and device
CN109887040B (en) Moving target active sensing method and system for video monitoring
CN103686131B (en) Use the monitoring device of 3D information of image and system and monitoring method
JP6099833B1 (en) Image processing apparatus, image processing system, and image processing method
JP6261815B1 (en) Crowd monitoring device and crowd monitoring system
WO2018101247A1 (en) Image recognition imaging apparatus
CN106559645B (en) Monitoring method, system and device based on camera
KR20150021526A (en) Self learning face recognition using depth based tracking for database generation and update
CN110796074B (en) Pedestrian re-identification method based on space-time data fusion
KR20190118619A (en) Pedestrian tracking method and electronic device
CN106162144A (en) A kind of visual pattern processing equipment, system and intelligent machine for overnight sight
CN110633648B (en) Face recognition method and system in natural walking state
KR20160078724A (en) Apparatus and method for displaying surveillance area of camera
TW202244847A (en) Target tracking method and apparatus, electronic device and storage medium
KR101464192B1 (en) Multi-view security camera system and image processing method thereof
CN112932910A (en) Wearable intelligent sensing blind guiding system
KR101937582B1 (en) Safety System for Walkway Monitor
CN114913470B (en) Event detection method and device
Pollok A new multi-camera dataset with surveillance, mobile and stereo cameras for tracking, situation analysis and crime scene investigation applications
KR101615243B1 (en) Video surveillance apparatus for intelligent security and video surveillance method thereof
KR101653820B1 (en) System for sensing object and emergency based on thermal detective operation, and method for tracking object using the same
JP6435640B2 (en) Congestion degree estimation system
KR101981648B1 (en) Nighttime monitoring system with power saving function and method thereof
CN111723681B (en) Indoor road network generation method and device, storage medium and electronic equipment

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee