KR101492473B1 - Context-aware cctv intergrated managment system with user-based - Google Patents

Context-aware cctv intergrated managment system with user-based Download PDF

Info

Publication number
KR101492473B1
KR101492473B1 KR20140040541A KR20140040541A KR101492473B1 KR 101492473 B1 KR101492473 B1 KR 101492473B1 KR 20140040541 A KR20140040541 A KR 20140040541A KR 20140040541 A KR20140040541 A KR 20140040541A KR 101492473 B1 KR101492473 B1 KR 101492473B1
Authority
KR
South Korea
Prior art keywords
user
information
server
recognizing
vehicle
Prior art date
Application number
KR20140040541A
Other languages
Korean (ko)
Inventor
지승태
김영호
김규미
장혜경
Original Assignee
주식회사 사라다
김규미
김영호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 사라다, 김규미, 김영호 filed Critical 주식회사 사라다
Priority to KR20140040541A priority Critical patent/KR101492473B1/en
Application granted granted Critical
Publication of KR101492473B1 publication Critical patent/KR101492473B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a user-based context-aware integrated CCTV control system, which applies an object recognition method for city safety surveillance. The user-based context-aware integrated CCTV control system comprises: a photographing unit (10) to generate image data; a data processing unit (20) to process the image data which is photographed and inputted by the photographing unit (10); an integrated control server (30) to store, analyze and process the image data which is processed and inputted by the data processing unit (20); and a user terminal server which allows a user and a manager to connect to the integrated control server (30). The user-based context-aware integrated CCTV control system applies a method for recognizing an object using a histogram of oriented gradients (HOG).

Description

사용자 기반 상황 인지형 씨씨티비 통합관제시스템{CONTEXT-AWARE CCTV INTERGRATED MANAGMENT SYSTEM WITH USER-BASED}{CONTEXT-AWARE CCTV INTERGRATED MANAGEMENT SYSTEM WITH USER-BASED}

본 발명은 사용자 기반 상황 인지형 씨씨티비 통합관제시스템에 대한 것으로, 도심 안전감시를 위하여 객체인식 방법을 적용한 씨씨티비 통합관제시스템이다.
The present invention relates to a user-based situational awareness type integrated control system, and is a system integration control system applying an object recognition method for monitoring the safety of the city.

일반적으로 사회 흉포화 되고, 다양한 사건 사고가 빈번하게 발생하고 있는 요즘 CCTV의 활용도는 증가하고 있다.In general, CCTV is increasingly used nowadays, where society is becoming frenzied and accidents occur frequently.

1세대 CCTV는 단순히 실시간 상황을 중계하는 수준에 머물렀으나, 다양한 사회적 요구에 의해, 지능형 CCTV가 개발되었고, 이러한 지능형 CCTV의 경우 객체인식 기술을 이용하는 기술들이 다수 개발되었다.First-generation CCTVs remained at the level of simply relaying real-time situations. However, intelligent CCTVs were developed by various societal requirements, and many technologies using object recognition technology were developed for such intelligent CCTVs.

이에 본 발명의 출원인 또한 대한민국 등록특허 제10-0983777호(객체 촬영시스템 및 그 제어방법, 이하 '선행기술 1'이라 함)와 대한민국 등록특허 제10-1178878호(객체인식 및 정황 동영상 검색장치와 이를 이용한 영상 처리 시스템 및 그 제어방법, 이하 '선행기술 2'라 함)을 제안한 바 있다.
Accordingly, the applicant of the present invention has also proposed a method and apparatus for controlling object recognition and contextual video search apparatuses, such as Korean Patent Registration No. 10-0983777 (object photographing system and control method thereof, hereinafter referred to as "prior art 1") and Korean Patent No. 10-1178878 An image processing system using the same, and a control method thereof, hereinafter referred to as "Prior Art 2").

상기와 같은 선행기술 1과 선행기술 2를 적용하여 다양한 서비스를 제공하였다.Various services are provided by applying the prior art 1 and the prior art 2 as described above.

이러한 객체 인식기술은 대부분 HOG(Histogram of Oriented Gradients)알고리즘을 이용하여 객체를 인식하게 된다.Most of these object recognition techniques recognize objects using HOG (Histogram of Oriented Gradients) algorithm.

그러나, 이러한 기술은 대상객체의 풀바디를 분석하는 방법을 적용하여, 대상객체의 특징을 분석하기 때문에, 동일한 외형조건 즉, 사람의 경우 동일신체조건 및 동일의상을 착용할 경우 상이한 객체임에도 불구하고 동일한 객체로 인식하는 경우가 미비하게나마 있었다.
However, this technique analyzes the characteristics of the target object by applying the method of analyzing the full body of the target object. Therefore, even though the same outline condition, that is, the same body condition and the same costume for a person, The same thing as recognizing the object was inevitable.

또한, 차량과 같은 객체에 있어서도 동일한 외형조건 즉, 동일한 차종 및 동일한 색상일 경우 동일한 객체로 인식하기도 했다.Also, objects such as vehicles are recognized as the same object if they have the same external condition, that is, the same vehicle type and the same color.

따라서, 보다 정밀한 객체인식 및 이를 활용한 통합관제시스템에 대한 현장의 요구가 있었고, 이에 따라 좀더 개량된 기술의 개발이 요구되고 있다.
Therefore, there has been a demand for a more precise object recognition and an integrated control system utilizing the same, and accordingly, there is a demand for development of a more improved technique.

대한민국 등록특허 제10-0983777호(객체 촬영시스템 및 그 제어방법, 2010년 09월 16일 등록)Korean Registered Patent No. 10-0983777 (object photography system and its control method, registered on September 16, 2010) 대한민국 등록특허 제10-1178878호(객체인식 및 정황 동영상 검색장치와 이를 이용한 영상 처리 시스템 및 그 제어 방법, 2012년 08월 31일 등록)Korean Patent No. 10-1178878 (Object Recognition and Surveillance Video Retrieval Apparatus, Image Processing System and Control Method Using It, Registered on August 31, 2012)

상기와 같은 문제점을 극복하기 위해, 보다 정밀한 객체 인식방법을 적용하는 사용자 기반 상황 인지형 씨씨티비 통합관제시스템을 적용하고자 한다.In order to overcome the above problem, a user-based context-aware CCS integration control system applying a more precise object recognition method is applied.

상기와 같은 목적을 달성하기 위한 본 발명은 영상을 촬영할 수 있는 장치로서, 영상데이터를 생성할 수 있도록 하는 촬상부(10)와 상기 촬상부(10)로부터 촬영되어 입력된 영상테이터를 처리하기 위한 정보처리부(20)와 정보처리부(20)로부터 처리되어 입력된 영상데이터를 저장하고 분석 및 처리할 수 있도록, 정보처리부(20)에서 획득된 영상정보를 저장할 수 있는 NVR서버(31), 각각의 영상획득장치의 설치지역 또는 특정 사건이 발생한 지역의 지도에 대한 정보가 저장되는 지도정보서버(32), 획득한 영상정보 또는 사용이력에 대한 관리 및 저장이 이루어지는 DB관리서버(33), 객체인식과 같은 정보의 처리, 처리된 정보의 표시 및 결과를 도출하기 위한 표출서버(34), 표출서버(34)를 제어하기 위한 표출제어서버(35), 관리자 및 사용자가 통합관제서버(30)에 접속할 수 있도록 하며, 접속 후 서비스를 이용할 수 있도록 사용자의 정보, 이력 및 권한을 설정할 수 있도록 하는 사용자관리서버(36), 정보처리부(20)에서 획득된 영상정보를 사건의 종류에 따라 분배하거나, 저장할 수 있으며, 관리자 또는 사용자에 의해 저장정보를 검색할 수 있도록 하는 분배/저장/검색서버(37), 통합관제서버(30)의 각각의 서버를 관리할 수 있도록 하는 통합관리서버(38) 및 영상을 표시할 수 있는 영상표시장치부(39)로 구성되는 통합관제서버(30) 및 관리자 및 사용자가 통합관제서버(30)에 접속할 수 있도록 하는 사용자단말서버(40)로 구성되는 것을 특징으로 하는 사용자 기반 상황 인지형 씨씨티비 통합관제시스템을 제공하게 된다.
According to an aspect of the present invention, there is provided an apparatus for capturing an image, the apparatus comprising: an imaging unit (10) for generating image data; and an imaging unit An NVR server 31 capable of storing image information obtained from the information processing unit 20 so as to store, analyze, and process input image data processed by the information processing unit 20 and the information processing unit 20; A map information server 32 for storing information on an installation area of the image acquisition device or a map of a region where a specific event occurs, a DB management server 33 for managing and storing the acquired image information or usage history, A display control server 35 for controlling the display server 34, an administrator and a user to the integrated control server 30, Fold A user management server 36 that allows the user to set information, history and authority so that the user can use the service after the connection is established, the video information obtained by the information processing unit 20 according to the type of the event, A distribution / storage / search server 37 for allowing the administrator or a user to search for storage information, an integrated management server 38 for managing each server of the integrated control server 30, And a user terminal server 40 for allowing an administrator and a user to connect to the integrated control server 30, Based contextual cognition integrated control system.

여기서, 상기와 같이 객체를 인식하는 방법은 HOG(Histogram of Oriented Gradients)알고리즘 기술을 기반으로 하는 객체인식방법을 적용하게 되며, 보다 정밀한 객체 인식을 위하여 객체의 특징부위를 구분하여 적용하는 것으로, 객체를 3등분하여 각각의 특성을 분석하여 객체의 종류를 구분하게 된다.
Here, the method of recognizing an object as described above applies an object recognition method based on a Histogram of Oriented Gradients (HOG) algorithm technology. In order to more precisely recognize an object, And classifies the object type by analyzing each characteristic.

또한, 상기 객체를 3등분하는 방법은 객체가 사람인 경우 머리, 상반신, 하반신으로 구분하고, 객체가 차량인 경우, 차량범퍼 이하, 차량범퍼 이상, 전면유리부로 구분하여 객체의 특징값을 추출하며, 유사한 객체를 동일한 대상 객체로 판단하는 오류를 줄이기 위해 대상 객체를 분할하여 특징을 분할된 부분별의 특징값을 추출하여 객체의 종류구분 및 부분별 특징 정보를 획득한 후, 대상 객체의 풀바디를 분석하여 객체의 고유 특성을 구분한 후, 두 과정에서 획득한 정보를 근거로 비교분석하여 대상객체의 고유 특성을 DATA로 적용하여 이를 저장하게 된다.
In addition, the method of dividing the object into three is divided into a head, an upper body, and a lower body when the object is a human, and a feature value of the object is extracted by dividing the object into a vehicle bumper, In order to reduce the error of judging a similar object as the same target object, the target object is divided to extract the feature values of the divided parts, thereby obtaining the type classification of the object and the feature information of each part, After analyzing the unique characteristics of the objects, it compares and analyzes the information obtained from the two processes, and stores the unique characteristics of the object as DATA.

이러한 객체인식방법에는 차량객체의 번호판을 인식하는 방법이 더 포함될 수 있으며, 상기 차량객체의 번호판을 인식하는 방법은 차량의 범퍼부분의 윤곽중 수평부분을 인식한 후 그 각도 값과 화면상 수평값의 각도차이를 추출한 후, 번호판의 숫자부분을 인식하여 기울어진 각도만큼 회전시켜 숫자부분을 보완하여 인식하며, 상기 차량객체의 번호판을 인식하는 방법에는 손실된 차량번호정보를 보상할 수 있는 방법이 더 포함될 수 있으며, 획득된 번호정보의 문자영역만을 구분한 후, 구분된 문자영역을 분할하여 비교 분석하게 된다.
The object recognition method may further include a method of recognizing the license plate of the vehicle object. The method of recognizing the license plate of the vehicle object recognizes the horizontal part of the outline of the bumper part of the vehicle, Recognizes the number portion of the license plate, rotates the license plate by an inclined angle, and recognizes the number portion. The method of recognizing the license plate of the vehicle object includes a method of compensating the lost car number information And only the character region of the obtained number information is divided, and then the divided character region is divided and compared and analyzed.

또한, 상기 사용자단말서버(40)를 통하여 접속되는 사용자 모바일기기를 통하여 획득한 영상정보를 통합관제서버(30)에 전송하여 DATA로 활용함에 있어서, 사용자 모바일 기기로부터 획득한 정보를 이용하여 특정사건을 제보하거나, 사용자가 요구하는 특정 영상정보를 분석하여 이에 대한 사건 정보를 사용자 모바일기기로 전송할 수 있는 것을 특징으로 하는 사용자 기반 상황 인지형 씨씨티비 통합관제 시스템을 제공함으로써 본 발명의 목적을 달성할 수 있는 것이다.
In addition, when the image information obtained through the user mobile device connected through the user terminal server 40 is transmitted to the integrated control server 30 and used as DATA, Or to analyze the specific image information requested by the user and to transmit the event information to the user's mobile device. The present invention provides a user-based situational awareness system You can.

본 발명을 제공함으로써, 보다 정밀한 객체 인식방법을 적용하는 사용자 기반 상황 인지형 씨씨티비 통합관제시스템을 적용하여, 신뢰도를 향상시킬 수 있는 효과가 있다.By providing the present invention, there is an effect that reliability can be improved by applying a user-based context-aware CSIS integrated control system applying a more precise object recognition method.

도 1은 본 발명의 시스템을 도시한 구조도이다.
도 2와 도 3은 본 발명의 객체인식 방법을 도시한 예시도이다.
도 4는 본 발명의 차량객체의 번호인식 방법에 대한 개요도이다.
도 5는 본 발명의 차량객체의 번호인식 방법 중 손상이미지의 보상에 대한 개요도이다.
도 6은 본 발명의 정보처리 방법을 도시한 개요도이다.
도 7은 본 발명을 통하여 실시 가능한 사용자 맞춤형 이벤트 서비스에 대한 개요도이다.
도 8과 도 9는 본 발명에 따른 객체의 이동방향감지이벤트에 대한 개요도이다.
도 10은 본 발명에 따른 모바일기반이벤트의 개요도이다.
1 is a structural view showing a system of the present invention.
FIG. 2 and FIG. 3 illustrate an object recognition method of the present invention.
4 is a schematic diagram of a method for recognizing a number of a vehicle object according to the present invention.
5 is a schematic diagram of compensation of a damaged image in the method of recognizing a number of vehicle objects according to the present invention.
6 is a schematic diagram showing an information processing method of the present invention.
7 is a schematic diagram of a customized event service that may be implemented through the present invention.
FIGS. 8 and 9 are schematic diagrams of a movement direction detection event of an object according to the present invention.
Figure 10 is a schematic diagram of a mobile-based event in accordance with the present invention.

이하에 본 발명의 사용자 기반 상황 인지형 씨씨티비 통합관제시스템을 당업자가 용이하게 실시할 수 있도록 도면을 참조하여 상세하게 설명하도록 한다.
Hereinafter, a user-based situational awareness type integrated control system of the present invention will be described in detail with reference to the drawings so that those skilled in the art can easily carry out the present invention.

도 1은 본 발명의 시스템을 도시한 구조도이다.1 is a structural view showing a system of the present invention.

도 1을 참조하여 상세하게 설명하면, 영상데이터를 생성할 수 있는 촬상부(10)와 상기 촬상부(10)로부터 촬영되어 입력된 영상테이터를 처리하기 위한 정보처리부(20) 및 정보처리부(20)로부터 처리되어 입력된 영상데이터를 저장하고 분석 및 처리할 수 있는 통합관제서버(30) 및 관리자 및 사용자가 통합관제서버(30)에 접속할 수 있도록 하는 사용자단말서버(40)로 구성된다.
An information processing unit 20 for processing the image data photographed and inputted from the image pickup unit 10 and an information processing unit 20 And a user terminal server 40 for allowing an administrator and a user to connect to the integrated control server 30. The integrated control server 30 includes a server 40,

상기 촬상부(10)는 영상데이터를 입력받을 수 있는 것으로, 특정 또는 불특정 지역에 설치되어 있는 영상입력수단을 말하는 것으로, 영상촬영을 할 수 있는 것이면 무엇이든 가능하며, 통상의 IP카메라, HD-SDI 카메라, 아날로그 카메라, IP줌 스피드 카메라 및 CCTV시스템에 적용할 수 있는 다양한 형태의 영상을 인식할 수 있는 수단이 적용될 수 있다.The image capturing unit 10 is a video input unit installed in a specific or unspecified area. The image capturing unit 10 can be any type of image capturing unit, SDI cameras, analog cameras, IP zoom speed cameras, and means for recognizing various types of images applicable to a CCTV system can be applied.

또한, 외부에 위치하며, 영상을 촬영할 수 있는 사용자의 스마트폰과 같은 개인용 통신단말기 등도 적용될 수 있다.
Also, a personal communication terminal, such as a smart phone of a user, which is located outside and is capable of capturing an image, can be applied.

상기 정보처리부(20)는 촬상부(10)로부터 획득된 촬영영상을 영상정보로 변환하여 처리하는 것이다.The information processing unit 20 converts the photographed image acquired from the imaging unit 10 into image information and processes the image information.

여기서 영상정보란 통합관제서버(30)에서 활용할 수 있도록 정형화 처리하는 것으로, 예를 들어 촬상부(10)의 다양한 영상획득장치로 부터 촬영된 영상을 분석하여 디지털과 아날로그 및 상이한 프로토콜이 적용된 영상의 정보를 정형화 시켜주는 것이다.Here, the image information refers to a format used for the integrated control server 30, for example, by analyzing images captured by various image capturing apparatuses of the image capturing unit 10, It formalizes information.

보다 상세하게 설명하면, 아날로그 신호는 디지털 신호로 정형화 시켜주며, 상이한 프로토콜은 표준 프로토콜로 변환해준다. 여기서, 표준프로토콜은 RTSP형식을 적용하게 된다.More specifically, analog signals are formatted into digital signals, and different protocols are converted into standard protocols. Here, the standard protocol adopts the RTSP format.

이는 관할구역에 상관없이, 타지역과 공조하여 사건을 처리해야 하는 경우 상호 호완작업 될 수 있도록 하는 것이다.This is to ensure that if the case needs to be dealt with in cooperation with other regions, regardless of jurisdiction, it can be mutually compatible.

예를 들어, 공개수배사건의 경우 각 지역별로 동조수사 등을 시행할 경우 공동으로 대상 객체를 검색 및 분석해야 하기 때문이다.For example, in the case of an open-inquiry case, when a synchronized investigation is conducted for each region, a target object must be searched and analyzed jointly.

이러한, 정보처리부(20)는 로컬제어기, DVR, NVR과 같은 레코딩 및 신호처리가 가능한 것이면 무엇이든 가능하다.
The information processing unit 20 may be any unit capable of recording and signal processing such as a local controller, a DVR, and an NVR.

상기 정보처리부(20)에서 처리된 영상정보는 통합관제서버(30)에 전송되어 다양한 형태의 사용자 기반형의 DATA로 적용될 수 있다.The image information processed in the information processing unit 20 may be transmitted to the integrated control server 30 and applied to various types of user-based data.

이러한 통합관제서버(30)는 정보처리부(20)에서 획득된 영상정보를 저장할 수 있는 NVR서버(31), 각각의 영상획득장치의 설치지역 또는 특정 사건이 발생한 지역의 지도에 대한 정보 등이 저장되는 지도정보서버(32), 획득한 영상정보 또는 사용이력 등에 대한 관리 및 저장이 이루어지는 DB관리서버(33), 객체인식과 같은 정보의 처리, 처리된 정보의 표시 및 결과를 도출하기 위한 표출서버(34), 표출서버(34)를 제어하기 위한 표출제어서버(35), 관리자 및 사용자가 통합관제서버(30)에 접속할 수 있도록 하며, 접속 후 서비스를 이용할 수 있도록 사용자의 정보, 이력 및 권한 등을 설정할 수 있도록 하는 사용자관리서버(36), 정보처리부(20)에서 획득된 영상정보를 사건의 종류에 따라 분배하거나, 저장할 수 있으며, 관리자 또는 사용자에 의해 저장정보를 검색할 수 있도록 하는 분배/저장/검색서버(37), 통합관제서버(30)의 각각의 서버를 관리할 수 있도록 하는 통합관리서버(38) 및 영상을 표시할 수 있는 영상표시장치부(39)로 구성된다.
The integrated control server 30 includes an NVR server 31 capable of storing the image information acquired by the information processing unit 20, information on an installation area of each image acquisition device or a map of an area where a specific event occurs, A DB management server 33 for managing and storing acquired image information or usage history, a display server for processing information such as object recognition, displaying the processed information, The display control server 35 for controlling the display server 34 and the display server 34, the administrator and the user to access the integrated control server 30, and the user's information, history and authority A user management server 36 for allowing the user to set the video information, the video information acquired by the information processing unit 20 according to the type of the event, An integrated management server 38 for managing each server of the distribution / storage / search server 37 and the integrated control server 30 for enabling the image display device 39 to display images, .

또한, 상기 통합관제서버(30)에 접속하는 사용자의 경우 일반적인 사용자와 관리자로 구분할 수 있는데, 망내 또는 외부에서 통합관제서버(30)에 접속할 수 있도록 하는 사용자단말서버(40)는 망내 또는 망외의 네트워크를 통하여 접속할 수 있는 PC(41) 및 개인용휴대통신단말기(42)의 접속제어를 위한 것이다.The user terminal server 40, which allows the user to access the integrated control server 30 in the network or externally, can be connected to the integrated control server 30 through a network And is for controlling the connection of the PC 41 and the personal portable communication terminal 42 that can be connected through the network.

여기서 상기 사용자단말서버(40)는 통합관제서버(30)에 접속하는 관리자를 포함하는 사용자가 직접적으로 통합관제서버(30)에 접속할 경우 발생할 수 있는 보안문제 등을 해소하고, 동시다발적으로 많은 수의 접속이 이루어질 때, 발생할 수 있는 트레픽 문제를 저감시키기 위한 것이다.
Here, the user terminal server 40 solves a security problem that may occur when a user including an administrator accessing the integrated control server 30 directly accesses the integrated control server 30, This is to reduce the traffic problem that can occur when a number connection is made.

상기와 같은 구성으로 구현되는 본 발명의 사용자 기반 상황 인지형 CCTV 통합관제시스템은 사용자 맞춤형 이벤트를 적용하게 된다.The user-based context-aware CCTV integrated control system of the present invention implemented with the above-described configuration applies user-customized events.

여기서, 사용자 맞춤형 이벤트란 사용자가 선택적으로 적용할 수 있는 것으로, 특정 대상객체를 지정하여 대상객체의 이동궤적 등을 추적한다거나, 특정 지역의 상태변화 감지하는 등의 정보를 말하는 것이다.Here, the user-customized event is information that can be selectively applied by a user, such as tracking a movement trajectory of a target object by designating a specific target object, detecting a change in a state of a specific region, and the like.

이를 위해, HOG(Histogram of Oriented Gradients)알고리즘 기술을 기반으로 하는 객체 인식방법을 적용하게 된다.
For this, object recognition method based on Histogram of Oriented Gradients (HOG) algorithm technology is applied.

이하에서 이에 대하여 상세하게 설명하도록 한다.Hereinafter, this will be described in detail.

도 2와 도 3은 본 발명의 객체인식 방법을 도시한 예시도이다.FIG. 2 and FIG. 3 illustrate an object recognition method of the present invention.

도 2를 참조하여 상세하게 설명하면, 본 발명에서 적용하는 객체인식 방법은 앞서 설명하였듯이 HOG(Histogram of Oriented Gradients)알고리즘 기술을 기반으로 객체를 인식하게 된다.Referring to FIG. 2, the object recognition method according to the present invention recognizes an object based on a Histogram of Oriented Gradients (HOG) algorithm technology as described above.

여기서 HOG기술은 당업계의 통상의 지식을 가진 자라면 누구나 알 수 있는 기술이며, 이에 대한 공개소스 또한 다양하게 존재함으로 이에 대한 구체적인 설명은 생략하도록 한다.Here, the HOG technology is a technology known to any one of ordinary skill in the art, and a variety of open source sources are available, so a detailed description thereof will be omitted.

이러한 객체인식 방법에서의 객체는 사람 및 자동차와 같은 유형(有形)의 객체가 되는 것이다.In this object recognition method, an object is a tangible object such as a person or an automobile.

이와 같은 객체를 구분하여 인식하고, 그 특성을 인식한 후 DATA로 활용하게 되는 것이다.It recognizes these objects separately, recognizes the characteristics, and uses them as DATA.

상기와 같은 객체인식 방법은 3단계의 과정을 거치게 된다.The object recognition method as described above is performed in three steps.

1차적으로 객체를 구분하게 되고, 2차적으로 객체의 고유 특성을 구분하며, 3차로 객체 특성의 비교 판단 후 이를 DATA로 저장하여 맞춤형 이벤트에 적용하게 되는 것이다.
The object is firstly classified, secondly, the characteristic of the object is distinguished, and the object characteristic is compared with the third object. Then, the object is stored as DATA and applied to the customized event.

상기 1차 객체 구분은 HOG기술을 기반으로 대상객체의 종류를 구분함과 동시에 대상객체의 특성을 분석하게 되는 것이다.In the primary object classification, the types of the target objects are classified based on the HOG technology, and the characteristics of the target objects are analyzed.

이때, 적용되는 방법으로는 객체의 특징부위를 구분하여 적용하는 것으로 사람의 경우 머리, 상반신, 하반신을 3분하여 각각의 특성을 분석하여 사람인지의 여부를 결정한 후, 각각의 부분별 특징으로 추출하여 정보를 획득하게 된다.
In this case, the applied method is to distinguish and apply characteristic parts of an object. In the case of a human, it is determined whether or not a person is a person by analyzing each characteristic of the head, upper body, and lower body in three minutes, To obtain information.

상기와 같이 객체의 종류구분 및 부분별 특징으로 추출하여 획득된 정보를 기반으로 2차로 객체의 고유 특성을 구분하게 된다.As described above, the unique characteristics of the object are classified based on the information obtained by extracting the types of the objects and the features of the parts.

이때는 객체의 풀바디를 HOG기술을 적용하여 분석하게 된다.
In this case, the full body of the object is analyzed by applying HOG technology.

상기와 같이 1차 및 2차 분석된 자료를 근거로 비교분석하여 대상객체의 고유 특성을 DATA로 적용하여 이를 저장하게 되는 3차 단계를 거치게 된다.The third step is to compare and analyze the data based on the first and second analyzed data as described above, and to apply the characteristic of the object to the data and store the data.

보다 상세하게 설명하면, 1차 객체구분 과정에서 객체의 신체 부분별(머리, 상반신, 하반신)에 대한 특성값과 2차 객체의 고유 특성을 비교한 후 그 결과값을 혼합하여 적용하게 되는 것이다.More specifically, the feature values of the body parts (head, upper body, and lower body) of the object are compared with the intrinsic characteristics of the secondary object in the primary object classification process, and then the result values are mixed and applied.

즉, 대상객체의 풀바디 분석을 통하여 특성을 파악하고, 각각의 신체 부위에 대한 특성값을 결합하여 보다 정밀한 객체의 특성을 분석할 수 있는 것이다.That is, by analyzing the characteristics of the target object through the full body analysis and combining the characteristic values of each body part, it is possible to analyze the characteristics of the object more precisely.

이는 객체가 사람일 경우, 유사한 신체조건 및 동일한 의류 등을 착용하였을 경우 서로 상이한 객체임에도 불구하고 동일한 객체로 판단하는 오류를 줄이기 위한 것이다.
This is to reduce errors that are judged to be the same object even though they are different objects when similar body conditions and same clothes are worn when the object is a person.

또한, 대상 객체가 차량일 경우 3분할(범퍼이하, 범퍼이상, 전면유리부)하여 각각의 각각의 특성 값을 추출하여 적용하게 되는 것이다.In addition, when the target object is a vehicle, it is divided into three parts (bumpers, bumper abnormalities, and front glass parts), and each characteristic value is extracted and applied.

이 또한, 동일한 차종, 동일한 색상의 차량이라 하더라도, 도료의 박피 등과 같은 범퍼의 파손여부, 전면유리부의 선팅정도 및 부착물 등에 따라 각각 차량의 특정값이 달라지기 때문인 것이다.This is because even if the vehicle is of the same vehicle type and the same color, the specific value of the vehicle varies depending on whether the bumper is damaged, such as peeling of the paint, degree of tanning of the front glass part,

물론, 차량번호 인식 기술을 병행하여 적용되기는 하지만, 차량번호의 경우 번호판을 위조할 수 있기 때문에 차량번호만으로 차량만의 고유한 특성 값을 추출하기는 난해한 점이 있기 때문에 그 오차를 줄이기 위한 것이다.
Of course, although the car number recognition technology is applied in parallel, it is difficult to extract the characteristic value unique to the vehicle only by the car number because the car number can forge the license plate, so that the error is reduced.

상기와 같은 방법에 의해 대상 객체를 구분하고 이를 분석하여 대상 객체의 고유한 특정값을 기반으로 하여, 사용자 맞춤형 이벤트의 DATA로 적용하게 되는 것이다.The target object is identified and analyzed according to the above-described method, and is applied as a DATA of a user-customized event based on a specific unique value of the target object.

또한, 앞서 설명한 차량객체의 번호인식 방법에 대하여도 이하에서 상세하게 설명하도록 한다.
The above-described method of recognizing the number of the vehicle object will also be described in detail below.

도 4는 본 발명의 차량객체의 번호인식 방법에 대한 개요도이고, 도 5는 본 발명의 차량객체의 번호인식 방법 중 손상이미지의 보상에 대한 개요도이다.FIG. 4 is a schematic diagram of a method of recognizing a vehicle object number according to the present invention, and FIG. 5 is a schematic diagram of compensation of a damaged image in the method of recognizing a vehicle object number according to the present invention.

도 4와 도 5를 참조하여 상세하게 설명하면, 챠량객체의 번호 인식 방법은 차량의 특성상 인식된 번호판의 손실보상 및 영상정보의 보완작업이 요구된다.Referring to FIGS. 4 and 5, the method of recognizing the number of objects of the vehicle is required to compensate the loss of the recognized license plate and to supplement the image information because of the characteristics of the vehicle.

이는 이동하는 차량과 영상 촬영을 위한 촬영장치의 위치적인 차이로 인하여 왜곡현상이 발생할 수 있으며, 차량번호판의 파손 등에 의해서 명확한 영상정보의 획득이 어려울 수 있기 때문이다.This is because distortion may occur due to the positional difference between the moving vehicle and the photographing device for photographing, and it may be difficult to obtain clear image information due to breakage of the license plate.

예를 들어, 촬영장치의 특성상 차도변에 설치되어야 하고 차량이동하는 궤적과는 일정각도 이상 이격되기 때문이다.
For example, due to the nature of the photographing device, it must be installed on the side of the roadway and is separated from the trajectory of the vehicle movement by a certain angle or more.

상기와 같은 이유로 인하여, 촬영된 영상정보를 보완 및 손실보상작업을 하게 되는 것이다.Due to the above-described reasons, the photographed image information is supplemented and compensated for.

여기서 차량의 번호판을 인식하는 방법은 앞서 설명한 객체인식 기술을 적용하여 차량의 구조를 구분한 후 번호판을 인식하게 된다.Here, the method of recognizing the license plate of the vehicle is to recognize the license plate after classifying the structure of the vehicle by applying the object recognition technology described above.

보다 상세하게 설명하면, 차량의 범퍼부분을 인식하고 범퍼의 윤곽중 수평부분을 인식한 후 그 값(θ : 범퍼의 수평부의 값)과 화면상 수평값(0°: 실제상의 수평값)의 각도차이를 추출한 후, 번호판의 숫자부분을 인식하여 기울어진 각도만큼 회전시켜 숫자부분을 인식하도록 하는 것이다.More specifically, after recognizing the bumper portion of the vehicle and recognizing the horizontal portion of the contour of the bumper, the angle of the bumper (0: the horizontal value of the bumper) and the value After extracting the difference, recognize the number part of the license plate and rotate it by the tilted angle to recognize the number part.

이는 촬영시 발생할 수 있는 차량번호 부분의 기울기를 보완하여 보다 정확한 번호를 인식하기 위한 것이다.
This is for recognizing a more accurate number by supplementing the slope of the car number part that can occur during shooting.

또한, 인식된 차량번호 중 손실된 부분을 보완하는 방법으로는 앞서 설명한 차량번호의 기울기를 보완한 후, 윤곽성분을 분석하여 영상정보를 보완하는 방법을 적용하게 된다.In addition, as a method of compensating the lost part of the recognized car number, a method of supplementing the slope of the car number described above and then supplementing the image information by analyzing the outline component is applied.

보다 상세하게 설명하면, 인식된 번호정보 중 손실된 부분에 대하여는 문자부분을 분석하여 허수부분을 제거한 후 인식된 번호를 보상하게 된다.In more detail, for the lost part of the recognized number information, the character part is analyzed to remove the imaginary part, and the recognized number is compensated.

예를 들어, 획득된 번호판의 정보 중 문자영역만을 구분한 후, 각각의 문자별로 구분하여 분석하게 된다.For example, only the character area is divided into information of the obtained license plate, and then the characters are classified and analyzed.

도 5를 예로 들어 설명하면, 획득된 정보중 우측에 위치하는 정보의 경우 손실된 부분으로 인하여 2, 3의 구분이 모호하게 된다.Referring to FIG. 5 as an example, in the case of the information located on the right side of the obtained information, the division of 2 and 3 becomes ambiguous due to the lost portion.

이와 같은 모호한 정보에 대하여 상단부분과 중앙부분 및 하단부분으로 나누어 판단하게 되는데, 문자의 상단부분의 윤곽을 파악하여 왼편이 트인곡선으로 인식되어 이와 유사한 패턴의 문자인 '2'와 '3'으로 그 범위를 한정한 후, 중앙 및 좌우측의 직선성분을 분석하게 된다.The ambiguous information is divided into an upper part, a central part and a lower part. The outline of the upper part of the character is recognized, and the left side is recognized as a curved line, and the letters '2' and '3' After the range is defined, the linear components of the center and the left and right sides are analyzed.

상기와 같이 직선성분을 분석하여 동일한 패턴인 '2'로 확정할 수 있는 것이며, 하단부분의 손실된 부분에 대하여는 온전한 표준 문자체로부터 손실된 부분의 정보를 적용하여 보상하게 되는 것이다.
As described above, the straight line component can be analyzed to determine '2' as the same pattern, and the lost part of the lower part is compensated by applying the information of the lost part from the complete standard character.

이와 같이 객체정보를 인식한 후, 정보를 처리하는 방법에 대하여 이하에서 상세하게 설명하도록 한다.A method of processing information after recognizing the object information will be described in detail below.

도 6은 본 발명의 정보처리 방법을 도시한 개요도이다.6 is a schematic diagram showing an information processing method of the present invention.

도 6을 참조하여 상세하게 설명하면, 촬상부(10)의 다양한 장치를 이용하여 획득된 영상정보를 활용하여 정보를 처리할 수 있는데, 획득된 영상정보는 사진 등의 정지영상 및 동영상으로 구분하여 처리가 된다.6, information can be processed using the image information obtained by using various devices of the image pickup unit 10. The obtained image information is divided into still images and moving images such as photographs Processing.

사진 등의 정지영상의 경우 객체정보인식 등의 방법으로 바로 적용할 수 있으나, 동영상의 경우 별도의 처리방법을 거치게 된다.In the case of a still image such as a photograph, it can be directly applied by a method such as object information recognition, but in the case of a moving image, a separate processing method is used.

보다 상세하게 설명하면, 동영상의 특성상 특정의 프레임을 추출하여 그 정보를 활용하게 된다.In more detail, a specific frame is extracted based on characteristics of a moving picture, and the information is utilized.

이는 당업자라면 누구나 알고 있는 사실이지만, 동영상은 일정시간동안 연속적으로 촬영되는 정지영상을 연속하여 재생하는 것으로, 다수의 정지영상 중, 특정 정지영상을 추출하여 특정값을 추출해야 하는 과정을 거치게 되는 것이다.This is known to anyone skilled in the art, but moving pictures continuously reproduce still images continuously photographed for a predetermined time, so that a specific still image is extracted from a plurality of still images and a specific value is extracted .

이러한 방법에 대하여는 동영상을 일정한 시간별로 분할하는 방법도 있으나, 영상별 샷(Shot)의 경계를 검출하여 특정프레임(Key-Frame)을 검출한 후 DB에 저장하게 된다.
For such a method, there is a method of dividing a moving image by a certain time, but a boundary of a shot for each image is detected and a specific frame (key-frame) is detected and stored in the DB.

상기와 같이 저장된 DB는 사용자의 요구에 의해 객체인식 등에 의한 특징 추출 알고리즘을 통하여 추출된 특징값과 DB에 저장되어 있는 영상정보를 검색 및 비교분석하여 결과를 영상표시장치를 통하여 표시해주게 된다.
The stored DB retrieves and compares the extracted feature values and the image information stored in the DB through the feature extraction algorithm based on the user's request and displays the result through the image display device.

도 7은 본 발명을 통하여 실시 가능한 사용자 맞춤형 이벤트 서비스에 대한 개요도이고, 도 8과 도 9는 본 발명에 따른 객체의 이동방향감지이벤트에 대한 개요도이며, 도 10은 본 발명에 따른 모바일기반이벤트의 개요도이다.
FIG. 7 is a schematic diagram of a user-customized event service that can be performed through the present invention, FIGS. 8 and 9 are schematic diagrams of a movement direction detection event of an object according to the present invention, It is an overview.

도 7 내지 도 10을 참조하여 상세하게 설명하면, 본 발명에 따른 사용자 맞춤형 이벤트 서비스는 대상 객체의 모션감지이벤트, 대상객체의 색상감지이벤트, 금지 통제구역 침입감지이벤트, 객체의 이동방향감지이벤트, 객체의 번호인식이벤트, 객체의 이동 경로추적이벤트, 객체별 종류구분 이벤트, 객체별 색상구분이벤트 및 모바일 기반이벤트 등이 적용될 수 있다.7 to 10, a user-customized event service according to the present invention includes a motion detection event of a target object, a color detection event of a target object, an intrusion detection event of an inhibited zone, a movement direction detection event of an object, Object number recognition event, object movement path tracking event, object type classification event, object color classification event, and mobile based event can be applied.

여기서, 상기 이벤트는 일 실시예일 뿐 이를 한정하는 것은 아니며, 객체인식기반을 통하여 활용 및 변환될 수 있는 다양한 이벤트가 적용될 수 있다.
Here, the event is not limited thereto, and various events that can be utilized and transformed through the object recognition system can be applied.

상기와 같은 각각의 이벤트 중 객체의 이동방향감지이벤트의 경우 객체가 이동한 방향을 궤적의 추출을 통하여 유추할 수 있는 것으로, 특정의 객체에 대한 연속적인 움직임을 분석하여 적용할 수 있다.In the case of the movement direction detection event of the object among the above-mentioned events, the direction in which the object moves can be deduced through the trajectory extraction, so that the continuous motion for a specific object can be analyzed and applied.

예를 들어, 차량객체의 경우 최초의 검색시점에서의 위치 및 차량의 방향을 인식한 후, 일정시간 후 차량의 위치변화 및 방향을 인식하여 비교한 후 차량의 이동방향을 유추하게 된다.For example, in the case of a vehicle object, after recognizing the position of the vehicle at the first search point and the direction of the vehicle, the position and direction of the vehicle are recognized and compared after a certain time, and the direction of the vehicle is predicted.

이때, 차량의 이동방향 및 이동속도에 대한 분석도 이루어질 수 있는데, 차량의 이동속도에 대한 분석은 당업자라면 누구나 알 수 있는 기술로서 다수의 공지기술이 개시되어 있기 때문에 이에 대한 구체적인 설명은 생략하도록 한다.
At this time, an analysis of the moving direction and the moving speed of the vehicle can also be performed. Since a number of known techniques are disclosed as an art to anyone skilled in the art to analyze the moving speed of the vehicle, a detailed description thereof will be omitted .

상기와 같이 객체의 이동방향을 추적하여 연계되는 지점에 구비되는 촬영장치의 정보를 추적조사하여 차량의 이동궤적 및 이동방향 등의 정보를 획득할 수 있는 것이다.
As described above, the moving direction of the object is tracked, and the information of the photographing apparatus provided at the associated point is tracked and investigated to acquire information such as the movement trajectory and the moving direction of the vehicle.

또한, 이러한 기능은 네트워크를 통한 PC 이외에 개인용 휴대통신 수단인 모바일 기기에서도 적용할 수 있는데, 모바일 기기를 통하여 통합관제서버(30)에 접속하여 서비스를 이용하거나, 모바일 기기로 획득한 영상정보를 통합관제서버(30)에 전송하여 DATA로 활용할 수도 있는 것이다.In addition, such a function can be applied to a mobile device such as a personal mobile communication device in addition to a PC via a network. The mobile terminal can access the integrated control server 30 through a mobile device, It may be transmitted to the control server 30 and used as DATA.

이는 특정한 대상객체에 대한 영상정보를 전송하여 각종 이벤트 서비스를 이용할 수도 있는 것이다.It is also possible to use various event services by transmitting image information about a specific target object.

예를 들어, 차량 뺑소니 사고와 같은 경우 사용자가 동영상 등을 촬영하여 통합관제서버(30)에 전송하여 사건을 제보할 경우, 이를 근거로 특정객체를 지정하고 이에 대한 추적수사 등을 활용할 수 있는 것이다.For example, in the case of a vehicle hit-and-run accident, when a user captures a moving image or the like and transmits the captured moving image to the integrated control server 30 to report an incident, a specific object can be designated based on the detected incident, .

또한, 미아가 발생한 사건과 같은 경우 대상객체인 미아의 특징을 제보된 정보만을 활용하여 제보자가 각자의 자의적인 판단으로 대상객체의 유사여부를 판단하여 제보해야 하나, 대상객체인 유아의 신체적인 특성 및 의상 등에 따라 그 판단이 어려울 경우가 있다.Also, in case of the occurrence of the child, it is necessary for the informant to determine the similarity of the object by self-determination using only the reported information of the characteristic of the child, which is the target object, And clothes may be difficult to judge.

이때, 대상객체의 부분별 특성 및 신체별 고유한 특징값을 제보자가 전송한 영상정보를 분석하여 적용할 수 있도록 하는 것이다.At this time, it is possible to analyze and apply the image information transmitted by the caller to the characteristic of each part of the target object and the characteristic value unique to each body.

이는 보다 정밀하고 오차범위를 줄여 수사 등에 적용할 수 있도록 하기 위한 것이다.This is intended to be more precise and reduce the error range so that it can be applied to investigation or the like.

이러한 방법 이외에 교통위반, 주정차위반, 쓰레기 무단 투기, 재해, 재난, 아동보호구역내 수상한 움직임, 범죄취약구역 등에서 발생되는 비정상적인 행위 들을 말하는 것으로 이러한 사용자가 선택할 수 있는 맞춤형 이벤트를 기반으로 하여 특정의 정보를 저장 및 분석하여 이에 대한 단속 등의 절차로 연계할 수 있도록 하는 것이다.
In addition to these methods, we refer to unusual behaviors that occur in traffic violation, violation of driving regulations, waste disposal, disaster, disaster, suspicious movements in child protection area, vulnerable areas such as crime areas. Storage, and analysis of the data, and enforcement of the data.

상기와 같은 구성 및 방법에 의해 보다 효율적으로 통합관제시스템을 구현할 수 있는 것이다.
The integrated control system can be implemented more efficiently by the above-described configuration and method.

10 : 촬상부 20 : 정보처리부
30 : 통합관제서버 40 : 사용자단말서버
10: image pickup section 20: information processing section
30: Integrated control server 40: User terminal server

Claims (8)

영상을 촬영할 수 있는 장치로서, 영상데이터를 생성할 수 있도록 하는 촬상부(10);와
상기 촬상부(10)로부터 촬영되어 입력된 영상테이터를 처리하기 위한 정보처리부(20);와
정보처리부(20)로부터 처리되어 입력된 영상데이터를 저장하고 분석 및 처리할 수 있도록, 정보처리부(20)에서 획득된 영상정보를 저장할 수 있는 NVR서버(31), 각각의 영상획득장치의 설치지역 또는 특정 사건이 발생한 지역의 지도에 대한 정보가 저장되는 지도정보서버(32), 획득한 영상정보 또는 사용이력에 대한 관리 및 저장이 이루어지는 DB관리서버(33), 객체를 인식하는 정보의 처리, 처리된 정보의 표시 및 결과를 도출하기 위한 표출서버(34), 표출서버(34)를 제어하기 위한 표출제어서버(35), 관리자 및 사용자가 통합관제서버(30)에 접속할 수 있도록 하며, 접속 후 서비스를 이용할 수 있도록 사용자의 정보, 이력 및 권한을 설정할 수 있도록 하는 사용자단말서버(36), 정보처리부(20)에서 획득된 영상정보를 사건의 종류에 따라 분배하거나, 저장할 수 있으며, 관리자 또는 사용자에 의해 저장정보를 검색할 수 있도록 하는 분배/저장/검색서버(37), 통합관제서버(30)의 각각의 서버를 관리할 수 있도록 하는 통합관리서버(38) 및 영상을 표시할 수 있는 영상표시장치부(39)로 구성되는 통합관제서버(30); 및
관리자 및 사용자가 통합관제서버(30)에 접속할 수 있도록 하는 사용자단말서버(40)로 구성되고, 상기 객체를 인식하는 방법은 HOG(Histogram of Oriented Gradients)알고리즘 기술을 기반으로 하여, 객체가 사람인 경우 머리, 상반신, 하반신으로 구분하고, 객체가 차량인 경우, 차량범퍼 이하, 차량범퍼 이상, 전면유리부로 3등분하여 각각의 특성을 분석하여 객체의 종류를 구분하되, 유사한 객체를 동일한 대상 객체로 판단하는 오류를 줄이기 위해 대상 객체를 분할하여 분할된 부분별의 특징값을 추출하여 객체의 종류구분 및 부분별 특징 정보를 획득한 후, 대상 객체의 풀바디를 분석하여 객체의 고유 특성을 구분하고, 두 과정에서 획득한 정보를 근거로 비교분석하여 대상객체의 고유 특성을 DATA로 적용하여 이를 저장하는 것을 특징으로 하는 사용자 기반 상황 인지형 씨씨티비 통합관제시스템.
1. An apparatus capable of capturing an image, comprising: an imaging unit (10) for generating image data;
An information processing unit 20 for processing the image data photographed and input from the image sensing unit 10;
An NVR server 31 that can store image information obtained by the information processing unit 20 so that the image data processed and input from the information processing unit 20 can be stored, analyzed, and processed; A map information server 32 in which information about a map of a region where a specific event occurs is stored, a DB management server 33 for managing and storing the acquired image information or use history, A display control server 35 for controlling the display server 34, an administrator and a user to connect to the integrated control server 30, A user terminal server 36 for setting the information, history and authority of the user so that the user can use the post-service, the image information obtained by the information processing unit 20 can be distributed or stored according to the type of the event A distribution / storage / search server 37 for allowing storage information to be retrieved by an administrator or a user, an integrated management server 38 for managing each server of the integrated control server 30, An integrated control server 30 composed of a video display unit 39 capable of displaying the video; And
And a user terminal server 40 that allows an administrator and a user to access the integrated control server 30. The method of recognizing the object is based on Histogram of Oriented Gradients (HOG) algorithm technology, Head, upper body, and lower body, and when the object is a vehicle, it is divided into three parts by a vehicle bumper, a vehicle bumper abnormality, and a front glass part. In order to reduce the error, we divide the target object, extract the feature values of the divided parts, acquire the classification of the object and the feature information of each part, analyze the full body of the target object, And the characteristic of the target object is applied to the data as a result of comparison and analysis based on the information acquired in the two processes, Aware ssissi TV integrated control system.
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서,
상기 객체인식방법에는 차량객체의 번호판을 인식하는 방법이 더 포함될 수 있으며, 상기 차량객체의 번호판을 인식하는 방법은 차량의 범퍼부분의 윤곽중 수평부분을 인식한 후 그 각도 값과 화면상 수평값의 각도차이를 추출한 후, 번호판의 숫자부분을 인식하여 기울어진 각도만큼 회전시켜 숫자부분을 보완하여 인식하는 것을 특징으로 하는 사용자 기반 상황 인지형 씨씨티비 통합관제 시스템.
The method according to claim 1,
The object recognition method may further include a method of recognizing a license plate of a vehicle object. A method of recognizing a license plate of a vehicle object may include recognizing a horizontal portion of an outline of a bumper portion of the vehicle, And recognizes the number portion of the license plate and rotates it by an inclined angle, thereby recognizing and complementing the numeric portion, thereby recognizing the user-based context-aware CCTV control system.
제 6항에 있어서,
상기 차량객체의 번호판을 인식하는 방법에는 손실된 차량번호정보를 보상할 수 있는 방법이 더 포함될 수 있으며, 획득된 번호정보의 문자영역만을 구분한 후, 구분된 문자영역을 분할하여 각각 분할된 부분을 비교 분석하는 것을 특징으로 하는 사용자 기반 상황 인지형 씨씨티비 통합관제 시스템.
The method according to claim 6,
The method of recognizing the license plate of the vehicle object may further include a method of compensating lost car number information. After dividing only the character area of the obtained number information, the divided character area is divided, Based on the user-based situational awareness type CCS integrated control system.
제 1항, 제 6항 및 제 7항 중 어느 한 항에 있어서,
상기 사용자단말서버(40)를 통하여 접속되는 사용자 모바일기기를 통하여 획득한 영상정보를 통합관제서버(30)에 전송하여 DATA로 활용함에 있어서, 사용자 모바일 기기로부터 획득한 정보를 이용하여 특정사건을 제보하거나, 사용자가 요구하는 특정 영상정보를 분석하여 이에 대한 사건 정보를 사용자 모바일기기로 전송할 수 있는 것을 특징으로 하는 사용자 기반 상황 인지형 씨씨티비 통합관제 시스템.
The method according to any one of claims 1, 6, and 7,
In transmitting the image information acquired through the user mobile device connected through the user terminal server 40 to the integrated control server 30 and using the image information as DATA, Or analyze the specific image information requested by the user and transmit the event information to the user's mobile device.
KR20140040541A 2014-04-04 2014-04-04 Context-aware cctv intergrated managment system with user-based KR101492473B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20140040541A KR101492473B1 (en) 2014-04-04 2014-04-04 Context-aware cctv intergrated managment system with user-based

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20140040541A KR101492473B1 (en) 2014-04-04 2014-04-04 Context-aware cctv intergrated managment system with user-based

Publications (1)

Publication Number Publication Date
KR101492473B1 true KR101492473B1 (en) 2015-02-11

Family

ID=52592011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20140040541A KR101492473B1 (en) 2014-04-04 2014-04-04 Context-aware cctv intergrated managment system with user-based

Country Status (1)

Country Link
KR (1) KR101492473B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101773127B1 (en) 2015-12-09 2017-08-31 이노뎁 주식회사 Image analysis system and integrated control system capable of performing effective image searching/analyzing and operating method thereof
KR101837980B1 (en) * 2016-10-28 2018-03-13 주식회사 와이드큐브 Total image transmission and using system having different kinds of image providing apparatus and control method of the same
KR101954717B1 (en) * 2018-10-22 2019-03-06 주식회사 인텔리빅스 Apparatus for Processing Image by High Speed Analysis and Driving Method Thereof
WO2020053678A1 (en) 2018-09-13 2020-03-19 Metalco S.R.L. Kit for monitoring the services and the events in a city
KR102124027B1 (en) * 2020-03-17 2020-06-17 (주)스마트링스 Clouding system for multi-channel monitoring and object analysis based on big-data, and coluding service providing method
KR20210082301A (en) 2019-12-24 2021-07-05 주식회사 싸인텔레콤 Intelligent system for context-aware based embeded camera
US11854236B2 (en) 2019-10-07 2023-12-26 Hyundai Motor Company Fastening tool system and control method thereof

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090116215A (en) * 2008-05-06 2009-11-11 (주) 티앤엑스시스템즈 Intelligent video management system
KR100980586B1 (en) * 2010-05-07 2010-09-06 주식회사 에스엘티 Method for intelligent image security using single or multi camera and system thereof
KR20130105952A (en) * 2012-03-19 2013-09-27 한밭대학교 산학협력단 Method and apparatus for vehicle license plate recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090116215A (en) * 2008-05-06 2009-11-11 (주) 티앤엑스시스템즈 Intelligent video management system
KR100980586B1 (en) * 2010-05-07 2010-09-06 주식회사 에스엘티 Method for intelligent image security using single or multi camera and system thereof
KR20130105952A (en) * 2012-03-19 2013-09-27 한밭대학교 산학협력단 Method and apparatus for vehicle license plate recognition

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101773127B1 (en) 2015-12-09 2017-08-31 이노뎁 주식회사 Image analysis system and integrated control system capable of performing effective image searching/analyzing and operating method thereof
KR101837980B1 (en) * 2016-10-28 2018-03-13 주식회사 와이드큐브 Total image transmission and using system having different kinds of image providing apparatus and control method of the same
WO2020053678A1 (en) 2018-09-13 2020-03-19 Metalco S.R.L. Kit for monitoring the services and the events in a city
KR101954717B1 (en) * 2018-10-22 2019-03-06 주식회사 인텔리빅스 Apparatus for Processing Image by High Speed Analysis and Driving Method Thereof
US11854236B2 (en) 2019-10-07 2023-12-26 Hyundai Motor Company Fastening tool system and control method thereof
KR20210082301A (en) 2019-12-24 2021-07-05 주식회사 싸인텔레콤 Intelligent system for context-aware based embeded camera
KR102124027B1 (en) * 2020-03-17 2020-06-17 (주)스마트링스 Clouding system for multi-channel monitoring and object analysis based on big-data, and coluding service providing method

Similar Documents

Publication Publication Date Title
KR101492473B1 (en) Context-aware cctv intergrated managment system with user-based
JP7218535B2 (en) Traffic violation vehicle identification system and server
KR101647370B1 (en) road traffic information management system for g using camera and radar
EP4105101A1 (en) Monitoring system, monitoring method, and monitoring device for railway train
KR101793636B1 (en) Image processing system
US10025992B1 (en) Bulk searchable geo-tagging of detected objects in video
KR101937272B1 (en) Method and Apparatus for Detecting Event from Multiple Image
KR102039279B1 (en) System and method for supporting police work using image recognition
KR20130088480A (en) Integration control system and method using surveillance camera for vehicle
KR101404153B1 (en) Intelligent cctv integrated control system
KR102159786B1 (en) System for Serarching Using Intelligent Analyzing Video
CN106503622A (en) A kind of vehicle antitracking method and device
CN106529401A (en) Vehicle anti-tracking method, vehicle anti-tracking device and vehicle anti-tracking system
KR101621822B1 (en) Device for security and recognizing number of license plate based on hybrid image transmission, and method for recognizing and providing number of license plate using the same
KR101049758B1 (en) Method for monitoring total of school zone and system thereof
WO2016024680A1 (en) Vehicle black box capable of real-time recognition of license plate of moving vehicle
KR20190041704A (en) A cctv divided management system and method it
KR20160035274A (en) A system for detecting car being violated parking and stopping of based on big date using CCTV camera and black box vehicle
KR102162130B1 (en) Enforcement system of illegal parking using single camera
WO2016132769A1 (en) Imaging device, control method for imaging device, and control program
KR101921868B1 (en) Intelligent video mornitoring system and method thereof
KR101547255B1 (en) Object-based Searching Method for Intelligent Surveillance System
KR101485512B1 (en) The sequence processing method of images through hippocampal neual network learning of behavior patterns in case of future crimes
KR20190136515A (en) Vehicle recognition device
KR20190072323A (en) Image Monitoring System and Method for Monitoring Image

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180122

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20200109

Year of fee payment: 6