KR20230108239A - device for management classifying objects and acquiring multi object big data - Google Patents

device for management classifying objects and acquiring multi object big data Download PDF

Info

Publication number
KR20230108239A
KR20230108239A KR1020230003578A KR20230003578A KR20230108239A KR 20230108239 A KR20230108239 A KR 20230108239A KR 1020230003578 A KR1020230003578 A KR 1020230003578A KR 20230003578 A KR20230003578 A KR 20230003578A KR 20230108239 A KR20230108239 A KR 20230108239A
Authority
KR
South Korea
Prior art keywords
images
big data
data acquisition
image
acquisition management
Prior art date
Application number
KR1020230003578A
Other languages
Korean (ko)
Inventor
이재희
이정석
Original Assignee
주식회사 위로우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 위로우 filed Critical 주식회사 위로우
Publication of KR20230108239A publication Critical patent/KR20230108239A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/6437Real-time Transport Protocol [RTP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

일 실시 예에 따르면, 방범, 재난, 안전 또는 교통 상황을 감시하는 영상 감시 장치로부터 복수개의 이미지를 획득하는 송수신부; 초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이되는 픽셀의 색상에 기초하여 보간을 수행함으로써 상기 복수개의 이미지를 획득하는 업스케일링 이미지 획득부; 상기 복수개의 이미지를 이용하여 상기 복수개의 이미지에 포함된 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 결정하는 객체 분석부; 및 상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 크기 및 상기 객체가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어하는 제어부;를 포함하는 객체 분류 및 다중 객체 빅데이터 획득 관리 장치가 제공된다.According to one embodiment, a transceiver for acquiring a plurality of images from a video monitoring device for monitoring crime prevention, disaster, safety or traffic conditions; an upscaling image acquisition unit acquiring the plurality of images by performing interpolation based on colors of pixels to be upscaled to filter out noise included in the initial image; an object analyzer configured to determine at least one of a speed of an object included in the plurality of images, a type of the object, a characteristic of the object, a situation of the object, and a number of the object included in the plurality of images; And a control unit for controlling at least one of a shutter, gain, and lighting based on at least one of whether the object is included in the plurality of images, the size of the object, and the size of an area where the object is detected per frame. An apparatus for object classification and multi-object big data acquisition management is provided.

Description

객체 분류 및 다중 객체 빅데이터 획득 관리 장치{device for management classifying objects and acquiring multi object big data}Device for management classifying objects and acquiring multi object big data}

본 개시는 영상 감시 장치로부터 획득된 영상에 대한 화질 향상과 그에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치와 관련된 기술에 관한 것이다.The present disclosure relates to technologies related to image quality enhancement of an image obtained from a video monitoring device, object classification accordingly, and a multi-object big data acquisition management device.

종래 CCTV 등의 영상 감시 장치로부터 획득된 영상에 기초하여 객체 분류 및 객체 인식을 수행하는 기술이 제공되고 있으며, 이에 따라 해당 기술은 다양한 분야에서 활용되고 있다.A technology for performing object classification and object recognition based on an image acquired from a conventional video surveillance device such as CCTV has been provided, and accordingly, the technology is being utilized in various fields.

그러나, 현재 대부분의 국내 CCTV의 현황에 따르면, 고화질 영상을 획득함에도 불구하고, 통신 네트워크의 대역폭 한계로 인하여 고화질 영상의 화질을 낮춘 저화질 영상을 센터로 연계할 수 밖에 없는 문제점이 존재한다.However, according to the current situation of most domestic CCTVs, despite acquiring high-quality images, there is a problem in that low-quality images that have lowered the quality of high-quality images can only be linked to the center due to the bandwidth limitation of the communication network.

이러한 문제점은 통신 네트워크를 업그레이드하거나 교체하여 성능을 향상할 경우 일부 해소될 수 있으나, 많은 금액을 지출하여 네트워크 회선 및 장비들을 교체 해야 하는 부분에서 현실적으로 영상 감시 장치로부터 획득되는 고화질 영상을 화질 저하 없이 획득할 수 있는 효과적인 방법은 미비한 실정이다.These problems can be partially resolved by upgrading or replacing the communication network to improve performance, but in areas where network lines and equipment need to be replaced by spending a lot of money, high-definition images obtained from video surveillance devices can be obtained without deterioration in image quality. An effective way to do this is lacking.

한국공개특허 제10-2021-0038280호(2021.04.07)Korean Patent Publication No. 10-2021-0038280 (2021.04.07)

본 개시의 일 실시 예는 전술한 종래 기술의 문제점을 해결하기 위한 것으로, 저화질 영상을 고화질로 업그레이드 하는 방법과 고화질 영상을 실시간 전송하는 알고리즘 기반의 객체 분류 및 다중 객체 빅데이터 획득 관리 장치를 제공하고자 한다.An embodiment of the present disclosure is to solve the above-mentioned problems of the prior art, to provide a method for upgrading a low-quality image to a high-definition image and an algorithm-based object classification and multi-object big data acquisition management device for transmitting high-definition image in real time. do.

본 개시의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.The purpose of the present disclosure is not limited to the purpose mentioned above, and other objects not mentioned will be clearly understood from the description below.

본 개시의 제 1 측면에 따르면, 방범, 재난, 안전 또는 교통 상황을 감시하는 영상 감시 장치로부터 복수개의 이미지를 획득하는 송수신부; 초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이되는 픽셀의 색상에 기초하여 보간을 수행함으로써 상기 복수개의 이미지를 획득하는 업스케일링 이미지 획득부; 상기 복수개의 이미지를 이용하여 상기 복수개의 이미지에 포함된 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 결정하는 객체 분석부; 및 상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 크기 및 상기 객체가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어하는 제어부; 를 포함하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치를 제공할 수 있다.According to a first aspect of the present disclosure, a transceiver for acquiring a plurality of images from a video monitoring device for monitoring crime prevention, disaster, safety or traffic conditions; an upscaling image acquisition unit acquiring the plurality of images by performing interpolation based on colors of pixels to be upscaled to filter out noise included in the initial image; an object analyzer configured to determine at least one of a speed of an object included in the plurality of images, a type of the object, a characteristic of the object, a situation of the object, and a number of the object included in the plurality of images; and a control unit controlling at least one of a shutter, a gain, and illumination based on at least one of whether the object is included in the plurality of images, a size of the object, and a size of a region in which the object is detected per frame; Including, it is possible to provide an object classification and multi-object big data acquisition management device.

또한, 상기 송수신부는 상기 영상 감시 장치로부터 상기 복수개의 이미지를 획득하는 과정에서, 상기 영상 감시 장치에 포함된 카메라가 RTSP 통신을 통해 압축 전달하는 과정에서 발생하는 노이즈가 포함된 이미지를 획득한 후 FTP 또는 소켓 통신 방식으로 상기 복수개의 이미지를 송신할 수 있다.In addition, in the process of obtaining the plurality of images from the video monitoring device, the transmitting and receiving unit obtains an image including noise generated in the process of compression transmission by a camera included in the video monitoring device through RTSP communication, and then FTP. Alternatively, the plurality of images may be transmitted in a socket communication method.

또한, 상기 업스케일링 이미지 획득부는 상기 복수개의 이미지에 대해서 논 로컬 민즈(non-local means) 방식에 따른 제 1 필터링 및 템포럴 윈도우 사이즈(temporal Window Size)에 기초하여 수행되는 제 2 필터링을 수행하여 필터링 이미지를 획득하고, Conv 함수를 이용하여 상기 필터링 이미지에 대한 업스케일링을 수행할 수 있다.In addition, the upscaling image acquiring unit performs first filtering according to a non-local means method and second filtering performed based on a temporal window size on the plurality of images, A filtered image may be obtained, and upscaling of the filtered image may be performed using a Conv function.

또한, 상기 객체 분석부는 시간의 흐름에 따라 순차적으로 획득되는 제 1 이미지, 제 2 이미지 및 제 3 이미지 중 가장 먼저 획득된 제 1 이미지와 상기 제 2 이미지 또는 상기 제 3 이미지 간의 비교 결과에 기초하여 상기 객체의 변화 좌표, 상기 객체의 크기 및 상기 객체를 지칭하는 텍스트를 결정할 수 있다.In addition, the object analysis unit based on a comparison result between the first image and the second image or the third image obtained first among the first image, the second image, and the third image sequentially obtained over time Change coordinates of the object, size of the object, and text indicating the object may be determined.

또한, 상기 객체 분석부는 ESRGAN에 따른 스케일업 알고리즘, 배경 차분(absdiff) 알고리즘, 팽창(dilate) 알고리즘, 변화된 객체 구분(findContours) 알고리즘, 검출된 객체 바운딩 및 좌표값 추출(boundingRect) 알고리즘 및 RGB 추출 알고리즘 중 적어도 하나를 이용해서 객체 분석을 수행할 수 있다.In addition, the object analysis unit scale-up algorithm according to ESRGAN, background difference (absdiff) algorithm, dilate algorithm, changed object discrimination (findContours) algorithm, detected object bounding and coordinate value extraction (boundingRect) algorithm, and RGB extraction algorithm Object analysis may be performed using at least one of the above.

또한, 상기 제어부는 상기 복수개의 이미지에 기초하여 결정되는 상기 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 이용하여 셔터, 게인 및 조명의 동작 시점 중 적어도 하나를 제어할 수 있다.In addition, the control unit controls the shutter, gain, and illumination by using at least one of the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object determined based on the plurality of images. At least one of the operation timings may be controlled.

또한, 상기 제어부는 HTTP통신 및 ONVIF 중 적어도 하나를 통해 상기 영상 감시 장치에 포함될 수 있다.Also, the controller may be included in the video monitoring device through at least one of HTTP communication and ONVIF.

또한, 상기 제어부는 밝기를 조절하기 위해 시리얼 통신 또는 TCP 통신 중 적어도 하나를 이용하여 조명의 MCU를 제어할 수 있다.In addition, the control unit may control the MCU of the lighting using at least one of serial communication or TCP communication in order to adjust the brightness.

또한, 상기 제어부는 상기 조명의 MCU 및 상기 영상 감시 장치를 제어하여 상기 영상 감시 장치가 상기 복수개의 이미지를 획득할 때 상기 셔터와 상기 조명 간의 동작 싱크를 제어할 수 있다.In addition, the control unit may control an operation sync between the shutter and the light when the video monitoring device acquires the plurality of images by controlling the MCU of the lighting and the video monitoring device.

또한, 상기 제어부는 상기 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호에 대한 딥러닝을 수행함에 따라 상기 객체를 포함하고 있는 상기 복수개의 이미지를 상기 객체를 나타내는 문자로 명명할 수 있다.In addition, the controller converts the plurality of images including the object into the object by performing deep learning on the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object. It can be named as a character representing .

또한, 상기 제어부는 상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 크기 및 상기 객체가 프레임당 검지되는 영역의 크기는 상기 객체의 속도에 기초하여 상기 영상 감시 장치 및 조명의 펄스 값을 결정할 수 있다.In addition, the control unit determines whether or not the object is included in the plurality of images, the size of the object, and the size of the area where the object is detected per frame based on the speed of the object, and the pulse value of the video monitoring device and lighting. can decide

또한, 상기 영상 감시 장치에 포함된 카메라가 듀얼 스트리밍으로 동작하는 경우, 상기 카메라는 상기 듀얼 스트리밍 중 어느 하나인 싱글 스트리밍에 따른 상기 복수개의 이미지를 객체 분석부로 송신하고, 나머지 하나인 서브 스트리밍에 따른 상기 복수개의 이미지를 저장하는 센터로 송신할 수 있다.In addition, when the camera included in the video monitoring device operates in dual streaming, the camera transmits the plurality of images according to single streaming, which is one of the dual streaming, to the object analysis unit, and according to the other one, sub-streaming. It can be transmitted to a center that stores the plurality of images.

또한, 상기 객체 분석부는 기저장된 알고리즘을 이용하여 상기 싱글 스트리밍에 따른 상기 복수개의 이미지와 기설정된 객체 정보를 비교하여 상기 복수개의 이미지에 상기 객체가 포함되는지 여부를 결정하고, 상기 객체가 포함되는 경우, 상기 객체가 포함된 이미지에 기초하여 상기 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 결정할 수 있다.In addition, the object analyzer compares the plurality of images according to the single streaming with preset object information using a pre-stored algorithm to determine whether the object is included in the plurality of images, and if the object is included , At least one of the speed of the object, the type of the object, the characteristic of the object, the situation of the object, and the number of the object may be determined based on the image including the object.

또한, 상기 제어부는 상기 송수신부를 통해 상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호를 FTP 또는 소켓 통신 방식으로 상기 센터에 송신할 수 있다.In addition, the control unit transmits whether or not the object is included in the plurality of images, the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object through the transceiver through FTP or socket communication. may be transmitted to the center in this manner.

또한, 상기 제어부는 상기 객체가 차량인 경우 상기 셔터, 상기 게인 및 상기 조명 중 적어도 하나를 기설정 값으로 갱신할 수 있다.Also, when the object is a vehicle, the controller may update at least one of the shutter, the gain, and the lighting to a preset value.

또한, 방범, 재난, 안전 또는 교통 상황을 감시하는 영상 감시 장치로부터 복수개의 이미지를 획득하는 프레임 별 영상 수신부; 초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이되는 픽셀의 색상에 기초하여 보간을 수행하고 프레임 별 RGB 값을 문자열로 추출하며 상기 복수개의 이미지를 문자열로 변형하는 프레임 별 좌표 값 추출부; 상기 복수개의 이미지를 이용하여 상기 복수개의 이미지에 포함된 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 결정하는 객체 분석부; 객체 분석부의 인식 값을 통해 고정 객체 및 이동 객체를 분류하고 중심 값을 기준으로 50- 100pix 정도의 평균값을 설정하여 3장의 이미지를 통해 I프레임 및 P프레임을 결정짓는 비교 분석부; 상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 크기 및 상기 객체가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어하는 제어부; 및 비교분석부에서 선별되어진 이미지만을 송신하는 선별 송신부;를 더 포함할 수 있다.In addition, a frame-by-frame image receiving unit for obtaining a plurality of images from the video monitoring device for monitoring crime prevention, disaster, safety or traffic conditions; A coordinate value extractor for each frame that performs interpolation based on the color of a pixel to be upscaled to filter noise included in the initial image, extracts RGB values for each frame as a character string, and transforms the plurality of images into a character string. ; an object analyzer configured to determine at least one of a speed of an object included in the plurality of images, a type of the object, a characteristic of the object, a situation of the object, and a number of the object included in the plurality of images; A comparison analysis unit that classifies fixed objects and moving objects through the recognition values of the object analysis unit and sets an average value of about 50-100 pix based on the center value to determine I-frames and P-frames through three images; a controller for controlling at least one of a shutter, a gain, and illumination based on at least one of whether the object is included in the plurality of images, a size of the object, and a size of a region in which the object is detected per frame; and a selection transmission unit that transmits only images selected by the comparison and analysis unit.

이 외에도 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.In addition to this, other specific details are included in the detailed description and drawings.

본 개시의 일 실시 예에 따르면, 저화질 영상을 고화질로 업그레이드 하는 방법과 고화질 영상을 실시간 전송하는 알고리즘 기반의 객체 분류 및 다중 객체 빅데이터 획득 관리 장치를 제공함으로써 종래 문제점을 효과적으로 해소할 수 있다.According to an embodiment of the present disclosure, it is possible to effectively solve the conventional problems by providing a method for upgrading a low-quality image to a high-definition image and an algorithm-based object classification and multi-object big data acquisition management apparatus for transmitting high-quality image in real time.

본 개시의 효과는 상기한 효과로 한정되는 것은 아니며, 본 개시의 상세한 설명 또는 특허청구범위에 기재된 발명의 구성으로부터 추론 가능한 모든 효과를 포함하는 것으로 이해되어야 한다.The effects of the present disclosure are not limited to the above effects, and should be understood to include all effects that can be inferred from the configuration of the invention described in the detailed description or claims of the present disclosure.

도 1은 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치의 구성을 개략적으로 도시한 도면이다.
도 2는 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치가 동작하는 실시 예를 개략적으로 도시한 도면이다.
도 3은 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치가 동작하는 다른 실시 예를 개략적으로 도시한 도면이다.
도 4는 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치가 동작하는 다른 실시 예를 개략적으로 도시한 도면이다.
도 5는 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치에 획득된 고화질 영상에 대한 객체 인식 동작의 일 예를 도시한 도면이다.
도 6은 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치가 동작하는 단계를 도시한 흐름도이다.
도 7은 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치가 인코딩과 관련하여 동작하는 일 예를 나타내는 도면이다.
1 is a diagram schematically illustrating the configuration of an apparatus for object classification and multi-object big data acquisition management according to an embodiment.
2 is a diagram schematically illustrating an embodiment in which an apparatus for object classification and multi-object big data acquisition management operates according to an embodiment.
3 is a diagram schematically illustrating another embodiment in which an apparatus for object classification and multi-object big data acquisition management according to an embodiment operates.
4 is a diagram schematically illustrating another embodiment in which an apparatus for object classification and multi-object big data acquisition management operates according to an embodiment.
5 is a diagram illustrating an example of an object recognition operation for a high-definition image acquired by an apparatus for object classification and multi-object big data acquisition and management according to an embodiment.
6 is a flowchart illustrating an operation of an apparatus for object classification and multi-object big data acquisition management according to an embodiment.
7 is a diagram illustrating an example in which an apparatus for object classification and multi-object big data acquisition management operates in relation to encoding according to an embodiment.

실시 예들에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the embodiments have been selected as general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the invention. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 “…부”, “…모듈” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.In the entire specification, when a part is said to "include" a certain component, it means that it may further include other components, not excluding other components unless otherwise stated. In addition, as described in the specification, "... wealth", "… A term such as “module” refers to a unit that processes at least one function or operation, and may be implemented as hardware or software or a combination of hardware and software.

명세서 전체에서 '지원'은 특정 목적을 달성하기 위한 관련된 동작의 수행을 포함하는 의미로 폭넓게 해석될 수 있으며, 제한하여 해석되지 않는다. 일 예로, A서버가 B 동작을 수행하도록, C서버가 A서버를 지원하는 경우, A서버에 대한 C서버의 지원은 A서버가 B 동작을 수행하는 과정에서 요구되는 관련 동작의 수행을 포괄적으로 포함하는 것으로 해석될 수 있다. 예를 들면, C서버는 A서버가 B 동작을 수행하기 위해 필요한 관련 정보 제공, A서버가 B 동작을 수행하는 과정에서 필요할 것으로 예상되는 사전 동작, A서버가 B 동작을 수행하기 위해 요청하는 메시지에 대한 수신 등을 수행할 수 있다. Throughout the specification, 'support' may be broadly interpreted as meaning including the performance of a related operation to achieve a specific purpose, and is not construed as limiting. For example, if server C supports server A so that server A performs operation B, server C's support for server A comprehensively performs related operations required in the process of server A performing operation B. can be interpreted as including For example, server C provides relevant information necessary for server A to perform operation B, a preliminary operation expected to be necessary in the process of server A performing operation B, and a message requested by server A to perform operation B. It is possible to perform reception and the like for .

또한, 명세서 전체에서 '제공'은 대상이 특정 정보를 획득하거나 직간접적으로 특정 대상에게 송수신하는 과정을 포함하며 이러한 과정에서 요구되는 관련 동작의 수행을 포괄적으로 포함하는 것으로 해석될 수 있다.In addition, throughout the specification, 'providing' includes a process in which an object acquires specific information or directly or indirectly transmits/receives it to a specific object, and can be interpreted as comprehensively including the performance of related operations required in this process.

아래에서는 첨부한 도면을 참고하여 본 개시의 실시 예에 대하여 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 개시는 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시 예에 한정되지 않는다.Hereinafter, with reference to the accompanying drawings, embodiments of the present disclosure will be described in detail so that those skilled in the art can easily carry out the present disclosure. However, the present disclosure may be implemented in many different forms and is not limited to the embodiments described herein.

이하에서는 도면을 참조하여 본 개시의 실시 예들을 상세히 설명한다.Hereinafter, embodiments of the present disclosure will be described in detail with reference to the drawings.

도 1은 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)의 구성을 개략적으로 도시한 도면이다.1 is a diagram schematically illustrating the configuration of an apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment.

도 1을 참조하면, 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 영상 감시 장치(110), 업스케일링 이미지 획득부(120), 송수신부(130), 객체 분석부(140) 및 제어부(150)를 포함할 수 있다.Referring to FIG. 1 , an apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment includes a video monitoring apparatus 110, an upscaling image acquisition unit 120, a transceiver 130, and an object analysis unit. 140 and a control unit 150.

일 실시 예에 따른 송수신부(130)는 방범, 재난, 안전 또는 교통 상황을 감시하는 영상 감시 장치(110)로부터 복수개의 이미지를 획득할 수 있다.The transceiver 130 according to an embodiment may obtain a plurality of images from the video monitoring device 110 for monitoring crime prevention, disaster, safety, or traffic conditions.

또한, 송수신부(130)는 영상 감시 장치(110)로부터 복수개의 이미지를 획득하는 과정에서, 영상 감시 장치(110)가 RTSP 통신을 통해 압축 전달하는 과정에서 발생하는 노이즈가 포함된 이미지를 획득한 후 FTP 또는 소켓 통신 방식으로 복수개의 이미지를 송신할 수 있다.In addition, in the process of obtaining a plurality of images from the video monitoring device 110, the transceiver 130 acquires an image including noise generated in the process of compression and transmission by the video monitoring device 110 through RTSP communication. Afterwards, multiple images can be transmitted via FTP or socket communication.

예를 들면, RTSP에 따라 영상 전송될 때 깍두기 현상이 많이 생기는데, 변경된 좌표값, 변경된 RGB값을 전송하는 방식을 이용하면 RTSP에 의한 데이터 손실이 상당 부분 극복될 수 있다.For example, when video is transmitted according to RTSP, a lot of dicing occurs, but if a method of transmitting changed coordinate values and changed RGB values is used, data loss due to RTSP can be overcome to a large extent.

일 실시 예에 따른 업스케일링 이미지 획득부(120)는 초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이되는 픽셀의 색상에 기초하여 보간을 수행함으로써 복수개의 이미지를 획득할 수 있다.The upscaling image obtaining unit 120 according to an embodiment may acquire a plurality of images by performing interpolation based on the color of a pixel to be upscaled in order to filter out noise included in the initial image.

또한, 업스케일링 이미지 획득부(120)는 복수개의 이미지에 대해서 논 로컬 민즈(non-local means) 방식에 따른 제 1 필터링 및 템포럴 윈도우 사이즈(temporal Window Size)에 기초하여 수행되는 제 2 필터링을 수행하여 필터링 이미지를 획득하고, Conv 함수를 이용하여 필터링 이미지에 대한 업스케일링을 수행할 수 있다.In addition, the upscaling image obtaining unit 120 performs first filtering based on a non-local means method and second filtering performed based on a temporal window size on a plurality of images. It is possible to obtain a filtered image and perform upscaling on the filtered image using the Conv function.

일 실시 예에 따른 객체 분석부(140)는 복수개의 이미지를 이용하여 복수개의 이미지에 포함된 객체의 속도, 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호 중 적어도 하나를 결정할 수 있다.The object analyzer 140 according to an embodiment may determine at least one of object speed, object type, object characteristic, object situation, and object number included in the plurality of images by using a plurality of images. .

또한, 객체 분석부(140)는 시간의 흐름에 따라 순차적으로 획득되는 제 1 이미지, 제 2 이미지 및 제 3 이미지 중 가장 먼저 획득된 제 1 이미지와 제 2 이미지 또는 제 3 이미지 간의 비교 결과에 기초하여 객체의 변화 좌표, 객체의 크기 및 객체를 지칭하는 텍스트를 결정할 수 있다.In addition, the object analyzer 140 based on a comparison result between the first image, the second image, or the third image obtained first among the first image, the second image, and the third image sequentially obtained over time. By doing so, the change coordinates of the object, the size of the object, and the text referring to the object can be determined.

또한, 객체 분석부(140)는 ESRGAN에 따른 스케일업 알고리즘, 배경 차분(absdiff) 알고리즘, 팽창(dilate) 알고리즘, 변화된 객체 구분(findContours) 알고리즘, 검출된 객체 바운딩 및 좌표값 추출(boundingRect) 알고리즘 및 RGB 추출 알고리즘 중 적어도 하나를 이용해서 객체 분석을 수행할 수 있다.In addition, the object analyzer 140 is a scale-up algorithm according to ESRGAN, a background difference (absdiff) algorithm, a dilate algorithm, a changed object discrimination (findContours) algorithm, a detected object bounding and coordinate value extraction (boundingRect) algorithm, and Object analysis may be performed using at least one of RGB extraction algorithms.

일 실시 예에 따른 제어부(150)는 복수개의 이미지에 객체가 포함되는지 여부, 객체의 크기 및 객체가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어할 수 있다.The controller 150 according to an embodiment may control at least one of shutter, gain, and lighting based on at least one of whether objects are included in a plurality of images, the size of the object, and the size of the area where the object is detected per frame. can

또한, 제어부(150)는 복수개의 이미지에 기초하여 결정되는 객체의 속도, 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호 중 적어도 하나를 이용하여 셔터, 게인 및 조명의 동작 시점 중 적어도 하나를 제어할 수 있다.In addition, the controller 150 may use at least one of the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object determined based on the plurality of images, and at least one of the shutter, gain, and lighting operation times. You can control one.

또한, 제어부(150)는 HTTP통신 및 ONVIF 중 적어도 하나를 통해 영상 감시 장치(110)에 포함될 수 있다.In addition, the control unit 150 may be included in the video monitoring device 110 through at least one of HTTP communication and ONVIF.

또한, 제어부(150)는 밝기를 조절하기 위해 시리얼 통신 또는 TCP 통신 중 적어도 하나를 이용하여 조명의 MCU를 제어할 수 있다.In addition, the controller 150 may control the MCU of the lighting using at least one of serial communication and TCP communication to adjust the brightness.

또한, 제어부(150)는 조명의 MCU 및 영상 감시 장치(110)를 제어하여 영상 감시 장치(110)가 복수개의 이미지를 획득할 때 셔터와 조명 간의 동작 싱크를 제어할 수 있다.In addition, the control unit 150 may control operation synchronization between shutters and lights when the video monitoring device 110 acquires a plurality of images by controlling the lighting MCU and the video monitoring device 110 .

또한, 제어부(150)는 객체의 속도, 상기 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호에 대한 딥러닝을 수행함에 따라 객체를 포함하고 있는 복수개의 이미지를 객체를 나타내는 문자로 명명할 수 있다.In addition, the controller 150 names a plurality of images including the object as characters representing the object by performing deep learning on the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object. can do.

또한, 제어부(150)는 복수개의 이미지에 객체가 포함되는지 여부, 객체의 크기 및 객체가 프레임당 검지되는 영역의 크기는 객체의 속도에 기초하여 영상 감시 장치(110) 및 조명의 펄스 값을 결정할 수 있다.In addition, the control unit 150 determines whether or not an object is included in a plurality of images, the size of the object, and the size of the area where the object is detected per frame determine the pulse value of the video monitoring device 110 and lighting based on the speed of the object. can

일 실시 예에 따른 영상 감시 장치(110)는 제 1 영상 감시 장치(210) 및 제 2 영상 감시 장치(410)를 포함할 수 있다.The video monitoring device 110 according to an embodiment may include a first video monitoring device 210 and a second video monitoring device 410 .

일 실시 예에 따른 카메라는 영상 감시 장치(110)에 포함될 수 있다.A camera according to an embodiment may be included in the video monitoring device 110 .

더하여, 도 1에 도시된 구성요소들 외에 다른 범용적인 구성요소들이 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)에 더 포함될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다. 예를 들면, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지를 저장하는 메모리(미도시) 를 더 포함할 수 있다. 또는 다른 실시 예에 따를 경우, 도 1에 도시된 구성요소들 중 일부 구성요소는 생략될 수 있음을 관련 기술 분야에서 통상의 지식을 가진 자라면 이해할 수 있다.In addition, those skilled in the art can understand that other general-purpose components other than the components shown in FIG. 1 may be further included in the apparatus 100 for object classification and multi-object big data acquisition management. . For example, the object classification and multi-object big data acquisition management apparatus 100 may further include a memory (not shown) for storing a plurality of images. Alternatively, in the case of other embodiments, those skilled in the art may understand that some of the components shown in FIG. 1 may be omitted.

일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 사용자 또는 작업자에 의해 이용될 수 있고, 휴대폰, 스마트폰, PDA(Personal Digital Assistant), PMP(Portable Multimedia Player), 태블릿 PC 등과 같이 터치 스크린 패널이 구비된 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치와 연동될 수 있으며, 이 외에도 데스크탑 PC, 태블릿 PC, 랩탑 PC, 셋탑 박스를 포함하는 IPTV와 같이, 애플리케이션을 설치하고 실행할 수 있는 기반이 마련된 장치에 포함되거나 연동될 수 있다.The apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment may be used by a user or a worker, and may include a mobile phone, a smart phone, a personal digital assistant (PDA), a portable multimedia player (PMP), and a tablet PC. It can be interlocked with all types of handheld-based wireless communication devices equipped with touch screen panels, such as desktop PCs, tablet PCs, laptop PCs, and IPTVs including set-top boxes. It can be included in or interlocked with a device that has a base that can be executed.

객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 본 명세서에서 설명되는 기능을 실현시키기 위한 컴퓨터 프로그램을 통해 동작하는 컴퓨터 등의 단말기로 구현될 수 있다.The object classification and multi-object big data acquisition management device 100 may be implemented as a terminal such as a computer that operates through a computer program for realizing the functions described in this specification.

일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 센터(220) 및 서버(미도시)를 포함할 수 있으나, 이에 제한되지 않는다. 일 실시 예에 따른 센터(220) 및 서버는 향상된 화질의 영상을 제공하는 애플리케이션 및 이를 이용한 서비스를 지원할 수 있다. 또한, 센터(220) 및 서버는 하나의 구성으로 통합되거나 둘 이상의 분리된 형태로 동작할 수도 있다.The apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment may include a center 220 and a server (not shown), but is not limited thereto. The center 220 and the server according to an embodiment may support an application providing an image of improved quality and a service using the same. In addition, the center 220 and the server may be integrated into one configuration or may operate in two or more separate forms.

이하에서는 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)가 독립적으로 동작하는 실시 예를 중심으로 서술하도록 하지만, 전술한 것처럼, 센터(220) 및 서버와의 연동을 통해 동작을 수행할 수도 있다. 즉, 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)와 센터(220) 및 서버는 그 기능의 측면에서 통합 구현될 수 있고, 센터(220) 및 서버는 생략될 수도 있으며, 어느 하나의 실시 예에 제한되지 않음을 알 수 있다.Hereinafter, an embodiment in which the object classification and multi-object big data acquisition management device 100 according to an embodiment operates independently will be described, but as described above, it operates through linkage with the center 220 and the server. can also be performed. That is, the object classification and multi-object big data acquisition management apparatus 100, center 220, and server according to an embodiment may be integrated and implemented in terms of their functions, and the center 220 and server may be omitted. , It can be seen that it is not limited to any one embodiment.

도 2는 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)가 동작하는 실시 예를 개략적으로 도시한 도면이다.2 is a diagram schematically illustrating an embodiment in which the apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment operates.

도면을 참조하면, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 제 1 영상 감시 장치(210)로부터 복수개의 이미지를 획득할 수 있다. Referring to the drawing, the object classification and multi-object big data acquisition management device 100 may obtain a plurality of images from the first video monitoring device 210 .

이러한 복수개의 이미지는, 초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이 되는 픽셀의 색상에 기초하여 보간을 수행함으로써 획득될 수 있다. 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 획득된 복수개의 초기 이미지 및 복수개의 이미지를 센터(220)로 송신하여 센터(220)에 의해 각 이미지들에 대한 저장 및 관리가 이루어지도록 할 수 있다.The plurality of images may be obtained by performing interpolation based on the color of a pixel to be upscaled in order to filter out noise included in the initial image. The object classification and multi-object big data acquisition management apparatus 100 transmits the acquired plurality of initial images and the plurality of images to the center 220 so that the center 220 stores and manages each image. can

구체적으로, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지에 대해서 논 로컬 민즈(non-local means) 방식에 따른 제 1 필터링 및 템포럴 윈도우 사이즈(temporal Window Size) 방식에 기초하여 수행되는 제 2 필터링을 수행하여 필터링 이미지를 획득하고, Conv 함수를 이용하여 상기 필터링 이미지에 대한 업스케일링을 수행할 수 있다.Specifically, the object classification and multi-object big data acquisition management apparatus 100 is based on the first filtering and temporal window size method according to the non-local means method for a plurality of images The filtered image may be obtained by performing the second filtering performed by the above, and upscaling of the filtered image may be performed using a Conv function.

전술한, 그리고 본 개시에서 언급되는 논 로컬 민즈 방식 및 템포럴 윈도우 사이즈 방식은 이미지 보정 관련 분야에서 종래 공개되어 제공되고 있는 기술이므로 본 개시에서의 자세한 설명은 생략하도록 한다.Since the non-local means method and the temporal window size method described above and mentioned in the present disclosure are conventionally disclosed and provided technologies in the field of image correction, detailed descriptions in the present disclosure will be omitted.

객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지를 이용하여 복수개의 이미지에 포함된 객체의 속도, 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호 중 적어도 하나를 결정할 수 있다.The object classification and multi-object big data acquisition management apparatus 100 determines at least one of the speed of an object included in a plurality of images, the type of the object, the characteristic of the object, the situation of the object, and the number of the object by using a plurality of images. can

구체적으로, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 시간의 흐름에 따라 순차적으로 획득되는 제 1 이미지, 제 2 이미지 및 제 3 이미지 중 가장 먼저 획득된 제 1 이미지와 제 2 이미지 또는 제 3 이미지 간의 비교 결과에 기초하여 객체의 변화 좌표, 객체의 크기 및 객체를 지칭하는 텍스트를 결정할 수 있다. Specifically, the apparatus 100 for object classification and multi-object big data acquisition management may first acquire a first image and a second image among a first image, a second image, and a third image sequentially obtained over time, or Based on the comparison result between the third images, the change coordinates of the object, the size of the object, and text indicating the object may be determined.

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 ESRGAN에 따른 스케일업 알고리즘, 배경 차분(absdiff) 알고리즘, 팽창(dilate) 알고리즘, 변화된 객체 구분(findContours) 알고리즘, 검출된 객체 바운딩 및 좌표값 추출(boundingRect) 알고리즘 및 RGB 추출 알고리즘 중 적어도 하나를 이용해서 객체 분석을 수행할 수 있다. 상술한 알고리즘에 활용되는 기술들 또한 공개되어 제공되고 있는 종래 기술들로써 본 개시에서의 자세한 설명은 생략하도록 한다.In addition, the apparatus 100 for object classification and multi-object big data acquisition management includes a scale-up algorithm according to ESRGAN, a background difference (absdiff) algorithm, a dilate algorithm, a changed object division (findContours) algorithm, and detected object bounding and coordinates. Object analysis may be performed using at least one of a value extraction (boundingRect) algorithm and an RGB extraction algorithm. Technologies used in the above-described algorithm are also disclosed and provided prior art, and detailed descriptions in the present disclosure will be omitted.

이후, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 크기 및 상기 객체가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 영상 감시 장치(110)의 셔터, 게인 및 조명 중 적어도 하나를 제어하고, 이에 따라 획득되는 이미지에 대한 객체의 속도, 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호에 대한 딥러닝을 수행함에 따라 객체를 포함하고 있는 복수개의 이미지를 객체를 나타내는 문자로 명명하여 센터(220)에 송신할 수 있다.Thereafter, the apparatus 100 for object classification and multi-object big data acquisition management monitors images based on at least one of whether or not the object is included in a plurality of images, the size of the object, and the size of the area where the object is detected per frame. By controlling at least one of the shutter, gain, and lighting of the device 110, and performing deep learning on the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object for the image obtained accordingly. Accordingly, a plurality of images including objects may be named as characters representing the objects and transmitted to the center 220 .

센터(220)는 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)로부터 획득된, 객체 포함 여부, 객체 크기 및 객체가 프레임당 검지되는 영역의 크기를 나타내는 정보 및 복수개의 이미지를 사용자 단말(230)로 송신할 수 있다.The center 220 transmits information and a plurality of images indicating whether an object is included or not, the size of an object, and the size of an area in which an object is detected per frame, obtained from the apparatus 100 for object classification and multi-object big data acquisition management, are transmitted to the user terminal 230. ) can be sent.

이렇게 함으로써, 고화질 영상을 통신 네트워크의 대역폭 한계로 인하여 고화질 영상의 화질을 낮춘 저화질 영상으로 대체해야 하는 종래 문제를 효과적으로 해소할 수 있게 된다.By doing this, it is possible to effectively solve the conventional problem of replacing a high-quality video with a low-quality video having a lower quality due to a bandwidth limitation of a communication network.

도 3은 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)가 동작하는 다른 실시 예를 개략적으로 도시한 도면이다.3 is a diagram schematically illustrating another embodiment in which the apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment operates.

도면을 참조하면, 센터(220)는 제 1 영상 감시 장치(210)로부터 획득된 복수개의 초기 이미지를 수신할 수 있고, 수신된 복수개의 초기 이미지를 저장 및 관리하거나 별도의 사용자 입력 또는 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)로부터 센터(220)에 대한 이미지 제공 요청이 송신되는 경우, 센터(220)는 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)에 송신할 수 있다.Referring to the drawing, the center 220 may receive a plurality of initial images obtained from the first video monitoring device 210, store and manage the received plurality of initial images, or separate user input or object classification and When an image provision request for the center 220 is transmitted from the multi-object big data acquisition management device 100, the center 220 may classify the object and transmit the multi-object big data acquisition management device 100.

예를 들면, 도 2 에 도시된 순서 및 설명에 따라 제 1 영상 감시 장치(210)로부터 획득된 복수개의 초기 이미지가 바로 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)에 송신되는 경우, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)의 과부하 및 그에 따른 성능 저하가 발생할 수 있다.For example, when a plurality of initial images obtained from the first video monitoring device 210 according to the order and description shown in FIG. 2 are directly transmitted to the object classification and multi-object big data acquisition management device 100, the object Classification and multi-object big data acquisition management device 100 may be overloaded and performance degradation may occur accordingly.

이처럼 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)에 제공된 복수개의 이미지에 대한 분석량이 기설정 값 이상으로 많은 경우, 일 실시 예에서는 이러한 문제점을 해결하기 위해 제 1 영상 감시 장치(210)로부터 획득되는 복수개의 이미지를 센터(220)에서 우선적으로 저장하고, 분석량이 기설정 값 이하로 감소하는 경우 센터(220)에서 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)로 복수개의 이미지를 분석량에 비례하는 개수만큼 송신할 수 있고, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 분석 결과가 사용자 단말(230)에 제공될 수 있도록 센터(220)에 송신하거나 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)에 포함된 송수신부(130)를 통해 송신할 수 있다.In this way, when the amount of analysis for a plurality of images provided to the object classification and multi-object big data acquisition management device 100 is greater than a predetermined value, in an embodiment, in order to solve this problem, the first video monitoring device 210 A plurality of acquired images are preferentially stored in the center 220, and when the amount of analysis decreases below a preset value, the center 220 analyzes the plurality of images with the object classification and multi-object big data acquisition management device 100. The object classification and multi-object big data acquisition management device 100 transmits the analysis result to the center 220 so that it can be provided to the user terminal 230 or object classification and multi-object It can be transmitted through the transmission/reception unit 130 included in the big data acquisition management device 100 .

또한, 도 2 및 도 3에 도시된 바에 따르면 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)와 제 1 영상 감시 장치(210), 센터(220) 및 사용자 단말(230)은 서로 분리되어 있으나, 이는 일 실시 예를 설명하기 위한 것으로, 도면에 도시된 것에 한정되지 않으며, 다른 실시 예에 따라 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)와 제 1 영상 감시 장치(210), 센터(220) 및 사용자 단말(230) 중 적어도 하나는 서로 통합된 상태로 구현될 수도 있음을 통상의 기술자라면 이해할 수 있다.2 and 3, the object classification and multi-object big data acquisition management device 100, the first video monitoring device 210, the center 220, and the user terminal 230 are separated from each other, but , This is for explaining an embodiment, and is not limited to that shown in the drawing, and according to another embodiment, the object classification and multi-object big data acquisition management device 100, the first video monitoring device 210, and the center ( 220) and the user terminal 230 may be implemented in an integrated state with one of ordinary skill in the art.

도 4는 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)가 동작하는 다른 실시 예를 개략적으로 도시한 도면이다.4 is a diagram schematically illustrating another embodiment in which the apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment operates.

도면을 참조하면, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 제 2 영상 감시 장치(410)로부터 복수개의 이미지를 획득할 수 있다.Referring to the drawing, the object classification and multi-object big data acquisition management device 100 may acquire a plurality of images from the second video monitoring device 410 .

일 실시 예에서, 제 2 영상 감시 장치(410)로부터 획득되는 복수개의 이미지는 제 1 영상 감시 장치(210)로부터 획득되는 복수개의 이미지보다 화질, 해상도 등이 높은 고품질의 이미지일 수 있다.In one embodiment, the plurality of images obtained from the second video monitoring device 410 may be high-quality images having higher quality and resolution than the plurality of images obtained from the first video monitoring device 210 .

객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 이러한 고성능의 제 2 영상 감시 장치(410)로부터 복수개의 이미지를 획득하는 경우 이미지에 대한 분석에 필요한 일련의 단계 중 일부를 생략하거나 각 단계들을 모두 수행하여 더욱 향상된 화질의 분석 결과를 획득할 수 있다.When acquiring a plurality of images from the high-performance second video monitoring device 410, the apparatus 100 for object classification and multi-object big data acquisition management omits some of a series of steps required for image analysis or performs each step separately. By performing all of them, it is possible to obtain an analysis result of more improved image quality.

일 실시 예에서, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지에 기초하여 복수개의 이미지의 밝기, 복수개의 이미지에 객체가 포함되는지 여부, 객체의 크기 및 객체가 프레임당 검지되는 영역의 크기를 결정할 수 있고, 이에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어할 수 있다.In one embodiment, the object classification and multi-object big data acquisition management apparatus 100 detects the brightness of a plurality of images, whether an object is included in the plurality of images, the size of the object, and the object per frame based on the plurality of images. It is possible to determine the size of the area to be used, and based on this, at least one of a shutter, a gain, and illumination may be controlled.

구체적으로, 셔터, 게인 및 조명 제어는 객체가 보다 선명하게 촬영된 이미지를 얻기 위해 수행될 수 있다. 예를 들어, 셔터 제어에 따른 셔터 스피드 값에 따라 이동 객체의 순간적인 장면을 촬영할 수 있고, 게인 제어에 따른 게인 값에 따라 촬영 환경이 어두운 저조명 상태일 때 보다 밝은 이미지를 획득할 수 있고, 조명 제어에 따른 조명 값에 따라 밝거나 어두운 촬영 환경에서도 객체에 대한 선명한 이미지를 획득할 수 있다.Specifically, shutter, gain, and illumination control may be performed to obtain an image in which an object is captured more clearly. For example, an instantaneous scene of a moving object may be captured according to a shutter speed value according to shutter control, and a brighter image may be acquired according to a gain value according to gain control when the shooting environment is in a dark low-light state, A clear image of an object can be obtained even in a bright or dark shooting environment according to the lighting value according to the lighting control.

또한, 셔터 제어에 따른 셔터 스피드 값은 촬영 환경의 밝기에 비례하도록 제어하는 것이 바람직하고, 게인 제어에 따른 게인 값은 촬영 환경의 밝기에 반비례하도록 결정하는 것이 바람직할 수 있다.Also, it is preferable to control the shutter speed value according to the shutter control to be proportional to the brightness of the photographing environment, and to determine the gain value according to the gain control to be inversely proportional to the brightness of the photographing environment.

이에 따른 일부 실시 예에서는, 촬영 환경의 밝기 값이 기설정 값 이하로 어두운 경우 또는 (계절에 따른)기설정 시간대 중 촬영 환경의 밝기 값이 기설정 값 이하로 감소될 것이 예상되는 시간대(예: 오후 7시~새벽 6시)인 경우에 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지의 밝기, 복수의 이미지에 객체가 포함되는지 여부, 객체가 프레임당 검지되는 영역의 크기 및 객체의 크기 순서로 높은 가중치를 부여하고, 부여된 가중치에 기초하여 셔터, 게인 및 조명을 제어할 수 있다.In some embodiments according to this, when the brightness value of the shooting environment is darker than the preset value or during the preset time period (according to the season), the brightness value of the shooting environment is expected to decrease to the preset value or less (e.g., 7:00 pm to 6:00 am), the object classification and multi-object big data acquisition management device 100 determines the brightness of a plurality of images, whether an object is included in the plurality of images, and the size of an area where an object is detected per frame. And it is possible to assign a high weight in the order of the size of the object, and control the shutter, gain, and lighting based on the assigned weight.

예를 들면, 어두운 환경에서 획득되는 이미지는 객체가 이미지 상에 포함되어 있더라도 객체를 용이하게 판단하기 어려울 수 있고, 객체 분석부(140)로부터 획득된 복수개의 이미지 상에 객체가 검출되더라도 복수개의 이미지의 밝기가 기설정 값 이하인 경우 선명하고 정확한 객체 분석 이미지를 획득하기 어려울 수 있다.For example, in an image acquired in a dark environment, it may be difficult to easily determine an object even if the object is included in the image, and even if the object is detected on the plurality of images obtained from the object analyzer 140, the plurality of images When the brightness of is less than a preset value, it may be difficult to obtain a clear and accurate object analysis image.

이에 따라, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 획득되는 복수개의 이미지의 밝기를 가장 우선적으로 판단하여 셔터, 게인 및 조명을 제어함으로써 이후 이미지 상의 객체 포함 여부, 객체 크기 등을 용이하게 검출할 수 있다는 점에서 복수개의 이미지의 밝기에 가장 높은 가중치를 부여할 수 있고, 복수개의 이미지에 객체가 포함되는지 여부, 객체가 프레임당 검지되는 영역의 크기 및 객체의 크기에 대해 순차적으로 큰 값을 부여한 가중치에 기초하여 각각의 요소들에 대해 판단하여 셔터, 게인 및 조명 중 적어도 하나를 제어함으로써 복수개의 이미지의 밝기가 어두운 경우에도 효과적으로 이미지 상의 객체 분석을 수행할 수 있게 된다.Accordingly, the apparatus 100 for object classification and multi-object big data acquisition management prioritizes brightness of a plurality of acquired images and controls shutter, gain, and lighting, so that it is easy to determine whether an object is included in the image, object size, etc. The highest weight can be given to the brightness of a plurality of images in that it can be detected in a sequentially large way with respect to whether objects are included in the plurality of images, the size of the area where the object is detected per frame, and the size of the object. By controlling at least one of shutter, gain, and lighting by determining each element based on a weighted value, it is possible to effectively analyze an object on an image even when the brightness of a plurality of images is low.

다른 실시 예에서, 이동 객체에 대한 이미지 분석을 수행하는 경우, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지에 객체가 포함되는지 여부, 객체가 프레임당 검지되는 영역의 크기, 객체의 크기 및 복수개의 이미지의 밝기 순서로 높은 가중치를 부여하고, 부여된 가중치에 기초하여 셔터, 게인 및 조명을 제어할 수 있다.In another embodiment, when performing image analysis on a moving object, the object classification and multi-object big data acquisition management apparatus 100 determines whether an object is included in a plurality of images, the size of an area in which an object is detected per frame, High weights may be assigned in order of the object size and brightness of a plurality of images, and shutter, gain, and lighting may be controlled based on the assigned weights.

예를 들어, 이동 객체에 대한 이미지 분석을 수행하는 경우는 이동 중인 차량의 번호, 차종, 이동 방향, 속도 등에 대한 분석을 수행하는 경우를 포함할 수 있다.For example, a case of performing image analysis on a moving object may include a case of performing analysis on the number, vehicle model, moving direction, speed, and the like of a moving vehicle.

이처럼 이동 객체에 대한 이미지 분석을 수행하는 경우, 가장 먼저 복수개의 이미지 중 객체가 포함되는지 여부에 대한 판단 결과에 따라 이후의 이미지 분석 단계의 수행 여부가 결정된다는 점에서, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지에 객체가 포함되는지 여부에 가장 높은 가중치를 부여할 수 있다.In this way, when performing image analysis on a moving object, first of all, whether to perform the subsequent image analysis step is determined according to the result of determining whether the object is included among a plurality of images, so object classification and multi-object big data The acquisition management device 100 may assign the highest weight to whether an object is included in a plurality of images.

또한, 복수개의 이미지 중 객체가 포함되는지 여부에 따라서 이미지 상에서의 객체가 프레임당 검지되는 영역의 크기를 결정할 수 있고, 프레임당 검지 영역의 크기에 따라서 차종, 속도, 차량번호 위치 분석 등 보다 세부적인 이미지 분석이 가능하다는 점에서 객체가 프레임당 검지되는 영역의 크기에 2순위로 높은 가중치가 부여될 수 있다.In addition, the size of an area where an object is detected per frame can be determined according to whether an object is included in a plurality of images, and more detailed analysis such as vehicle type, speed, license plate location analysis, etc. can be determined according to the size of the detection area per frame. In that image analysis is possible, a second high weight may be assigned to the size of an area where an object is detected per frame.

또한, 복수개의 이미지에 기초하여 결정된 객체의 크기가 크거나 작은 경우에 따라 이동 객체가 차량, 보행자, 동물 등 어떠한 종류에 해당하는지 판단할 수 있으나, 프레임당 검지되는 영역의 크기에 의해 어느정도 객체의 종류를 판단할 수 있다는 점에서 객체의 크기에 3순위로 높은 가중치가 부여될 수 있다.In addition, depending on the case where the size of the object determined based on the plurality of images is large or small, it is possible to determine what type of moving object corresponds to, such as a vehicle, pedestrian, or animal. In that the type can be determined, the size of the object can be given a high weight in the third place.

또한, 복수개의 이미지에 기초하여 결정되는 복수개의 이미지의 밝기에 따라 이미지 상에서 이동 객체를 검출하기 용이할 수 있으나, 이동 객체에 이미지를 획득하는 환경은 영상 획득 장치와 인접한 가로등, 기타 조명 등 여러 환경적 요소에 의해 이미지 상에서 이동 객체를 검출하기에 적절한 수준일 가능성이 높다는 측면에서 복수개의 이미지의 밝기에 가장 4순위로 높은 가중치가 부여될 수 있다.In addition, it may be easy to detect a moving object on an image according to the brightness of a plurality of images determined based on the plurality of images, but the environment for acquiring an image of a moving object is various environments such as street lights and other lighting adjacent to the image acquisition device. In terms of a high possibility that the level is appropriate for detecting a moving object on an image due to an enemy element, the 4th highest weight may be assigned to the brightness of the plurality of images.

객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 이와 같이 상이한 크기로 부여되는 가중치에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어함으로써 복수개의 이미지 중 이동 객체의 분석, 검출, 판별을 효과적으로 수행할 수 있게 된다.The apparatus 100 for object classification and multi-object big data acquisition management effectively analyzes, detects, and discriminates moving objects among a plurality of images by controlling at least one of shutter, gain, and lighting based on the weights given in different sizes. be able to perform

다른 실시 예에서, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지에 대한 평균 밝기, 복수개의 이미지에 대한 밝기가 기설정 값 이상인 영역의 크기, 촬영 대상 영역의 밝기 및 촬영 대상 영역의 밝기 히스토리를 획득할 수 있고, 획득된 정보들에 기초하여 게인 제어에 적용되는 게인 값을 결정할 수 있다.In another embodiment, the apparatus 100 for object classification and multi-object big data acquisition management includes an average brightness of a plurality of images, a size of an area in which the brightness of a plurality of images is equal to or greater than a preset value, the brightness of a shooting target region, and a shooting target. A history of the brightness of the region may be acquired, and a gain value applied to gain control may be determined based on the obtained information.

일 실시 예에서, 게인 값이 높아질수록 이미지의 밝기가 전반적으로 증가할 수 있으나, 불필요한 노이즈 또한 게인 값에 비례하도록 증가한다. 이에 따라, 게인 값에 대한 제어는 이미지의 밝기 값을 더 이상 증가시킬 수 없거나, 어느 정도의 노이즈가 발생되더라도 특별히 문제가 되지 않는 등의 특정한 상황에서 요구되는 것이 일반적이다.In one embodiment, as the gain value increases, the overall brightness of the image may increase, but unnecessary noise also increases in proportion to the gain value. Accordingly, control of the gain value is generally required in a specific situation, such as when the brightness value of an image cannot be increased any more or when a certain amount of noise is generated, which is not particularly a problem.

예를 들어, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지 상에 객체가 포함되는지 여부, 복수개의 이미지에 대한 평균 밝기, 촬영 대상 영역의 밝기 및 촬영 대상 영역의 밝기 히스토리 순서로 높게 부여되는 가중치에 기초하여 게인 제어에 이용되는 게인 값을 결정할 수 있다.For example, the apparatus 100 for object classification and multi-object big data acquisition management determines whether an object is included in a plurality of images, the average brightness of the plurality of images, the brightness of the target area to be captured, and the order of the brightness history of the target area to be captured. It is possible to determine a gain value used for gain control based on a weight given high to .

예를 들면, 복수개의 이미지 상에 객체가 포함되는지 여부에 따라 복수개의 이미지 상에 객체가 포함된 경우, 게인 값을 제어하지 않아도 객체 포함 여부를 판단할 수 있다는 점에서 복수개의 이미지 상에 객체가 포함되는지 여부에 가장 높은 크기의 가중치가 부여될 수 있다.For example, if an object is included in a plurality of images depending on whether the object is included in the plurality of images, whether or not the object is included can be determined without controlling the gain value, so that the object is included in the plurality of images. The highest weight may be given to whether or not it is included.

또한, 복수개의 이미지에 대한 평균 밝기에 따라 게인 값을 제어하여 이미지 상에 포함된 객체를 보다 정확히 판단하고 분석할 수 있다는 점과 실질적으로 화질 향상 및 객체 분석을 위한 대상 이미지 자체의 밝기를 나타낸다는 점에서 복수개의 이미지에 대한 평균 밝기에 2순위로 높은 크기의 가중치가 부여될 수 있다.In addition, by controlling the gain value according to the average brightness of a plurality of images, it is possible to more accurately determine and analyze objects included in the image, and to substantially improve the image quality and to indicate the brightness of the target image itself for object analysis. At this point, a second-highest weight may be assigned to the average brightness of a plurality of images.

또한, 촬영 대상 영역의 밝기에 따라 게인 값을 제어하여 복수개의 이미지의 밝기를 제어할 수 있고 복수개의 이미지에 대한 평균 밝기 및 촬영 대상 영역의 밝기 값의 차이값에 따라서 복수개의 이미지의 밝기에 대한 신뢰도 또는 촬영 대상 영역의 밝기를 센싱하는 영상 감시 장치(110)의 센싱 정보에 대한 신뢰도를 판단할 수 있는 등, 게인 제어에 부가적인 요소로써 작용한다는 점에서 촬영 대상 영역의 밝기에 3순위로 높은 가중치가 부여될 수 있다.In addition, the brightness of a plurality of images can be controlled by controlling the gain value according to the brightness of the region to be captured, and the brightness of the plurality of images can be determined according to the difference between the average brightness of the plurality of images and the brightness value of the region to be captured. Reliability or the reliability of the sensing information of the video monitoring device 110 that senses the brightness of the region to be captured is third in the brightness of the region to be captured in that it acts as an additional factor in gain control. Weights may be assigned.

또한, 촬영 대상 영역의 밝기 히스토리에 따라 특정 시간대, 특정 기후 또는 촬영 대상 영역의 밝기에 영향을 미칠 수 있는 특정 상황 또는 촬영 대상 영역의 밝기를 센싱할 수 없는 상황에서 촬영 대상 영역의 밝기를 예측할 수 있으나, 촬영 대상 영역에 대한 실시간 정보는 아니라는 점에서 촬영 대상 영역의 밝기 히스토리에 4순위로 높은 가중치가 부여될 수 있다.In addition, according to the brightness history of the shooting target area, it is possible to predict the brightness of the shooting target area in a specific time period, a specific climate, or a specific situation that can affect the brightness of the shooting target area or a situation where the brightness of the shooting target area cannot be sensed. However, in that it is not real-time information on the region to be captured, a high 4th weight may be assigned to the brightness history of the region to be captured.

객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 이와 같이 상이하게 부여되는 가중치에 기초하여 게인 제어를 위한 게인 값을 결정함으로써 보다 효율적으로 이미지 상의 객체를 인식, 분석할 수 있고, 이를 이용한 고화질 영상 또한 획득할 수 있게 된다.The apparatus 100 for object classification and multi-object big data acquisition management can more efficiently recognize and analyze objects on an image by determining a gain value for gain control based on the weights differently assigned as described above, and can use the same for high definition Images can also be acquired.

일 실시 예에서, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 복수개의 이미지에 따라 결정되는 객체가 포함되는지 여부, 객체의 크기 및 객체가 프레임당 검지되는 영역의 크기 기초하여 객체의 속도, 객체의 유형(예: 차량, 사람, 동물, 기타 물체 등), 객체의 특징(예: 촬영된 객체가 전체 중 일부 인 경우 등), 객체의 상황(예: 정지 상태, 이동 상태, 사고 상황 등) 및 객체의 번호(예: 차량 번호, 식별 번호 등)를 획득할 수 있고, 이들 중 적어도 하나를 이용하여 셔터, 게인 및 조명의 동작 시점 중 적어도 하나를 결정할 수 있다.In one embodiment, the object classification and multi-object big data acquisition management apparatus 100 determines whether or not an object is included, which is determined according to a plurality of images, and the speed of the object based on the size of the object and the size of the area where the object is detected per frame. , the type of object (e.g. vehicle, person, animal, other object, etc.), the characteristics of the object (e.g. the photographed object is part of the whole, etc.), the situation of the object (e.g. stationary state, moving state, accident situation) etc.) and an object number (eg, vehicle number, identification number, etc.) may be acquired, and at least one of the shutter, gain, and lighting operation timing may be determined using at least one of them.

예를 들어, 셔터, 게인 및 조명의 동작 시점은 시계열적으로 획득되는 복수개의 이미지 상에 포함되는 객체를 보다 정확하고 용이하게 식별하기 위해 이용될 수 있는데, 예를 들면 매 시점마다 획득되는 복수개의 이미지 각각에 대응되는 객체의 속도, 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호에 기초하여 복수개의 이미지의 밝기, 명암, 선명도 등의 특성을 나타내는 이미지 특성이 결정될 수 있고, 결정된 이미지 특성에 따라 셔터, 게인 및 조명의 동작 시점이 결정될 수 있다. 이후, 결정된 셔터, 게인 및 조명의 동작 시점에 기초하여 셔터, 게인 및 조명 제어가 수행됨으로써 보다 용이하고 정확하게 객체 식별이 가능한 복수개의 이미지 획득이 가능해진다.For example, operation points of shutter, gain, and lighting can be used to more accurately and easily identify objects included in a plurality of images obtained time-sequentially. Image characteristics representing characteristics such as brightness, contrast, sharpness, etc. of a plurality of images may be determined based on the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object corresponding to each image, and the determined image Depending on the characteristics, operating timings of the shutter, gain, and lighting may be determined. Thereafter, the control of the shutter, gain, and lighting is performed based on the determined operating timing of the shutter, gain, and lighting, so that a plurality of images capable of more easily and accurately identifying objects can be obtained.

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 이전 프레임과 현재 프레임에 존재하는 같은 종류의 객체(예: 특정 차량)의 특정 영역(예: 차량 번호판, 엠블럼 등) 간의 유사도를 비교분석하여 추적하고자 하는 객체에 대한 특정 영역을 검지할 수 있다.In addition, the object classification and multi-object big data acquisition management device 100 compares the similarity between a specific area (eg, license plate, emblem, etc.) of the same type of object (eg, a specific vehicle) existing in the previous frame and the current frame. It is possible to detect a specific area for an object to be analyzed and tracked.

도 5는 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)에 획득된 고화질 영상에 대한 객체 인식 동작의 일 예를 도시한 도면이다.5 is a diagram illustrating an example of an object recognition operation for a high-definition image acquired by the apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment.

도면을 참조하면, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 전술한 방식들에 의해 획득된 고화질 영상 내에서 객체(510)가 포함되는지 여부, 객체(510)의 크기 및 객체(510)가 프레임당 검지되는 영역의 크기를 표시할 수 있고, 이에 기초하여 영상 내 객체(510)를 인식, 분석할 수 있다.Referring to the drawing, the apparatus 100 for object classification and multi-object big data acquisition management determines whether an object 510 is included in a high-definition image obtained by the above-described methods, the size of the object 510, and the size of the object 510. ) may indicate the size of a region detected per frame, and based on this, the object 510 in the image may be recognized and analyzed.

이처럼 복수개의 이미지 중 객체(510)가 포함되는지 여부 및 크기, 영역 등에 기초하여 영상 내 움직이는 객체(510)를 인식, 분석함으로써 종래 문제점을 효과적으로 해소함과 동시에 불필요한 연산은 최소화하면서도 고화질의 분석 결과 이미지를 획득할 수 있게 된다.In this way, by recognizing and analyzing the moving object 510 in the image based on whether the object 510 is included in the plurality of images, size, area, etc., the conventional problems are effectively solved, and at the same time, unnecessary calculations are minimized while high-quality analysis result images are obtained. be able to obtain

도 6은 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)가 동작하는 단계를 도시한 흐름도이다.6 is a flowchart illustrating the operation of the apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment.

도면을 참조하면, 단계 S610에서 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 방범, 재난, 안전 또는 교통 상황을 감시하는 영상 감시 장치(110)로부터 복수개의 이미지를 획득할 수 있다.Referring to the drawing, in step S610, the object classification and multi-object big data acquisition management device 100 may obtain a plurality of images from the video monitoring device 110 for monitoring crime prevention, disaster, safety, or traffic conditions.

일 예에서, 영상 감시 장치(110)는 방범, 재난, 안전 또는 교통 상황에 대한 복수개의 이미지를 용이하게 획득할 수 있도록 촬영 대상 영역과 인접한 영역에 CCTV 형태 등으로 구현될 수 있고, 객체 분류, 객체 분석 및 판별 등 전반적인 영상 내 객체 분류 동작을 수행하기 위해 이용될 수 있다.In one example, the video monitoring device 110 may be implemented in the form of a CCTV in an area adjacent to the area to be photographed so as to easily obtain a plurality of images for crime prevention, disaster, safety, or traffic conditions, object classification, It can be used to perform object classification operations in the overall image, such as object analysis and discrimination.

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)가 영상 감시 장치(110)로부터 복수개의 이미지를 획득하는 과정에서, 영상 감시 장치(110)에 포함된 카메라가 RTSP 통신을 통해 압축 전달하는 과정에서 발생하는 노이즈가 포함된 이미지를 획득한 후 FTP 또는 소켓 통신 방식으로 복수개의 이미지를 송신할 수 있다.In addition, in the process of acquiring a plurality of images from the video monitoring device 110 by the object classification and multi-object big data acquisition management device 100, the camera included in the video monitoring device 110 compresses and transmits through RTSP communication. After obtaining an image containing noise generated in the process, a plurality of images can be transmitted through FTP or socket communication.

단계 S620에서 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이되는 픽셀의 색상에 기초하여 보간을 수행함으로써 복수개의 이미지를 획득할 수 있다.In step S620, the object classification and multi-object big data acquisition management apparatus 100 acquires a plurality of images by performing interpolation based on the color of a pixel to be upscaled in order to filter noise included in the initial image. can

예를 들면, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 복수개의 이미지에 대해서 논 로컬 민즈(non-local means) 방식에 따른 제 1 필터링 및 템포럴 윈도우 사이즈(temporal Window Size) 방식에 기초하여 수행되는 제 2 필터링을 수행하여 필터링 이미지를 획득하고, Conv 함수를 이용하여 상기 필터링 이미지에 대한 업스케일링을 수행할 수 있다.For example, the apparatus 100 for object classification and multi-object big data acquisition management includes first filtering and temporal window size method according to a non-local means method for a plurality of images. A filtered image may be obtained by performing second filtering based on , and upscaling of the filtered image may be performed using a Conv function.

단계 S630에서 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 복수개의 이미지를 이용하여 복수개의 이미지에 포함된 객체(510)의 속도, 객체(510)의 유형, 객체(510)의 특징, 객체(510)의 상황 및 객체(510)의 번호 중 적어도 하나를 결정할 수 있다.In step S630, the apparatus 100 for object classification and multi-object big data acquisition management uses a plurality of images to determine the speed of the object 510 included in the plurality of images, the type of the object 510, and the characteristics of the object 510. , at least one of the situation of the object 510 and the number of the object 510 may be determined.

예를 들면, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 획득된 복수개의 이미지 상에 객체(510)가 포함되는지 여부를 결정하고, 포함된 객체(510)에 대한 기설정된 분석 알고리즘(예: ESRGAN에 따른 스케일업 알고리즘, 배경 차분(absdiff) 알고리즘, 팽창(dilate) 알고리즘, 변화된 객체 구분(findContours) 알고리즘, 검출된 객체 바운딩 및 좌표값 추출(boundingRect) 알고리즘 및 RGB 추출 알고리즘 등) 중 적어도 하나를 이용하여 객체 분석을 수행할 수 있다.For example, the object classification and multi-object big data acquisition management apparatus 100 determines whether an object 510 is included in a plurality of obtained images, and sets a predetermined analysis algorithm for the included object 510. (e.g. scale-up algorithm according to ESRGAN, background difference (absdiff) algorithm, dilate algorithm, changed object distinction (findContours) algorithm, detected object bounding and coordinate value extraction (boundingRect) algorithm, RGB extraction algorithm, etc.) Object analysis may be performed using at least one.

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 이에 따른 객체 분석 결과를 이용하여 객체(510)의 속도, 객체(510)의 유형, 객체(510)의 특징, 객체(510)의 상황 및 객체(510)의 번호 중 적어도 하나를 결정할 수 있고, 결정된 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 객체(510)의 속도, 객체(510)의 유형, 객체(510)의 특징, 객체(510)의 상황 및 객체(510)의 번호 중 적어도 하나를 이용하여 셔터, 게인 및 조명의 동작 시점 중 적어도 하나를 제어할 수 있다. 이에 대한 내용은 아래의 단계 S640에서 연이어 설명하도록 한다.In addition, the object classification and multi-object big data acquisition management apparatus 100 uses the object analysis result according to the object 510 speed, the type of the object 510, the characteristics of the object 510, and the quality of the object 510. It is possible to determine at least one of the situation and the number of the object 510, and the determined object classification and multi-object big data acquisition management apparatus 100 determines the speed of the object 510, the type of the object 510, and the object 510. At least one of the shutter, gain, and lighting operation timing may be controlled using at least one of the characteristics of the object 510, the situation of the object 510, and the number of the object 510. Details on this will be continuously described in step S640 below.

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 시간의 흐름에 따라 순차적으로 획득되는 제 1 이미지, 제 2 이미지 및 제 3 이미지 중 가장 먼저 획득된 제 1 이미지와 상기 제 2 이미지 또는 상기 제 3 이미지 간의 비교 결과에 기초하여 상기 객체(510)의 변화 좌표, 상기 객체(510)의 크기 및 상기 객체(510)를 지칭하는 텍스트를 결정할 수 있다.In addition, the apparatus 100 for object classification and multi-object big data acquisition management includes a first image obtained first and a second image among first images, second images, and third images sequentially obtained over time. Alternatively, change coordinates of the object 510 , a size of the object 510 , and text indicating the object 510 may be determined based on a comparison result between the third images.

단계 S640에서 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 복수개의 이미지에 객체(510)가 포함되는지 여부, 객체(510)의 크기 및 객체(510)가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어할 수 있다.In step S640, the object classification and multi-object big data acquisition management apparatus 100 determines whether or not the object 510 is included in a plurality of images, the size of the object 510, and the size of the area where the object 510 is detected per frame. At least one of the shutter, gain, and lighting may be controlled based on at least one of the above.

구체적으로, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 HTTP통신 및 ONVIF 중 적어도 하나를 이용하여 영상 감시 장치(110)로부터 복수개의 이미지를 획득할 수 있고, 밝기를 조절하기 위해 시리얼 통신 또는 TCP 통신 중 적어도 하나를 이용하여 영상 감시 장치(110)의 조명의 MCU를 제어할 수 있다.Specifically, the object classification and multi-object big data acquisition management device 100 may acquire a plurality of images from the video monitoring device 110 using at least one of HTTP communication and ONVIF, and serial communication to adjust brightness. Alternatively, the MCU of the lighting of the video monitoring device 110 may be controlled using at least one of TCP communication.

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 조명의 MCU 및 영상 감시 장치(110)를 제어하여 영상 감시 장치(110)가 복수개의 이미지를 획득할 때 셔터와 조명 간의 동작 싱크를 제어하도록 할 수 있다.In addition, the object classification and multi-object big data acquisition management device 100 controls the lighting MCU and the video monitoring device 110 to synchronize operation between shutters and lights when the video monitoring device 110 acquires a plurality of images. can be controlled.

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 단계 S630에서 획득된 객체(510)의 속도, 객체(510)의 유형, 객체(510)의 특징, 객체(510)의 상황 및 객체(510)의 번호에 대한 딥러닝을 수행함에 따라 객체(510)를 포함하고 있는 복수개의 이미지를, 객체(510)를 나타내는 문자로 명명할 수 있다.In addition, the object classification and multi-object big data acquisition management apparatus 100 includes the speed of the object 510 acquired in step S630, the type of the object 510, the characteristics of the object 510, the situation of the object 510, and As deep learning is performed on the number of the object 510 , a plurality of images including the object 510 may be named as characters representing the object 510 .

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 복수개의 이미지에 객체(510)가 포함되는지 여부, 객체(510)의 크기 및 객체(510)가 프레임당 검지되는 영역의 크기는, 객체(510)의 속도에 기초하여 영상 감시 장치(110) 및 조명의 펄스 값을 결정함으로써 결정할 수 있다.In addition, the object classification and multi-object big data acquisition management apparatus 100 determines whether or not the object 510 is included in a plurality of images, the size of the object 510, and the size of the area where the object 510 is detected per frame. , It can be determined by determining the pulse value of the video monitoring device 110 and lighting based on the speed of the object 510 .

이에 따라, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는, 종래 기술의 고질적인 문제를 해소하여 실시간으로 획득되는 저화질 영상을 고화질로 업그레이드 함과 동시에 고화질 영상을 실시간 전송할 수 있게 된다.Accordingly, the object classification and multi-object big data acquisition management apparatus 100 solves the chronic problem of the prior art, upgrades a low-quality image obtained in real time to a high-quality image, and simultaneously transmits a high-quality image in real time.

다른 실시 예에서, 영상 감시 장치(110)에 포함된 카메라가 듀얼 스트리밍으로 동작하는 경우, 카메라는 듀얼 스트리밍 중 어느 하나인 싱글 스트리밍에 따른 복수개의 이미지를 객체 분석부(140)로 송신하고, 나머지 하나인 서브 스트리밍에 따른 복수개의 이미지를 저장하는 센터(220)로 송신할 수 있다.In another embodiment, when the camera included in the video surveillance device 110 operates in dual streaming, the camera transmits a plurality of images according to single streaming, which is one of dual streaming, to the object analyzer 140, and the remaining images are transmitted to the object analyzer 140. A plurality of images according to one sub-streaming may be transmitted to the center 220 that stores them.

예를 들어, 듀얼 스트리밍은 싱글 스트리밍 및 서브 스트리밍으로 스트리밍 채널을 구분하여 복수개의 이미지를 획득하도록 동작하는 기능을 포함할 수 있고, 카메라가 듀얼 스트리밍으로 동작하는 경우 획득되는 복수개의 이미지는 동일한 정보를 포함할 수 있다.For example, dual streaming may include a function of acquiring a plurality of images by dividing a streaming channel into single streaming and sub-streaming, and the plurality of images acquired when the camera operates in dual streaming may include the same information. can include

또한, 객체 분석부(140)는 기저장된 알고리즘(예: YOLO 기반 알고리즘)을 이용하여 싱글 스트리밍에 따른 복수개의 이미지와 기설정된 객체 정보를 비교하여 복수개의 이미지에 객체(510)가 포함되는지 여부를 결정할 수 있다.In addition, the object analyzer 140 compares a plurality of images according to single streaming with preset object information using a pre-stored algorithm (eg, a YOLO-based algorithm) to determine whether the object 510 is included in the plurality of images. can decide

예를 들면, 객체 분석부(140)는 기저장된 알고리즘을 이용하여 복수개의 이미지와, 미리 객체(510)로 정의되어 객체 포함 여부를 결정하기 위한 비교에 이용되는 정보(예: YOLO 알고리즘에 따른 함수에 기초하여 획득되는 라벨링 클래스)를 포함하는 기설정된 객체 정보와의 비교 결과를 획득하고, 비교 결과에 기초하여 복수개의 이미지에 객체(510)가 포함되는지 여부를 결정할 수 있다.For example, the object analyzer 140 uses a pre-stored algorithm to determine whether a plurality of images and an object 510 are defined in advance and used for comparison to determine whether the object is included (e.g., a function according to the YOLO algorithm). A comparison result with preset object information including a labeling class obtained based on ) may be obtained, and based on the comparison result, whether the object 510 is included in the plurality of images may be determined.

복수개의 이미지에 객체(510)가 포함되는 경우, 객체 분석부(140)는 객체가 포함된 이미지에 기초하여 객체의 속도, 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호 중 적어도 하나를 결정할 수 있다.When the object 510 is included in a plurality of images, the object analyzer 140 performs at least one of the speed of the object, the type of the object, the characteristic of the object, the situation of the object, and the number of the object based on the image including the object. can decide

제어부(150)는, 복수개의 이미지에 객체(510)가 포함되는지 여부, 객체의 속도, 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호를 FTP 또는 소켓 통신 방식으로 센터(220)에 송신할 수 있다.The control unit 150 determines whether or not the object 510 is included in the plurality of images, the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object to the center 220 through FTP or socket communication. can be sent

일 실시 예에서, 제어부(150)는 객체 분석부(140)로부터 결정된 객체(510)의 유형이 차량인 경우, 셔터, 게인 및 조명 중 적어도 하나를 기설정 값으로 갱신할 수 있다.In one embodiment, when the type of object 510 determined by the object analyzer 140 is a vehicle, the controller 150 may update at least one of a shutter, a gain, and lighting to a preset value.

예를 들면, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 영상 감시 장치(110)로부터 획득된 복수개의 이미지의 프레임 각각에 대해 기저장된 알고리즘을 이용하여 객체(510)를 검출하고, 객체(510)가 검지된 경우 제어부(150)를 통해 셔터, 게인 및 조명의 값이 기존 값보다 더욱 높아지도록 갱신할 수 있다.For example, the object classification and multi-object big data acquisition management device 100 detects an object 510 using a pre-stored algorithm for each frame of a plurality of images obtained from the video monitoring device 110, and When 510 is detected, the values of the shutter, gain, and lighting may be updated through the controller 150 to be higher than the existing values.

본 개시의 실시 예들에 따르면, 저화질 영상을 고화질로 업그레이드 하는 방법과 고화질 영상을 실시간 전송하는 알고리즘 기반의 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)를 제공함으로써, 대역폭의 한계로 인해 고화질 영상을 저화질 영상으로 송신해야 하는 종래 문제점을 효과적으로 해소할 수 있다.According to embodiments of the present disclosure, by providing a method for upgrading a low-quality image to a high-definition image and an algorithm-based object classification and multi-object big data acquisition management apparatus 100 for transmitting high-quality image in real time, high-definition image due to bandwidth limitations It is possible to effectively solve the conventional problem of transmitting a low-quality video.

또한, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 영상 처리를 수행하는 과정에서 SPAT(Spatial Partition analysis tracking), STF(SignTelecom Features) 알고리즘 등의 기술 방식을 이용할 수 있다.In addition, the apparatus 100 for object classification and multi-object big data acquisition management may use technology methods such as SPAT (Spatial Partition analysis tracking) and STF (SignTelecom Features) algorithms in the process of image processing.

도 7은 일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)가 인코딩과 관련하여 동작하는 일 예를 나타내는 도면이다.7 is a diagram illustrating an example in which the apparatus 100 for object classification and multi-object big data acquisition management according to an embodiment operates in relation to encoding.

일 실시 예에 따른 객체 분류 및 다중 객체 빅데이터 획득 관리 장치(100)는 방범, 재난, 안전 또는 교통 상황을 감시하는 영상 감시 장치로부터 복수개의 이미지를 획득하는 프레임 별 영상 수신부(710), 초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이되는 픽셀의 색상에 기초하여 보간을 수행하고 프레임 별 RGB 값을 문자열로 추출하며 복수개의 이미지를 문자열로 변형하는 프레임 별 좌표 값 추출부(720), 복수개의 이미지를 이용하여 복수개의 이미지에 포함된 객체의 속도, 객체의 유형, 객체의 특징, 객체의 상황 및 객체의 번호 중 적어도 하나를 결정하는 객체 분석부(730), 객체 분석부의 인식 값을 통해 고정 객체(예: 노이즈, 나무, 돌, 집 등) 및 이동 객체(예: 사람, 차량 등)를 분류하고 중심 값을 기준으로 50- 100pix 정도의 평균값을 설정하여 3장의 이미지를 통해 I프레임 및 P프레임을 결정하는 비교 분석부(740), 복수개의 이미지에 객체가 포함되는지 여부, 객체의 크기 및 객체가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어하는 제어부(750); 및 비교분석부에서 선별되어진 이미지만을 송신하는 선별 송신부(760)를 포함할 수 있다.An object classification and multi-object big data acquisition management device 100 according to an embodiment includes a frame-by-frame image receiving unit 710 that acquires a plurality of images from a video monitoring device that monitors crime prevention, disaster, safety, or traffic conditions, and an initial image. A frame-by-frame coordinate value extraction unit 720 that performs interpolation based on the color of a pixel to be upscaled to filter out noise included in, extracts RGB values for each frame as a string, and transforms a plurality of images into a string. , an object analysis unit 730 that determines at least one of the speed of an object included in a plurality of images, the type of an object, the characteristics of an object, the situation of an object, and the number of an object included in a plurality of images, and a recognition value of the object analysis unit. Classify stationary objects (e.g. noise, trees, stones, houses, etc.) and moving objects (e.g. people, vehicles, etc.) through I At least one of shutter, gain, and illumination based on at least one of a comparative analysis unit 740 that determines a frame and a P frame, whether or not an object is included in a plurality of images, the size of the object, and the size of the area where the object is detected per frame. a controller 750 controlling one; and a selection transmission unit 760 that transmits only images selected by the comparison and analysis unit.

이상에서 도시된 단계들의 순서 및 조합은 일 실시 예이고, 명세서에 기재된 각 구성요소들의 본질적인 특성에서 벗어나지 않는 범위에서 순서, 조합, 분기, 기능 및 그 수행 주체가 추가, 생략 또는 변형된 형태로 다양하게 실시될 수 있음을 알 수 있다.The order and combination of the steps shown above is an embodiment, and the order, combination, branch, function, and subject of execution thereof may be added, omitted, or modified within the scope that does not deviate from the essential characteristics of each component described in the specification. It can be seen that this can be done.

본 개시의 다양한 실시예들은 기기(machine)(예를 들어, 디스플레이 장치 또는 컴퓨터)에 의해 읽을 수 있는 저장 매체(storage medium)(예를 들어, 메모리)에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다. 예를 들면, 기기의 프로세서는, 저장 매체로부터 저장된 하나 이상의 인스트럭션들 중 적어도 하나의 인스트럭션을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 인스트럭션에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 인스트럭션들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present disclosure are implemented as software including one or more instructions stored in a storage medium (eg, memory) readable by a machine (eg, a display device or a computer). It can be. For example, the processor of the device may call at least one of one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the invoked at least one instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain signals (e.g., electromagnetic waves), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.

일 실시예에 따르면, 본 개시에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present disclosure may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

전술한 본 개시의 설명은 예시를 위한 것이며, 본 개시가 속하는 기술분야의 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The description of the present disclosure described above is for illustrative purposes, and those skilled in the art can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present disclosure. will be. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 개시의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present disclosure is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present disclosure.

100: 객체 분류 및 다중 객체 빅데이터 획득 관리 장치
110: 영상 감시 장치
120: 업스케일링 이미지 획득부
130: 송수신부
140: 객체 분석부
150: 제어부
210: 제 1 영상 감시 장치
220: 센터
230: 사용자 단말
410: 제 2 영상 감시 장치
510: 객체
710: 프레임 별 영상 수신부
720: 프레임 별 좌표 값 추출부
730: 객체 분석부
740: 비교 분석부
750: 제어부
760: 선별 송신부
100: object classification and multi-object big data acquisition management device
110: video monitoring device
120: upscaling image acquisition unit
130: transceiver
140: object analysis unit
150: control unit
210: first video monitoring device
220: center
230: user terminal
410: second video monitoring device
510: object
710: frame-by-frame video receiver
720: coordinate value extraction unit for each frame
730: object analysis unit
740: comparison analysis unit
750: control unit
760: selective transmitter

Claims (16)

방범, 재난, 안전 또는 교통 상황을 감시하는 영상 감시 장치로부터 복수개의 이미지를 획득하는 송수신부;
초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이되는 픽셀의 색상에 기초하여 보간을 수행함으로써 상기 복수개의 이미지를 획득하는 업스케일링 이미지 획득부;
상기 복수개의 이미지를 이용하여 상기 복수개의 이미지에 포함된 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 결정하는 객체 분석부; 및
상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 크기 및 상기 객체가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어하는 제어부;
를 포함하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
Transmitting and receiving unit for obtaining a plurality of images from the video monitoring device for monitoring crime prevention, disaster, safety or traffic conditions;
an upscaling image acquisition unit acquiring the plurality of images by performing interpolation based on colors of pixels to be upscaled to filter out noise included in the initial image;
an object analyzer configured to determine at least one of a speed of an object included in the plurality of images, a type of the object, a characteristic of the object, a situation of the object, and a number of the object included in the plurality of images; and
a controller for controlling at least one of a shutter, a gain, and illumination based on at least one of whether the object is included in the plurality of images, a size of the object, and a size of a region in which the object is detected per frame;
Containing, object classification and multi-object big data acquisition management device.
제 1 항에 있어서,
상기 송수신부는 상기 영상 감시 장치로부터 상기 복수개의 이미지를 획득하는 과정에서, 상기 영상 감시 장치에 포함된 카메라가 RTSP 통신을 통해 압축 전달하는 과정에서 발생하는 노이즈가 포함된 이미지를 획득한 후 FTP 또는 소켓 통신 방식으로 상기 복수개의 이미지를 송신하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 1,
In the process of acquiring the plurality of images from the video monitoring device, the transmitting/receiving unit obtains an image including noise generated in the process of compressing and transmitting a camera included in the video monitoring device through RTSP communication, and then FTP or socket. An object classification and multi-object big data acquisition management device for transmitting the plurality of images in a communication manner.
제 1 항에 있어서,
상기 업스케일링 이미지 획득부는
상기 복수개의 이미지에 대해서 논 로컬 민즈(non-local means) 방식에 따른 제 1 필터링 및 템포럴 윈도우 사이즈(temporal Window Size)에 기초하여 수행되는 제 2 필터링을 수행하여 필터링 이미지를 획득하고,
Conv 함수를 이용하여 상기 필터링 이미지에 대한 업스케일링을 수행하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 1,
The upscaling image acquiring unit
Obtaining a filtered image by performing first filtering according to a non-local means method and second filtering performed based on a temporal window size on the plurality of images,
Object classification and multi-object big data acquisition management apparatus for performing upscaling on the filtered image using a Conv function.
제 1 항에 있어서,
상기 객체 분석부는
시간의 흐름에 따라 순차적으로 획득되는 제 1 이미지, 제 2 이미지 및 제 3 이미지 중 가장 먼저 획득된 제 1 이미지와 상기 제 2 이미지 또는 상기 제 3 이미지 간의 비교 결과에 기초하여 상기 객체의 변화 좌표, 상기 객체의 크기 및 상기 객체를 지칭하는 텍스트를 결정하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 1,
The object analysis unit
Change coordinates of the object based on a comparison result between the first image obtained first among the first image, the second image, and the third image sequentially acquired over time and the second image or the third image, Object classification and multi-object big data acquisition management apparatus for determining the size of the object and the text referring to the object.
제 4 항에 있어서,
상기 객체 분석부는
ESRGAN에 따른 스케일업 알고리즘, 배경 차분(absdiff) 알고리즘, 팽창(dilate) 알고리즘, 변화된 객체 구분(findContours) 알고리즘, 검출된 객체 바운딩 및 좌표값 추출(boundingRect) 알고리즘 및 RGB 추출 알고리즘 중 적어도 하나를 이용해서 객체 분석을 수행하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 4,
The object analysis unit
Using at least one of a scale-up algorithm according to ESRGAN, a background difference (absdiff) algorithm, a dilate algorithm, a changed object distinction (findContours) algorithm, a detected object bounding and coordinate value extraction (boundingRect) algorithm, and an RGB extraction algorithm An object classification and multi-object big data acquisition management device that performs object analysis.
제 1 항에 있어서,
상기 제어부는
상기 복수개의 이미지에 기초하여 결정되는 상기 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 이용하여 셔터, 게인 및 조명의 동작 시점 중 적어도 하나를 제어하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치
According to claim 1,
The control unit
At least one of the shutter, gain, and lighting operation timings using at least one of the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object determined based on the plurality of images. Object classification and multi-object big data acquisition management device that controls
제 6 항에 있어서,
상기 제어부는
HTTP통신 및 ONVIF 중 적어도 하나를 통해 상기 영상 감시 장치에 포함되는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 6,
The control unit
An object classification and multi-object big data acquisition management device included in the video monitoring device through at least one of HTTP communication and ONVIF.
제 6 항에 있어서,
상기 제어부는
밝기를 조절하기 위해 시리얼 통신 또는 TCP 통신 중 적어도 하나를 이용하여 조명의 MCU를 제어하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 6,
The control unit
An object classification and multi-object big data acquisition management device for controlling a lighting MCU using at least one of serial communication or TCP communication to adjust brightness.
제 6 항에 있어서,
상기 제어부는
상기 조명의 MCU 및 상기 영상 감시 장치를 제어하여 상기 영상 감시 장치가 상기 복수개의 이미지를 획득할 때 상기 셔터와 상기 조명 간의 동작 싱크를 제어하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 6,
The control unit
An object classification and multi-object big data acquisition management device that controls the MCU of the light and the video monitoring device to control operation synchronization between the shutter and the light when the video monitoring device acquires the plurality of images.
제 6 항에 있어서,
상기 제어부는
상기 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호에 대한 딥러닝을 수행함에 따라 상기 객체를 포함하고 있는 상기 복수개의 이미지를 상기 객체를 나타내는 문자로 명명하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 6,
The control unit
As deep learning is performed on the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object, the plurality of images including the object are named as characters representing the object. , object classification and multi-object big data acquisition management device.
제 1 항에 있어서,
상기 제어부는
상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 크기 및 상기 객체가 프레임당 검지되는 영역의 크기는 상기 객체의 속도에 기초하여 상기 영상 감시 장치 및 조명의 펄스 값을 결정하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 1,
The control unit
Whether or not the object is included in the plurality of images, the size of the object and the size of the area where the object is detected per frame determines the pulse value of the video monitoring device and lighting based on the speed of the object, object classification and a multi-object big data acquisition management device.
제 1 항에 있어서,
상기 영상 감시 장치에 포함된 카메라가 듀얼 스트리밍으로 동작하는 경우,
상기 카메라는 상기 듀얼 스트리밍 중 어느 하나인 싱글 스트리밍에 따른 상기 복수개의 이미지를 객체 분석부로 송신하고, 나머지 하나인 서브 스트리밍에 따른 상기 복수개의 이미지를 저장하는 센터로 송신하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 1,
When the camera included in the video surveillance device operates in dual streaming,
The camera transmits the plurality of images according to single streaming, which is one of the dual streaming, to an object analysis unit and transmits the plurality of images according to the other one, sub-streaming, to a center for storing object classification and multi-object big data. Data Acquisition Management Unit.
제 12 항에 있어서,
상기 객체 분석부는
기저장된 알고리즘을 이용하여 상기 싱글 스트리밍에 따른 상기 복수개의 이미지와 기설정된 객체 정보를 비교하여 상기 복수개의 이미지에 상기 객체가 포함되는지 여부를 결정하고,
상기 객체가 포함되는 경우, 상기 객체가 포함된 이미지에 기초하여 상기 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 결정하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 12,
The object analysis unit
Using a pre-stored algorithm, comparing the plurality of images according to the single streaming with preset object information to determine whether the object is included in the plurality of images;
When the object is included, determining at least one of the speed of the object, the type of the object, the characteristic of the object, the situation of the object, and the number of the object based on an image including the object, object classification and Multi-object big data acquisition management device.
제 13 항에 있어서,
상기 제어부는
상기 송수신부를 통해 상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호를 FTP 또는 소켓 통신 방식으로 상기 센터에 송신하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 13,
The control unit
Whether or not the object is included in the plurality of images, the speed of the object, the type of the object, the characteristics of the object, the situation of the object, and the number of the object are transmitted to the center through the transmission/reception unit through FTP or socket communication method. Transmitting, object classification and multi-object big data acquisition management device.
제 13 항에 있어서,
상기 제어부는
상기 객체가 차량인 경우 상기 셔터, 상기 게인 및 상기 조명 중 적어도 하나를 기설정 값으로 갱신하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 13,
The control unit
An object classification and multi-object big data acquisition management apparatus for updating at least one of the shutter, the gain, and the lighting to a preset value when the object is a vehicle.
제 1 항에 있어서,
방범, 재난, 안전 또는 교통 상황을 감시하는 영상 감시 장치로부터 복수개의 이미지를 획득하는 프레임 별 영상 수신부;
초기 이미지에 포함된 노이즈를 필터링하기 위해 업스케일의 대상이되는 픽셀의 색상에 기초하여 보간을 수행하고 프레임 별 RGB 값을 문자열로 추출하며 상기 복수개의 이미지를 문자열로 변형하는 프레임 별 좌표 값 추출부;
상기 복수개의 이미지를 이용하여 상기 복수개의 이미지에 포함된 객체의 속도, 상기 객체의 유형, 상기 객체의 특징, 상기 객체의 상황 및 상기 객체의 번호 중 적어도 하나를 결정하는 객체 분석부;
객체 분석부의 인식 값을 통해 고정 객체 및 이동 객체를 분류하고 중심 값을 기준으로 50- 100pix 정도의 평균값을 설정하여 3장의 이미지를 통해 I프레임 및 P프레임을 결정하는 비교 분석부;
상기 복수개의 이미지에 상기 객체가 포함되는지 여부, 상기 객체의 크기 및 상기 객체가 프레임당 검지되는 영역의 크기 중 적어도 하나에 기초하여 셔터, 게인 및 조명 중 적어도 하나를 제어하는 제어부; 및
비교분석부에서 선별되어진 이미지만을 송신하는 선별 송신부;를 더 포함하는, 객체 분류 및 다중 객체 빅데이터 획득 관리 장치.
According to claim 1,
a frame-by-frame image receiving unit that acquires a plurality of images from a video monitoring device that monitors crime prevention, disaster, safety, or traffic conditions;
A coordinate value extractor for each frame that performs interpolation based on the color of a pixel to be upscaled to filter noise included in the initial image, extracts RGB values for each frame as a character string, and transforms the plurality of images into a character string. ;
an object analyzer configured to determine at least one of a speed of an object included in the plurality of images, a type of the object, a characteristic of the object, a situation of the object, and a number of the object included in the plurality of images;
A comparison analysis unit that classifies fixed objects and moving objects through the recognition values of the object analysis unit and sets an average value of about 50-100 pix based on the center value to determine I-frames and P-frames through three images;
a controller for controlling at least one of a shutter, a gain, and illumination based on at least one of whether the object is included in the plurality of images, a size of the object, and a size of a region in which the object is detected per frame; and
Object classification and multi-object big data acquisition management apparatus further comprising; a selection transmission unit for transmitting only the images selected by the comparison analysis unit.
KR1020230003578A 2022-01-10 2023-01-10 device for management classifying objects and acquiring multi object big data KR20230108239A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220003533 2022-01-10
KR1020220003533 2022-01-10

Publications (1)

Publication Number Publication Date
KR20230108239A true KR20230108239A (en) 2023-07-18

Family

ID=87423800

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230003578A KR20230108239A (en) 2022-01-10 2023-01-10 device for management classifying objects and acquiring multi object big data

Country Status (1)

Country Link
KR (1) KR20230108239A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210038280A (en) 2019-09-29 2021-04-07 주식회사 작당모의 A Method and Apparatus for Object Recognition using Machine Learning

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210038280A (en) 2019-09-29 2021-04-07 주식회사 작당모의 A Method and Apparatus for Object Recognition using Machine Learning

Similar Documents

Publication Publication Date Title
US20190304102A1 (en) Memory efficient blob based object classification in video analytics
US10282617B2 (en) Methods and systems for performing sleeping object detection and tracking in video analytics
CN106878668B (en) Movement detection of an object
US10204275B2 (en) Image monitoring system and surveillance camera
US20180048894A1 (en) Methods and systems of performing lighting condition change compensation in video analytics
US7868772B2 (en) Flame detecting method and device
US7778445B2 (en) Method and system for the detection of removed objects in video images
US20190138830A1 (en) Methods and Devices for Cognitive-based Image Data Analytics in Real Time Comprising Convolutional Neural Network
US9105104B2 (en) Image processing apparatus,image processing method, and program
EP3506228A1 (en) Image capturing apparatus, image processing apparatus, control method, and program
US20180144476A1 (en) Cascaded-time-scale background modeling
KR102170992B1 (en) Multi-functional vehicle number recognition system, and method thereof
US20180047173A1 (en) Methods and systems of performing content-adaptive object tracking in video analytics
US8922674B2 (en) Method and system for facilitating color balance synchronization between a plurality of video cameras and for obtaining object tracking between two or more video cameras
EP2555163B1 (en) Image processing apparatus, image processing method, and program
JP2015508591A (en) Cloud-based video surveillance management system
KR20080054368A (en) Flame detecting method and device
US20160210759A1 (en) System and method of detecting moving objects
CN108230607B (en) Image fire detection method based on regional characteristic analysis
WO2018031104A1 (en) Methods and systems of maintaining object trackers in video analytics
WO2013102026A2 (en) Method and system for video composition
KR102131437B1 (en) Adaptive video surveillance system and method
WO2018032270A1 (en) Low complexity tamper detection in video analytics
US20230394792A1 (en) Information processing device, information processing method, and program recording medium
CN113111782A (en) Video monitoring method and device based on salient object detection

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right