KR102473165B1 - Cctv control system for being enable to measure real size of subject using 3d environment model - Google Patents

Cctv control system for being enable to measure real size of subject using 3d environment model Download PDF

Info

Publication number
KR102473165B1
KR102473165B1 KR1020200095071A KR20200095071A KR102473165B1 KR 102473165 B1 KR102473165 B1 KR 102473165B1 KR 1020200095071 A KR1020200095071 A KR 1020200095071A KR 20200095071 A KR20200095071 A KR 20200095071A KR 102473165 B1 KR102473165 B1 KR 102473165B1
Authority
KR
South Korea
Prior art keywords
screen
cctv
environment model
space
virtual camera
Prior art date
Application number
KR1020200095071A
Other languages
Korean (ko)
Other versions
KR20220015056A (en
Inventor
조정현
김익재
최희승
남기표
김학섭
박해솔
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020200095071A priority Critical patent/KR102473165B1/en
Publication of KR20220015056A publication Critical patent/KR20220015056A/en
Application granted granted Critical
Publication of KR102473165B1 publication Critical patent/KR102473165B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

실시예들은 CCTV 화면에 포착된 화면 공간에 관련된 실측 정보에 기초하여 상기 화면 공간을 3차원 가상 공간으로 구현한 3D 환경 모델을 생성하는 3D 모델링부; 상기 3D 환경 모델을 상기 CCTV 화면에 매핑하는 매핑부; 상기 CCTV가 촬영한 CCTV 화면의 영상에서 객체를 탐지하는 객체 검출부; 및 매핑된 3D 환경 모델을 이용하여 상기 탐지된 객체에 포함된 피사체의 3차원 실제 환경 상의 실제 크기를 측정하는 실제 크기 측정부; 및 하나 이상의 CCTV를 포함하는 CCTV 관제 시스템 및 프로세서에 의해 수행되는 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정하는 방법에 관련된다.Embodiments include a 3D modeling unit for generating a 3D environment model in which the screen space is implemented as a three-dimensional virtual space based on actual measurement information related to the screen space captured on a CCTV screen; a mapping unit for mapping the 3D environment model to the CCTV screen; an object detection unit for detecting an object in an image of a CCTV screen captured by the CCTV; and a real size measuring unit measuring a real size of a subject included in the detected object in a 3D real environment using a mapped 3D environment model. and a method for measuring the actual size of a subject using a 3D environment model performed by a CCTV control system including one or more CCTVs and a processor.

Description

3D 환경 모델을 이용하여 피사체의 실제 크기를 측정 가능한 CCTV 관제 시스템{CCTV CONTROL SYSTEM FOR BEING ENABLE TO MEASURE REAL SIZE OF SUBJECT USING 3D ENVIRONMENT MODEL}CCTV control system capable of measuring the actual size of a subject using a 3D environment model

본 발명의 실시예들은 CCTV에 의해 촬영된 피사체의 실제 크기를 측정하는 기술에 관한 것으로서, 보다 상세하게는 실측 기반 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정 가능한 CCTV 관제 시스템에 관련된다.Embodiments of the present invention relate to a technology for measuring the actual size of a subject captured by CCTV, and more particularly, to a CCTV control system capable of measuring the actual size of a subject using a measurement-based 3D environment model.

피사체의 실제 크기를 측정하기 위해서는 스테레오스코픽(Stereoscopic) 카메라 등 특수한 카메라를 사용하는 3D-CCTV를 새로 설치해야 하는 것이 일반적이다. In order to measure the actual size of an object, it is common to newly install a 3D-CCTV using a special camera such as a stereoscopic camera.

그러나, 이러한 3D CCTV 장비는 가격이 비싸기 때문에 실생활에 구현하기 어려운 문제가 있다. However, since such 3D CCTV equipment is expensive, it is difficult to implement in real life.

이를 해결하기 이해 기존의 CCTV 화면의 2차원 영상을 이용하려는 시도(발명의명칭: 위성 사진을 이용한 CCTV 화면에서의 거리 측정 방법, 한국 특허공개공보 제10-2017-0021423호 (2017.02.28.))가 있다. 상기 시도는 위성 사진과 CCTV 화면을 매칭하여 도로와 같이 시설물의 폭 또는 길이 등을 측정한다. To solve this problem, an attempt to use a two-dimensional image of an existing CCTV screen (title of invention: method for measuring distance on a CCTV screen using satellite photos, Korean Patent Publication No. 10-2017-0021423 (2017.02.28.) ) is there. The attempt measures the width or length of a facility such as a road by matching a satellite image with a CCTV screen.

그러나, 이 시도는 반드시 위성 사진이 요구되어야 하고, 또한 시설물과 같은 정적인 피사체에 대해서만 측정 가능하며 동적으로 움직이는 피사체의 길이(예컨대, 보행자의 키)를 측정할 수 없는 한계가 있다.However, this attempt must necessarily require satellite photos, and can only measure static objects such as facilities, and has limitations in that it cannot measure the length of dynamically moving objects (eg, the height of a pedestrian).

특허등록공보 제10-1917000호 (2018.11.02.)Patent Registration Publication No. 10-1917000 (2018.11.02.)

본 발명의 일 측면에 따른 실측 기반 3D 환경 모델을 이용하여 CCTV 화면의 2차원 영상에 표시된 피사체의 실제 크기를 측정 가능한 CCTV 관제 시스템을 제공할 수도 있다. A CCTV control system capable of measuring the actual size of a subject displayed in a two-dimensional image of a CCTV screen may be provided using a 3D environment model based on actual measurements according to an aspect of the present invention.

이 외에도, 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정하는 방법 및 이를 수행하는 명령어를 기록한 컴퓨터 판독가능 기록매체를 제공할 수도 있다. In addition, a method for measuring the actual size of a subject using a 3D environment model and a computer readable recording medium recording instructions for performing the method may be provided.

본 발명의 일 측면에 따른 하나 이상의 CCTV가 촬영한 피사체의 실제 크기를 측정하는 CCTV 관제 시스템은: CCTV 화면에 포착된 화면 공간에 관련된 실측 정보에 기초하여 상기 화면 공간을 3차원 가상 공간으로 구현한 3D 환경 모델을 생성하는 3D 모델링부; 상기 3D 환경 모델을 상기 CCTV 화면에 매핑하는 매핑부; 상기 CCTV가 촬영한 CCTV 화면의 영상에서 객체를 탐지하는 객체 검출부; 및 매핑된 3D 환경 모델을 이용하여 상기 탐지된 객체에 포함된 피사체의 3차원 실제 환경 상의 실제 크기를 측정하는 실제 크기 측정부;를 포함할 수도 있다.A CCTV control system for measuring the actual size of a subject captured by one or more CCTVs according to an aspect of the present invention: based on actual measurement information related to the screen space captured on the CCTV screen, the screen space is implemented as a three-dimensional virtual space 3D modeling unit for generating a 3D environment model; a mapping unit for mapping the 3D environment model to the CCTV screen; an object detection unit for detecting an object in an image of a CCTV screen captured by the CCTV; and a real size measuring unit that measures a real size of a subject included in the detected object in a 3D real environment using a mapped 3D environment model.

일 실시예에서, 상기 3D 모델링부는, 상기 하나 이상의 CCTV에 대응한 가상 카메라를 상기 3차원 가상 공간 상에 생성하도록 더 구성될 수도 있다. 여기서, 상기 가상 카메라는 대응한 CCTV 화면과 동일한 뷰를 가질 수도 있다.In one embodiment, the 3D modeling unit may be further configured to generate virtual cameras corresponding to the one or more CCTVs on the 3D virtual space. Here, the virtual camera may have the same view as the corresponding CCTV screen.

일 실시예에서, 상기 매핑부는, CCTV 화면과 3D 환경 모델을 매핑하기 위해, 상기 가상 카메라의 화면에 포착된 접지면과 상기 3차원 가상 공간 상에 구현된 접지면에 기초하여 상기 가상 카메라의 화면과 상기 3D 환경 모델의 뷰를 정합할 수도 있다.In one embodiment, the mapping unit, in order to map the CCTV screen and the 3D environment model, based on the ground plane captured on the screen of the virtual camera and the ground plane implemented on the 3D virtual space, the screen of the virtual camera and the view of the 3D environment model may be matched.

일 실시예에서, 상기 매핑부는, 다음의 수학식을 통해 가상 카메라 화면과 3D 환경 모델을 정합하고,In one embodiment, the mapping unit matches the virtual camera screen and the 3D environment model through the following equation,

[수학식] [mathematical expression]

Figure 112020079979412-pat00001
Figure 112020079979412-pat00001

여기서, {Ψi, λi}는 삼차원 모델 공간 상의 i번째 투사된 점의 위치와 가상 카메라 영상의 2차원 화면 상의 i번째 점의 위치를 각각 나타내고, dk는 카메라 왜곡(k)을 고려하여 3차원 공간의 점을 카메라 2차원 공간으로 투사하고 다른 2차원 공간의 점과의 거리를 계산하는 함수로서, CCTV의 사양에 기초하고, R 및 t는 가상 카메라의 3차원 공간 상의 각도 및 위치를 각각 나타낼 수도 있다.Here, {Ψi, λi} represents the position of the ith projected point on the 3D model space and the position of the ith point on the 2D screen of the virtual camera image, respectively, and dk is the 3D space considering the camera distortion (k). As a function that projects the point of the camera into the 2D space of the camera and calculates the distance to the point of the other 2D space, based on the specifications of CCTV, R and t may represent the angle and position of the virtual camera in the 3D space, respectively have.

일 실시예에서, 상기 객체 검출부는, 입력 영상에서 특징을 추출하고, 추출된 특징에 기초하여 CCTV 화면에 포함된 객체를 탐지하도록 미리 학습된 기계 학습 모델에 상기 CCTV 화면의 영상을 적용하여 상기 객체를 탐지할 수도 있다.In one embodiment, the object detection unit extracts a feature from an input image, and applies the image of the CCTV screen to a pre-learned machine learning model to detect an object included in the CCTV screen based on the extracted feature, thereby applying the object can also detect

일 실시예에서, 상기 실제 크기 측정부는, 상기 탐지된 객체의 CCTV 화면 내 위치에 대응하는, 매핑된 3D 환경 모델 상의 3차원 가상 위치에서, 픽셀 크기의 값에 매핑된 실제 크기 값을 검색하고, 그리고 검색된 실제 크기 값을 상기 객체의 실제 크기로 결정할 수도 있다.In one embodiment, the actual size measuring unit searches for a real size value mapped to a pixel size value in a 3D virtual location on a mapped 3D environment model corresponding to a location in a CCTV screen of the detected object, Also, the searched actual size value may be determined as the actual size of the object.

본 발명의 다른 일 측면에 따른 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정하는 방법은 프로세서에 의해 수행되며, CCTV에 의해 피사체를 포함한 CCTV 화면의 영상을 획득하는 단계; 및 미리 저장된 3D 환경 모델을 이용하여 CCTV 화면의 피사체의 실제 크기를 측정하는 단계를 포함 수도 있다. 여기서, 상기 미리 저장된 3D 환경 모델은 상기 CCTV 화면에 매핑된 모델이다. A method for measuring the actual size of a subject using a 3D environment model according to another aspect of the present invention is performed by a processor, comprising: obtaining an image of a CCTV screen including the subject by a CCTV; and measuring a real size of a subject on a CCTV screen using a pre-stored 3D environment model. Here, the pre-stored 3D environment model is a model mapped to the CCTV screen.

일 실시예에서, 상기 3D 환경 모델은, 상기 CCTV 화면에 포착된 화면 공간의 실측 정보에 기초하여 상기 화면 공간을 3차원 렌더링하여 생성될 수도 있다. 또한, 상기 3D 환경 모델은 상기 CCTV에 대응한 가상 카메라를 포함할 수도 있다.In one embodiment, the 3D environment model may be generated by 3D rendering of the screen space based on actual measurement information of the screen space captured on the CCTV screen. In addition, the 3D environment model may include a virtual camera corresponding to the CCTV.

일 실시예에서, 상기 3D 환경 모델은 상기 가상 카메라의 화면에 포착된 (2차원) 접지면과 상기 3차원 가상 공간 상에 구현된 (3차원) 접지면에 기초해 상기 가상 카메라의 화면과 상기 3D 환경 모델의 뷰를 정합하여 상기 CCTV 화면에 매핑될 수도 있다.In one embodiment, the 3D environment model is based on a (2-dimensional) ground plane captured on the screen of the virtual camera and a (3-dimensional) ground plane implemented on the 3-dimensional virtual space. The view of the 3D environment model may be matched and mapped to the CCTV screen.

일 실시예에서, 상기 3D 환경 모델은, 다음의 수학식을 통해 가상 카메라 화면에 정합되고, In one embodiment, the 3D environment model is matched to the virtual camera screen through the following equation,

[수학식] [mathematical expression]

Figure 112020079979412-pat00002
Figure 112020079979412-pat00002

여기서, {Ψi, λi}는 삼차원 모델 공간 상의 i번째 투사된 점의 위치와 가상 카메라 영상의 2차원 화면 상의 i번째 점의 위치를 각각 나타내고, dk는 카메라 왜곡(k)을 고려하여 3차원 공간의 점을 카메라 2차원 공간으로 투사하고 다른 2차원 공간의 점과의 거리를 계산하는 함수로서, CCTV의 사양에 기초하고, R 및 t는 가상 카메라의 3차원 공간 상의 각도 및 위치를 각각 나타낼 수도 있다. Here, {Ψi, λi} represents the position of the ith projected point on the 3D model space and the position of the ith point on the 2D screen of the virtual camera image, respectively, and dk is the 3D space considering the camera distortion (k). As a function that projects the point of the camera into the 2D space of the camera and calculates the distance to the point of the other 2D space, based on the specifications of CCTV, R and t may represent the angle and position of the virtual camera in the 3D space, respectively have.

일 실시예에서, 상기 CCTV 화면의 피사체의 실제 크기를 측정하는 단계는, 객체가 탐지된 CCTV 화면에 매핑된 3D 환경 모델 상의 3차원 가상 위치에서의 픽셀 크기의 값에 매핑된 실제 크기 값을 검색하는 단계 및 검색된 실제 크기 값을 상기 객체의 실제 크기로 결정하는 단계를 포함할 수도 있다. 여기서, 상기 3차원 가상 위치는 상기 탐지된 객체의 CCTV 화면 내 위치에 대응하는 매핑된 3D 환경 모델 상의 위치이다. In one embodiment, the step of measuring the actual size of the subject of the CCTV screen is to search for an actual size value mapped to a pixel size value at a 3D virtual location on a 3D environment model mapped to the CCTV screen in which the object is detected. and determining the searched actual size value as the actual size of the object. Here, the 3D virtual location is a location on a mapped 3D environment model corresponding to the location of the detected object in the CCTV screen.

본 발명의 또 다른 일 측면에 따른 컴퓨터 판독가능 기록매체는 컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장할 수도 있다. 상기 프로그램 명령어는 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 상술한 실시예들에 따른 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정하는 방법을 수행하게 한다. A computer readable recording medium according to another aspect of the present invention may be readable by a computing device and may store program instructions operable by the computing device. The program command, when the program command is executed by the processor of the computing device, causes the processor to perform a method of measuring the actual size of an object using the 3D environment model according to the above-described embodiments.

본 발명의 일 측면에 따른 CCTV 관제 시스템은, 실측 기반으로 미리 생성된 3D 환경 모델을 이용하여 정적 피사체에 관한 측정 정보뿐만 아니라, CCTV 화면에 촬영된 동적 피사체에 관한 측정 정보를 산출할 수도 있다. The CCTV control system according to one aspect of the present invention may calculate measurement information about a dynamic subject photographed on a CCTV screen as well as measurement information about a static subject using a 3D environment model generated in advance based on actual measurements.

아울러, CCTV 화면의 2차원 영상을 이용하여 피사체를 측정하므로, 위성 사진 등의 CCTV 화면의 2차원 영상을 이외의 추가 영상이 요구되지 않는다. In addition, since the subject is measured using the two-dimensional image of the CCTV screen, additional images other than the two-dimensional image of the CCTV screen such as satellite photos are not required.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.

본 발명 또는 종래 기술의 실시예의 기술적 해결책을 보다 명확하게 설명하기 위해, 실시예에 대한 설명에서 필요한 도면이 아래에서 간단히 소개된다. 아래의 도면들은 본 명세서의 실시예를 설명하기 목적일 뿐 한정의 목적이 아니라는 것으로 이해되어야 한다. 또한, 설명의 명료성을 위해 아래의 도면들에서 과장, 생략 등 다양한 변형이 적용된 일부 요소들이 도시될 수 있다.
도 1은, 본 발명의 일 실시예에 따른, CCTV 관제 시스템의 개념도이다.
도 2는, 본 발명의 일 실시예에 따른, CCTV 화면과 3D 환경 모델을 매핑한 결과를 도시한 도면이다.
도 3은, 본 발명의 일 실시예에 따른, 매핑된 3D 환경 모델을 통해 CCTV 화면의 피사체의 실측 길이를 산출하는 과정을 설명하기 위한 도면이다.
도 4는, 본 발명의 일 실시예에 따른, 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정하는 방법의 흐름도이다.
도 5는, 본 발명의 일 실시예에 따른, 가상 카메라 화면과 3D 환경 모델을 매핑하는 과정의 흐름도이다.
도 6은, 본 발명의 일 실시예에 따른, CCTV 화면과 3D 환경 모델을 매핑하는 과정의 흐름도이다.
BRIEF DESCRIPTION OF THE DRAWINGS To describe the technical solutions of the embodiments of the present invention or the prior art more clearly, drawings required in the description of the embodiments are briefly introduced below. It should be understood that the drawings below are for the purpose of explaining the embodiments of the present specification and not for limiting purposes. In addition, for clarity of explanation, some elements applied with various modifications, such as exaggeration and omission, may be shown in the drawings below.
1 is a conceptual diagram of a CCTV control system according to an embodiment of the present invention.
2 is a diagram illustrating a result of mapping a CCTV screen and a 3D environment model according to an embodiment of the present invention.
3 is a diagram for explaining a process of calculating a measured length of a subject on a CCTV screen through a mapped 3D environment model according to an embodiment of the present invention.
4 is a flowchart of a method of measuring the actual size of a subject using a 3D environment model according to an embodiment of the present invention.
5 is a flowchart of a process of mapping a virtual camera screen and a 3D environment model according to an embodiment of the present invention.
6 is a flowchart of a process of mapping a CCTV screen and a 3D environment model according to an embodiment of the present invention.

여기서 사용되는 전문 용어는 단지 특정 실시예를 언급하기 위한 것이며, 본 발명을 한정하는 것을 의도하지 않는다. 여기서 사용되는 단수 형태들은 문구들이 이와 명백히 반대의 의미를 나타내지 않는 한 복수 형태들도 포함한다. 명세서에서 사용되는 "포함하는"의 의미는 특정 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분을 구체화하며, 다른 특성, 영역, 정수, 단계, 동작, 요소 및/또는 성분의 존재나 부가를 제외시키는 것은 아니다.The terminology used herein is only for referring to specific embodiments and is not intended to limit the present invention. As used herein, the singular forms also include the plural forms unless the phrases clearly indicate the opposite. The meaning of "comprising" as used herein specifies particular characteristics, regions, integers, steps, operations, elements and/or components, and the presence or absence of other characteristics, regions, integers, steps, operations, elements and/or components. Additions are not excluded.

다르게 정의하지는 않았지만, 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미와 동일한 의미를 가진다. 보통 사용되는 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 가지는 것으로 추가 해석되고, 정의되지 않는 한 이상적이거나 매우 공식적인 의미로 해석되지 않는다.Although not defined differently, all terms including technical terms and scientific terms used herein have the same meaning as commonly understood by those of ordinary skill in the art to which the present invention belongs. Terms defined in commonly used dictionaries are additionally interpreted as having meanings consistent with related technical literature and currently disclosed content, and are not interpreted in ideal or very formal meanings unless defined.

본 명세서에서 피사체의 픽셀 크기는 2차원 화면 상의 피사체의 크기를 픽셀 단위로 표현한 값을 의미한다. In this specification, the pixel size of an object means a value expressing the size of an object on a 2D screen in units of pixels.

본 명세서에서 피사체의 실제 크기는 실제 3차원 공간 상의 피사체의 크기를 통상적으로 사용하는 크기 단위로 표현한 값을 의미한다. 상기 통상적으로 사용하는 크기 단위는 미터(meter) 단위 또는 비-미터 단위를 포함하며, 여기서, 비-미터 단위는 야드(yard), 마일(mile) 단위 등을 포함한다. In this specification, the actual size of an object means a value expressed in a commonly used size unit of the size of an object in an actual 3D space. The commonly used size unit includes a metric unit or a non-metric unit, wherein the non-metric unit includes a yard, a mile unit, and the like.

이하에서, 도면을 참조하여 본 발명의 실시예들에 대하여 상세히 살펴본다.Hereinafter, with reference to the drawings, look at the embodiments of the present invention in detail.

도 1은, 본 발명의 일 실시예에 따른, CCTV 관제 시스템의 개념도이다. 1 is a conceptual diagram of a CCTV control system according to an embodiment of the present invention.

도 1을 참조하면, CCTV 관제 시스템(1)은 하나 이상의 CCTV(100); 객체 검출부(250); 및 실제 크기 측정부(270)를 포함할 수도 있다. Referring to Figure 1, CCTV control system 1 is one or more CCTV (100); object detection unit 250; and an actual size measuring unit 270 .

특정 실시예들에서, CCTV 관제 시스템(1)은 3D 모델링부(210); 및/또는 매핑부(230)를 더 포함할 수도 있다. 다른 특정 실시예들에서, CCTV 관제 시스템(1)은 3D 환경 모델을 저장하는 모델 저장부(미도시)를 더 포함할 수도 있다. 모델 저장부는 미리 매핑된 3D 환경 모델을 CCTV 관제 시스템(1)의 외부로부터 수신하여 저장한다. 이하, 설명의 명료성을 위해서, 3D 환경 모델을 CCTV 화면에 매핑하는 동작이 CCTV 관제 시스템(1)에 의해 수행되는 실시예들로 본 발명을 보다 상세하게 서술한다. In certain embodiments, the CCTV control system 1 includes a 3D modeling unit 210; And/or may further include a mapping unit 230. In other specific embodiments, the CCTV control system 1 may further include a model storage unit (not shown) for storing a 3D environment model. The model storage unit receives and stores the pre-mapped 3D environment model from the outside of the CCTV control system 1. Hereinafter, for clarity of explanation, the present invention will be described in more detail with embodiments in which an operation of mapping a 3D environment model to a CCTV screen is performed by the CCTV control system 1.

실시예들에 따른 CCTV 관제 시스템(1)은 전적으로 하드웨어이거나, 전적으로 소프트웨어이거나, 또는 부분적으로 하드웨어이고 부분적으로 소프트웨어인 측면을 가질 수 있다. 예컨대, 시스템은 데이터 처리 능력이 구비된 하드웨어 및 이를 구동시키기 위한 운용 소프트웨어를 통칭할 수 있다. 본 명세서에서 "부(unit)", “모듈(module)”“장치” 또는 "시스템" 등의 용어는 하드웨어 및 해당 하드웨어에 의해 구동되는 소프트웨어의 조합을 지칭하는 것으로 의도된다. 예를 들어, 하드웨어는 CPU(Central Processing Unit), GPU(Graphic Processing Unit) 또는 다른 프로세서(processor)를 포함하는 데이터 처리 기기일 수 있다. 또한, 소프트웨어는 실행중인 프로세스, 객체(object), 실행파일(executable), 실행 스레드(thread of execution), 프로그램(program) 등을 지칭할 수 있다.The CCTV control system 1 according to embodiments may have aspects that are entirely hardware, entirely software, or partially hardware and partially software. For example, the system may collectively refer to hardware equipped with data processing capability and operating software for driving the hardware. In this specification, terms such as "unit", "module", "device" or "system" are intended to refer to a combination of hardware and software driven by the hardware. For example, the hardware may be a data processing device including a Central Processing Unit (CPU), a Graphic Processing Unit (GPU), or another processor. Also, software may refer to a running process, an object, an executable file, a thread of execution, a program, and the like.

CCTV(100)는 영상을 획득하는 장치이다. CCTV100는 화면 상의 객체를 촬영하여 영상을 획득할 수도 있다. CCTV100는 촬영 범위는 화면으로 표현될 수도 있다.The CCTV 100 is a device for acquiring images. The CCTV100 may acquire images by photographing an object on the screen. In the CCTV100, the shooting range may be expressed on the screen.

일 실시예에서, 상기 CCTV 관제 시스템(1)은 2차원 영상 데이터를 생성하는 하나 이상의 CCTV100를 포함할 수도 있다. In one embodiment, the CCTV control system 1 may include one or more CCTV100 generating two-dimensional image data.

3D 모델링부(210)는 CCTV 화면에 포착되는 공간(이하, “화면 공간”)에 대한 3D 환경 모델을 생성한다. 3D 모델링부(210)는 화면 공간의 실측 정보; 및/또는 화면 공간 상에 위치한 촬영 객체의 실측 정보에 기초하여 화면 공간을 3차원 가상 공간으로 구현한 3D 환경 모델을 생성한다. 상기 촬영 객체는 화면 공간에 배치되는 정적 객체 및/또는 위치 가능한 동적 객체를 포함한다. 여기서, 정적 객체는 일반적으로 장시간 움직이지 않는 객체로서, (예컨대, 도로, 건물 등의) 시설물, (예컨대, 가구 등의) 구조물을 포함할 수도 있다. 동적 객체는 정적 객체가 아닌 객체로서, 예를 들어, 사람, 자동차 등을 포함할 수도 있다. 일부 실시예들에서, 해당 공간에서 기존에 촬영된 CCTV 화면 상에 나타난 이력이 있는 동적 객체들이 3D 환경 모델에 반영될 수도 있다. The 3D modeling unit 210 creates a 3D environment model for a space captured on a CCTV screen (hereinafter, “screen space”). The 3D modeling unit 210 includes actual measurement information of the screen space; and/or a 3D environment model in which the screen space is implemented as a 3D virtual space is generated based on the actual measurement information of the photographing object located on the screen space. The photographing object includes a static object disposed in screen space and/or a positionable dynamic object. Here, the static object is an object that generally does not move for a long time, and may include facilities (eg, roads, buildings, etc.) and structures (eg, furniture). A dynamic object is an object that is not a static object and may include, for example, a person or a car. In some embodiments, dynamic objects that have a history of appearing on a CCTV screen previously recorded in a corresponding space may be reflected in a 3D environment model.

3D 모델링부(210)는 상기 공간이 건물인 경우 BIM(Building information modeling) 정보 등과 같은 공간의 실측 정보에 기초하여 건물 공간에 대한 3D 환경 모델을 생성한다. When the space is a building, the 3D modeling unit 210 creates a 3D environment model for the building space based on actual measurement information of the space, such as BIM (Building Information Modeling) information.

3D 모델링부(210)는 상기 공간이 건물 외부인 경우 GIS(Geographic information system) 정보 등과 같은 외부의 실측 정보에 기초하여 건물 공간에 대한 3D 환경 모델을 생성한다. When the space is outside the building, the 3D modeling unit 210 creates a 3D environment model for the building space based on external actual measurement information such as Geographic Information System (GIS) information.

3D 환경 모델은 실측 정보에 기초하여 해당 공간을 삼차원으로 렌더링한 구조를 포함한다. 또한, 3D 환경 모델은 해당 공간에 관한 정보를 더 포함할 수도 있다. 상기 공간에 관한 정보는, 예를 들어, 실측 정보, 메타 데이터를 포함한다. 상기 메타 데이터는 배경, 객체의 식별 데이터를 포함할 수도 있다. The 3D environment model includes a structure obtained by rendering a corresponding space in three dimensions based on actual measurement information. Also, the 3D environment model may further include information about a corresponding space. The information about the space includes, for example, actual measurement information and meta data. The meta data may include background and object identification data.

실측 정보에 기초하여 3D 모델을 생성하는 3D 모델링 과정은 다양한 선행기술에 의해 수행될 수도 있다. 예를 들어, 한국 특허출원(특허공개공보 제10-2008-0111991호 (2008.12.14.))에 의해 공개된 3D 모델링 과정을 통해 화면 공간을 삼차원 구조로 모델링한 3D 환경 모델을 생성할 수도 있다. A 3D modeling process of generating a 3D model based on actually measured information may be performed by various prior arts. For example, through a 3D modeling process disclosed by Korean Patent Application (Patent Publication No. 10-2008-0111991 (2008.12.14.)), a 3D environment model modeling a screen space in a three-dimensional structure may be created. .

3D 모델링부(210)에 의해 생성된 3D 환경 모델은 실측 정보에 기반하므로, 3D 환경 모델 상에 위치한 객체의 공간 크기로부터 객체의 실제 크기를 산출할 수도 있다. 3D 환경 모델 상에 위치한 객체의 공간 크기에 대응한 실제 크기를 결정함으로써 객체의 실제 크기가 산출된다. Since the 3D environment model created by the 3D modeling unit 210 is based on actual measurement information, the actual size of the object may be calculated from the spatial size of the object located on the 3D environment model. The actual size of the object is calculated by determining the actual size corresponding to the spatial size of the object located on the 3D environment model.

또한, 3D 모델링부(210)는 상기 CCTV 관제 시스템(1)에 포함된 하나 이상의 CCTV100에 대응한 가상 카메라를 3D 환경 모델 상에 생성한다. 3D 모델링부(210)에 의해 실제 환경에 설치된 CCTV100에 대응한 가상 카메라가 3차원 가상 공간 상에 모델링된다. In addition, the 3D modeling unit 210 creates a virtual camera corresponding to one or more CCTV100 included in the CCTV control system 1 on a 3D environment model. A virtual camera corresponding to the CCTV100 installed in the real environment is modeled on a 3D virtual space by the 3D modeling unit 210 .

상기 가상 카메라는 CCTV100와 동일한 촬영범위, 즉 동일한 화면을 갖도록 3D 환경 모델 상에 배치된다. 상기 CCTV 관제 시스템(1)은 가상 카메라의 촬영 범위를 이루는 화면을 획득할 수도 있다. 예를 들어, CCTV 관제 시스템(1)은 3차원 가상 공간의 일부가 표현된 가상 카메라 화면의 영상 데이터를 획득할 수도 있다. 상기 가상 카메라에 의해 촬영된 카메라 화면은 CCTV(100)의 화면과 동일하다. The virtual camera is disposed on the 3D environment model to have the same shooting range as the CCTV100, that is, the same screen. The CCTV control system 1 may obtain a screen forming a shooting range of a virtual camera. For example, the CCTV control system 1 may acquire image data of a virtual camera screen in which a part of a 3D virtual space is expressed. The camera screen captured by the virtual camera is the same as that of the CCTV 100.

일 실시예에서, CCTV 관제 시스템(1)은 가상 카메라를 통해 3D 환경 모델의 뷰 영상을 CCTV100의 화면으로 결정할 수도 있다.In one embodiment, the CCTV control system 1 may determine a view image of a 3D environment model as a screen of the CCTV100 through a virtual camera.

매핑부(230)는 3D 환경 모델을 생성하는데 사용된 CCTV 화면을 이용하여 CCTV 화면과 3D 환경 모델을 매핑한다. The mapping unit 230 maps the CCTV screen and the 3D environment model using the CCTV screen used to generate the 3D environment model.

일 실시예에서, 매핑부(230)는 3D 환경 모델의 뷰(view)를 CCTV 화면에 정합하여 CCTV 화면의 2차원 픽셀 크기를 3D 환경 모델의 3차원 실제 크기와 매핑한다. 상기 3D 환경 모델의 뷰는 가상 카메라를 기준으로 3D 환경 모델을 포착한 영상으로 구현될 수도 있어, 가상 카메라의 화면에 대응한다. In one embodiment, the mapping unit 230 maps the 2D pixel size of the CCTV screen to the 3D actual size of the 3D environment model by matching the view of the 3D environment model to the CCTV screen. The view of the 3D environment model may be implemented as an image capturing the 3D environment model based on a virtual camera, and thus corresponds to a screen of the virtual camera.

3D 환경 모델을 생성하는데 사용된 CCTV 화면이 매핑에 사용되므로, CCTV 화면에 나타난 객체는 3D 환경 모델에 이미 구현된 상태이다. 또한, CCTV 화면은 가상 카메라 화면과 일치한 상태이다. Since the CCTV screen used to create the 3D environment model is used for mapping, the objects appearing on the CCTV screen are already implemented in the 3D environment model. In addition, the CCTV screen matches the virtual camera screen.

매핑부(230)는 가상 카메라 화면에 포착된 2차원 접지면과 3D 환경 모델의 3차원 가상 공간 상에 구현된 3차원 접지면에 기초하여 3D 환경 모델의 뷰와 가상 카메라 화면을 정합(alignment)한다. 가상 카메라 화면은 CCTV 화면과 일치하므로, 결국 3D 환경 모델의 뷰와 가상 카메라 화면이 정합된다. The mapping unit 230 aligns the view of the 3D environment model and the virtual camera screen based on the 2D ground plane captured on the virtual camera screen and the 3D ground plane implemented in the 3D virtual space of the 3D environment model. do. Since the virtual camera screen matches the CCTV screen, the view of the 3D environment model and the virtual camera screen are eventually matched.

매핑부(230)는 3D 환경 모델의 접지면에 대응한 2차원 또는 3차원 영역을 검출할 수도 있다. The mapping unit 230 may detect a 2D or 3D area corresponding to the ground plane of the 3D environment model.

매핑부(230)는 3차원 공간의 임의의 점(Ψ)을 가상 카메라의 2차원 화면의 공간 상으로 투사할 수도 있다. 상기 임의의 점이 가상 카메라의 설치 위치이면, 투사는 3차원 공간 상에서 가상 카메라의 위치(t)와 각도(R)에 기초하여 수행된다. 투사된 뷰는 가상 카메라 화면으로 구현될 수도 있다. The mapping unit 230 may project an arbitrary point Ψ in the 3D space onto the space of the 2D screen of the virtual camera. If the arbitrary point is the installation position of the virtual camera, projection is performed based on the position (t) and angle (R) of the virtual camera in the 3D space. The projected view may be implemented as a virtual camera screen.

이와 같이, 가상 카메라 화면은 3D 환경 모델의 삼차원 공간에서 가상 카메라의 설치 지점으로부터 가상 카메라의 촬영 범위로 이루어진 특정한 뷰를 나타낸 것이므로, 매핑부(230)는 가상 카메라 화면의 접지면의 2차원 영역을 검출할 수도 있다. As such, since the virtual camera screen represents a specific view consisting of the shooting range of the virtual camera from the installation point of the virtual camera in the three-dimensional space of the 3D environment model, the mapping unit 230 maps the two-dimensional area of the ground plane of the virtual camera screen to can also be detected.

그러면 CCTV 화면의 2차원 지점 간의 픽셀 길이와 상기 2차원 지점에 대응하는, 가상 공간 상의 3차원 지점 간의 공간 길이가 매핑된다. 매핑은 2차원 픽셀의 개별 위치 및 2차원 픽셀 간의 거리에 기초한다. 픽셀 간의 거리가 동일하더라도, 카메라의 왜곡에 따라 삼차원 공간 거리가 상이해질 수도 있기 때문이다. Then, pixel lengths between 2D points on the CCTV screen and space lengths between 3D points on the virtual space corresponding to the 2D points are mapped. Mapping is based on individual positions of 2D pixels and distances between 2D pixels. This is because, even if the distance between pixels is the same, the 3D spatial distance may be different depending on the distortion of the camera.

이러한 매핑 동작을 통해, CCTV 화면의 픽셀 길이 및 상기 픽셀 길이를 형성하는 2차원 지점의 정보에 기초하여 3D 환경 모델 상의 공간 길이가 획득될 수도 있다. Through this mapping operation, the spatial length on the 3D environment model may be obtained based on the information of the pixel length of the CCTV screen and the 2D point forming the pixel length.

결국, CCTV 관제 시스템(1)은 매핑된 3D 환경 모델을 이용하여 공간 길이가 나타내는 3차원 객체의 실제 크기에 관한 정보를 획득할 수도 있다. As a result, the CCTV control system 1 may obtain information about the actual size of the 3D object represented by the space length using the mapped 3D environment model.

또한, 매핑부(230)는 투사된 3차원 공간 상의 점(Ψ)과 가상 카메라 화면의 2차원 공간 상의 점(λ)의 거리를 최소화할 수도 있다. 그러면, 가상 카메라 화면과 3D 환경 모델의 뷰가 보다 정확하게 정합된다. Also, the mapping unit 230 may minimize the distance between the projected point Ψ on the 3D space and the point λ on the 2D space of the virtual camera screen. Then, the virtual camera screen and the view of the 3D environment model are more accurately matched.

일 실시예에서, 매핑부(230)는 다음의 수학식을 통해 가상 카메라의 화면과 3D 환경 모델의 뷰를 정합할 수도 있다. In one embodiment, the mapping unit 230 may match the screen of the virtual camera and the view of the 3D environment model through the following equation.

Figure 112020079979412-pat00003
Figure 112020079979412-pat00003

여기서, {Ψi, λi}는 삼차원 모델 공간 상의 i번째 점의 위치와 가상 카메라 영상의 2차원 화면 상의 i번째 점의 위치를 각각 나타낸다. R, t는 해당 카메라의 3차원 공간 상의 각도 및 위치를 각각 나타낸다. dk 는 카메라 왜곡(k)을 고려하여 3차원 공간의 점을 카메라 2차원 공간으로 투사하고 다른 2차원 공간의 점과의 거리를 계산하는 함수를 의미한다. 이 함수(dk)는 CCTV(100)의 사양에 기초하여 설정된다.Here, {Ψi, λi} represents the position of the i-th point on the 3D model space and the position of the i-th point on the 2D screen of the virtual camera image, respectively. R and t represent the angle and position of the corresponding camera in 3D space, respectively. dk refers to a function that projects a point in a 3D space into a camera 2D space considering camera distortion (k) and calculates a distance to a point in another 2D space. This function dk is set based on the specifications of the CCTV 100.

매핑부(230)는 n개(n>1 이상의 자연수)의 대응점을 이용하여 가상 카메라 화면과 3D 환경 모델의 뷰를 정합할 수도 있다. 매핑부(230)는, 예를 들어, 4개의 점(Ψi, λi, 여기서 i={1, 2, 3, 4})을 이용할 수도 있으나, 이에 제한되진 않는다. The mapping unit 230 may match the view of the virtual camera screen and the 3D environment model using n (n>1 or more natural numbers) correspondence points. The mapping unit 230 may use, for example, four points (Ψi, λi, where i = {1, 2, 3, 4}), but is not limited thereto.

일부 실시예들에서, 대응점 정보는 사용자에 의해 입력될 수도 있다. 다른 일부 실시예들에서, 대응점이 자동으로 선택될 수도 있다. In some embodiments, correspondence point information may be input by a user. In some other embodiments, a corresponding point may be automatically selected.

또한, 매핑부(230)는 3D 환경 모델의 객체에 대응한 CCTV 화면의 객체 영역을 결정할 수도 있다. 이로 인해, 3D 환경 모델의 객체의 실제 크기 정보가 CCTV 화면의 객체의 2차원 크기 정보와 매핑된다. Also, the mapping unit 230 may determine an object area of the CCTV screen corresponding to the object of the 3D environment model. Due to this, the actual size information of the object of the 3D environment model is mapped with the 2D size information of the object of the CCTV screen.

이러한 매핑이 완료되면, CCTV 화면의 객체의 2차원 픽셀 크기를 3D 환경 모델의 3차원 실제 크기로 변환할 수도 있다. 예를 들어, CCTV 화면 내 두 픽셀 지점이 선택되면, 두 픽셀 지점의 거리에 매핑되는 실측 거리가 획득된다. When such mapping is completed, the 2D pixel size of the object on the CCTV screen may be converted to the 3D actual size of the 3D environment model. For example, when two pixel points in the CCTV screen are selected, a measured distance mapped to the distance between the two pixel points is obtained.

도 2는, 본 발명의 일 실시예에 따른, CCTV 화면과 3D 환경 모델을 매핑한 결과를 도시한 도면이다. 2 is a diagram illustrating a result of mapping a CCTV screen and a 3D environment model according to an embodiment of the present invention.

도 2를 참조하면, CCTV 화면과 3D 환경 모델의 뷰가 정합된 상태이다. 3D 환경 모델을 생성하기 위해 3D 환경 모델 상의 객체의 실측 정보가 이미 획득되었다. 또한, 3D 환경 모델을 생성하기 위해 CCTV 화면의 객체의 위치, 크기가 검출되었다. 상기 객체의 위치, 크기는 CCTV 화면을 이루는 픽셀 단위로 표현될 수도 있다. Referring to FIG. 2 , the CCTV screen and the view of the 3D environment model are matched. In order to create a 3D environment model, ground truth information of an object on a 3D environment model has already been obtained. In addition, the location and size of objects on the CCTV screen were detected to create a 3D environment model. The position and size of the object may be expressed in units of pixels constituting the CCTV screen.

CCTV 관제 시스템(1)은 매핑된 3D 환경 모델을 통해, 객체의 CCTV 화면 내 위치에 대응하는, 상기 객체의 매핑된 3D 환경 모델 상의 3차원 가상 위치를 결정할 수도 있다. 도 2의 사람의 CCTV 화면 내 위치에 대응하는, 렌더링된 사람의 3D 환경 모델 상의 3차원 가상 위치가 결정될 수도 있다. 예를 들어, 도 2의 화면 가운데 위치한 사람의 3D 환경 모델 상의 3차원 가상 위치, 또는 화면 아래에 위치한 사람의 3D 환경 모델 상의 3차원 가상 위치가 결정된다. The CCTV control system 1 may determine a three-dimensional virtual location on the mapped 3D environment model of the object, corresponding to the location of the object in the CCTV screen, through the mapped 3D environment model. A three-dimensional virtual position on the rendered 3D environment model of the person corresponding to the position of the person in the CCTV screen of FIG. 2 may be determined. For example, a 3D virtual position of a person located in the center of the screen of FIG. 2 on the 3D environment model or a 3D virtual position of a person located below the screen on the 3D environment model is determined.

그러면, 도 2의 화면 가운데 위치의 사람의 픽셀 크기와 3D 환경 모델 상의 3차원 가상 위치에서의 실제 크기가 매핑된다. 또한, 도 2의 화면 아래 위치한 사람의 픽셀 크기와 3D 환경 모델 상의 3차원 가상 위치에서의 실제 크기가 매핑된다. Then, the pixel size of the person at the center of the screen in FIG. 2 and the actual size at the 3D virtual location on the 3D environment model are mapped. In addition, the pixel size of the person located under the screen of FIG. 2 and the actual size in the 3D virtual position on the 3D environment model are mapped.

객체 검출부(250)는 CCTV100로부터 촬영 데이터를 수신할 수도 있다. 촬영 데이터는 CCTV 화면의 영상으로 구현될 수도 있다. 상기 객체 검출부(250)가 객체 탐지를 위해 사용하는 CCTV 화면의 영상은 3D 모델링부(210)가 모델링을 위해 사용하는 CCTV 화면의 영상과 동일 또는 상이할 수도 있다. 예를 들어, 3D 모델링부(210)가 사용한 CCTV 화면의 영상은 객체 검출부(250)가 촬영한 CCTV 화면의 영상 이전에 샘플용으로 촬영된 것일 수도 있다. The object detection unit 250 may receive photographing data from the CCTV100. The photographing data may be implemented as an image of a CCTV screen. The image of the CCTV screen used by the object detector 250 for object detection may be the same as or different from the image of the CCTV screen used by the 3D modeling unit 210 for modeling. For example, the image of the CCTV screen used by the 3D modeling unit 210 may be taken as a sample before the image of the CCTV screen captured by the object detector 250.

객체 검출부(250)는 CCTV 영상에 포함된 객체를 탐지한다. 탐지 결과, CCTV 영상 내 객체가 차지한 영역이 획득된다. 객체가 차지한 영역의 CCTV 화면 내 크기, 위치가 객체의 크기, 위치로 사용될 수도 있다. The object detection unit 250 detects an object included in the CCTV image. As a result of the detection, the area occupied by the object in the CCTV image is obtained. The size and position of the area occupied by the object in the CCTV screen may be used as the size and position of the object.

일 실시예에서, 객체 검출부(250)는 기계학습 모델에 CCTV 화면을 적용하여 CCTV 화면 내 객체를 탐지할 수도 있다. In one embodiment, the object detection unit 250 may detect an object in the CCTV screen by applying the CCTV screen to the machine learning model.

상기 기계학습 모델은 입력 영상에서 특징을 추출하는 부분; 및 추출된 특징에 기초하여 입력 영상의 부분이 객체인지 아닌지, 또는 특정 객체에 대응하는지를 결정하는 부분를 포함할 수도 있다. 상기 기계학습 모델은, 예를 들어 CNN 네트워크, 또는 이에 기반한 다양한 모델일 수도 있다. The machine learning model includes a feature extraction part from an input image; and a part for determining whether a portion of the input image is an object or corresponds to a specific object based on the extracted feature. The machine learning model may be, for example, a CNN network or various models based thereon.

실제 크기 측정부(270)는 CCTV 화면의 객체의 실제 크기를 산출한다. The actual size measurement unit 270 calculates the actual size of the object on the CCTV screen.

일 실시예에서, 실제 크기 측정부(270)는 CCTV 화면 내 객체 중 일부 또는 전부를 피사체로 선택하고, 피사체의 실제 크기를 산출할 수도 있다. 상기 탐지된 객체는 크기 측정 대상인 피사체를 포함한다.In one embodiment, the actual size measuring unit 270 may select some or all of the objects in the CCTV screen as the subject and calculate the actual size of the subject. The detected object includes a subject that is a size measurement target.

상기 피사체는 사용자 입력에 반응하여 선택될 수도 있다. 예를 들어, CCTV 화면 내에 표현된, 특정 객체의 영역을 지정하는 사용자 입력이 획득되면, 지정된 영역의 객체 자체 및/또는 이에 연관된 복수의 객체가 피사체로 선택될 수도 있다. 여기서, 연관된 객체는 상기 특정 객체와 동일 또는 유사한 객체이다. 유사한 객체는 하나 이상의 속성을 공유하는 객체로서, 예를 들어 동일한 유형(또는 클래스)에 속하는 객체를 나타낸다. The subject may be selected in response to a user input. For example, when a user input designating an area of a specific object expressed in a CCTV screen is obtained, the object itself in the designated area and/or a plurality of objects related thereto may be selected as the subject. Here, the associated object is an object identical to or similar to the specific object. Similar objects are objects that share one or more properties, eg, objects belonging to the same type (or class).

상기 피사체는 미리 설정된 피사체 룰에 의해 선택될 수도 있다. 예를 들어, 상기 피사체 룰이 특정 객체의 정보를 포함한 경우, 피사체 룰의 특정 객체가 피사체로 자동 선택된다. 또는 상기 피사체 룰이 특정 속성(예컨대, 객체군)의 정보를 포함한 경우, 피사체 룰의 객체군에 속하는 하나 이상의 객체가 피사체로 자동 선택된다. The subject may be selected according to a preset subject rule. For example, when the subject rule includes information on a specific object, the specific object of the subject rule is automatically selected as the subject. Alternatively, when the subject rule includes information of a specific attribute (eg, object group), one or more objects belonging to the object group of the subject rule are automatically selected as the subject.

실제 크기 측정부(270)는 CCTV 화면 내 피사체의 픽셀 크기를 산출한다. The actual size measuring unit 270 calculates the pixel size of the subject in the CCTV screen.

일 실시예에서, 피사체의 픽셀 크기는 점지면을 기준으로 측정될 수도 있다. CCTV 화면 내 피사체의 2차원 픽셀 크기는 피사체가 차지하는 영역에서 접지면으로부터의 픽셀 길이로 측정될 수도 있다. 접지면으로부터의 픽셀 크기는 피사체의 높이로 획득될 수도 있다. In an embodiment, a pixel size of a subject may be measured based on a point plane. The 2D pixel size of a subject in a CCTV screen may be measured as a pixel length from a ground plane in an area occupied by the subject. The pixel size from the ground plane may be obtained as the height of the subject.

그러나, 피사체의 픽셀 크기는 이에 제한되진 않는다. 예를 들어, 피사체의 너비에 대응하는 픽셀 크기가 측정될 수도 있다. However, the pixel size of the subject is not limited thereto. For example, a pixel size corresponding to a width of a subject may be measured.

실제 크기 측정부(270)는 매핑한 3D 환경 모델을 이용하여 CCTV 화면의 피사체의 픽셀 크기를 피사체의 실제 크기로 변환한다. The actual size measurement unit 270 converts the pixel size of the subject on the CCTV screen into the actual size of the subject using the mapped 3D environment model.

실제 크기 측정부(270)는 피사체의 CCTV 화면 내 위치 및 픽셀 크기에 기초하여 매핑한 실제 크기 값을 산출함으로써, CCTV 화면의 피사체의 실제 크기로 측정할 수도 있다. The actual size measurement unit 270 may measure the actual size of the subject on the CCTV screen by calculating a real size value mapped based on the location and pixel size of the subject in the CCTV screen.

실제 크기를 측정하는 대상인 피사체를 촬영한 CCTV 화면이 이미 3D 환경 모델에 매핑되었기 때문에, 실제 크기 측정부(270)는 CCTV 화면 내 객체 위치에 대응하는 3D 환경 모델의 3차원 공간 상의 객체에 대해서 해당 객체의 픽셀 크기를 실제 크기로 변환할 수도 있다. Since the CCTV screen photographing the subject, which is the object of measuring the actual size, has already been mapped to the 3D environment model, the actual size measuring unit 270 corresponds to the object on the 3D space of the 3D environment model corresponding to the object position in the CCTV screen. You can also convert an object's pixel size to its actual size.

도 3은, 본 발명의 일 실시예에 따른, 픽셀 길이로부터 실제 크기를 측정한 결과를 도시한 도면이다. 3 is a diagram illustrating a result of measuring an actual size from a pixel length according to an embodiment of the present invention.

도 3을 참조하면, 실제 크기 측정부(270)는 피사체의 접지면으로부터의 픽셀 길이를 피사체의 픽셀 크기로 측정한다. 실제 크기 측정부는 미리 매핑된 3D 환경 모델, 즉 뷰가 상기 피사체를 촬영한 CCTV100의 CCTV 화면에 매핑된 3차원 렌더링 모델을 이용하여 상기 피사체의 픽셀 크기를 실제 크기로 변환한다. Referring to FIG. 3 , the actual size measuring unit 270 measures a pixel length from the ground plane of the subject as the pixel size of the subject. The actual size measurement unit converts the pixel size of the subject into the actual size using a pre-mapped 3D environment model, that is, a 3D rendering model in which the view is mapped to the CCTV screen of the CCTV100 in which the subject is photographed.

예를 들어, 도 3에 도시된 바와 같이, 실제 크기 측정부(270)는 사람의 접지면으로부터의 픽셀 길이를 측정하여 사람의 픽셀 크기를 획득한다. 실제 크기 측정부(270)는 사람의 CCTV 화면 내 위치에 대응하는 매핑된 3D 환경 모델 상의 3차원 가상 위치에서 측정된 픽셀 크기의 값에 매핑한 실제 크기 값을 검색한다. 실제 크기 측정부(270)는 검색된 실제 크기 값을 상기 사람의 실제 크기 값으로 결정한다. For example, as shown in FIG. 3 , the actual size measurement unit 270 obtains a pixel size of a person by measuring a pixel length from the ground plane of the person. The actual size measurement unit 270 searches for an actual size value mapped to a value of a pixel size measured at a 3D virtual location on a mapped 3D environment model corresponding to a location in a CCTV screen of a person. The actual size measurement unit 270 determines the retrieved actual size value as the actual size value of the person.

피사체의 실제 크기가 단순히 화면 내 픽셀 크기에만 의존하지 않고, 화면 내 객체의 위치를 더 고려하기 때문에, 도 3의 화면 가운데 사람과 화면 아래의 사람의 픽셀 크기 값이 동일하더라도, 실제 크기 값은 서로 상이할 수도 있다. 반대로, 도 3의 화면 가운데 사람과 화면 아래의 사람의 픽셀 크기 값이 상이하더라도, 실제 크기 값이 서로 동일할 수도 있다. Since the actual size of the subject does not simply depend on the pixel size within the screen, but rather considers the position of the object within the screen, even if the pixel size values of the person in the middle of the screen and the person below the screen in FIG. 3 are the same, the actual size values are different from each other. may be different. Conversely, even if the pixel size values of the person in the middle of the screen and the person below the screen in FIG. 3 are different, the actual size values may be the same.

상기 CCTV 관제 시스템(1)이 본 명세서에 서술되지 않은 다른 구성요소를 포함할 수도 있다는 것이 통상의 기술자에게 명백할 것이다. 예를 들어, 상기 CCTV 관제 시스템(1)은 네트워크 인터페이스, 데이터 엔트리를 위한 입력 장치, 데이터를 저장하는 메모리, 및 디스플레이, 인쇄 또는 다른 데이터 표시를 위한 출력 장치를 포함하는, 본 명세서에 서술된 동작에 필요한 다른 하드웨어 요소를 포함할 수도 있다.It will be clear to those skilled in the art that the CCTV control system 1 may include other components not described herein. For example, the CCTV control system 1 includes a network interface, an input device for data entry, a memory for storing data, and an output device for display, printing or other presentation of data, including operations described herein. It may also include other hardware elements required for

본 발명의 다른 일 측면에 따른 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정하는 방법은 프로세서를 포함한 컴퓨팅 장치에 의해 수행된다. 상기 프로세서를 포함한 컴퓨팅 장치는 컴퓨터, 예를 들어 상기 CCTV 관제 시스템(1)에 의해 수행될 수도 있다. A method of measuring the actual size of a subject using a 3D environment model according to another aspect of the present invention is performed by a computing device including a processor. The computing device including the processor may be performed by a computer, for example, the CCTV control system 1.

도 4는, 본 발명의 일 실시예에 따른, 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정하는 방법의 흐름도이다. 4 is a flowchart of a method of measuring the actual size of a subject using a 3D environment model according to an embodiment of the present invention.

도 4를 참조하면, 상기 방법은 CCTV(100)에 의해 피사체를 포함한 CCTV 화면의 영상을 획득하는 단계(S430;) 및 미리 매핑된 3D 환경 모델을 이용하여 피사체의 실제 크기를 산출하는 단계(S450)를 포함한다. 특정 실시예들에서, 상기 방법은 CCTV 화면과 3D 환경 모델을 매핑하는 단계S410를 더 포함할 수도 있다. 상기 단계(S410)는 상기 단계(S450) 이전에 수행된다. Referring to FIG. 4, the method includes acquiring an image of a CCTV screen including a subject by the CCTV 100 (S430;) and calculating the actual size of the subject using a pre-mapped 3D environment model (S450). ). In certain embodiments, the method may further include step S410 of mapping the CCTV screen and the 3D environment model. The step S410 is performed before the step S450.

도 4는, 본 발명의 일 실시예에 따른, CCTV 화면과 3D 환경 모델을 매핑하는 과정의 흐름도이다. 4 is a flowchart of a process of mapping a CCTV screen and a 3D environment model according to an embodiment of the present invention.

도 4를 참조하면, 상기 단계(S410)는: 3D 환경 모델을 생성하는 단계(S411)를 포함한다. Referring to FIG. 4 , the step S410 includes: generating a 3D environment model (S411).

상기 단계(S411)에서 CCTV 화면의 화면 공간에 관한 실측 정보에 기초하여 상기 화면 공간에 대한 3D 환경 모델이 생성된다. 실측 기반으로 생성되었기 때문에, 3D 환경 모델 상의 일 지점에서 다른 일 지점까지의 길이에 대응한 실제 크기가 획득될 수도 있다. In step S411, a 3D environment model for the screen space of the CCTV screen is created based on the actually measured information on the screen space of the CCTV screen. Since it is created based on actual measurements, the actual size corresponding to the length from one point to another point on the 3D environment model may be obtained.

상기 단계(S410)는 가상 카메라를 생성하는 단계(S413)를 포함한다. 상기 단계(S413)에서 실제 설치된 CCTV(100)에 대응하는 가상 카메라가 3D 환경 모델 상에 생성된다. 상기 가상 카메라에 의해 촬영된 화면 영상은 대응한 CCTV(100)에 의해 촬영된 화면 영상과 동일하게 된다. 따라서 가상 카메라의 화면을 다른 화면과 정합한 결과는 CCTV(100)의 화면을 정합한 결과를 나타낸다. The step (S410) includes a step (S413) of creating a virtual camera. In the step S413, a virtual camera corresponding to the CCTV 100 actually installed is created on the 3D environment model. The screen image photographed by the virtual camera is the same as the screen image photographed by the corresponding CCTV (100). Therefore, the result of matching the screen of the virtual camera with another screen represents the result of matching the screen of the CCTV 100 .

상기 단계(S410)는 CCTV 화면과 3D 환경 모델을 매핑하는 단계(S415)를 포함한다. The step (S410) includes a step (S415) of mapping the CCTV screen and the 3D environment model.

일 실시예에서, 상기 단계S415는 상기 단계413의 가상 카메라 화면과 단계(S411)의 3D 환경 모델의 뷰를 정합하는 단계를 포함한다. 가상 카메라의 2차원 화면과 3D 환경 모델의 2차원 뷰가 정합되면, CCTV 화면의 2차원 화면과 3D 환경 모델의 3차원 구조가 정합된다. In one embodiment, the step S415 includes matching the virtual camera screen of the step 413 and the view of the 3D environment model of the step S411. When the 2D screen of the virtual camera and the 2D view of the 3D environment model are matched, the 2D screen of the CCTV screen and the 3D structure of the 3D environment model are matched.

일 실시예에서, 상기 가상 카메라의 2차원 화면과 3D 환경 모델의 3차원 구조의 정합은 상기 수학식 1을 통해 수행될 수도 있다(S415). In one embodiment, the matching of the 2D screen of the virtual camera and the 3D structure of the 3D environment model may be performed through Equation 1 above (S415).

이와 같이 3D 환경 모델이 가상 카메라 화면에 정합되면, CCTV 화면 내 2차원 지점에 대응하는 3D 환경 모델 상의 3차원 지점이 결정된다. 또한, CCTV 화면 내 위치한 객체에 대응하는 3D 환경 모델 상에 렌더링된 객체의 3차원 크기가 CCTV 화면의 객체의 실제 크기로 결정된다. In this way, when the 3D environment model is matched with the virtual camera screen, a 3D point on the 3D environment model corresponding to the 2D point in the CCTV screen is determined. In addition, the 3D size of the object rendered on the 3D environment model corresponding to the object located in the CCTV screen is determined as the actual size of the object on the CCTV screen.

도 5는, 본 발명의 일 실시예에 따른, CCTV 화면과 3D 환경 모델을 매핑하는 과정의 흐름도이다. 5 is a flowchart of a process of mapping a CCTV screen and a 3D environment model according to an embodiment of the present invention.

도 5를 참조하면, 상기 단계(S450)는: 단계(S430)의 CCTV 화면 내 객체를 탐지하는 단계(S451)를 포함한다. Referring to FIG. 5 , the step S450 includes: detecting an object in the CCTV screen of step S430 (S451).

상기 단계(S451)에서 CCTV 화면 내 객체가 탐지된다. 객체의 탐지로 인해 실제 크기를 산출할 대상인 피사체가 획득될 수도 있다. In the above step (S451), an object in the CCTV screen is detected. Due to object detection, a subject whose actual size is to be calculated may be acquired.

일 실시예에서, 상기 단계(S430)의 CCTV 화면의 영상을 미리 학습된 기계 학습 모델에 적용하여 CCTV 화면 내 객체를 탐지할 수도 있다. In one embodiment, the image of the CCTV screen in step S430 may be applied to a pre-learned machine learning model to detect objects in the CCTV screen.

상기 단계(S450)는: 피사체의 2차원 화면 상의 픽셀 길이를 측정하는 단계(S453)를 포함한다. 단계(S451)에서 객체가 탐지되면, CCTV 화면 내에서 탐지된 객체가 차지하는 영역이 결정되고, 해당 영역의 길이가 피사체의 픽셀 길이로 측정될 수도 있다. The step (S450) includes: measuring a pixel length of a subject on a 2D screen (S453). When an object is detected in step S451, an area occupied by the detected object within the CCTV screen is determined, and the length of the area may be measured as the pixel length of the subject.

일 실시예에서, 피사체의 픽셀 길이는 점지면을 기준으로 측정될 수도 있다. In one embodiment, a pixel length of an object may be measured based on a point plane.

일부 실시예에서, 상기 단계(S450)는, 도 5에 도시된 바와 같이, 탐지된 객체 중에서 일부 또는 전부를 피사체로 선택하는 단계(S452)를 더 포함할 수도 있다. In some embodiments, as shown in FIG. 5 , the step S450 may further include selecting some or all of the detected objects as subjects (S452).

상기 단계(S450)는 매핑된 3D 환경 모델을 이용해 CCTV 화면 상에 표현된 피사체의 실제 크기를 산출하는 단계(S455)를 포함한다. The step (S450) includes a step (S455) of calculating the actual size of the subject represented on the CCTV screen using the mapped 3D environment model.

일 실시예에서, 상기 단계(S455)는: 단계S453의 피사체의 픽셀 크기를 3D 환경 모델 상의 3차원 크기로 변환하는 단계를 포함한다. 매핑된 3D 환경 모델을 통해 객체의 CCTV 화면 내 2차원 위치에 대응하는 3D 환경 모델 상의 3차원 위치가 결정된다. 또한, 매핑된 3D 환경 모델을 통해 해당 2차원 위치에서의 픽셀 크기에 매핑되는 3차원 실제 크기가 검색(retrieving)된다. In one embodiment, the step S455 includes: converting the pixel size of the subject in step S453 into a three-dimensional size on the 3D environment model. A 3D location on the 3D environment model corresponding to the 2D location of the object in the CCTV screen is determined through the mapped 3D environment model. In addition, a 3D actual size mapped to a pixel size at a corresponding 2D location is retrieved through the mapped 3D environment model.

결국, 단계(s453)의 픽셀 길이를 갖는 피사체에 대한 3차원 실제 크기가 획득된다(S455). As a result, the 3D actual size of the subject having the pixel length of step S453 is obtained (S455).

이상에서 설명한 실시예들에 따른 CCTV 관측 시스템(1) 및 3D 환경 모델을 이용하여 피사체의 실제 크기를 측정하는 방법에 의한 동작은 적어도 부분적으로 컴퓨터 프로그램으로 구현되어, 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 예를 들어, 프로그램 코드를 포함하는 컴퓨터-판독가능 매체로 구성되는 프로그램 제품과 함께 구현되고, 이는 기술된 임의의 또는 모든 단계, 동작, 또는 과정을 수행하기 위한 프로세서에 의해 실행될 수 있다. The operation by the method of measuring the actual size of the subject using the CCTV observation system 1 according to the embodiments described above and the 3D environment model is at least partially implemented as a computer program and stored in a computer-readable recording medium. can be recorded. For example, implemented together with a program product consisting of a computer-readable medium containing program code, which may be executed by a processor to perform any or all steps, operations, or processes described.

상기 컴퓨터는 데스크탑 컴퓨터, 랩탑 컴퓨터, 노트북, 스마트 폰, 또는 이와 유사한 것과 같은 컴퓨팅 장치일 수도 있고 통합될 수도 있는 임의의 장치일 수 있다. 컴퓨터는 하나 이상의 대체적이고 특별한 목적의 프로세서, 메모리, 저장공간, 및 네트워킹 구성요소(무선 또는 유선 중 어느 하나)를 가지는 장치다. 상기 컴퓨터는 예를 들어, 마이크로소프트의 윈도우와 호환되는 운영 체제, 애플 OS X 또는 iOS, 리눅스 배포판(Linux distribution), 또는 구글의 안드로이드 OS와 같은 운영체제(operating system)를 실행할 수 있다.The computer may be any device that may be integrated into or may be a computing device such as a desktop computer, laptop computer, notebook, smart phone, or the like. A computer is a device that has one or more alternative and special purpose processors, memory, storage, and networking components (whether wireless or wired). The computer may run, for example, an operating system compatible with Microsoft's Windows, Apple's OS X or iOS, a Linux distribution, or an operating system such as Google's Android OS.

상기 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록신원확인 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장신원확인 장치 등을 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인 프로그램, 코드 및 코드 세그먼트(segment)들은 본 실시예가 속하는 기술 분야의 통상의 기술자에 의해 용이하게 이해될 수 있을 것이다. The computer-readable recording medium includes all types of recording and identification devices in which data readable by a computer is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage and identification devices, and the like. In addition, computer-readable recording media may be distributed in computer systems connected through a network, and computer-readable codes may be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing this embodiment can be easily understood by those skilled in the art to which this embodiment belongs.

이상에서 살펴본 본 발명은 도면에 도시된 실시예들을 참고로 하여 설명하였으나 이는 예시적인 것에 불과하며 당해 분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 실시예의 변형이 가능하다는 점을 이해할 것이다. 그러나, 이와 같은 변형은 본 발명의 기술적 보호범위 내에 있다고 보아야 한다. 따라서, 본 발명의 진정한 기술적 보호범위는 첨부된 특허청구범위의 기술적 사상에 의해서 정해져야 할 것이다.The present invention reviewed above has been described with reference to the embodiments shown in the drawings, but this is only exemplary, and those skilled in the art will understand that various modifications and variations of the embodiments are possible therefrom. However, such modifications should be considered within the technical protection scope of the present invention. Therefore, the true technical protection scope of the present invention should be determined by the technical spirit of the appended claims.

Claims (12)

하나 이상의 CCTV가 촬영한 동적으로 움직이는 피사체의 실제 크기를 측정하는 CCTV 관제 시스템에 있어서,
CCTV 화면에 포착된 화면 공간에 관련된 실측 정보에 기초하여 상기 화면 공간을 3차원 가상 공간으로 구현한 3D 환경 모델을 생성하는 3D 모델링부;
상기 3D 환경 모델을 상기 CCTV 화면에 매핑하는 매핑부;
상기 CCTV가 촬영한 CCTV 화면의 영상에서 동적인 객체를 탐지하는 객체 검출부; 및
매핑된 3D 환경 모델을 이용하여 상기 탐지된 동적인 객체에 포함된 피사체의 3차원 실제 환경 상의 실제 크기를 측정하는 실제 크기 측정부;를 포함하고,
상기 매핑부는,
CCTV 화면과 3D 환경 모델을 매핑하기 위해, 가상 카메라의 화면에 포착된 접지면과 상기 3차원 가상 공간 상에 구현된 접지면에 기초하여 상기 가상 카메라의 화면과 상기 3D 환경 모델의 뷰를 정합하는 CCTV 관제 시스템.
In the CCTV control system for measuring the actual size of a dynamically moving subject photographed by one or more CCTVs,
a 3D modeling unit for generating a 3D environment model in which the screen space is implemented as a three-dimensional virtual space based on actually measured information related to the screen space captured on the CCTV screen;
a mapping unit for mapping the 3D environment model to the CCTV screen;
An object detection unit for detecting a dynamic object in the image of the CCTV screen captured by the CCTV; and
A real size measurement unit for measuring a real size of a subject included in the detected dynamic object in a 3D real environment using a mapped 3D environment model;
The mapping unit,
In order to map the CCTV screen and the 3D environment model, based on the ground plane captured on the screen of the virtual camera and the ground plane implemented on the 3D virtual space Matching the screen of the virtual camera and the view of the 3D environment model CCTV control system.
제1항에 있어서, 상기 3D 모델링부는,
상기 하나 이상의 CCTV에 대응한 가상 카메라를 상기 3차원 가상 공간 상에 생성하도록 더 구성되고,
상기 가상 카메라는 대응한 CCTV 화면과 동일한 뷰를 갖는 것을 특징으로 하는 CCTV 관제 시스템.
The method of claim 1, wherein the 3D modeling unit,
It is further configured to generate a virtual camera corresponding to the one or more CCTVs on the three-dimensional virtual space,
The virtual camera is a CCTV control system, characterized in that having the same view as the corresponding CCTV screen.
삭제delete 제2항에 있어서, 상기 매핑부는,
다음의 수학식을 통해 가상 카메라 화면과 3D 환경 모델을 정합하고,
[수학식]
Figure 112020079979412-pat00004

여기서, {Ψi, λi}는 삼차원 모델 공간 상의 i번째 투사된 점의 위치와 가상 카메라 영상의 2차원 화면 상의 i번째 점의 위치를 각각 나타내고, dk는 카메라 왜곡(k)을 고려하여 3차원 공간의 점을 카메라 2차원 공간으로 투사하고 다른 2차원 공간의 점과의 거리를 계산하는 함수로서, CCTV의 사양에 기초하고, R 및 t는 가상 카메라의 3차원 공간 상의 각도 및 위치를 각각 나타내는 것을 특징으로 하는 CCTV 관제 시스템.
The method of claim 2, wherein the mapping unit,
Match the virtual camera screen and the 3D environment model through the following equation,
[mathematical expression]
Figure 112020079979412-pat00004

Here, {Ψi, λi} represents the position of the ith projected point on the 3D model space and the position of the ith point on the 2D screen of the virtual camera image, respectively, and dk is the 3D space considering the camera distortion (k). As a function of projecting a point of into a camera 2-dimensional space and calculating the distance to a point in another 2-dimensional space, based on the specifications of CCTV, R and t represent the angle and position of the virtual camera in 3-dimensional space, respectively Featured CCTV control system.
제1항에 있어서, 상기 객체 검출부는,
입력 영상에서 특징을 추출하고, 추출된 특징에 기초하여 CCTV 화면에 포함된 객체를 탐지하도록 미리 학습된 기계 학습 모델에 상기 CCTV 화면의 영상을 적용하여 상기 객체를 탐지하는 것을 특징으로 하는 CCTV 관제 시스템.
The method of claim 1, wherein the object detection unit,
A CCTV control system characterized by extracting a feature from an input image and detecting the object by applying the image of the CCTV screen to a machine learning model pre-learned to detect the object included in the CCTV screen based on the extracted feature. .
제1항에 있어서, 상기 실제 크기 측정부는,
상기 탐지된 객체의 CCTV 화면 내 위치에 대응하는, 매핑된 3D 환경 모델 상의 3차원 가상 위치에서, 픽셀 크기의 값에 매핑된 실제 크기 값을 검색하고, 그리고
검색된 실제 크기 값을 상기 객체의 실제 크기로 결정하는 것을 특징으로 하는 CCTV 관제 시스템
The method of claim 1, wherein the actual size measuring unit,
Searching for a real size value mapped to a pixel size value in a 3D virtual location on the mapped 3D environment model corresponding to the location of the detected object in the CCTV screen, and
CCTV control system, characterized in that for determining the actual size value retrieved as the actual size of the object
프로세서에 의해 수행되는, 3D 환경 모델을 이용하여 동적으로 움직이는 피사체의 실제 크기를 측정하는 방법에 있어서,
CCTV에 의해 피사체를 포함한 CCTV 화면의 영상을 획득하는 단계; 및
미리 저장된 3D 환경 모델을 이용하여 CCTV 화면의 동적으로 움직이는 피사체의 실제 크기를 측정하는 단계를 포함하며,
상기 미리 저장된 3D 환경 모델은 상기 CCTV 화면에 매핑되고,
상기 3D 환경 모델은
가상 카메라의 화면에 포착된 접지면과 3차원 가상 공간 상에 구현된 접지면에 기초해 상기 가상 카메라의 화면과 상기 3D 환경 모델의 뷰를 정합하여 상기 CCTV 화면에 매핑된 것을 특징으로 하는 방법.
A method for measuring the actual size of a dynamically moving subject using a 3D environment model, performed by a processor, comprising:
Obtaining an image of a CCTV screen including a subject by a CCTV; and
Measuring the actual size of a dynamically moving subject on a CCTV screen using a pre-stored 3D environment model,
The pre-stored 3D environment model is mapped to the CCTV screen,
The 3D environment model is
Based on the ground plane captured on the screen of the virtual camera and the ground plane implemented in the 3D virtual space, the screen of the virtual camera and the view of the 3D environment model are matched and mapped to the CCTV screen.
제7항에 있어서, 상기 3D 환경 모델은,
상기 CCTV 화면에 포착된 화면 공간의 실측 정보에 기초하여 상기 화면 공간을 3차원 렌더링하여 생성된 모델로서, 상기 CCTV에 대응한 가상 카메라를 포함하는 것을 특징으로 하는 방법.
The method of claim 7, wherein the 3D environment model,
A model generated by 3D rendering of the screen space based on actual measurement information of the screen space captured on the CCTV screen, characterized in that it comprises a virtual camera corresponding to the CCTV.
삭제delete 제8항에 있어서, 상기 3D 환경 모델은,
다음의 수학식을 통해 가상 카메라 화면에 정합되고,
[수학식]
Figure 112020079979412-pat00005

여기서, {Ψi, λi}는 삼차원 모델 공간 상의 i번째 투사된 점의 위치와 가상 카메라 영상의 2차원 화면 상의 i번째 점의 위치를 각각 나타내고, dk는 카메라 왜곡(k)을 고려하여 3차원 공간의 점을 카메라 2차원 공간으로 투사하고 다른 2차원 공간의 점과의 거리를 계산하는 함수로서, CCTV의 사양에 기초하고, R 및 t는 가상 카메라의 3차원 공간 상의 각도 및 위치를 각각 나타내는 것을 특징으로 하는 방법.
The method of claim 8, wherein the 3D environment model,
It is matched to the virtual camera screen through the following equation,
[mathematical expression]
Figure 112020079979412-pat00005

Here, {Ψi, λi} represents the position of the ith projected point on the 3D model space and the position of the ith point on the 2D screen of the virtual camera image, respectively, and dk is the 3D space considering the camera distortion (k). As a function of projecting a point of into a camera 2-dimensional space and calculating the distance to a point in another 2-dimensional space, based on the specifications of CCTV, R and t represent the angle and position of the virtual camera in 3-dimensional space, respectively How to characterize.
제8항에 있어서, 상기 CCTV 화면의 동적으로 움직이는 피사체의 실제 크기를 측정하는 단계는,
동적인 객체가 탐지된 CCTV 화면에 매핑된 3D 환경 모델 상의 3차원 가상 위치에서의 픽셀 크기의 값에 매핑된 실제 크기 값을 검색하는 단계; 및
검색된 실제 크기 값을 상기 객체의 실제 크기로 결정하는 단계를 포함하되,
상기 3차원 가상 위치는 탐지된 객체의 CCTV 화면 내 위치에 대응하는 매핑된 3D 환경 모델 상의 가상 위치인 것을 특징으로 하는 방법.
The method of claim 8, wherein the step of measuring the actual size of the dynamically moving subject on the CCTV screen,
Retrieving an actual size value mapped to a pixel size value at a 3D virtual location on a 3D environment model mapped to a CCTV screen in which a dynamic object is detected; and
Determining the retrieved actual size value as the actual size of the object,
Wherein the 3D virtual location is a virtual location on a mapped 3D environment model corresponding to a location of a detected object in a CCTV screen.
컴퓨팅 장치에 의해 판독가능하고, 상기 컴퓨팅 장치에 의해 동작 가능한 프로그램 명령어를 저장하는 컴퓨터 판독가능 기록매체로서, 상기 프로그램 명령어가 상기 컴퓨팅 장치의 프로세서에 의해 실행되는 경우 상기 프로세서가 제7항, 제8항 및 제10항 내지 제11항 중 어느 하나의 항에 따른 3D 환경 모델을 이용하여 동적으로 움직이는 피사체의 실제 크기를 측정하는 방법을 수행하게 하는 컴퓨터 판독가능 기록매체.
A computer-readable recording medium that is readable by a computing device and stores program instructions operable by the computing device, wherein the processor, when the program instructions are executed by a processor of the computing device, A computer readable recording medium for performing a method of measuring a real size of a dynamically moving subject using the 3D environment model according to any one of claims 10 to 11.
KR1020200095071A 2020-07-30 2020-07-30 Cctv control system for being enable to measure real size of subject using 3d environment model KR102473165B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200095071A KR102473165B1 (en) 2020-07-30 2020-07-30 Cctv control system for being enable to measure real size of subject using 3d environment model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200095071A KR102473165B1 (en) 2020-07-30 2020-07-30 Cctv control system for being enable to measure real size of subject using 3d environment model

Publications (2)

Publication Number Publication Date
KR20220015056A KR20220015056A (en) 2022-02-08
KR102473165B1 true KR102473165B1 (en) 2022-12-01

Family

ID=80251598

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200095071A KR102473165B1 (en) 2020-07-30 2020-07-30 Cctv control system for being enable to measure real size of subject using 3d environment model

Country Status (1)

Country Link
KR (1) KR102473165B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230151743A (en) 2022-04-26 2023-11-02 소프트온넷(주) System for CCTV Integrated Monitoring in Metaverse Environment and Driving Method Thereof
KR102595318B1 (en) 2022-06-24 2023-10-26 (주)제로웹 Video control system for easy tracking of floating population

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017203710A1 (en) * 2016-05-27 2017-11-30 楽天株式会社 Three-dimensional model generation system, three-dimensional model generation method, and program
KR101856488B1 (en) * 2017-09-06 2018-05-10 윤재민 Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping
JP2020056644A (en) 2018-10-01 2020-04-09 キヤノン株式会社 Information processing device, information processing method, and program
KR102103944B1 (en) * 2019-05-23 2020-04-23 주식회사 모빌테크 Distance and position estimation method of autonomous vehicle using mono camera

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106706677B (en) 2015-11-18 2019-09-03 同方威视技术股份有限公司 Check the method and system of cargo

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017203710A1 (en) * 2016-05-27 2017-11-30 楽天株式会社 Three-dimensional model generation system, three-dimensional model generation method, and program
KR101856488B1 (en) * 2017-09-06 2018-05-10 윤재민 Method, apparatus and computer-readable medium for object tracking using the three-dimensional mapping
JP2020056644A (en) 2018-10-01 2020-04-09 キヤノン株式会社 Information processing device, information processing method, and program
KR102103944B1 (en) * 2019-05-23 2020-04-23 주식회사 모빌테크 Distance and position estimation method of autonomous vehicle using mono camera

Also Published As

Publication number Publication date
KR20220015056A (en) 2022-02-08

Similar Documents

Publication Publication Date Title
US10726264B2 (en) Object-based localization
US10134196B2 (en) Mobile augmented reality system
KR102399630B1 (en) Method and apparatus for determining position and orientation of bucket of excavator
KR102052114B1 (en) Object change detection system for high definition electronic map upgrade and method thereof
KR20220009393A (en) Image-based localization
KR20200040665A (en) Systems and methods for detecting a point of interest change using a convolutional neural network
EP3010229B1 (en) Video surveillance system, video surveillance device
KR102234461B1 (en) Method and system for generating depth information of street view image using 2d map
KR102473165B1 (en) Cctv control system for being enable to measure real size of subject using 3d environment model
KR20210005621A (en) Method and system for use in coloring point clouds
JP6662382B2 (en) Information processing apparatus and method, and program
CN113610702B (en) Picture construction method and device, electronic equipment and storage medium
KR101010904B1 (en) Apparatus for providing augmented space without using markers
KR102150954B1 (en) Apparatus and method for processing point cloud
KR20230049969A (en) Method and apparatus for global localization
US20220180545A1 (en) Image processing apparatus, image processing method, and program
JP6393409B2 (en) Image recognition system, camera state estimation device, and program
CN109284707A (en) Moving target detection method and device
KR102158316B1 (en) Apparatus and method for processing point cloud
Espinosa et al. Towards fast 3D reconstruction of urban areas from aerial nadir images for a near real-time remote sensing system
US20220005223A1 (en) Coordinate calculation apparatus, coordinate calculation method, and computer-readable recording medium
JP6546898B2 (en) Three-dimensional space identification apparatus, method, and program
CN111242187A (en) Image similarity processing method, device, medium and electronic equipment
CN112348876A (en) Method and device for acquiring space coordinates of signboards
US20240062541A1 (en) Detection system, detection method, and recording medium

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant