KR20190116154A - Calibration system and method for camera using object identification - Google Patents

Calibration system and method for camera using object identification

Info

Publication number
KR20190116154A
KR20190116154A KR1020190101627A KR20190101627A KR20190116154A KR 20190116154 A KR20190116154 A KR 20190116154A KR 1020190101627 A KR1020190101627 A KR 1020190101627A KR 20190101627 A KR20190101627 A KR 20190101627A KR 20190116154 A KR20190116154 A KR 20190116154A
Authority
KR
South Korea
Prior art keywords
information
camera
calibration
image
recording apparatus
Prior art date
Application number
KR1020190101627A
Other languages
Korean (ko)
Inventor
이동식
이원경
Original Assignee
주식회사 자비스넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 자비스넷 filed Critical 주식회사 자비스넷
Priority to KR1020190101627A priority Critical patent/KR20190116154A/en
Publication of KR20190116154A publication Critical patent/KR20190116154A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Abstract

The present invention relates to a camera calibration system and method using object identification, and more particularly, to a camera calibration system and method using object identification which can perform calibration by sending a sensed image to a control center for a predetermined period after installing a camera and a DVR, analyzing the object of the image at the control center and analyzing a state where the same object is displayed on various regions of a screen. The present invention can support performing automatically calibration during an initial set period without the complicated work of a skilled person to support the user′s convenience for calibration and to use a variety of low-cost cameras in a system configuration. In addition, it is possible to reduce the operation cost of the skilled person and to greatly reduce the cost of constructing a system composed of an image recording device. The camera calibration system includes a video recording device and a control server.

Description

객체 식별을 통한 카메라 캘리브레이션 시스템 및 방법{Calibration system and method for camera using object identification}Camera calibration system and method for object identification {Calibration system and method for camera using object identification}

본 발명은 객체 식별을 통한 카메라 캘리브레이션 시스템 및 방법에 관한 것으로서, 더욱 상세히는 카메라와 DVR을 설치한 후 일정 기간 동안 감지 영상을 관제센터로 보내고, 관제센터에서 영상의 객체를 분석하여 동일 객체가 화면의 여러 영역에 표시되는 상태를 분석함으로써 캘리브레이션을 수행하도록 하는 객체 식별을 통한 카메라 캘리브레이션 시스템 및 방법에 관한 것이다.The present invention relates to a system and method for calibrating a camera through object identification. More particularly, the present invention relates to a camera calibration system and a method, and more particularly, sends a sensed image to a control center for a predetermined period after installing a camera and a DVR, and analyzes the object of the image in the control center to display the same object. The present invention relates to a camera calibration system and method through object identification for performing a calibration by analyzing a state displayed in various areas of the apparatus.

현재 카메라를 통해 촬영된 영상에 나타나는 객체를 추적하기 위한 다양한 객체 추적 알고리즘의 개발 및 카메라의 성능 발전에 따라, 이를 이용한 객체 모니터링 시스템의 발전이 두드러지고 있다.With the development of various object tracking algorithms for tracking objects appearing in images captured by cameras and the performance of the cameras, the development of object monitoring systems using them has become more prominent.

이러한 객체 모니터링 시스템은 감시 시스템을 비롯한 다양한 분야에 적용되고 있으며, 영상에서 사용자가 원하는 객체를 검출하고 해당 객체의 위치를 파악하는 용도로 사용되고 있다.Such an object monitoring system is applied to various fields including a surveillance system, and is used to detect an object desired by a user in an image and to locate a corresponding object.

기존 객체 모니터링 시스템은 카메라를 이용하여 실제 3차원 공간 상에 위치하는 객체를 촬영한 영상을 획득하게 되는데, 이 경우 영상에 나타나는 객체는 카메라와의 이격 거리에 따라 크기가 상이해질 뿐만 아니라 동일 객체이더라도 서로 다른 크기를 가질 수 있기 때문에 영상에서 원하는 객체를 정확히 식별하고, 해당 객체의 위치를 하기 위해서는 카메라를 촬영된 가상 공간과 실재 공간 사이의 캘리브레이션을 통한 공간 매핑이 필수적으로 선행되어야만 한다.The existing object monitoring system acquires an image of an object located in a real three-dimensional space by using a camera. In this case, the objects appearing in the image may not only be different in size depending on the distance from the camera, but may be the same object. Since it can have different sizes, in order to accurately identify the desired object in the image and locate the object, spatial mapping through calibration between the virtual space where the camera is photographed and the real space must be preceded.

따라서, 기존 객체 모니터링 시스템의 운용을 위해 카메라에 대한 초기 파라미터(높이, 각도, FOV, 카메라의 위치, 카메라의 배치 고도 등)를 입력받아 카메라를 통해 촬영되는 영상에서 표시되는 가상 공간과 촬영 대상인 실제 3차원 공간을 상호 매핑하고, 이를 통해 3차원 공간 상에 위치하는 객체가 영상에 나타나는 객체와 정확히 대응되도록 캘리브레이션 과정이 필요하다.Therefore, to operate the existing object monitoring system, the initial parameters (height, angle, FOV, camera position, camera placement altitude, etc.) of the camera are input and the virtual space displayed in the image captured by the camera and the actual target object are taken. It is necessary to calibrate the 3D space so that the objects located in the 3D space correspond exactly to the objects appearing in the image.

그러나, 기존의 캘리브레이션 방법은 카메라의 스펙을 기반으로 하는 다양한 파라미터를 고려하여 사용자가 직접 3차원 공간에서 크기가 알려진 객체가 위치하는 영역에 대응되어 일일이 객체의 크기값과 공간의 깊이값을 설정하는 과정을 거치게 되는데, 이러한 캘리브레이션 과정이 숙련자가 실제 3차원 공간에서 크기가 알려져 있는 대상을 카메라에 노출시킨 후 카메라의 영상과 대상의 영상 내 위치별 크기 정보를 매칭시켜 파라미터를 얻는 수작업으로 진행되고 있으며, 이로 인해 가상 공간과 실제 공간을 상호 매핑하는 과정이 매우 복잡하고 비효율적일 뿐만 아니라 시스템 복잡도를 크게 증가시키는 문제점이 있다.However, in the conventional calibration method, in consideration of various parameters based on the specification of the camera, the user directly sets the size value of the object and the depth value of the space corresponding to the area where the known object is located in the 3D space. This calibration process is performed by a skilled person by exposing an object whose size is known in the actual three-dimensional space to the camera and then matching the image information of the camera with the size information of each position in the object to obtain parameters. As a result, the mapping process between the virtual space and the physical space is not only very complicated and inefficient, but also greatly increases the system complexity.

또한, 기존의 캘리브레이션 방법은 실재 공간에서 서로 다른 복수의 위치와 각각 대응되는 영상 내의 위치에서 객체의 크기가 상이하므로, 결국 감시 대상인 실재 공간 상의 모든 영역을 대상으로 객체의 크기 정보와 영상을 상호 매칭시키는 방식으로 캘리브레이션이 이루어져야 하나, 이러한 작업을 하기가 어려울 뿐만 아니라 감시 대상 영역이 변경되는 경우 이러한 작업을 다시 수행하여야 하는 문제가 있다.In addition, the existing calibration method has different sizes of objects at positions corresponding to a plurality of different positions in the real space, respectively, so that the size information and the image of the object are mutually matched to all regions in the real space to be monitored. Although the calibration should be performed in a manner that makes it possible to do this, it is not only difficult to perform such a task but also needs to be performed again when the area to be monitored changes.

더군다나, 이러한 캘리브레이션 방법은 작업 방법이 복잡하여 숙련된 전문가가 아닌 사용자가 이를 설정하는데 어려움이 있으며, 숙련자의 작업 비용이 과다하여 시스템 구축을 위한 초기 설치 비용 부담이 큰 문제가 있다.Moreover, such a calibration method is difficult to set up by a user who is not an experienced expert due to a complicated working method, and there is a problem that an initial installation cost burden for a system construction is excessive due to excessive work cost of an expert.

이에 더하여, 현재 모니터링 용도의 다양한 저가 카메라가 제공되고 있어 시스템 구축 비용을 낮출 수 있음에도 불구하고 사용자가 이러한 캘리브레이션을 수행하지 못하는 관계로 모니터링 시스템의 구축 과정에서 특정 업체의 카메라에 한정하여 시스템을 구축해야 하는 비효율적인 문제가 발생할 뿐만 아니라 전문가에 의존해야 하는 캘리브레이션으로 인해 시스템 운영 과정에서 인건비가 지속적으로 발생하여 시스템 운용 비용을 증가시키는 문제가 발생한다.In addition, although various low-cost cameras are currently being provided for monitoring purposes, and the system construction cost can be lowered, users cannot perform such calibration, so the system must be limited to cameras of specific companies during the construction of the monitoring system. Not only does this cause inefficiency, but the calibration required to rely on specialists creates labor costs in the process of operating the system, increasing the cost of operating the system.

또한, 보안 시스템 구축시 상기 저가 카메라를 사용하고자 하는 경우 해킹에 의한 보안 위협에 대처하기 어려운 문제가 있어 시스템 신뢰성이 보장되지 않아 숙련자에 더욱 의존해야 하는 문제가 있다.In addition, when using the low-cost camera when building a security system, there is a problem that it is difficult to cope with the security threats caused by hacking, there is a problem that the system reliability is not guaranteed and must be relied on by a skilled person.

한국등록특허 제10-0969576호Korea Patent Registration No. 10-0969576

본 발명은 초기 DVR 및 카메라 설치 후 지능형 영상 보안을 위해 필요한 카메라 캘리브레이션을 비용이 높은 숙련자의 설정 없이도 자체적인 샘플화면 수집을 통해 수행할 수 있도록 하여 비용을 낮추도록 함과 아울러, 이러한 숙련자 설정 없는 자동 캘리브레이션 과정이 수행되는 상황을 사용자에게 명시적으로 제시하여 초기 설정에 대한 진행 상태를 사용자가 확인하고 필요한 경우 능동적으로 초기 설정에 참여하여 품질을 높이고 설정 시간을 줄일 수 있도록 지원하여 캘리브레이션 편의성을 향상시키는데 그 목적이 있다.The present invention enables to perform the camera calibration required for intelligent video security after the initial DVR and camera installation through the collection of own sample screens without the need for expensive technicians, and to lower the cost, and also without the automatic setup of these skilled personnel. The user can check the progress of the initial setting by explicitly presenting the situation in which the calibration process is performed, and if necessary, actively participate in the initial setting to improve the convenience of calibration by improving the quality and reducing the setting time. Its purpose is.

또한, 본 발명은 카메라의 캘리브레이션을 위한 설정 과정 중 영상 분석을 위해 관제센터의 서버로 전송되는 영상에 대한 접속 권한을 설정한 이후 사용자에게 이관하고, 이후 사용자 영상에 대한 접근 정보를 블록체인 기술을 이용하여 관리하도록 함으로써 관제센터와 분리된 접근성 관리를 통해 안전성 및 보안성을 높이도록 지원하는데 그 목적이 있다.In addition, the present invention, after setting the access authority for the image transmitted to the server of the control center for image analysis during the setup process for the calibration of the camera, and transfers to the user, and then access information on the user image to blockchain technology Its purpose is to support safety and security through access management separate from the control center.

본 발명의 실시예에 따른 사용자의 감시 영역을 감시하는 영상 기록 장치와 카메라부의 설치에 따라 초기 설정 기간 중 자동으로 카메라 캘리브레이션이 수행되는 객체 식별을 통한 카메라 캘리브레이션 시스템은, 연결된 카메라부에서 수신되는 객체 존재 영상 및 상기 카메라부의 스펙 관련 카메라 정보를 통신망을 통해 전송하는 영상 기록 장치 및 상기 영상 기록 장치로부터 수신된 영상을 저장하고, 수신된 영상에 존재하는 객체를 미리 설정된 딥러닝 알고리즘에 따라 식별하여 객체의 종류, 위치 및 크기를 포함하는 객체 정보를 수집 저장하며, 상기 카메라부의 캘리브레이션을 위한 미리 설정된 정보 수집 기준에 따라 상기 객체 정보 및 카메라 정보를 통해 얻어지는 캘리브레이션 정보의 산출 관련 진행 상태에 대한 상태 정보를 생성하고 상기 객체 정보의 수집에 따른 상기 상태 정보의 갱신시마다 상기 영상 기록 장치로 상기 상태 정보를 전송하는 관제 서버를 포함하며, 상기 영상 기록 장치는 상기 상태 정보 수신시 상기 카메라부에 대응되어 상기 영상 기록 장치에 연결된 모니터를 통해 사용자가 캘리브레이션의 실시간 진행상태를 확인할 수 있도록 상기 상태 정보를 출력하는 것을 특징으로 할 수 있다.According to an embodiment of the present invention, a camera calibration system through object identification in which camera calibration is automatically performed during an initial setting period according to the installation of an image recording apparatus and a camera unit for monitoring a surveillance area of a user may include: an object received from a connected camera unit; An image recording device for transmitting the existing image and the camera information related to the specification of the camera unit through a communication network and an image received from the image recording device, and an object existing in the received image is identified according to a preset deep learning algorithm. Collects and stores object information including a type, a location, and a size of the camera; and stores state information about a calculation-related progress state of the calibration information obtained through the object information and the camera information according to a preset information collection criterion for calibration of the camera unit. Generate and award And a control server for transmitting the status information to the video recording apparatus whenever the status information is updated according to the collection of object information, wherein the video recording apparatus corresponds to the camera unit when receiving the status information. The status information may be output through the connected monitor so that the user may check the real-time progress of the calibration.

본 발명과 관련된 일 예로서, 상기 영상 기록 장치는 미리 설정된 영상분석 알고리즘에 따라 상기 영상에서 객체를 검출하고, 객체가 검출된 상기 객체 존재 영상을 상기 관제 서버로 전송하는 것을 특징으로 할 수 있다.As an example related to the present invention, the image recording apparatus may detect an object in the image according to a preset image analysis algorithm, and transmit the object presence image in which the object is detected to the control server.

본 발명과 관련된 일 예로서, 상기 관제 서버는 상기 딥러닝 알고리즘을 통해 상기 영상에서 식별된 객체의 특정 객체 종류에 대응되어 미리 설정된 표준 객체를 기준으로 상기 특정 객체 종류에 대응되는 감시 대상 객체의 영상 내 위치별 크기를 연산하여 상기 객체 정보를 생성하고, 상기 카메라부로부터 수신된 복수의 영상으로부터 얻어진 상기 특정 객체 종류 관련 복수의 객체 정보를 위치별로 평균화하여 객체의 위치별 평균 크기의 변화에 따른 공간 정보를 생성하며, 상기 정보 수집 기준에 따라 서로 다른 객체 종류 각각의 공간 정보 상호 간 편차가 미리 설정된 기준치 이하가 될때까지 상기 객체 정보를 수집하여 상기 공간 정보를 갱신하는 것을 특징으로 할 수 있다.As an example related to the present disclosure, the control server may include an image of a monitored object corresponding to the specific object type based on a standard object preset in correspondence with the specific object type of the object identified in the image through the deep learning algorithm. The object information is generated by calculating the size of each location, and a plurality of object information related to the specific object type obtained from the plurality of images received from the camera unit are averaged for each location, and the space according to the change in the average size of each object location. And generating the information, and updating the spatial information by collecting the object information until the deviation between the spatial information of each of the different object types is equal to or less than a preset reference value according to the information collection criteria.

본 발명과 관련된 일 예로서, 상기 관제 서버는 상기 표준 객체를 기준으로 얻어진 상기 영상 내 특정 위치에서의 상기 감시 대상 객체의 크기를 상기 특정 위치와 동일 위치에서의 동일 객체 종류의 평균 크기와 비교하여 미리 설정된 기준치 이상 차이가 발생하는 객체정보를 제외시키는 것을 특징으로 할 수 있다.As an example related to the present invention, the control server compares the size of the monitored object at a specific position in the image obtained based on the standard object with an average size of the same object type at the same position as the specific position. It may be characterized by excluding the object information that the difference occurs more than a predetermined reference value.

본 발명과 관련된 일 예로서, 상기 관제 서버는 상기 정보 수집 기준 만족시 객체 종류별 공간 정보를 취합하여 평균화한 기준 공간 정보를 생성한 후 상기 카메라 정보와 상기 기준 공간 정보를 기초로 상기 카메라부의 시점 관련 복수의 속성별 파라미터를 포함하는 캘리브레이션 정보를 산출하는 것을 특징으로 할 수 있다.As an example related to the present invention, when the control server satisfies the information collection criterion, the control server collects and averages the spatial information for each object type and generates the averaged spatial information, and then relates the viewpoint of the camera unit based on the camera information and the reference spatial information. The calibration information including the plurality of attribute-specific parameters may be calculated.

본 발명과 관련된 일 예로서, 상기 관제 서버는 서로 다른 객체 종류 각각의 공간 정보 상호 간 편차를 기초로 상기 상태 정보를 산출하고, 상기 객체 정보의 수집에 따른 상기 딥러닝 알고리즘을 통한 분석에 의한 상기 편차의 변경시마다 상기 상태 정보를 갱신하는 것을 특징으로 할 수 있다.As an example related to the present invention, the control server calculates the state information on the basis of the deviation between the spatial information of each of the different object types, and the analysis by the deep learning algorithm according to the collection of the object information The status information may be updated whenever the deviation is changed.

본 발명과 관련된 일 예로서, 상기 관제 서버는 상기 영상 기록 장치와 유선 또는 무선을 통해 연결된 사용자 단말로 상기 카메라부의 식별정보 및 상기 상태 정보를 전송하여 상기 사용자 단말을 통해 상기 카메라부의 캘리브레이션 진행 상태가 표시되도록 하는 것을 특징으로 할 수 있다.As an example related to the present invention, the control server transmits the identification information and the state information of the camera unit to a user terminal connected to the video recording apparatus through a wired or wireless connection, and thus the calibration state of the camera unit is changed through the user terminal. It may be characterized in that the display.

본 발명과 관련된 일 예로서, 상기 관제 서버는 상기 영상 기록 장치에 대응되어 미리 설정된 사용자 단말을 식별하고, 상기 상태정보에 따른 캘리브레이션의 진행 상태에 따라 사용자 참여를 유도하기 위한 메시지를 생성하여 상기 사용자 단말로 전송하는 것을 특징으로 할 수 있다.As an example related to the present invention, the control server identifies a user terminal preset in correspondence with the video recording apparatus, and generates a message for inducing user participation according to the progress of calibration according to the status information. It may be characterized in that the transmission to the terminal.

본 발명과 관련된 일 예로서, 상기 관제 서버는 상기 영상 기록 장치와 연결된 하나 이상의 카메라부 각각에 대한 상기 상태 정보를 생성하고, 상기 상태 정보의 갱신시마다 상기 상태 정보 및 상기 카메라부의 식별정보를 상기 영상 기록 장치로 전송하며, 상기 영상 기록 장치는 상기 관제 서버로부터 수신된 상기 상태 정보 및 카메라부의 식별정보를 기초로 상기 하나 이상의 카메라부 중 어느 하나를 식별하고, 식별된 카메라부에 대응되는 모니터로 상기 상태 정보를 출력하는 것을 특징으로 할 수 있다.As an example related to the present invention, the control server generates the state information for each of the one or more camera units connected to the image recording apparatus, and the image information is displayed in the state information and the identification information of the camera unit whenever the state information is updated. And the image recording apparatus identifies any one of the one or more camera units based on the state information received from the control server and identification information of the camera unit, and monitors the camera unit corresponding to the identified camera unit. It may be characterized by outputting the status information.

본 발명과 관련된 일 예로서, 상기 관제 서버는 상기 상태정보에 따른 캘리브레이션 완료시 상기 영상 기록 장치에 대응되는 사용자에게 상기 카메라부의 영상에 대한 접근 권한을 이관하기 위한 이관 정보를 생성하여 전송하며, 상기 영상 기록 장치는 상기 이관 정보를 기초로 미리 설정된 사용자에게 상기 접근 권한을 설정한 권한 정보를 생성하여 저장하고, 하나 이상의 타 영상 기록 장치와 P2P 방식으로 연결되어 상기 권한 정보의 접근 이력과 관련된 트랜잭션 정보 생성시 상기 타 영상 기록 장치와 상기 트랜잭션 정보를 공유하여 블록 체인(block chain) 방식으로 저장하는 것을 특징으로 할 수 있다.As an example related to the present invention, the control server generates and transmits transfer information for transferring an access right to an image of the camera unit to a user corresponding to the image recording apparatus when the calibration according to the state information is completed. The video recording apparatus generates and stores the authority information for setting the access authority to a user who is preset based on the transfer information, and is connected to one or more other video recording apparatuses in a P2P manner to provide transaction information related to the access history of the authority information. At the time of generation, the transaction information may be shared with the other video recording apparatus and stored in a block chain manner.

본 발명의 실시예에 따른 사용자의 감시 영역을 감시하는 영상 기록 장치와 카메라부의 설치에 따라 초기 설정 기간 중 자동으로 카메라 캘리브레이션이 수행되는 객체 식별을 통한 카메라 캘리브레이션 방법은, 상기 영상 기록 장치가 카메라부에서 수신되는 객체 존재 영상 및 상기 카메라부의 스펙 관련 카메라 정보를 통신망을 통해 전송하는 단계와, 상기 영상 기록 장치와 통신망을 통해 통신하는 관제 서버가 상기 영상 기록 장치로부터 수신된 영상을 저장하고, 수신된 영상에 존재하는 객체를 미리 설정된 딥러닝 알고리즘에 따라 식별하여 객체의 종류, 위치 및 크기를 포함하는 객체 정보를 수집 저장하는 단계와, 상기 관제 서버가 상기 카메라부의 캘리브레이션을 위한 미리 설정된 정보 수집 기준에 따라 상기 객체 정보 및 카메라 정보를 통해 얻어지는 캘리브레이션 정보의 산출 관련 진행 상태에 대한 상태 정보를 생성하고 상기 객체 정보의 수집에 따른 상기 상태 정보의 갱신시마다 상기 영상 기록 장치로 상기 상태 정보를 전송하는 단계 및 상기 영상 기록 장치가 상기 상태 정보 수신시 상기 카메라부에 대응되어 상기 영상 기록 장치에 연결된 모니터를 통해 사용자가 캘리브레이션의 실시간 진행상태를 확인할 수 있도록 상기 상태 정보를 출력하는 단계를 포함할 수 있다.According to an embodiment of the present invention, a camera calibration method through object identification in which camera calibration is automatically performed during an initial setting period according to the installation of an image recording apparatus and a camera unit for monitoring a surveillance area of a user, wherein the image recording apparatus includes a camera unit. Transmitting an object existence image received from the camera and spec-related camera information of the camera unit through a communication network, and a control server communicating with the image recording apparatus through a communication network stores the image received from the image recording apparatus, Collecting and storing object information including the type, position, and size of the object by identifying an object existing in the image according to a preset deep learning algorithm; and controlling the camera to a preset information collection criterion for calibration of the camera unit. According to the object information and camera information Generating state information on a progress state related to the calculation of the obtained calibration information, and transmitting the state information to the video recording apparatus every time the state information is updated according to the collection of the object information; And receiving the status information so that the user can check the real-time progress of the calibration through a monitor connected to the image recording apparatus corresponding to the camera unit upon reception.

본 발명은 카메라부와 DVR과 같은 영상 기록 장치를 설치한 후 일정 기간 동안 관제 서버에서 감시 대상 객체가 검출된 카메라부의 영상을 상기 영상 기록 장치로부터 수신하여 수집하고, 영상의 객체를 분석하여 객체 종류별로 화면의 여러 영역에 객체가 표시되는 상태를 통해 객체 종류별로 카메라부의 감시 영역 관련 실재 공간과 매핑되는 영상 내 3차원 공간을 산출한 후 이를 서로 다른 객체 종류 상호 간 비교하여 카메라부의 캘리브레이션을 위한 기준 공간을 산출할 수 있으며, 이를 기반으로 카메라부의 캘리브레이션 관련 파라미터를 상기 기준 공간에 맞추어 자동 산출하여 상기 카메라부의 캘리브레이션 정보를 자동 산출할 수 있으므로 기존과 같은 숙련자의 복잡한 작업을 거칠 필요 없이 자동으로 초기 설정 기간 동안 캘리브레이션이 수행되도록 지원하여 캘리브레이션에 대한 사용자의 편의성과 더불어 다양한 저가의 카메라를 시스템 구성에 이용할 수 있도록 지원할 수 있을 뿐만 아니라 숙련자의 작업 비용을 절감하여 영상 기록 장치로 구성된 시스템 구축 비용을 크게 절감할 수 있도록 지원하는 효과가 있다.According to the present invention, after installing a video recording apparatus such as a camera unit and a DVR, a video of a camera unit in which a monitoring target object is detected by a control server for a predetermined period is received and collected from the video recording apparatus, and the object of the image is analyzed for each object type. As the object is displayed in various areas of the screen, the three-dimensional space in the image mapped to the real space related to the surveillance area of the camera unit is calculated for each object type, and then compared with each other for each object type. It is possible to calculate the space, and based on this, it is possible to automatically calculate the calibration information of the camera unit according to the reference space, and to automatically calculate the calibration information of the camera unit. Number of calibrations during In addition to the user's convenience of calibration, various low-cost cameras can be used to configure the system, and the operation cost of the skilled person can be greatly reduced, thereby greatly reducing the cost of constructing the system consisting of the video recording device. It works.

또한, 본 발명은 영상 기록 장치에 연결된 카메라별로 상기 캘리브레이션의 진행 상태에 대한 정보가 상기 영상 기록 장치에 연결된 모니터를 통해 표시되도록 할 수 있어 사용자가 캘리브레이션 진행 상태를 용이하게 확인할 수 있도록 지원함으로써 사용자의 시스템 구축 편의성을 크게 높임과 동시에 캘리브레이션 진행 속도가 더딘 카메라의 캘리브레이션 진행 속도를 높이기 위해 사용자의 참여를 유도하여 초기 설정 기간을 단축시킬 수 있도록 지원함으로써 빠른 캘리브레이션을 통한 사용자의 만족도를 크게 높일 수 있는 효과가 있다.In addition, the present invention can be displayed on the monitor connected to the video recording device for the information on the progress of the calibration for each camera connected to the video recording device so that the user can easily check the calibration progress of the user In addition to greatly improving the ease of building the system, it is possible to increase the user's satisfaction through quick calibration by supporting the user's participation to shorten the initial setting period in order to speed up the calibration progress of the slow camera. There is.

더하여, 본 발명은 카메라부의 캘리브레이션을 위한 초기 설정 과정 중 영상 분석을 위해 관제 서버로 전송되는 영상에 대한 접근 권한을 캘리브레이션의 설정 완료 이후 사용자에게 이관하고, 이후 사용자 영상에 대한 접근 정보를 블록체인 기술을 이용하여 관리하도록 함으로써 관제센터와 분리된 접근성 관리(P2P를 이용한 블록체인 관리)를 통해 안전성을 높이도록 지원하는 효과가 있다.In addition, the present invention transfers the access authority for the image transmitted to the control server for image analysis during the initial setting process for the calibration of the camera unit to the user after the completion of the calibration, and then the access information for the user image blockchain technology By using it to manage, there is an effect of supporting the improvement of safety through accessibility management (blockchain management using P2P) separated from the control center.

도 1은 본 발명의 실시예에 따른 객체 식별을 통한 카메라 캘리브레이션 시스템의 구성도.
도 2 내지 도 5는 본 발명의 실시예에 따른 객체 식별을 통한 카메라 캘리브레이션 시스템의 동작 예시도.
도 6은 본 발명의 실시예에 따른 객체 식별을 통한 카메라 캘리브레이션 시스템의 블록 체인 기반 동작 예시도.
도 7은 본 발명의 실시예에 따른 객체 식별을 통한 카메라 캘리브레이션 방법에 대한 순서도.
1 is a block diagram of a camera calibration system through object identification according to an embodiment of the present invention.
2 to 5 are diagrams illustrating an operation of a camera calibration system through object identification according to an embodiment of the present invention.
6 is an exemplary blockchain-based operation of a camera calibration system through object identification according to an embodiment of the present invention.
7 is a flowchart illustrating a camera calibration method through object identification according to an embodiment of the present invention.

이하, 도면을 참고하여 본 발명의 상세 실시예를 설명한다.Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

본 발명은 기존에 사용자의 감시 영역을 대상으로 영상 기반 보안 시스템의 구축을 위해 DVR(Digital Video Recorder)과 같은 영상 기록 장치 및 카메라의 초기 설치시 지능형 영상 보안을 위해 필요한 카메라 캘리브레이션(calibration)을 전문적으로 수행하는 숙련자의 설정이 필요하여 시스템 구축 비용이 증가하는 문제점을 개선하기 위해, 비용이 높은 숙련자의 설정 없이도 자체적인 샘플화면 수집을 통해 캘리브레이션이 자동 수행되도록 지원하여 비용을 낮추도록 함과 아울러, 이러한 숙련자의 개입이 없는 자동 캘리브레이션 과정이 수행되는 상황을 사용자에게 명시적으로 제시하여 초기 설정에 대한 진행 상태를 사용자가 확인하고 필요한 경우 능동적으로 초기 설정에 참여하여 품질을 높이고 설정 시간을 줄일 수 있도록 지원한다.The present invention specializes in camera calibration required for intelligent video security at the time of initial installation of a video recording device such as a DVR (Digital Video Recorder) and a camera for the construction of a video-based security system for a user's surveillance area. In order to improve the problem that the system construction cost is increased due to the setting of a skilled worker, the calibration is automatically performed by collecting a sample screen without the need for a costly expert, and the cost is lowered. Explicitly present the user with an autocalibration process without the involvement of these skilled personnel so that the user can check the progress of the initial setup and actively participate in the initial setup if necessary to increase quality and reduce setup time. Support.

이러한, 영상분석을 위한 카메라 캘리브레이션은 영상 내 객체의 크기와 위치를 확인하기 위하여 영상 내 3차원 가상 공간과 실재 공간 사이의 변환 매트릭스를 연산하기 위한 정보의 설정을 의미한다.The camera calibration for image analysis refers to setting of information for calculating a transformation matrix between a 3D virtual space and a real space in an image in order to identify the size and position of an object in the image.

이를 위해서 기본적으로 카메라의 시점 높이, 카메라의 시야각, 카메라 렌즈의 왜곡 정보 등과 같은 캘리브레이션 관련 파라미터를 설정해야 하며, 본 발명은 이러한 캘리브레이션을 정지영상으로부터 객체의 형상과 객체의 종류를 자동으로 구분할 수 있는 인공지능 영상 분석(예를 들어, 기계학습, 딥러닝(deep learning) 등) 기술을 통해 숙련자의 수작업과 복잡한 캘리브레이션 절차 대신 카메라 영상으로 수집되는 영상 중 객체가 존재하는 영상을 딥러닝과 같은 정지 영상 분석 방식으로 분석하여 객체의 종류와 형상을 추출하고, 상기 카메라의 캘리브레이션 설정을 위한 상기 카메라의 샘플 영상에서 객체의 종류와 위치를 얻는 과정을 반복하여 카메라의 캘리브레이션이 자동적으로 이루어지도록 지원할 수 있다.To this end, basically, calibration parameters, such as a camera's viewpoint height, a camera's viewing angle, and camera lens distortion information, must be set. The present invention can automatically distinguish the shape and the type of an object from a still image. AI image analysis (e.g., machine learning, deep learning, etc.) is a still image, such as deep learning, that contains objects in the image that are collected as camera images instead of a manual and complicated calibration procedure. The camera may be automatically calibrated by extracting the type and shape of the object by analyzing the analysis method and repeating the process of obtaining the type and position of the object from the sample image of the camera for setting the calibration of the camera.

상술한 구성을 참고로, 이하 도면을 통해 본 발명의 상세 실시예를 설명한다.With reference to the above-described configuration, a detailed embodiment of the present invention will be described below with reference to the drawings.

우선, 도 1은 본 발명의 실시예에 따른 객체 식별을 통한 카메라 캘리브레이션 시스템의 구성도로서, 도시된 바와 같이, 하나 이상의 카메라부(11)와 연결되는 영상 기록 장치(10)와 통신망을 통해 상기 영상 기록 장치(10)와 통신하는 관제 서버(100)를 포함할 수 있다.First, FIG. 1 is a configuration diagram of a camera calibration system through object identification according to an exemplary embodiment of the present invention. As shown in FIG. 1, the image recording apparatus 10 connected to at least one camera unit 11 is connected through a communication network. It may include a control server 100 in communication with the video recording device 10.

이때, 상기 카메라부(11)는 IP(Internet Protocol) 카메라로 구성될 수 있으며, 상기 영상 기록 장치(10)는 DVR(Digital Video Recorder) 또는 NVR(Network Video Recorder)로 구성될 수 있다.In this case, the camera unit 11 may be configured as an IP (Internet Protocol) camera, and the video recording apparatus 10 may be configured as a digital video recorder (DVR) or a network video recorder (NVR).

또한, 상기 영상 기록 장치(10)와 관제 서버(100) 상호 간 통신을 위한 통신망은 널리 알려진 다양한 유무선 통신 방식이 적용될 수 있다.In addition, a variety of wired and wireless communication schemes that are widely known may be applied to a communication network for communication between the image recording apparatus 10 and the control server 100.

도 1의 구성을 참고하여, 상기 객체 식별을 통한 카메라 캘리브레이션 시스템의 상세 동작 구성을 설명하면, 도시된 바와 같이, 사용자가 지정한 감시 영역의 보안을 위해 설치되는 하나 이상의 카메라부(11)와 연결된 영상 기록 장치(10)의 초기 설치시 상기 영상 기록 장치(10)에 연결되는 하나 이상의 카메라부(11) 각각의 캘리브레이션이 요구된다.Referring to the configuration of FIG. 1, a detailed operation configuration of the camera calibration system through object identification will be described. As shown in FIG. 1, an image connected to one or more camera units 11 installed for the security of a surveillance region designated by a user is illustrated. Initial installation of the recording device 10 requires the calibration of each of the one or more camera units 11 connected to the image recording device 10.

이를 위해, 상기 영상 기록 장치(10)는 상기 카메라부(11)의 캘리브레이션을 위한 초기 설정 기간 중 상기 캘리브레이션이 자동으로 수행되도록 하기 위해 상기 카메라부(11)로부터 수신되는 영상을 분석하여 객체를 검출하고, 객체가 검출된 객체 존재 영상만을 상기 관제 서버(100)로 전송할 수 있다.To this end, the image recording apparatus 10 detects an object by analyzing an image received from the camera unit 11 so that the calibration is automatically performed during an initial setting period for calibration of the camera unit 11. In addition, only the object existence image from which the object is detected may be transmitted to the control server 100.

또한, 상기 관제 서버(100)는 상기 영상 기록 장치(10)로부터 수신된 영상을 저장하고, 수신된 영상에 존재하는 객체를 미리 설정된 딥러닝 알고리즘에 따라 식별하여 객체의 종류, 위치, 크기 등을 포함하는 객체 정보를 생성할 수 있으며, 해당 객체 정보를 수집 및 저장할 수 있다.In addition, the control server 100 stores the image received from the image recording device 10, and identifies the type, location, size, etc. of the object by identifying the object present in the received image according to a preset deep learning algorithm It can create object information to include and collect and store the object information.

또한, 상기 관제 서버(100)는 상기 카메라부(11)의 캘리브레이션을 위한 미리 설정된 정보 수집 기준에 따라 상기 객체 정보 및 카메라 정보를 통해 얻어지는 캘리브레이션 정보의 산출 관련 진행 상태에 대한 상태 정보를 생성하고 상기 객체 정보의 수집에 따른 상기 상태 정보의 갱신시마다 상기 영상 기록 장치(10)로 상기 상태 정보를 전송할 수 있다.In addition, the control server 100 generates the state information on the progress related to the calculation of the calibration information obtained through the object information and the camera information according to a preset information collection criteria for the calibration of the camera unit 11 and The status information may be transmitted to the video recording apparatus 10 whenever the status information is updated according to the collection of object information.

이를 도 2 내지 도 5를 참고하여 상세히 설명하면, 우선 도 2에 도시된 바와 같이, 상기 관제 서버(100)는 상기 딥러닝 알고리즘을 통해 상기 영상 기록 장치(10)로부터 수신된 상기 하나 이상의 카메라부(11) 중 특정 카메라부(11)의 영상에서 식별된 특정 객체 종류에 대응되어 감시 대상 객체의 영상 내 위치별 크기를 연산하여 객체 정보를 생성할 수 있다.2 to 5, first, as shown in FIG. 2, the control server 100 receives the one or more camera units received from the image recording apparatus 10 through the deep learning algorithm. The object information may be generated by calculating a size for each position in the image of the monitored object corresponding to the specific object type identified in the image of the specific camera unit 11 in FIG. 11.

도 2 내지 도 5의 설명에서는 상기 특정 카메라부(11) 하나에 대한 캘리브레이션 과정을 설명한다.In the description of FIGS. 2 to 5, a calibration process for one specific camera unit 11 will be described.

이때, 상기 관제 서버(100)에는 객체 종류별(일례로, 사람, 동물, 자동차 등)로 표준 객체가 미리 설정되며, 상기 표준 객체의 크기가 미리 설정될 수 있다.In this case, the control server 100 may be set in advance a standard object by object type (for example, a person, an animal, a car, etc.), and the size of the standard object may be preset.

이에 따라, 상기 관제 서버(100)는 상기 표준 객체의 크기를 기준으로 상기 영상에서 식별된 감시 대상 객체의 영상 내 위치에 따른 크기를 연산(또는 환산)할 수 있다. Accordingly, the control server 100 may calculate (or convert) the size according to the position in the image of the monitored object identified in the image based on the size of the standard object.

이때, 상기 관제 서버(100)는 상기 특정 카메라부(11)의 자동 캘리브레이션을 위해 상기 영상 기록 장치(10)로부터 상기 특정 카메라부(11)에서 객체가 검출된 샘플 영상들을 지속적으로 수신하고, 샘플 영상 각각에 대하여 상기 객체 정보를 생성한 후 상기 특정 카메라부(11)의 식별정보와 매칭하여 DB(101)에 상기 객체 정보를 저장할 수 있다.In this case, the control server 100 continuously receives sample images from which the object is detected in the specific camera unit 11 from the image recording apparatus 10 for automatic calibration of the specific camera unit 11, and the sample. After generating the object information for each image, the object information may be stored in the DB 101 by matching the identification information of the specific camera unit 11.

여기서, 상기 영상 기록 장치(10)는 영상 전송시 해당 영상과 연관된 상기 특정 카메라부(11)의 식별정보를 영상에 포함시켜 전송할 수 있으며, 상기 객체 정보 역시 상기 특정 카메라부(11)의 식별정보를 포함할 수 있다.Here, the image recording apparatus 10 may transmit identification information of the specific camera unit 11 associated with the corresponding image in the image and transmit the image, and the object information also includes identification information of the specific camera unit 11. It may include.

또한, 상기 영상 기록 장치(10)에는 상기 영상 기록 장치(10)에 연결된 하나 이상의 카메라부(11) 각각에 대한 카메라부(11)의 식별정보를 포함하는 카메라의 스펙(specification) 관련 카메라 정보가 저장될 수 있으며, 상기 영상 기록 장치(10)는 초기 캘리브레이션 설정시 상기 관제 서버(100)로 상기 카메라 정보를 전송할 수 있다.In addition, the image recording apparatus 10 includes camera information related to specifications of the camera including identification information of the camera unit 11 for each of the one or more camera units 11 connected to the image recording apparatus 10. The image recording apparatus 10 may transmit the camera information to the control server 100 when the initial calibration is set.

이에 따라, 상기 관제 서버(100)는 특정 카메라부(11)의 영상을 기반으로 생성된 객체 정보를 상기 특정 카메라부(11)의 카메라 정보와 매칭하여 DB(101)에 저장할 수 있다.Accordingly, the control server 100 may match the object information generated based on the image of the specific camera unit 11 with the camera information of the specific camera unit 11 and store it in the DB 101.

또한, 상기 관제 서버(100)는 상기 영상 기록 장치(10)를 통해 상기 특정 카메라부(11)로부터 수신된 복수의 영상으로부터 얻어진 특정 객체 종류 관련 복수의 객체 정보를 위치별로 평균화하여 객체의 위치별 평균 크기의 변화에 따른 공간 정보를 생성할 수 있다.In addition, the control server 100 averages a plurality of object information related to a specific object type obtained from a plurality of images received from the specific camera unit 11 through the image recording apparatus 10 for each location, and averages each location. It is possible to generate spatial information according to the change of the average size.

일례로, 상기 관제 서버(100)는 도시된 바와 같이 특정 카메라부(11)에 대응되어 수집 저장된 동일 객체 종류를 가진 복수의 객체 정보들 중 동일 위치를 가진 객체 정보들을 취합한 후 평균화하여 특정 위치에서의 특정 객체 종류에 대응되는 평균 크기를 산출할 수 있다.For example, the control server 100 collects and averages object information having the same position among a plurality of object information having the same object type collected and stored corresponding to the specific camera unit 11 as shown, and averages the specific location. An average size corresponding to a specific object type in E may be calculated.

이에 따라, 상기 관제 서버(100)는 특정 객체 종류에 대응되어 특정 카메라부(11)의 영상 내 서로 다른 위치 각각에서의 객체의 평균 크기를 알수 있으며, 이에 따라 상기 특정 객체 종류에 대응되는 객체의 위치별 평균 크기의 변화에 따른 공간 정보를 연산할 수 있다.Accordingly, the control server 100 can know the average size of the object at each of the different positions in the image of the specific camera unit 11 corresponding to the specific object type, and thus the object corresponding to the specific object type Spatial information can be calculated according to the change in average size for each location.

즉, 상기 관제 서버(100)는 객체의 위치별 크기 변화에 따라 서로 다른 위치 상호간 거리를 연산할 수 있으며, 이러한 상이한 상기 위치들 사이의 거리를 기초로 영상에 나타나는 감시 영역의 공간 배치 상태를 연산하여 공간 정보를 생성할 수 있다.That is, the control server 100 may calculate the distance between different positions according to the size change of each position of the object, and calculate the spatial arrangement state of the surveillance region appearing in the image based on the distance between the different positions. To generate spatial information.

또한, 상기 관제 서버(100)는 도 3에 도시된 바와 같이, 상기 특정 객체 종류에 대응되어 생성된 공간 정보의 생성 방식과 마찬가지로 상기 특정 객체 종류와 상이한 다른 객체 종류에 대응되어 상기 공간 정보를 생성할 수 있다.In addition, as shown in FIG. 3, the control server 100 generates the spatial information in correspondence with another object type different from the specific object type, similarly to a method of generating spatial information generated corresponding to the specific object type. can do.

이때, 상기 특정 카메라부(11)의 캘리브레이션이 정확하게 이루어지기 위해서는 객체 종류에 상관 없이 공간 정보가 균일해야 하므로, 이를 위해 상기 관제 서버(100)는 서로 다른 복수의 객체 종류와 각각 대응되어 생성된 복수의 서로 다른 공간 정보를 상호 비교할 수 있으며, 복수의 서로 다른 공간 정보 상호 간의 편차를 연산할 수 있다.In this case, in order to accurately calibrate the specific camera unit 11, spatial information must be uniform regardless of the object type. For this purpose, the control server 100 corresponds to a plurality of different object types, respectively. It is possible to compare different spatial information of each other, and to calculate the deviation between a plurality of different spatial information.

또한, 상기 관제 서버(100)는 상기 미리 설정된 정보 수집 기준에 따라 서로 다른 객체 종류 각각의 공간 정보 상호 간 편차가 미리 설정된 기준치 이하가 될때까지 상기 영상 기록 장치(10)로부터 객체 정보를 수집하여 상기 공간 정보를 갱신할 수 있으며, 이를 통해 미리 설정된 정보 수집 기준을 만족하는 경우 복수의 서로 다른 객체 종류 각각의 공간 정보와 편차가 최소화되는 기준 공간 정보를 산출할 수 있다.In addition, the control server 100 collects object information from the video recording device 10 until the deviation between the spatial information of each different object type is less than or equal to a preset reference value according to the preset information collection criteria. The spatial information may be updated, and when the predetermined information collection criteria are satisfied, the reference spatial information may be calculated to minimize the deviation from the spatial information of each of a plurality of different object types.

이때, 상기 관제 서버(100)는 상기 객체 종류별 공간 정보를 취합하여 평균화한 기준 공간 정보를 생성할 수도 있다.In this case, the control server 100 may generate reference space information obtained by averaging the space information for each object type.

또한, 상술한 구성에서 상기 관제 서버(100)는 특정 객체 종류에 대응되는 상기 표준 객체를 기준으로 얻어진 특정 위치에서의 감시 대상 객체의 크기를 상기 특정 위치와 동일 위치에서의 동일 객체 종류의 평균 크기와 비교하여 미리 설정된 기준치 이상 차이가 발생하는 오류 객체정보를 상기 공간 정보의 산출에서 제외시키거나 상기 오류 객체 정보를 삭제할 수 있다.In addition, in the above-described configuration, the control server 100 sets the size of the monitored object at a specific position obtained based on the standard object corresponding to a specific object type to the average size of the same object type at the same position as the specific position. Compared with, the error object information having a difference exceeding a predetermined reference value may be excluded from the calculation of the spatial information or the error object information may be deleted.

이를 통해, 상기 관제 서버(100)는 객체 종류가 사람인 경우 개인 편차에 의해 키가 다를 수 있으므로 상기 영상 기록 장치(10)로부터 수집되는 여러 샘플 영상들 중에서 상대적으로 크거나 작게 측정되는 경우는 필터링하고 나머지 경우를 표준 키로 환산하여 연산하는 것으로 비교적 정확한 객체별 크기를 측정할 수 있으며, 지속적으로 수신되는 샘플 영상을 기초로 실재 공간과 대응되는 영상 내 3차원 공간의 정확도를 높일 수 있다.In this case, the control server 100 may be different in height when the object type is a person due to individual deviation, so that if the measurement is relatively large or small among the various sample images collected from the image recording apparatus 10, By calculating the remaining cases by converting them into standard keys, a relatively accurate size of each object can be measured, and the accuracy of the three-dimensional space in the image corresponding to the real space can be increased based on the continuously received sample image.

더하여, 상술한 구성에서, 상기 관제 서버(100)는 필요한 경우 캘리브레이션에 사용될 기준 영상이나 객체 정보를 사용자에게 제공하여 해당 객체에 대한 정보를 확인할 수 있다.In addition, in the above-described configuration, the control server 100 may check the information on the object by providing the user with reference image or object information to be used for calibration if necessary.

일례로, 상기 관제 서버(100)는 상기 영상 기록 장치(10)와의 통신을 통해 사용자에게 영상에 나타나는 특정 객체의 종류나 키를 질의할 수 있으며, 서로 다른 샘플 영상 각각에 나타나는 객체가 동일 객체인지 여부를 질의할 수도 있다.For example, the control server 100 may inquire the user of the type or key of a specific object appearing in the image through communication with the video recording apparatus 10, and whether the object appearing in each of the different sample images is the same object. You can also query whether or not.

또한, 상기 관제 서버(100)는 상기 질의에 사용자가 응답하여 생성된 응답정보를 상기 영상 기록 장치(10)로부터 수신하여 상기 객체정보의 생성시 상기 응답 정보를 반영하여 생성할 수 있다.In addition, the control server 100 may receive the response information generated by the user in response to the query from the video recording device 10 and generate the object information by reflecting the response information.

한편, 도 4에 도시된 바와 같이, 상기 관제 서버(100)는 특정 카메라부(11)에 대응되어 상기 특정 카메라부(11)의 상기 카메라 정보와 상기 특정 카메라부(11)에 대응되어 생성된 상기 기준 공간 정보를 기초로 상기 특정 카메라부(11)의 시점 관련 복수의 속성별 파라미터를 포함하는 캘리브레이션 정보를 산출할 수 있다.On the other hand, as shown in Figure 4, the control server 100 is generated corresponding to the camera information and the specific camera unit 11 of the specific camera unit 11 corresponding to the specific camera unit 11 Based on the reference space information, calibration information including a plurality of property-related parameters of a viewpoint of the specific camera unit 11 may be calculated.

즉, 상기 관제 서버(100)는 상기 특정 카메라부(11)의 스펙 관련 카메라 정보를 기초로 카메라의 시점을 상기 기준 공간 정보에 매핑시키기 위한 미리 설정된 캘리브레이션 관련 속성별 파라미터를 산출하고, 상기 속성별 파라미터를 포함하는 캘리브레이션 정보를 상기 카메라부(11)에 대응되어 산출(생성)할 수 있다.That is, the control server 100 calculates a preset calibration-related attribute parameter for mapping the camera's viewpoint to the reference spatial information based on the spec-related camera information of the specific camera unit 11, Calibration information including parameters may be calculated (generated) in correspondence with the camera unit 11.

이때, 상기 캘리브레이션을 위해 미리 설정된 속성은 카메라의 시점 높이(h), 카메라의 지향각, 카메라의 시야각(FOV: Field of View), 렌즈 특성, 초점 거리 등을 포함할 수 있다.In this case, the attributes set in advance for the calibration may include a camera's viewpoint height (h), a camera's orientation angle, a camera's field of view (FOV), lens characteristics, a focal length, and the like.

또한, 상기 관제 서버(100)는 상기 영상 기록 장치(10)에 연결된 카메라부(11)가 복수인 경우 상기 영상 기록 장치(10)로부터 영상 수신시 수신 영상에 대응되는 카메라부(11)의 식별정보를 영상과 함께 수신하여 DB(101)에 저장할 수 있으며, 상기 식별정보를 기초로 카메라부(11)를 개별 관리하여 복수의 서로 다른 카메라부(11) 각각에 대응되어 상기 캘리브레이션 정보를 산출할 수 있다.In addition, the control server 100 may identify the camera unit 11 corresponding to the received image when receiving the image from the image recording apparatus 10 when there are a plurality of camera units 11 connected to the image recording apparatus 10. Information may be received together with the image and stored in the DB 101. The calibration information may be calculated in correspondence with each of the plurality of different camera units 11 by individually managing the camera units 11 based on the identification information. Can be.

상술한 구성을 통해, 상기 관제 서버(100)는 카메라부(11)와 DVR과 같은 영상 기록 장치(10)를 설치한 후 일정 기간(초기 설정 기간) 동안 감시 대상 객체가 검출된 카메라부(11)의 영상을 상기 영상 기록 장치(10)로부터 수신하여 수집하고, 영상의 객체를 분석하여 객체 종류별로 화면의 여러 영역에 객체가 표시되는 상태를 통해 객체 종류별로 카메라부(11)의 감시 영역 관련 실재 공간과 매핑되는 영상 내 3차원 공간을 산출한 후 이를 서로 다른 객체 종류 상호 간 비교하여 카메라부(11)의 캘리브레이션을 위한 기준 공간을 산출할 수 있으며, 이를 기반으로 감시 영역인 실재 공간과 영상 내 3차원 공간의 매핑을 위한 카메라부(11)의 시점에 대한 캘리브레이션 관련 파라미터를 상기 기준 공간에 맞추어 자동 산출하여 실재 공간에 위치하는 실재 객체와 상기 카메라부(11)의 영상에 나타나는 3차원 공간 상의 객체를 상호 매핑시키기 위한 캘리브레이션 정보를 자동 산출할 수 있다.Through the above-described configuration, the control server 100 installs the camera unit 11 and the image recording apparatus 10 such as a DVR, and then the camera unit 11 in which the monitored object is detected for a predetermined period (initial setting period). ) Is received from the video recording device 10 and collected, the object of the image is analyzed and the object is displayed in various areas of the screen for each object type. After calculating the three-dimensional space in the image mapped to the real space and comparing it with different object types, it is possible to calculate the reference space for the calibration of the camera unit 11, based on the real space and the image as the surveillance area The real object located in the real space by automatically calculating the calibration-related parameters for the viewpoint of the camera unit 11 for the mapping of the three-dimensional space in accordance with the reference space The calibration information for cross-mapping an object on the three-dimensional space displayed on the image of the camera unit 11 can be automatically calculated.

또한, 상기 관제 서버(100)는 상기 캘리브레이션 정보를 상기 영상 기록 장치(10)로 전송할 수 있으며, 상기 영상 기록 장치(10)는 상기 캘리브레이션 정보에 대응되는 카메라부(11)를 제어하여 상기 카메라부(11)의 시점 관련 속성별 파라미터를 상기 캘리브레이션 정보에 따라 자동 설정할 수도 있다.In addition, the control server 100 may transmit the calibration information to the image recording apparatus 10, and the image recording apparatus 10 controls the camera unit 11 corresponding to the calibration information to control the camera unit. The parameter per view-related attribute of (11) may be automatically set according to the calibration information.

이에 따라, 본 발명은 특정 카메라부(11)에 대응되는 캘리브레이션 정보를 관제 서버(100)에서 자동 산출할 수 있으므로 기존과 같은 숙련자의 복잡한 작업을 거칠 필요 없이 자동으로 초기 설정 기간 동안 캘리브레이션이 수행되도록 지원하여 캘리브레이션에 대한 사용자의 편의성과 더불어 다양한 저가의 카메라를 시스템 구성에 이용할 수 있도록 지원할 수 있을 뿐만 아니라 숙련자의 작업 비용을 절감하여 영상 기록 장치(10)로 구성된 시스템 구축 비용을 크게 절감할 수 있도록 지원할 수 있다.Accordingly, the present invention can automatically calculate the calibration information corresponding to the specific camera unit 11 in the control server 100 so that the calibration is automatically performed during the initial setting period without having to go through the complicated work of the skilled person as before. In addition to the user's convenience for calibration, various low-cost cameras can be used to configure the system, as well as to reduce the operation cost of the skilled person, thereby greatly reducing the system construction cost of the video recording device 10. Can support

한편, 상술한 과정에서, 상기 카메라부(11)의 설치 위치 상 객체 출현 빈도가 낮은 감시 영역이 상기 카메라부(11)의 감시 대상 영역인 경우 관제 서버(100)에서 샘플 영상이 충분히 수집되지 않아 캘리브레이션 과정의 필요 시간이 길어질 수 있고 예외적인 상황이 많은 경우 자동 캘리브레이션에 오차가 발생할 수 있는 등의 가변적인 요인이 존재할 수 있다.On the other hand, in the above-described process, when the monitoring area with a low frequency of object appearance on the installation position of the camera unit 11 is the monitoring target area of the camera unit 11 is not enough sample image collected by the control server 100 There may be variable factors such as the time required for the calibration process may be long, and in the case of many exceptional circumstances, an error may occur in the automatic calibration.

이에 따라, 비전문가인 사용자는 설치된 영상 기록 장치(10)와 카메라의 캘리브레이션 진행 과정이나 품질을 명확히 알기 어려운 문제가 있다.Accordingly, a non-expert user has a problem that it is difficult to clearly know the calibration process or quality of the installed image recording apparatus 10 and the camera.

이를 보완하기 위한 본 발명의 상세 구성을 도 5를 통해 상세히 설명한다.Detailed configuration of the present invention to compensate for this will be described in detail with reference to FIG.

도 5에 도시된 바와 같이, 상기 관제 서버(100)는 상기 객체 정보 및 카메라 정보를 통해 얻어지는 캘리브레이션 정보의 산출 관련 진행 상태에 대한 상태 정보를 특정 카메라부(11)에 대응되어 생성하고 상기 객체 정보의 수집에 따른 상기 상태 정보의 갱신시마다 상기 영상 기록 장치(10)로 상기 특정 카메라부(11)에 대응되는 상태 정보를 전송할 수 있다.As shown in FIG. 5, the control server 100 generates state information on a progress state related to the calculation of the calibration information obtained through the object information and the camera information, corresponding to a specific camera unit 11, and the object information. Whenever the state information is updated according to the collection of the state information, the state information corresponding to the specific camera unit 11 may be transmitted to the image recording apparatus 10.

이때, 상기 상태 정보는 특정 카메라부(11)의 식별정보를 포함할 수 있다.In this case, the state information may include identification information of the specific camera unit 11.

일례로, 상기 관제 서버(100)는 특정 카메라부(11)에 대응되어 DB(101)에 저장되는 객체 정보를 기초로 객체 종류별 공간 정보를 산출하고, 서로 다른 복수의 객체 종류와 각각 대응되는 복수의 서로 다른 공간 정보 사이의 편차 정도를 기초로 상기 캘리브레이션 정보의 산출 관련 진행 상태에 대한 진행 정도를 산출할 수 있다.For example, the control server 100 calculates spatial information for each object type based on the object information stored in the DB 101 corresponding to the specific camera unit 11, and corresponds to a plurality of different object types, respectively. Based on the degree of deviation between different spatial information of may be calculated the degree of progress for the calculation related progress state of the calibration information.

즉, 상기 관제 서버(100)는 편차 정도가 크게 벌어진 경우 진행 정도가 낮은 상태 정보를 산출하고, 객체 정보가 지속적으로 수집되어 편차가 줄어들수록 진행 정도를 높여 상기 상태 정보를 지속 갱신할 수 있다.That is, the control server 100 may calculate the state information having a low progress level when the deviation degree is greatly increased, and continuously update the state information by increasing the progress level as object information is continuously collected and the deviation decreases.

또한, 상기 관제 서버(100)는 상기 상태 정보의 갱신시마다 상기 상태 정보를 전송하여 상기 캘리브레이션 정보의 산출 관련 진행 상태를 사용자가 실시간 확인할 수 있도록 제공할 수 있다.In addition, the control server 100 may transmit the state information every time the state information is updated, so that the user may check the progress of calculating the calibration information in real time.

또한, 상기 영상 기록 장치(10)는 상기 상태 정보 수신시 상기 상태 정보에 대응되는 특정 카메라부(11)에 대응되어 상기 영상 기록 장치(10)에 연결된 모니터(12)를 통해 상기 상태 정보를 출력할 수 있으며, 이를 통해 사용자가 모니터(12)를 통해 해당 모니터(12)에 대응되는 카메라부(11)의 캘리브레이션 진행 상태를 실시간 확인할 수 있다.In addition, the image recording apparatus 10 outputs the state information through the monitor 12 connected to the image recording apparatus 10 corresponding to the specific camera unit 11 corresponding to the state information when the state information is received. Through this, the user may check the calibration progress state of the camera unit 11 corresponding to the corresponding monitor 12 in real time through the monitor 12.

또한, 상기 관제 서버(100)는 상기 영상 기록 장치(10)에 대응되어 미리 설정된 사용자 단말(20)을 식별하고, 상기 상태정보에 따른 캘리브레이션의 진행 상태에 따라 사용자 참여를 유도하기 위한 메시지를 생성하여 상기 사용자 단말(20)로 전송할 수 있다.In addition, the control server 100 identifies a user terminal 20 that is set in advance in correspondence with the video recording apparatus 10, and generates a message for inducing user participation according to the progress of calibration according to the status information. Can be transmitted to the user terminal 20.

이에 따라, 사용자는 카메라부(11)별로 캘리브레이션 진행 상태를 모니터(12) 또는 사용자 단말(20)을 통해 실시간 확인할 수 있으며, 캘리브레이션 진행 상태가 더딘 특정 카메라부(11)를 식별하고, 해당 특정 카메라부(11)의 캘리브레이션 진행 속도를 높이기 위해 직접 상기 특정 카메라부(11)의 감시 영역에 출현하여 사용자가 객체로서 검출되는 샘플 영상이 관제 서버(100)에서 지속적으로 수집되어 캘리브레이션 진행이 빠르게 진행되도록 캘리브레이션 진행 과정에 참여할 수 있다.Accordingly, the user can check the calibration progress for each camera unit 11 in real time through the monitor 12 or the user terminal 20, identify the specific camera unit 11 that is slow in calibration, and identify the specific camera. In order to speed up the calibration process of the unit 11, a sample image that appears directly in the surveillance area of the specific camera unit 11 and is detected by the user as an object is continuously collected from the control server 100 so that the calibration process can proceed quickly. Participate in the calibration process.

즉, 상기 관제 서버(100)는 상기 캘리브레이션 진행 상태에 대한 상태 정보를 영상 기록 장치(10)에 연결된 모니터(12)를 통해 사용자에게 제공하여, 캘리브레이션 진행 속도가 더딘 카메라부(11)에 대응되어 캘리브레이션 진행 속도를 높이기 위해 사용자의 참여를 유도할 수 있으며, 이를 통해 초기 설정 기간을 단축하여 사용자의 만족도를 높일 수 있다.That is, the control server 100 provides the user with the state information on the calibration progress state through the monitor 12 connected to the image recording apparatus 10 to correspond to the camera 11 having a slow progression of calibration. In order to speed up the calibration process, user participation can be encouraged. This can shorten the initial setup period and increase user satisfaction.

이때, 상기 관제 서버(100)는 상기 사용자에 대응되어 미리 설정된 사용자 단말(20)로 상기 카메라부(11)별 상태 정보를 통신망을 통해 전송하여 제공할 수도 있으며, 상기 사용자 단말(20)을 통해 상기 카메라부(11)별 상태 정보가 표시되도록 할 수도 있다.In this case, the control server 100 may transmit and provide the state information for each of the camera units 11 to the user terminal 20 preset in correspondence with the user through a communication network, or through the user terminal 20. Status information for each of the camera units 11 may be displayed.

상술한 구성을 통해, 본 발명은 영상 기록 장치(10)에 연결된 카메라별로 상기 캘리브레이션의 진행 상태에 대한 정보가 상기 영상 기록 장치(10)에 연결된 모니터(12)를 통해 표시되도록 할 수 있어 사용자가 캘리브레이션 진행 상태를 용이하게 확인할 수 있도록 지원함으로써 사용자의 시스템 구축 편의성을 크게 높임과 동시에 캘리브레이션 진행 속도가 더딘 카메라의 캘리브레이션 진행 속도를 높이기 위해 사용자의 참여를 유도하여 초기 설정 기간을 단축시킬 수 있도록 지원함으로써 빠른 캘리브레이션을 통한 사용자의 만족도를 크게 높일 수 있다.Through the above-described configuration, the present invention allows the user to display information on the progress of the calibration for each camera connected to the image recording apparatus 10 through the monitor 12 connected to the image recording apparatus 10. By making it easy to check the calibration progress, it greatly improves the user's convenience of system construction and encourages the user's participation to shorten the calibration progress of the camera, which slows the calibration progress. Fast calibration can greatly increase user's satisfaction.

한편, 상술한 구성에서, 샘플 영상을 통해 객체를 식별하고 캘리브레이션을 수행하기 위해 관제 서버(100)가 사용자의 영상 기록 장치(10)에 접근(접속)하여 영상을 수집해야 하므로 개인 정보 보호나 접근 권한이 관제 서버(100)를 운영하는 관제 센터에 존재한다는 부담이 있어 사용자의 불만이 나타날 수 있다.Meanwhile, in the above-described configuration, in order to identify and calibrate an object through a sample image, the control server 100 needs to access (access) the user's video recording apparatus 10 to collect images, thereby protecting personal information or access. Complaints of the user may appear due to the burden that the authority exists in the control center operating the control server 100.

특히, 저가의 카메라나 DVR의 경우 해킹에 대한 위험도 존재하며 관제센터의 관리자가 임의로 사용자 영상에 접근할 수 있다는 불안감도 존재한다.In particular, there is a risk of hacking in the case of a low-cost camera or DVR, and there is also anxiety that the administrator of the control center can randomly access the user's video.

이에 따라, 캘리브레이션 진행 과정에서만 상기 관제 서버(100)의 영상 수집을 위한 접근을 허용하고, 캘리브레이션이 완료되면 사용자에게만 카메라와 영상 기록 장치(10)의 접근 권한이 설정되도록 접근 권한을 사용자에게 이관한 후 접근 권한을 관리하여 해킹 위협에 대처할 수 있는 보안성이 요구된다.Accordingly, only the calibration process is allowed to access the image collection of the control server 100, and when the calibration is completed, the access authority is transferred to the user so that only the user can set the access rights of the camera and the image recording apparatus 10. Security is required to cope with hacking threats by managing access rights afterwards.

이를 위한, 본 발명의 구성을 도 6을 통해 상세히 설명한다.To this end, the configuration of the present invention will be described in detail with reference to FIG.

도시된 바와 같이, 상기 관제 서버(100)는 상기 영상 기록 장치(10)에 대한 캘리브레이션이 완료되면, 상기 사용자의 영상에 대한 상기 관제 서버(100)의 접근 권한을 자동 해제하고, 상기 접근 권한을 이관하기 위한 이관 정보를 생성하여 사용자와 연관된 상기 영상 기록 장치(10)로 통신망을 통해 전송할 수 있다.As shown in the drawing, the control server 100 automatically releases the access right of the control server 100 to the image of the user when the calibration of the video recording apparatus 10 is completed, and the access right is removed. The transfer information for transferring may be generated and transmitted to the image recording apparatus 10 associated with the user through a communication network.

이를 위해, 상기 초기 설정 기간 동안에만 상기 사용자의 영상 기록 장치(10)에 대한 접근 권한을 상기 관제 서버(100)에 설정하기 위한 설정 정보가 상기 관제 서버(100)에 저장되고, 상기 설정 정보는 캘리브레이션이 필요한 상기 영상 기록 장치(10)에 연결된 하나 이상의 카메라부(11) 각각에 대한 식별정보를 포함되며, 상기 식별정보와 매칭되어 접근 권한이 상기 설정정보에 설정될 수 있다.To this end, setting information for setting the access right of the user's video recording apparatus 10 to the control server 100 only during the initial setting period is stored in the control server 100, and the setting information is Identification information for each of the one or more camera units 11 connected to the image recording apparatus 10 that requires calibration may be included, and access rights may be set in the setting information by matching the identification information.

이에 따라, 상기 관제 서버(100)는 상기 영상 기록 장치(10)에 연결된 카메라부(11)별로 상기 상태 정보에 따른 진행 상태 또는 상기 캘리브레이션 정보의 생성 여부에 따른 캘리브레이션 완료 여부를 판단한 후 캘리브레이션이 완료된 카메라부(11)에 대응되어 상기 설정 정보에서 접근 권한을 삭제하고, 상기 접근 권한을 사용자에게 이관 시키기 위한 이관 정보를 상기 영상 기록 장치(10)로 전송할 수 있다.Accordingly, the control server 100 determines whether the calibration is completed according to the progress state according to the state information or the generation of the calibration information for each camera unit 11 connected to the image recording apparatus 10, and then the calibration is completed. In response to the camera unit 11, the access authority may be deleted from the setting information, and the transfer information for transferring the access authority to the user may be transmitted to the image recording apparatus 10.

이때, 상기 관제 서버(100)는 상기 이관 정보를 상기 사용자 단말(20)로 전송하여 캘리브레이션이 완료된 카메라부(11)에 대한 접근 권한이 이관되어 접근 권한이 사용자에게만 존재한다는 것을 사용자에게 알릴 수 있다.In this case, the control server 100 may transmit the transfer information to the user terminal 20 to inform the user that the access authority for the calibrated camera unit 11 is transferred and the access authority exists only to the user. .

또한, 상기 영상 기록 장치(10)는 상기 이관 정보 수신시 상기 이관 정보에 포함된 카메라부(11)의 식별 정보에 대응되는 카메라부(11)의 영상에 대한 접근 권한을 사용자로 한정한 권한 정보를 자체 설정할 수 있다.In addition, the image recording device 10, when receiving the transfer information, the authority information to limit the access right to the image of the camera unit 11 corresponding to the identification information of the camera unit 11 included in the transfer information to the user Can be set by itself.

이때, 상기 영상 기록 장치(10)는 캘리브레이션이 완료된 특정 카메라부(11) 이외의 상기 영상 기록 장치(10)에 연결된 다른 카메라부(11)에 대한 캘리브레이션이 완료되어 상기 관제 서버(100)로부터 상기 다른 카메라부(11)에 대한 이관 정보를 수신한 경우 미리 생성된 상기 권한 정보에 상기 다른 카메라부(11)의 영상에 대한 접근 권한을 설정하여 상기 권한 정보를 갱신시킬 수 있다.At this time, the image recording apparatus 10 is completed calibration with respect to the other camera unit 11 connected to the image recording apparatus 10 other than the specific camera unit 11 has been completed calibration from the control server 100 When receiving transfer information for the other camera unit 11, the authority information may be updated by setting an access right to the image of the other camera unit 11 in the previously generated authority information.

또한, 상기 영상 기록 장치(10)는 상기 캘리브레이션이 완료된 카메라부(11)의 영상에 대해 권한이 없는 타 사용자가 상기 권한 정보를 변경하여 사용자의 영상에 무단 접근하는 해킹 위협으로부터 보안을 유지하기 위해, 하나 이상의 타 기록 장치와 P2P(peer to peer) 방식으로 연결되어 상기 권한 정보의 접근 이력(또는 접속 이력)과 관련된 트랜잭션(transaction) 정보 생성시 상기 트랜잭션 정보를 상기 타 영상 기록 장치(30)와 블록 체인(block chain) 방식으로 공유하여 저장할 수 있다.In addition, the video recording device 10 is to maintain the security from hacking threats that unauthorized users access the user's video by changing the authority information for the user of the calibration is complete image of the camera unit 11 At least one other recording device connected to at least one other recording device in a peer-to-peer manner to generate transaction information related to the access history (or access history) of the authority information. Can be shared and stored in a block chain manner.

즉, 상기 영상 기록 장치(10)는 상기 영상 기록 장치(10)와 연결된 카메라부(11)의 영상에 접근하기 위해 상기 권한 정보의 변경에 따른 접근 이력에 대한 신규 트랜잭션 정보 생성시 상기 트랜잭션 정보를 기존에 상기 영상 기록 장치(10)가 생성한 트랜잭션 정보와 상기 타 영상 기록 장치(30)와 P2P 방식의 연결을 통해 기존에 타 영상 기록 장치(30)로부터 수신된 트랜잭션 정보를 기초로 블록 체인 방식에 따른 상기 신규 트랜잭션 정보의 저장을 위한 블록해쉬(Hash of Block)값을 생성한 후 상기 블록해쉬값을 포함하는 상기 신규 트랜잭션 정보에 대응되는 블록을 생성하여 저장할 수 있다.That is, the image recording apparatus 10 may generate the transaction information when generating new transaction information on the access history according to the change of the authority information in order to access the image of the camera unit 11 connected to the image recording apparatus 10. Based on the transaction information generated by the video recording device 10 and the transaction information received from the other video recording device 30 through the P2P method with the other video recording device 30, the blockchain method is used. After generating a block hash (Hash of Block) value for the storage of the new transaction information according to can generate and store a block corresponding to the new transaction information including the block hash value.

또한, 상기 영상 기록 장치(10)는 상기 신규 트랜잭션 정보를 상기 타 영상 기록 장치(30)로 전송하여 타 영상 기록 장치(30)에서 상기 신규 트랜잭션 정보에 대응되는 블록이 생성되어 저장되도록 할 수 있다.In addition, the video recording device 10 may transmit the new transaction information to the other video recording device 30 so that the block corresponding to the new transaction information is generated and stored in the other video recording device 30. .

이를 통해, 상기 영상 기록 장치(10)는 권한 정보에 대한 접근 이력을 모두 블록체인에 저장하여 사용자가 확인할 수 있도록 지원하며, 이를 통해 부당한 목적으로 접근하는 경우나 반출하는 경우 등을 알 수 있도록 지원할 수 있다.Through this, the video recording apparatus 10 supports the user to check all the access histories of the authority information by storing them in the blockchain, and through this, assist the user to know the case of access or export for an unfair purpose. Can be.

이를 통해, 권한이 없는 타사용자가 자신의 무단 접근 이력을 제거하기 위해 상기 트랜잭션 정보에 접근하는 경우 타 영상 기록 장치(30)에 블록 체인 방식으로 저장된 블록에 트랜잭션 정보의 기록이 존재하므로, 무권리자의 해킹을 용이하게 추적할 수 있도록 지원한다.Through this, when another unauthorized user accesses the transaction information to remove his / her unauthorized access history, the transaction information is recorded in a block stored in another video recording device 30 in a blockchain manner. It helps to track hacking easily.

특히 반출의 경우 영상 반출에 대한 블록의 해쉬 저장 정보(또는 블록 해쉬값)를 통해서 반출된 영상의 유효성을 블록체인 기반으로 확인할 수 있어 사용자가 반출을 확인할 수 있고, 반출 영상에 대한 신뢰성을 확보할 수 있다.Especially in the case of export, the validity of the exported image can be checked on the basis of block chain through the hash storage information (or block hash value) of the block for exporting the image so that the user can confirm the export and secure the reliability of the exported image. Can be.

더하여, 상기 영상 기록 장치(10)는 권한 정보의 변경이 요청되는 경우 단일 블록 내에서 블록 해쉬값을 통해 무결성을 확인하여 정당한 변경인지 확인할 수 있으며, 해킹인 경우 상기 권한 정보의 변경을 자동 차단할 수 있다.In addition, when the change of the authority information is requested, the video recording apparatus 10 may check the integrity through a block hash value within a single block to check whether the change is a legitimate change, and in the case of hacking, automatically change the authority information. have.

상술한 구성을 통해, 본 발명은 카메라부(11)의 캘리브레이션을 위한 초기 설정 과정 중 영상 분석을 위해 관제 서버(100)로 전송되는 영상에 대한 접근 권한을 캘리브레이션의 설정 완료 이후 사용자에게 이관하고, 이후 사용자 영상에 대한 접근 정보를 블록체인 기술을 이용하여 관리하도록 함으로써 관제센터와 분리된 접근성 관리(P2P를 이용한 블록체인 관리)를 통해 안전성을 높이도록 지원할 수 있다.Through the above-described configuration, the present invention transfers the access right for the image transmitted to the control server 100 for image analysis during the initial setting process for calibration of the camera unit 11 to the user after the completion of the setting of the calibration, Afterwards, access information for user images can be managed using blockchain technology, which can support security enhancement through accessibility management (blockchain management using P2P) separated from the control center.

한편, 상술한 구성에서, 상기 영상 기록 장치(10)에는 상기 영상 기록 장치(10)의 전반적인 제어 기능을 수행하는 장치 제어부가 구성되고, 상기 관제 서버(100)에는 상기 관제 서버(100)의 전반적인 제어 기능을 수행하는 서버 제어부가 구성될 수 있다.On the other hand, in the above-described configuration, the video recording device 10 is configured with a device controller for performing the overall control function of the video recording device 10, the control server 100 is the overall control of the control server 100 A server controller for performing a control function may be configured.

이때, 상기 장치 제어부 및 서버 제어부는 제어부로서 동작할 수 있으며, 상기 제어부는 영상 기록 장치(10) 또는 관제 서버(100)의 저장부에 저장된 프로그램 및 데이터를 이용하여 상기 영상 기록 장치(10) 또는 관제 서버(100)의 전반적인 제어 기능을 실행한다. 제어부는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 저장부에 액세스하여, 저장부에 저장된 O/S(Operating System)를 이용하여 부팅을 수행할 수 있으며, 저장부에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 본 발명에서 설명하는 다양한 동작을 수행할 수 있다. In this case, the device control unit and the server control unit may operate as a control unit, wherein the control unit uses the program and data stored in the storage unit of the video recording device 10 or the control server 100 or the video recording device 10 or The overall control function of the control server 100 is executed. The controller may include a RAM, a ROM, a CPU, a GPU, a bus, and the RAM, a ROM, a CPU, a GPU, and the like may be connected to each other through a bus. The CPU may access the storage unit to perform booting using an operating system (O / S) stored in the storage unit, and various operations described in the present disclosure using various programs, contents, data, etc. stored in the storage unit. Can be performed.

또한, 상기 장치 제어부는 영상 분석 알고리즘을 통한 객체 검출을 수행할 수 있으며, 상기 서버 제어부는 상기 딥러닝 알고리즘을 기반으로 객체 식별을 통한 본 발명에서 설명하는 다양한 동작을 수행할 수 있다.The device controller may perform object detection through an image analysis algorithm, and the server controller may perform various operations described in the present invention through object identification based on the deep learning algorithm.

또한, 상기 영상 기록 장치(10) 및 관제 서버(100) 각각에는 사용자 입력을 수신하는 사용자 입력부, 통신망을 통해 외부 장치와 통신하는 통신부, 각종 데이터를 저장하는 저장부 등과 같은 다양한 구성부가 구성될 수 있음은 물론이다.In addition, each of the image recording apparatus 10 and the control server 100 may be configured with various components such as a user input unit for receiving user input, a communication unit for communicating with an external device through a communication network, a storage unit for storing various data, and the like. Of course.

도 7은 본 발명의 실시예에 따른 사용자의 감시 영역을 감시하는 영상 기록 장치(10)와 카메라부(11)의 설치에 따라 초기 설정 기간 중 자동으로 카메라 캘리브레이션이 수행되는 객체 식별을 통한 카메라 캘리브레이션 방법의 순서도이다.7 is a camera calibration through object identification in which camera calibration is automatically performed during an initial setting period according to the installation of the image recording apparatus 10 and the camera unit 11 for monitoring a surveillance area of a user according to an exemplary embodiment of the present invention. A flowchart of the method.

도시된 바와 같이, 상기 영상 기록 장치(10)는 상기 영상 기록 장치(10)에 연결된 카메라부(11)에서 수신되는 객체 존재 영상 및 상기 카메라부(11)의 스펙 관련 카메라 정보를 통신망을 통해 전송할 수 있다(S1).As shown, the image recording apparatus 10 transmits the object existence image received from the camera unit 11 connected to the image recording apparatus 10 and camera information related to the specification of the camera unit 11 through a communication network. It may be (S1).

또한, 상기 영상 기록 장치(10)와 통신망을 통해 통신하는 관제 서버(100)는 상기 영상 기록 장치(10)로부터 수신된 영상을 저장하고, 수신된 영상에 존재하는 객체를 미리 설정된 딥러닝 알고리즘에 따라 식별하여 객체의 종류, 위치 및 크기를 포함하는 객체 정보를 수집 저장할 수 있다(S2).In addition, the control server 100 which communicates with the video recording device 10 through a communication network stores the image received from the video recording device 10, and stores an object present in the received image in a preset deep learning algorithm. According to the identification, the object information including the type, position, and size of the object may be collected and stored (S2).

또한, 상기 관제 서버(100)는 상기 카메라부(11)의 캘리브레이션을 위한 미리 설정된 정보 수집 기준에 따라 상기 객체 정보 및 카메라 정보를 통해 얻어지는 캘리브레이션 정보의 산출 관련 진행 상태에 대한 상태 정보를 생성하고 상기 객체 정보의 수집에 따른 상기 상태 정보의 갱신시마다 상기 영상 기록 장치(10)로 상기 상태 정보를 전송할 수 있다(S3).In addition, the control server 100 generates the state information on the progress related to the calculation of the calibration information obtained through the object information and the camera information according to a preset information collection criteria for the calibration of the camera unit 11 and Each time the state information is updated according to the collection of object information, the state information may be transmitted to the video recording device 10 (S3).

이후, 상기 영상 기록 장치(10)는 상기 상태 정보 수신시 상기 카메라부(11)에 대응되어 상기 영상 기록 장치(10)에 연결된 모니터(12)를 통해 사용자가 캘리브레이션의 실시간 진행상태를 확인할 수 있도록 상기 상태 정보를 출력할 수 있다(S4).Thereafter, the image recording apparatus 10 corresponds to the camera unit 11 when receiving the state information so that the user can check the real-time progress of the calibration through the monitor 12 connected to the image recording apparatus 10. The state information may be output (S4).

본 명세서에 기술된 다양한 장치 및 구성부는 하드웨어 회로(예를 들어, CMOS 기반 로직 회로), 펌웨어, 소프트웨어 또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 전기적 구조의 형태로 트랜지스터, 로직게이트 및 전자회로를 활용하여 구현될 수 있다.Various devices and components described herein may be implemented by hardware circuitry (eg, CMOS based logic circuitry), firmware, software, or a combination thereof. For example, it may be implemented using transistors, logic gates, and electronic circuits in the form of various electrical structures.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description may be modified and modified by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to describe the present invention, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

10: 영상 기록 장치 11: 카메라부
12: 모니터 100: 관제 서버
10: video recording device 11: camera unit
12: monitor 100: control server

Claims (1)

사용자의 감시 영역을 감시하는 영상 기록 장치와 카메라부의 설치에 따라 초기 설정 기간 중 자동으로 카메라 캘리브레이션이 수행되는 객체 식별을 통한 카메라 캘리브레이션 시스템에 있어서,
연결된 카메라부에서 수신되는 객체 존재 영상 및 상기 카메라부의 스펙 관련 카메라 정보를 통신망을 통해 전송하는 영상 기록 장치; 및
상기 영상 기록 장치로부터 수신된 영상을 저장하고, 수신된 영상에 존재하는 객체를 미리 설정된 딥러닝 알고리즘에 따라 식별하여 객체의 종류, 위치 및 크기를 포함하는 객체 정보를 수집 저장하며, 상기 카메라부의 캘리브레이션을 위한 미리 설정된 정보 수집 기준에 따라 상기 객체 정보 및 카메라 정보를 통해 얻어지는 캘리브레이션 정보의 산출 관련 진행 상태에 대한 상태 정보를 생성하고 상기 객체 정보의 수집에 따른 상기 상태 정보의 갱신시마다 상기 영상 기록 장치로 상기 상태 정보를 전송하는 관제 서버
를 포함하며,
상기 영상 기록 장치는 상기 상태 정보 수신시 상기 카메라부에 대응되어 상기 영상 기록 장치에 연결된 모니터를 통해 사용자가 캘리브레이션의 실시간 진행상태를 확인할 수 있도록 상기 상태 정보를 출력하는 것을 특징으로 하는 객체 식별을 통한 카메라 캘리브레이션 시스템.
In the camera calibration system through object identification that the camera calibration is automatically performed during the initial setting period according to the installation of the image recording device and the camera unit for monitoring the user's surveillance area,
An image recording apparatus for transmitting the object existence image received from the connected camera unit and camera information related to the specification of the camera unit through a communication network; And
Stores the image received from the image recording device, identifies an object existing in the received image according to a preset deep learning algorithm, collects and stores object information including the type, position, and size of the object, and calibrates the camera unit. Generates state information on a progress state related to the calculation of the calibration information obtained through the object information and the camera information according to a preset information collection criterion, and updates the state information according to the collection of the object information to the image recording apparatus. Control server for transmitting the status information
Including;
When the image recording apparatus receives the state information, the image recording apparatus outputs the state information so that the user can check the real-time progress of the calibration through a monitor connected to the image recording apparatus. Camera calibration system.
KR1020190101627A 2019-08-20 2019-08-20 Calibration system and method for camera using object identification KR20190116154A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190101627A KR20190116154A (en) 2019-08-20 2019-08-20 Calibration system and method for camera using object identification

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190101627A KR20190116154A (en) 2019-08-20 2019-08-20 Calibration system and method for camera using object identification

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020180039127A Division KR102020845B1 (en) 2018-04-04 2018-04-04 Calibration system and method for camera using object identification

Publications (1)

Publication Number Publication Date
KR20190116154A true KR20190116154A (en) 2019-10-14

Family

ID=68171877

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190101627A KR20190116154A (en) 2019-08-20 2019-08-20 Calibration system and method for camera using object identification

Country Status (1)

Country Link
KR (1) KR20190116154A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100969576B1 (en) 2009-12-17 2010-07-12 (주)유디피 Camera parameter calibration apparatus and methof thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100969576B1 (en) 2009-12-17 2010-07-12 (주)유디피 Camera parameter calibration apparatus and methof thereof

Similar Documents

Publication Publication Date Title
US10581618B2 (en) System, method and apparatus for providing enrollment of devices in a network
KR101885720B1 (en) IOT base remote control system for building equipment available for control air quality of each indoor space
CN109982037A (en) Intelligent patrol detection device
US20120166007A1 (en) Method and system for integral energy management of buildings
CN110506413A (en) For network equipment safety and trust the determining system and method for score
CN110834327A (en) Robot control method and device
CN110598474B (en) Block chain-based data acquisition method, system, device and storage medium
CN108335454B (en) A kind of fire behavior detection method and device
CN104579857A (en) IoT (Internet of Things) communication method, IoT application platform, as well as IoT platform and system
CN103825872A (en) Communication apparatus and communication method
KR102020845B1 (en) Calibration system and method for camera using object identification
CN111131144B (en) IoT (Internet of things) equipment management method, device, server and storage medium
US20160239697A1 (en) Manager, management system, management method, and non-transitory computer readable storage medium
KR101466132B1 (en) System for integrated management of cameras and method thereof
KR20140070203A (en) Apparatus for integrity verification of firmware of embedded system and method thereof
EP3512228A1 (en) Method for securely providing analytics result and sensor device to determine authentic data
KR20190116154A (en) Calibration system and method for camera using object identification
US9158894B2 (en) Apparatus and method for analyzing rule-based security event association
CN114175031A (en) Information processing apparatus, information processing method, and program
KR101432039B1 (en) Method for remote monitoring using IP camera
KR101891926B1 (en) Remote control system for automation equipment
JP2007258957A (en) Video monitoring system and video display method thereof
CN112398841A (en) Wisdom agricultural cloud platform based on thing networking
KR101571015B1 (en) System and method for detecting and blocking illegal access point
KR101853786B1 (en) Security device unit for checking firmware verification code of CCTV

Legal Events

Date Code Title Description
A107 Divisional application of patent