KR20200055297A - PTZ camera control system and mothod based on reinforcement learning - Google Patents

PTZ camera control system and mothod based on reinforcement learning Download PDF

Info

Publication number
KR20200055297A
KR20200055297A KR1020180138790A KR20180138790A KR20200055297A KR 20200055297 A KR20200055297 A KR 20200055297A KR 1020180138790 A KR1020180138790 A KR 1020180138790A KR 20180138790 A KR20180138790 A KR 20180138790A KR 20200055297 A KR20200055297 A KR 20200055297A
Authority
KR
South Korea
Prior art keywords
camera
metadata
event
prediction information
reinforcement learning
Prior art date
Application number
KR1020180138790A
Other languages
Korean (ko)
Inventor
김동칠
박성주
김경만
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020180138790A priority Critical patent/KR20200055297A/en
Priority to PCT/KR2018/013916 priority patent/WO2020101063A1/en
Publication of KR20200055297A publication Critical patent/KR20200055297A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • H04N5/23299
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N5/23206

Abstract

Disclosed in the present invention are a PTZ camera control system based on reinforcement learning and a method thereof, which can increase precision of an image analysis service such as object detection, tracking, and scene recognition by improving the quality of an image through the physical movement of a camera instead of through an image processing software. To this end, the reinforcement learning-based PTZ camera control system of the present invention comprises: a means of receiving image analysis metadata generated by an image analysis; a means of extracting metadata related to an object or an event by analyzing the received image analysis metadata; a means of generating camera movement prediction information by predicting the movement of a PTZ camera suitable to the current state of the object or the event by means of a reinforcement learning model from the extracted metadata related to the object or the event; a means of configuring the PTZ camera movement prediction information as movement prediction information metadata; and a means of transmitting the configured PTZ camera movement prediction information metadata to a VMS server.

Description

강화학습 기반 PTZ 카메라 제어 시스템 및 방법 {PTZ camera control system and mothod based on reinforcement learning}PTZ camera control system and mothod based on reinforcement learning}

본 발명은 지능형 영상분석 서비스 환경에서 PTZ 카메라를 제어하는 기술에 관한 것이다.The present invention relates to a technology for controlling a PTZ camera in an intelligent video analysis service environment.

본 발명은 2017년도 과학기술정보통신부 및 정보통신기술진흥센터의 정보통신·방송 연구개발 사업(과제고유번호 2017-0-00250; 연구과제명: 엣지카메라 임베디드 시스템과 영상분석 시스템의 협업 강화학습 기반 지능형 국방경계 감시 시스템 핵심 기술 개발)의 연구결과로서 수행되었다.The present invention is an information communication and broadcasting research and development project of the Ministry of Science and ICT and the Information and Communication Technology Promotion Center in 2017. It was carried out as a result of research on the development of core technologies for intelligent defense surveillance systems.

최근 보안/안전, 비즈니스, 개인 서비스 분야에서 CCTV를 이용한 시설물 관제, 위험상황 판단 등과 같은 지능형 영상분석 서비스가 확대되고 있으며, 딥러닝 기술의 발달로 영상분석 서비스 산업이 성장할 전망이다. 영상분석 서비스 특성상 영상분석 알고리즘의 정확도는 수신되는 영상의 품질에 의존적이다. 즉 입력영상의 품질에 따라 영상분석 서비스 신뢰도가 변하기 때문에 영상분석이 용이하도록 입력 영상을 획득해야 한다.Recently, in the security / safety, business, and personal service fields, intelligent video analysis services such as facility control using CCTV and judging risk situations are expanding, and the video analytics service industry is expected to grow with the development of deep learning technology. Due to the nature of the image analysis service, the accuracy of the image analysis algorithm depends on the quality of the received image. That is, since the reliability of the image analysis service changes according to the quality of the input image, the input image must be acquired to facilitate image analysis.

이전의 방법은 영상의 품질을 향상시키기 위해 영상 개선(Image enhancement)과 같은 소프트웨어 기반의 영상처리 방법을 사용하여 품질을 개선하였지만, 검출 객체의 가려짐(Occlusion)이나 크기가 매우 작은 객체를 대상으로 한 영상분석의 경우에는 한계가 있고 이를 위해서는 물리적으로 카메라를 이동해야 할 필요가 있다.In the previous method, to improve the quality of the image, the quality was improved by using a software-based image processing method such as image enhancement, but for objects with very small size or occlusion of the detection object. In the case of an image analysis, there is a limit, and for this, it is necessary to physically move the camera.

본 발명은 영상처리 소프트웨어가 아닌 물리적인 카메라 이동을 통해 영상의 품질을 향상시켜서 객체 검출, 추적, 장면 이해 등 영상분석 서비스의 정확도를 향상시키기 위하여 강화학습에 기반하여 PTZ 카메라를 제어하는 시스템 및 방법을 제안한다. The present invention is a system and method for controlling a PTZ camera based on reinforcement learning to improve the accuracy of an image analysis service such as object detection, tracking, and scene understanding by improving the quality of an image through physical camera movement rather than image processing software. To suggest.

상기 과제를 해결하기 위하여, 본 발명에서는 VMS 서버와 연동되는 PTZ 카메라 제어 시스템과 제어 방법을 제공한다. In order to solve the above problems, the present invention provides a PTZ camera control system and control method interworking with a VMS server.

본 발명의 강화학습 기반 PTZ 카메라 제어 시스템은 영상분석에 의해 생성된 영상분석 메타데이터를 수신하는 수단, 상기 수신된 영상분석 메타데이터를 분석하여 객체 또는 이벤트와 관련된 메타데이터를 추출하는 수단, 상기 추출한 객체 또는 이벤트 관련 메타데이터로부터 현재 객체 또는 이벤트의 상태에 적합한 PTZ 카메라의 이동을 강화학습 모델로 예측하여 카메라 이동예측 정보를 생성하는 수단, 상기 PTZ 카메라 이동예측 정보를 이동예측 정보 메타데이터로 구성하는 수단, 상기 구성된 PTZ 카메라 이동예측 정보 메타데이터를 VMS 서버로 전송하는 수단을 포함할 수 있다. The PTZ camera control system based on reinforcement learning of the present invention includes means for receiving image analysis metadata generated by image analysis, means for analyzing the received image analysis metadata to extract metadata related to an object or event, and the extracted A means for predicting movement of a PTZ camera suitable for a current object or event state from an object or event-related metadata with an enhanced learning model, and generating camera movement prediction information, and configuring the PTZ camera movement prediction information as movement prediction information metadata And means for transmitting the configured PTZ camera movement prediction information metadata to a VMS server.

여기서 상기 객체 또는 이벤트 관련 메타데이터를 추출하는 수단에서 추출되는 객체 또는 이벤트 관련 메타데이터에는 객체 또는 이벤트의 위치 및 크기 데이터가 포함될 수 있다. Here, the object or event-related metadata extracted from the means for extracting the object or event-related metadata may include position and size data of the object or event.

또한 상기 객체 또는 이벤트 관련 메타데이터를 추출하는 수단은, 영상 내 객체 또는 이벤트의 해상도를 상기 강화학습 모델의 해상도에 맞도록 보정하는 수단을 추가로 포함할 수 있다.In addition, the means for extracting the object or event-related metadata may further include means for correcting the resolution of the object or event in the image to match the resolution of the reinforcement learning model.

그리고 상기 카메라 이동예측 정보 생성 수단에서 생성되는 카메라 이동예측 정보에는 카메라의 이동방향 및 이동값이 포함될 수 있다.In addition, the camera movement prediction information generated by the camera movement prediction information generating means may include a movement direction and a movement value of the camera.

또한, 상기 구성된 카메라 이동예측 정보 메타데이터에는 각 카메라 제어 시스템 ID와, 이 시스템 ID별로 부여되는 카메라 ID, 카메라 팬, 카메라 틸트, 카메라 줌, 카메라 기능 온/오프 정보를 포함하는 제어정보가 포함될 수 있다. In addition, the configured camera movement prediction information metadata may include control information including each camera control system ID and camera ID, camera pan, camera tilt, camera zoom, and camera function on / off information for each system ID. have.

한편, 본 발명의 강화학습 기반 PTZ 카메라 제어 방법은, 영상분석을 통해 영상분석 메타데이터를 생성하는 단계, 상기 영상분석 메타데이터를 분석하여 객체 또는 이벤트의 위치와 크기 데이터가 포함된 객체 또는 이벤트 관련 메타데이터를 추출하는 단계, 상기 추출한 객체 또는 이벤트 관련 메타데이터로부터 현재 객체 또는 이벤트의 상태에 적합한 PTZ 카메라의 이동방향 및 이동값이 포함된 이동 정보를 강화학습 모델로 예측하여 카메라 이동예측 정보를 생성하는 단계, 상기 PTZ 카메라 이동예측 정보를 이동예측 정보 메타데이터로 구성하는 단계를 포함할 수 있다.On the other hand, in the reinforcement learning based PTZ camera control method of the present invention, generating image analysis metadata through image analysis, and analyzing the image analysis metadata to relate the object or event including the location and size data of the object or event Extracting metadata, predicting movement information including the movement direction and movement value of a PTZ camera suitable for the current object or event state from the extracted object or event-related metadata with a reinforcement learning model to generate camera movement prediction information And configuring the PTZ camera movement prediction information as movement prediction information metadata.

이상에서 소개한 본 발명의 구성 및 작용은 차후에 도면과 함께 설명하는 구체적인 실시예를 통하여 더욱 명확해질 것이다. The configuration and operation of the present invention introduced above will be further clarified through specific embodiments described with reference to the drawings.

본 발명에 따르면, 강화학습에 기반하여 PTZ 카메라를 제어하는 방식으로 영상의 품질을 향상시킴으로써, 이상탐지(anomaly detection) 같은 영상분석 서비스 정확도 및 신뢰도 확보가 가능하고, 소프트웨어 기반의 영상처리 방법을 사용할 때의 객체의 가려짐이 발생하거나 매우 작은 객체의 경우의 영상분석을 효과적으로 수행가능하다.According to the present invention, by improving the image quality by controlling the PTZ camera based on reinforcement learning, it is possible to secure the accuracy and reliability of an image analysis service such as anomaly detection, and use a software-based image processing method. It is possible to effectively perform image analysis in the case of obscured objects or very small objects.

도 1은 본 발명의 일 실시예에 따른 강화학습 기반 PTZ 카메라 제어 방법의 흐름도
도 2는 강화학습을 수행하기 위한 강화학습 모델에 사용된 인공신경망 구조도
도 3은 PTZ 카메라 이동예측 정보 메타데이터의 구성도
1 is a flowchart of a method for controlling a PTZ camera based on reinforcement learning according to an embodiment of the present invention
Figure 2 is an artificial neural network structure diagram used in the reinforcement learning model for performing reinforcement learning
3 is a block diagram of PTZ camera movement prediction information metadata

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 기술되어 있는 실시예를 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있는 것이며, 단지 본 실시예는 본 발명의 개시가 완전하도록 하여 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다. 본 발명의 기술적 범위는 청구항의 기재에 의해 정의된다. Advantages and features of the present invention and methods for achieving them will be made clear by referring to embodiments described in detail with reference to the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present invention to be complete so that ordinary knowledge in the technical field to which the present invention pertains is provided. It is provided to fully inform the possessor of the scope of the invention. The technical scope of the invention is defined by the claims.

한편, 본 명세서에서 사용된 용어는 실시예를 설명하기 위한 것이며 본 발명을 제한하고자 하는 것이 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자 이외의 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.On the other hand, the terms used in this specification are for describing the embodiments and are not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" or "comprising" means the presence of one or more other components, steps, operations and / or elements other than the components, steps, operations and / or elements mentioned, or Addition is not excluded.

이하, 본 발명의 바람직한 실시예를 첨부 도면을 참조하여 상세히 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가급적 동일한 부호를 부여하고 또한 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있는 경우에는 그 상세한 설명을 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In adding reference numerals to the components of each drawing, the same components are assigned the same reference numerals as possible, even though they are shown on different drawings, and in describing the present invention, detailed descriptions of related well-known components or functions When the subject matter of the present invention can be obscured, the detailed description thereof will be omitted.

도 1은 본 발명의 일 실시예에 따른 강화학습 기반 PTZ 카메라 제어 방법의 흐름도이다. 1 is a flowchart of a method for controlling a PTZ camera based on reinforcement learning according to an embodiment of the present invention.

도 1을 참조하여 지능형 영상분석 서비스 환경에서의 강화학습 기반 PTZ 카메라 제어 방법에 대해 설명한다. 이하에서 설명하는 본 발명의 방법적 알고리즘 설명이, 본 발명에 따른 강화학습 기반 PTZ 카메라 제어 시스템의 장치적 구성의 설명을 대체할 수 있음은 당업자에게 자명할 것이다. 강화학습 기반 PTZ 카메라 제어 시스템은 영상분석 시스템과 함께 VMS(영상관제(관리)시스템) 서버의 일부로서 구현할 수 있다. 카메라 제어 시스템 및 영상분석 시스템과 VMS 서버와의 인터랙션 수단으로는 REST API를 이용할 수 있다. A method for controlling a PTZ camera based on reinforcement learning in an intelligent image analysis service environment will be described with reference to FIG. 1. It will be apparent to those skilled in the art that the method algorithm description of the present invention described below can replace the description of the device configuration of the PTZ camera control system based on reinforcement learning according to the present invention. The PTZ camera control system based on reinforcement learning can be implemented as part of a video management (management) system (VMS) server together with an image analysis system. REST API can be used as a means of interaction between the camera control system and the image analysis system and the VMS server.

이와 같이, 본 발명의 사상은 장치 측면 또는 방법적 측면으로 실시가능한데, 특히 본 발명의 각 구성요소의 기능(function) 또는 과정(process)은 DSP(digital signal processor), 프로세서, 컨트롤러, ASIC(application-specific IC), 프로그래머블 로직소자(FPGA 등), 기타 전자소자 중의 적어도 하나 그리고 이들의 조합이 포함되는 하드웨어 요소로써 구현 가능하다. 또한 하드웨어 요소와 결합되어 또는 독립적으로 소프트웨어로써도 구현 가능한데, 이 소프트웨어는 기록매체에 저장 가능하다.As described above, the spirit of the present invention can be implemented in terms of a device or a method. In particular, a function or process of each component of the present invention is a digital signal processor (DSP), processor, controller, or application of ASIC. -specific IC), programmable logic devices (FPGA, etc.), at least one of other electronic devices, and combinations thereof can be implemented as hardware elements. It can also be implemented as software in combination with hardware elements or independently, which can be stored on a record carrier.

110: 영상분석에 의해 생성된 JSON 형태의 메타데이터를 수신하는 단계.110: Receiving metadata in the form of JSON generated by image analysis.

JSON(JavaScript Object Notation) 형태 또는 형식은 속성-값 쌍 또는 키-값 쌍으로 이루어진 데이터 오브젝트를 전달하기 위해 인간이 읽을 수 있는 텍스트를 사용하는 개방형 표준 포맷으로, 특히, 인터넷에서 자료를 주고 받을 때 그 자료를 표현하는 방법이다. 자료의 종류에 큰 제한은 없으며, 특히 컴퓨터 프로그램의 변수값을 표현하는 데 적합하다.JavaScript Object Notation (JSON) form or format is an open standard format that uses human-readable text to pass data objects consisting of attribute-value pairs or key-value pairs, especially when sending and receiving data over the Internet. It is a way to express the material. There is no big limitation on the type of data, and it is particularly suitable for expressing variable values of computer programs.

영상분석에 의해 생성된 JSON 형태의 메타데이터는 영상분석 시스템에서 REST API로 수신할 수 있다. 예를 들어, 영상분석 시스템에 REST API 기반의 영상 수신부를 구성하여서 메타데이터를 수신할 수 있다. The metadata in JSON format generated by image analysis can be received by the REST API in the image analysis system. For example, a REST API based image receiving unit may be configured in the image analysis system to receive metadata.

120: 110 단계를 수행한 후, 수신된 영상분석 메타데이터를 분석하여 영상 내 객체 또는 이벤트 정보와 관련된 메타데이터만 추출하는 단계.120: After performing step 110, analyzing the received image analysis metadata to extract only metadata related to object or event information in the image.

여기서는 영상 내 객체 또는 이벤트의 위치 및 크기 데이터를 추출하여 강화학습 환경에 맞게 예를 들어 640×480 해상도 범위로 보정한다.Here, the location and size data of the object or event in the image are extracted and corrected to a 640 × 480 resolution range, for example, in accordance with the reinforcement learning environment.

130: 120 단계를 수행한 후, 강화학습을 이용하여 PTZ 카메라 이동을 예측하는 단계.130: After performing step 120, predicting the movement of the PTZ camera using reinforcement learning.

앞의 120 단계에서 추출한 객체 또는 이벤트의 위치 및 크기 메타데이터로부터 현재 객체 또는 이벤트 상태에 적합한 PTZ 카메라의 이동 방향 및 값을 강화학습을 이용하여 예측하는 단계이다. This is a step of predicting the movement direction and value of the PTZ camera suitable for the current object or event state from the location and size metadata of the object or event extracted in the previous step 120 using reinforcement learning.

강화학습(reinforcement learning: RL)은 확률적 의사결정 문제를 푸는 기계학습의 새로운 방법론으로, 지도학습(supervised learning)과 달리 보상 또는 리워드(reward) 함수가 주어져서 미래에 얻어질 리워드값들의 평균을 최대로 하는 정책 함수를 찾는 기계학습 기법이다. 즉, 지도학습과 달리 목표값(target)은 리워드이고 예측값은 정책(policy) 또는 액션(action)이다.Reinforcement learning (RL) is a new methodology for machine learning that solves probabilistic decision-making problems. Unlike supervised learning, reward or reward functions are given to maximize the average of reward values to be obtained in the future. It is a machine learning technique to find the policy function of. That is, unlike supervised learning, the target value is a reward and the predicted value is a policy or action.

도 2는 강화학습을 수행하기 위한 강화학습 모델에 사용한 인공신경망 구조를 나타낸다. 도 2에 나타낸 인공신경망은 입력층(Input layer)(10)과 출력층(Output layer)(20) 사이에 4개의 은닉층(Hidden layer)(30-1, 30-2, 30-3, 30-4)를 구성한 것이다. 이러한 인공신경망을 이용하여 강화학습 모델을 생성하기 위해서 아래와 같은 식을 활용하였다.2 shows an artificial neural network structure used in a reinforcement learning model for performing reinforcement learning. The artificial neural network shown in FIG. 2 has four hidden layers 30-1, 30-2, 30-3, and 30-4 between the input layer 10 and the output layer 20. ). The following equation was used to create a reinforcement learning model using this artificial neural network.

Figure pat00001
Figure pat00001

위 식은 강화학습에서의 학습 목표 설정에 관한 수식으로서, 각 변수의 정의는 다음과 같다.The above formula is a formula for setting a learning goal in reinforcement learning, and the definition of each variable is as follows.

Figure pat00002
: 반복 횟수,
Figure pat00003
: 총 반복 횟수
Figure pat00002
: Number of repetitions,
Figure pat00003
: Total number of iterations

Figure pat00004
: 현재 단계의 상태,
Figure pat00005
: 다음 단계의 상태. 좀 더 구체적으로,
Figure pat00006
는 객체의 현재 좌표 및 크기이고,
Figure pat00007
은 120과 130 단계에서 추정된 액션값과 방향으로 PTZ 카메라를 이동시켰을 때의 객체의 좌표 및 크기이다(객체의 좌표 및 크기
Figure pat00008
임).
Figure pat00004
: Status of the current stage,
Figure pat00005
: Status of the next step. More specifically,
Figure pat00006
Is the current coordinate and size of the object,
Figure pat00007
Is the coordinates and size of the object when the PTZ camera is moved in the direction and action values estimated in steps 120 and 130 (the coordinates and size of the object)
Figure pat00008
being).

Figure pat00009
: 현재 단계의 액션값,
Figure pat00010
: 다음 단계의 액션값 (본 발명에서 액션값은 (0.02, 0.06, 0.1, 0.14, 0.18, 0.22, 0.26, 0.3) 중 선택된 값)
Figure pat00009
: Action value of the current step,
Figure pat00010
: Action value of the next step (in the present invention, the action value is a value selected from (0.02, 0.06, 0.1, 0.14, 0.18, 0.22, 0.26, 0.3))

Figure pat00011
: 무작위성을 조절하는 가중치(Weight)(E-greedy 방법 사용)
Figure pat00011
: Weight to control randomness (using E-greedy method)

Figure pat00012
: 현재 단계의 Reward
Figure pat00012
: Reward at the current stage

Figure pat00013
: 인공신경망의 Weight,
Figure pat00014
: 복사된 인공신경망의 Weight
Figure pat00013
: Weight of artificial neural network,
Figure pat00014
: Weight of the copied artificial neural network

Figure pat00015
: Deep Q-learning 함수 (Q값을 산출한다)
Figure pat00015
: Deep Q-learning function (calculates Q value)

위 식에서 ①번 항은 인공신경망

Figure pat00016
를 이용해 현재 상태
Figure pat00017
와 현재 액션값
Figure pat00018
로 Q값(딥 Q-러닝 함수값)을 계산한다(현재 학습 목표 설정). ②번 항은 ①번 항에서 선택한
Figure pat00019
값으로 실제 액션을 수행한 후 변경된 다음 단계의 상태
Figure pat00020
와 새롭게 선택된 액션값
Figure pat00021
를 이용하여 복사된 인공신경망
Figure pat00022
을 통해 최대가 되는 Q값을 계산한다. 산출된 Q값은 가중치
Figure pat00023
로 조절하며, ①번 항 수행 후에 습득한 Reward를 결합한다(다음 단계 학습 목표 설정). ① 항과 ② 항의 에러를 줄일 수 있는
Figure pat00024
를 학습함으로써 강화학습이 수행된다.In the above equation, item ① is an artificial neural network.
Figure pat00016
Use Presence
Figure pat00017
And current action value
Figure pat00018
Calculate the Q value (deep Q-learning function value) with (Current learning goal setting). Item ② is selected in the item
Figure pat00019
The status of the next step that changed after performing the actual action with the value
Figure pat00020
And the newly selected action value
Figure pat00021
Artificial neural network copied using
Figure pat00022
Calculate the maximum Q value. The calculated Q value is the weight
Figure pat00023
Adjust to, and combine the Rewards acquired after performing ① (setting the next step learning goal). The errors in terms ① and ② can be reduced.
Figure pat00024
Reinforcement learning is performed by learning.

140: 130 단계를 수행한 후, 예측된 카메라 이동 정보를 JSON 형태의 메타데이터로 구성하는 단계.140: After performing step 130, constructing the predicted camera movement information into metadata in the form of JSON.

본 발명의 일 실시예에서는 JSON 형태의 PTZ 카메라 이동예측정보 메타데이터를 도 3과 같이 구성하였다. 'collabo_id'라는 코드명으로 시스템 ID를 구성하고, 'collabo_ctrl_info'라는 코드명으로 제어정보를 구성하였다. 각 제어정보에는 카메라 ID, 카메라 팬, 카메라 틸트, 카메라 줌, 카메라 기능 온/오프 정보를 부여하였다. In one embodiment of the present invention, JSON-type PTZ camera movement prediction information metadata is configured as shown in FIG. 3. The system ID was configured with the code name 'collabo_id', and the control information was configured with the code name 'collabo_ctrl_info'. Camera ID, camera pan, camera tilt, camera zoom, and camera function on / off information were assigned to each control information.

150: 140 단계를 수행하여 PTZ 카메라의 이동예측정보 메타데이터를 구성하였으면, 이 PTZ 카메라 이동예측정보 메타데이터를 REST API를 이용하여 비디오관리시스템(VMS) 서버로 전송하는 단계.Step 150: If the motion prediction information metadata of the PTZ camera is configured by performing step 140, transmitting the PTZ camera motion prediction information metadata to a video management system (VMS) server using a REST API.

160: 전송받은 PTZ 카메라 이동예측정보 메타데이터로부터 객체 또는 이벤트의 영상 내 위치 및 크기를 체크하는 단계.160: checking the position and size of the object or event in the video from the received PTZ camera movement prediction information metadata.

강화학습에 기반하여 PTZ 카메라의 물리적인 이동의 예측이 이루어지기 때문에 영상의 품질이 향상되고 객체 또는 이벤트의 검출, 추적, 장면 이해 등 영상분석 서비스의 정확도가 크게 향상될 수 있다. Since the physical movement of the PTZ camera is predicted based on reinforcement learning, the quality of an image is improved, and accuracy of an image analysis service such as detection of objects or events, tracking, and scene understanding can be greatly improved.

이상에서, 본 발명의 바람직한 실시예를 통하여 본 발명의 구성을 상세히 설명하였으나, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 본 명세서에 개시된 내용과는 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호범위는 상기 상세한 설명보다는 후술한 특허청구범위에 의하여 정해지며, 특허청구의 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태는 본 발명의 기술적 범위에 포함되는 것으로 해석되어야 한다.In the above, the configuration of the present invention has been described in detail through a preferred embodiment of the present invention, but those skilled in the art to which the present invention pertains are disclosed herein without changing the technical spirit or essential features of the present invention. It will be understood that it may be implemented in a specific form different from the content. It should be understood that the embodiments described above are illustrative in all respects and not restrictive. The protection scope of the present invention is defined by the claims below, rather than the above detailed description, and all changes or modifications derived from the claims and equivalent concepts should be interpreted to be included in the technical scope of the present invention. .

인공신경망 입력층(10), 출력층(20), 은닉층(30-1, 30-2, 30-3, 30-4)Artificial neural network input layer 10, output layer 20, hidden layer (30-1, 30-2, 30-3, 30-4)

Claims (8)

VMS 서버와 연동되는 PTZ 카메라 제어 시스템으로서,
영상분석에 의해 생성된 영상분석 메타데이터를 수신하는 수단,
상기 수신된 영상분석 메타데이터를 분석하여 객체 또는 이벤트와 관련된 메타데이터만 추출하는 수단,
상기 추출한 객체 또는 이벤트 관련 메타데이터로부터 현재 객체 또는 이벤트의 상태에 적합한 PTZ 카메라의 이동을 강화학습 모델로 예측하여 카메라 이동예측 정보를 생성하는 수단,
상기 PTZ 카메라 이동예측 정보를 이동예측 정보 메타데이터로 구성하는 수단,
상기 구성된 PTZ 카메라 이동예측 정보 메타데이터를 VMS 서버로 전송하는 수단을 포함하는 강화학습 기반 PTZ 카메라 제어 시스템.
As a PTZ camera control system that works with a VMS server,
Means for receiving image analysis metadata generated by image analysis,
Means for analyzing the received image analysis metadata and extracting only metadata related to an object or event,
Means for predicting the movement of the PTZ camera suitable for the current object or event state from the extracted object or event-related metadata with a reinforcement learning model and generating camera movement prediction information,
Means for configuring the PTZ camera movement prediction information as movement prediction information metadata,
Reinforcement learning-based PTZ camera control system comprising a means for transmitting the configured PTZ camera movement prediction information metadata to a VMS server.
제1항에서, 상기 객체 또는 이벤트 관련 메타데이터를 추출하는 수단에서 추출되는 객체 또는 이벤트 관련 메타데이터에는 객체 또는 이벤트의 위치 및 크기 데이터가 포함되는 강화학습 기반 PTZ 카메라 제어 시스템.The system of claim 1, wherein the object or event-related metadata extracted from the means for extracting the object or event-related metadata includes position and size data of the object or event. 제1항에서, 상기 객체 또는 이벤트 관련 메타데이터를 추출하는 수단은
영상 내 객체 또는 이벤트의 해상도를 상기 강화학습 모델의 해상도에 맞도록 보정하는 수단을 추가로 포함하는 강화학습 기반 PTZ 카메라 제어 시스템.
In claim 1, The means for extracting the object or event-related metadata
Reinforcement learning-based PTZ camera control system further comprises a means for correcting the resolution of the object or event in the image to match the resolution of the reinforcement learning model.
제1항에서, 상기 카메라 이동예측 정보 생성 수단에서 생성되는 카메라 이동예측 정보에는 카메라의 이동방향 및 이동값이 포함되는 강화학습 기반 PTZ 카메라 제어 시스템.The PTZ camera control system of claim 1, wherein the camera movement prediction information generated by the camera movement prediction information generating means includes a movement direction and a movement value of the camera. 제1항에서, 상기 구성된 카메라 이동예측 정보 메타데이터에는 각 카메라 제어 시스템 ID와, 이 시스템 ID별로 부여되는 카메라 ID, 카메라 팬, 카메라 틸트, 카메라 줌, 카메라 기능 온/오프 정보를 포함하는 제어정보가 포함되는 강화학습 기반 PTZ 카메라 제어 시스템.The method of claim 1, wherein the configured camera movement prediction information metadata includes control information including each camera control system ID and camera ID, camera pan, camera tilt, camera zoom, and camera function on / off information for each system ID. Including reinforcement learning based PTZ camera control system. 영상분석을 통해 영상분석 메타데이터를 생성하는 단계,
상기 영상분석 메타데이터를 분석하여 객체 또는 이벤트의 위치와 크기 데이터가 포함된 객체 또는 이벤트 관련 메타데이터를 추출하는 단계,
상기 추출한 객체 또는 이벤트 관련 메타데이터로부터 현재 객체 또는 이벤트의 상태에 적합한 PTZ 카메라의 이동방향 및 이동값이 포함된 이동 정보를 강화학습 모델로 예측하여 카메라 이동예측 정보를 생성하는 단계,
상기 PTZ 카메라 이동예측 정보를 이동예측 정보 메타데이터로 구성하는 단계를 포함하는 강화학습 기반 PTZ 카메라 제어 방법.
Generating image analysis metadata through image analysis,
Analyzing the image analysis metadata and extracting object or event-related metadata including object and event location and size data,
Generating camera movement prediction information by predicting movement information including a movement direction and a movement value of a PTZ camera suitable for a current object or event state from the extracted object or event-related metadata with a reinforcement learning model,
And constructing the PTZ camera movement prediction information as movement prediction information metadata.
제6항에서, 상기 구성된 PTZ 카메라 이동예측 정보 메타데이터를 영상제어시스템(VMS) 서버로 전송하는 단계를 추가로 포함하는 강화학습 기반 PTZ 카메라 제어 방법.The method of claim 6, further comprising transmitting the configured PTZ camera movement prediction information metadata to a video control system (VMS) server. 제6항에서, 상기 구성된 카메라 이동예측 정보 메타데이터에는 각 카메라 제어 시스템 ID와, 이 시스템 ID별로 부여되는 카메라 ID, 카메라 팬, 카메라 틸트, 카메라 줌, 카메라 기능 온/오프 정보를 포함하는 제어정보가 포함되는 강화학습 기반 PTZ 카메라 제어 방법.
The method of claim 6, wherein the configured camera movement prediction information metadata includes control information including each camera control system ID and camera ID, camera pan, camera tilt, camera zoom, and camera function on / off information for each system ID. Including reinforcement learning based PTZ camera control method.
KR1020180138790A 2018-11-13 2018-11-13 PTZ camera control system and mothod based on reinforcement learning KR20200055297A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180138790A KR20200055297A (en) 2018-11-13 2018-11-13 PTZ camera control system and mothod based on reinforcement learning
PCT/KR2018/013916 WO2020101063A1 (en) 2018-11-13 2018-11-14 System and method for controlling ptz camera on basis of reinforcement learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180138790A KR20200055297A (en) 2018-11-13 2018-11-13 PTZ camera control system and mothod based on reinforcement learning

Publications (1)

Publication Number Publication Date
KR20200055297A true KR20200055297A (en) 2020-05-21

Family

ID=70731557

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180138790A KR20200055297A (en) 2018-11-13 2018-11-13 PTZ camera control system and mothod based on reinforcement learning

Country Status (2)

Country Link
KR (1) KR20200055297A (en)
WO (1) WO2020101063A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616432B1 (en) * 2023-08-21 2023-12-22 주식회사 넥스트케이 Video analysis system with software archtecture for enhancing system interworking and maintenance efficiency through individual module configuration

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0507869D0 (en) * 2005-04-19 2005-05-25 Wqs Ltd Automated surveillance system
US9615064B2 (en) * 2010-12-30 2017-04-04 Pelco, Inc. Tracking moving objects using a camera network
KR102014285B1 (en) * 2012-10-24 2019-11-04 주식회사 케이티 System for tracking object using multi cameras and method thereof
KR101736314B1 (en) * 2016-12-01 2017-05-16 (주)그린아이티코리아 System, server for tracking a car using a mobile device and method for providing the system
KR101897923B1 (en) * 2017-09-20 2018-10-31 한국전력공사 System for providing identify target object based on neural network learning model, method thereof, and computer readable storage having the same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102616432B1 (en) * 2023-08-21 2023-12-22 주식회사 넥스트케이 Video analysis system with software archtecture for enhancing system interworking and maintenance efficiency through individual module configuration

Also Published As

Publication number Publication date
WO2020101063A1 (en) 2020-05-22

Similar Documents

Publication Publication Date Title
US11693901B2 (en) Systems and methods for geolocation prediction
EP3673417B1 (en) System and method for distributive training and weight distribution in a neural network
US8660368B2 (en) Anomalous pattern discovery
US10061989B2 (en) Information transfer apparatus and method for image recognition
US10769531B2 (en) Methods and systems for counting people
CN111046027B (en) Missing value filling method and device for time series data
CN112419722B (en) Traffic abnormal event detection method, traffic control method, device and medium
CN106971401A (en) Multiple target tracking apparatus and method
KR20070053358A (en) Target property maps for surveillance systems
GB2575282A (en) Event entity monitoring network and method
CN115631418B (en) Image processing method and device and training method of nerve radiation field
Zhang et al. Extended social force model‐based mean shift for pedestrian tracking under obstacle avoidance
CN111428535A (en) Image processing apparatus and method, and image processing system
Zhu et al. Probability hypothesis density filter with adaptive estimation of target birth intensity
KR20200055297A (en) PTZ camera control system and mothod based on reinforcement learning
Khudayberdiev et al. Fire detection approach based on vision transformer
CN111160410B (en) Object detection method and device
蔡瑞初 et al. Abnormal crowd detection based on multi-scale recurrent neural network
KR101643886B1 (en) System and method for analyzing large-scale high resolution satellite image
CN111753960B (en) Model training and image processing method and device, electronic equipment and storage medium
CN114842411A (en) Group behavior identification method based on complementary space-time information modeling
CN113989720A (en) Target detection method, training method, device, electronic equipment and storage medium
CN112307872A (en) Method and device for detecting target object
US20160283562A1 (en) Community policing via multi-platform integration
CN113657596A (en) Method and device for training model and image recognition