KR102333760B1 - Intelligent video control method and server apparatus thereof - Google Patents

Intelligent video control method and server apparatus thereof Download PDF

Info

Publication number
KR102333760B1
KR102333760B1 KR1020170099818A KR20170099818A KR102333760B1 KR 102333760 B1 KR102333760 B1 KR 102333760B1 KR 1020170099818 A KR1020170099818 A KR 1020170099818A KR 20170099818 A KR20170099818 A KR 20170099818A KR 102333760 B1 KR102333760 B1 KR 102333760B1
Authority
KR
South Korea
Prior art keywords
camera
virtual screen
rotation angle
preset
coordinates
Prior art date
Application number
KR1020170099818A
Other languages
Korean (ko)
Other versions
KR20190015955A (en
Inventor
정원철
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020170099818A priority Critical patent/KR102333760B1/en
Publication of KR20190015955A publication Critical patent/KR20190015955A/en
Application granted granted Critical
Publication of KR102333760B1 publication Critical patent/KR102333760B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • H04N5/2259
    • H04N5/23206
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

영상 관제 방법 및 그 서버가 제공된다. 이 방법은 적어도 하나의 프로세서에 의해 동작하는 관제 서버에서 처리되는 영상 관제 방법으로서, 이벤트 발생을 감지하는 단계, 적어도 하나의 카메라에게 프리셋 설정 요청을 전송하는 단계, 프리셋 설정된 적어도 하나의 카메라에게 카메라 구동 신호를 전송하는 단계, 그리고 상기 카메라 구동 신호에 따라 회전한 적어도 하나의 카메라로부터 영상을 수신하여 관제 화면에 출력하는 단계를 포함하고, 상기 카메라 구동 신호는, 상기 회전한 적어도 하나의 카메라의 촬영 방향이 이벤트 발생 위치가 포함된 관제 영역을 향하게 하는 카메라 회전 방향 및 카메라 회전 각도를 포함한다.An image control method and a server are provided. This method is an image control method processed in a control server operated by at least one processor, the steps of detecting the occurrence of an event, transmitting a preset setting request to at least one camera, and driving the camera to at least one preset camera Transmitting a signal, and receiving an image from at least one camera rotated according to the camera driving signal and outputting the image to a control screen, wherein the camera driving signal is a shooting direction of the rotated at least one camera It includes the camera rotation direction and camera rotation angle to face the control area containing the event occurrence location.

Description

지능형 영상 관제 방법 및 그 서버{INTELLIGENT VIDEO CONTROL METHOD AND SERVER APPARATUS THEREOF}Intelligent video control method and its server

본 발명은 지능형 영상 관제 방법 및 그 서버에 관한 것이다.The present invention relates to an intelligent video control method and a server thereof.

카메라를 이용하여 촬영한 영상을 모니터링하는 영상 관제 시스템은 시설 관리, 재난 대응, 방범, 교통 관리 등의 목적으로 다양한 분야에 적용되고 있다. An image control system that monitors images captured using a camera is being applied to various fields for the purpose of facility management, disaster response, crime prevention, traffic management, and the like.

과거에는 고정형 카메라가 주로 사용되었지만, 현재에는 PTZ(Pan Tilt Zoom)를 이용한 이동형 카메라가 주로 사용되고 있다. PTZ 카메라는 카메라 설치 후에 사용자가 카메라 렌즈 방향을 자유자재로 조정할 수 있는 카메라이다. 관리자는 원격지에서 PTZ 카메라가 촬영한 영상을 모니터링하면서, 원하는 방향을 촬영하도록 카메라 렌즈 방향을 조정할 수 있다. In the past, fixed cameras were mainly used, but now, mobile cameras using PTZ (Pan Tilt Zoom) are mainly used. A PTZ camera is a camera that allows the user to freely adjust the camera lens direction after the camera is installed. The administrator can adjust the camera lens direction to shoot in a desired direction while monitoring the video shot by the PTZ camera from a remote location.

공공 기관을 중심으로 설치된 카메라는 2013년 기준으로 약 65,000여대이며 지속적으로 증가하고 있다. 카메라의 증가에 따라 한정된 공간에서 관리자가 감시해야 하는 영상은 많아지고 있다. 일반적으로, 1명의 관리자가 감시하는데 적절한 카메라의 개수는 약 20∼50대까지이다. 관리자가 관제하는데 있어 12분이 지나면 약 45% 정도 감시 능력이 떨어지고 22분이 지나면 약 95% 정도 감소한다. 따라서, 효율적인 영상 관제 시스템의 운영을 위해서는 지능형 영상 관제 시스템의 도입이 필요하다. The number of cameras installed mainly in public institutions is about 65,000 as of 2013, and the number is continuously increasing. As the number of cameras increases, the number of images that managers need to monitor in a limited space is increasing. In general, the number of cameras suitable for one manager to monitor is about 20 to 50. In the case of an administrator, the monitoring ability decreases by about 45% after 12 minutes, and by about 95% after 22 minutes. Therefore, it is necessary to introduce an intelligent video control system for efficient operation of the video control system.

종래 영상 관제 시스템의 지능형 기술은 영상 감시, 객체 인식, 객체 트래킹 및 객체와의 거리 계산 등으로 촬영 영상을 분석하는데 중점을 두고 있다. 특정 방향으로 카메라가 자동으로 향하도록 하기 위해서, 기존의 영상 분석 기술을 이용할 수 있다. 그런데, 이런 경우, 주변 환경이 날씨에 따라 시시각각으로 변하거나, 지역 개발 등에 따라 달라지는 등의 변경 요소가 많기 때문에 정확한 방향 탐지를 위해서 복잡하고 비용이 많이 드는 프로세싱을 요할 수 밖에 없다.The intelligent technology of the conventional video control system focuses on analyzing a captured image through video surveillance, object recognition, object tracking, and distance calculation with an object. In order to automatically orient the camera in a specific direction, existing image analysis techniques can be used. However, in this case, since there are many changing factors such as the surrounding environment changes every minute depending on the weather or regional development, complex and expensive processing is inevitably required for accurate direction detection.

또한, 카메라 자체에서 카메라 렌즈 방향, 회전량 등의 현재 촬영하고 있는 방향을 알 수 있는 정보를 관제 센터로 제공할 수도 있다. 그런데, 이미 설치된 카메라들에는 이러한 기능이 없다. 이 기능을 구현하려면 수십만대의 모든 카메라에 적용하기 위해서 많은 시간과 비용이 필요하다. In addition, the camera itself may provide information to the control center to know the current shooting direction, such as the camera lens direction and rotation amount. However, already installed cameras do not have this function. Implementing this function requires a lot of time and money to apply it to all hundreds of thousands of cameras.

한편, 재난안전플랫폼의 서비스 중에서 투망 감시 서비스가 있다. 투망 감시 서비스는 이벤트 발생시 이벤트와 근접하여 설치되어 있는 카메라 중 4대를 선정하여 각각의 카메라에서 촬영되는 영상을 동시 관제 화면에 출력한다. 이때, 4대의 카메라는 이벤트 근처의 카메라가 될 수도 있고, 그렇지 않은 카메라가 될 수도 있다. On the other hand, there is a network monitoring service among the services of the disaster safety platform. When an event occurs, the cast network monitoring service selects 4 cameras installed close to the event and outputs the images captured by each camera on the simultaneous control screen. In this case, the four cameras may be cameras near the event, or cameras that are not.

관제 화면에 4대의 카메라에서 촬영한 영상이 보여지면, 관리자는 촬영 영상을 모니터링하면서 각 카메라의 촬영 방향이 이벤트 발생 위치에 더 가까이 가도록 조정한다. 그러나, 전술한 바와 같이, 원격으로 카메라의 촬영 방향을 조정할 수는 있지만, 사람의 수작업에 의존하고 있는 실정이다. 특히, 관리자가 교대하여 다른 사람으로 바뀌면, 각 카메라가 처음 위치에서 얼만큼 움직인 것인지를 정확히 파악하기 어렵다. 따라서, 이벤트가 발생하면, 다시 관리자가 일일히 촬영 영상을 모니터링하면서, 각 카메라가 이벤트 발생 위치를 향하도록 조정해야만 한다. When the video captured by 4 cameras is shown on the control screen, the manager monitors the captured video and adjusts the shooting direction of each camera to get closer to the event location. However, as described above, although it is possible to adjust the shooting direction of the camera remotely, the situation is dependent on the manual operation of a person. In particular, it is difficult to determine exactly how much each camera has moved from its initial position when the manager takes turns and changes to another person. Therefore, when an event occurs, the manager must adjust each camera to face the event occurrence position while monitoring the captured image again daily.

본 발명이 해결하고자 하는 과제는 카메라의 촬영 방향이 이벤트가 발생한 지점을 향해 자동 변경되도록 원격지에서 제어하는 지능형 영상 관제 방법 및 그 서버를 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide an intelligent video control method and a server for controlling from a remote location so that the shooting direction of a camera is automatically changed toward a point where an event occurs.

본 발명의 하나의 특징에 따르면, 영상 관제 방법은 적어도 하나의 프로세서에 의해 동작하는 관제 서버에서 처리되는 영상 관제 방법으로서, 이벤트 발생을 감지하는 단계, 적어도 하나의 카메라에게 프리셋 설정 요청을 전송하는 단계, 프리셋 설정된 적어도 하나의 카메라에게 카메라 구동 신호를 전송하는 단계, 그리고 상기 카메라 구동 신호에 따라 회전한 적어도 하나의 카메라로부터 영상을 수신하여 관제 화면에 출력하는 단계를 포함하고, 상기 카메라 구동 신호는, 상기 회전한 적어도 하나의 카메라의 촬영 방향이 이벤트 발생 위치가 포함된 관제 영역을 향하게 하는 카메라 회전 방향 및 카메라 회전 각도를 포함한다.According to one aspect of the present invention, an image control method is an image control method processed by a control server operated by at least one processor, the method comprising the steps of detecting an event occurrence, transmitting a preset setting request to at least one camera , transmitting a camera driving signal to at least one preset camera, and receiving an image from at least one camera rotated according to the camera driving signal and outputting it on a control screen, wherein the camera driving signal is, It includes a camera rotation direction and a camera rotation angle in which the photographing direction of the at least one rotated camera faces a control area including an event occurrence location.

상기 프리셋 설정 요청을 전송하는 단계와 상기 카메라 구동 신호를 전송하는 단계 사이에, 카메라 설치 위치 좌표, 이벤트 발생 위치 좌표 및 프리셋 설정된 카메라의 기준점 좌표를 기초로 상기 카메라 회전 방향 및 상기 카메라 회전 각도를 산출하는 단계를 더 포함할 수 있다. Between the step of transmitting the preset setting request and the step of transmitting the camera driving signal, the camera rotation direction and the camera rotation angle are calculated based on the camera installation position coordinates, the event occurrence position coordinates, and the preset reference point coordinates of the camera It may further include the step of

상기 산출하는 단계는, 가상 화면 위의 상기 이벤트 발생 위치 좌표에 표시된 트랙커와 상기 가상 화면 위에 표시된 상기 카메라 설치 위치 좌표를 이은 연결선이, 오브젝트 분석 영역에 포함될때까지 상기 가상 화면을 회전시킨 후, 상기 가상 화면의 회전 방향과 반대 방향을 상기 카메라 회전 방향으로 산출하고, 상기 가상 화면의 회전 각도를 상기 카메라 회전 각도로 산출하며,In the calculating step, after rotating the virtual screen until a connecting line connecting the tracker displayed on the coordinates of the event occurrence location on the virtual screen and the coordinates of the camera installation location displayed on the virtual screen is included in the object analysis area, the calculating a direction opposite to the rotation direction of the virtual screen as the camera rotation direction, and calculating the rotation angle of the virtual screen as the camera rotation angle,

상기 오브젝트 분석 영역은, 가상 화면 위에 각각 표시된 상기 카메라 설치 위치 좌표와 상기 기준점 좌표를 이은 기준선을 중심으로 좌우 일정 각도 이내로 설정될 수 있다.The object analysis area may be set within a predetermined angle left and right with respect to a reference line connecting the coordinates of the camera installation location and the coordinates of the reference point respectively displayed on the virtual screen.

상기 가상 화면은, 위도 및 경도가 교차하는 지점이 위치 좌표로 설정될 수 있다. In the virtual screen, a point where latitude and longitude intersect may be set as location coordinates.

상기 기준점 좌표는, 상기 프리셋 설정된 카메라의 촬영 방향이 향하는 관제 영역의 중심 좌표로 설정될 수 있다.The coordinates of the reference point may be set as coordinates of a center of a control area to which a shooting direction of the preset camera is directed.

상기 기준점 좌표는, 상기 프리셋 설정된 카메라의 촬영 방향이 향하는 관제 영역에 포함된 건축물의 위치 좌표로 설정될 수 있다.The reference point coordinates may be set as coordinates of a location of a building included in a control area to which the preset camera shooting direction is directed.

상기 프리셋 설정 요청을 전송하는 단계는, 설치 위치가 이벤트 발생 위치와 근접한 복수의 카메라에게 상기 프리셋 설정 요청을 각각 전송할 수 있다.In the transmitting of the preset setting request, the preset setting request may be transmitted to a plurality of cameras having an installation position close to an event occurrence position.

본 발명의 다른 특징에 따르면, 영상 관제 방법은 적어도 하나의 프로세서에 의해 동작하는 관제 서버에서 처리되는 영상 관제 방법으로서, 이벤트가 발생하면, 상기 이벤트가 발생한 위치에 근접하게 설치된 카메라에게 프리셋 설정 요청을 전송하는 단계, 위치 좌표로 구성된 가상 화면의 카메라 설치 위치 좌표에 카메라 설치 지점을 표시하고, 상기 가상 화면의 기 설정된 카메라 기준점 좌표에 기준점을 표시하며, 상기 가상 화면의 이벤트 발생 위치 좌표에 트랙커를 표시하는 단계, 상기 카메라 설치 지점과 상기 기준점을 이은 연결선을 기준으로 좌우 일정 각도 이내로 형성되는 영역을 오브젝트 분석 영역으로 설정하는 단계, 상기 트랙커가 상기 오브젝트 영역에 포함될때까지 상기 가상 화면을 회전시켜, 상기 가상 화면이 회전한 방향과 반대 방향을 카메라 회전 방향으로 산출하고, 상기 가상 화면이 회전한 각도를 카메라 회전 각도로 산출하는 단계, 상기 카메라 회전 방향 및 상기 카메라 회전 각도를 포함하는 카메라 구동 신호를 상기 카메라에게 전송하는 단계, 그리고 프리셋 설정 상태에서 상기 카메라 회전 방향 및 상기 카메라 회전 각도로 움직인 카메라가 촬영한 영상을 수신하여 관제 화면에 출력하는 단계를 포함한다.According to another aspect of the present invention, the image control method is an image control method processed by a control server operated by at least one processor. Transmitting, displaying the camera installation point on the camera installation position coordinates of the virtual screen consisting of position coordinates, displaying the reference point on the preset camera reference point coordinates of the virtual screen, and displaying the tracker on the event occurrence position coordinates of the virtual screen setting an area formed within a predetermined angle left and right as an object analysis area based on a connection line connecting the camera installation point and the reference point, rotating the virtual screen until the tracker is included in the object area, the calculating a direction opposite to the rotation direction of the virtual screen as a camera rotation direction, calculating the rotation angle of the virtual screen as a camera rotation angle, and generating a camera driving signal including the camera rotation direction and the camera rotation angle transmitting to a camera, and receiving an image photographed by a camera moving in the camera rotation direction and the camera rotation angle in a preset setting state and outputting the image to a control screen.

상기 기 설정된 기준 좌표는, 프리셋 설정 상태의 카메라가 향하는 관제 영역에 포함되는 위도 및 경도로 이루어진 위치 좌표일 수 있다.The preset reference coordinates may be position coordinates composed of latitude and longitude included in a control area toward which the camera in a preset state is directed.

상기 카메라 회전 각도는, PTZ(Pan Tilt Zoom) 카메라의 패닝 방향의 회전 각도일 수 있다.The camera rotation angle may be a rotation angle in a panning direction of a PTZ (Pan Tilt Zoom) camera.

상기 프리셋 설정 요청은, 상기 이벤트가 발생한 위치에 근접하게 설치된 적어도 둘 이상의 카메라에게 전송되고, 상기 표시하는 단계, 상기 설정하는 단계, 상기 산출하는 단계, 상기 카메라에게 전송하는 단계는, 상기 적어도 둘 이상의 카메라 각각에 대하여 반복되고, 상기 출력하는 단계는, 상기 이벤트가 발생한 위치가 포함된 관제 영역을 향하도록 움직인 상기 적어도 둘 이상의 카메라가 촬영한 각각의 영상을 상기 관제 화면에 동시에 출력할 수 있다.The preset setting request is transmitted to at least two or more cameras installed close to the location where the event occurred, and the displaying, the setting, the calculating, and transmitting to the camera includes the at least two or more cameras. Repeatedly for each camera, the step of outputting may simultaneously output each image captured by the at least two or more cameras moving toward a control area including the location where the event occurred on the control screen.

상기 프리셋 설정 요청은, 상기 적어도 둘 이상의 카메라 각각에 대해 고유하게 설정된 프리셋으로 설정하도록 요청하고, 상기 프리셋은, PTZ(Pan Tilt Zoom) 카메라의 패닝 방향의 회전 각도와 틸팅 방향의 회전 각도를 포함할 수 있다.The preset setting request requests to set a preset uniquely set for each of the at least two or more cameras, and the preset includes a rotation angle in a panning direction and a rotation angle in a tilting direction of a PTZ (Pan Tilt Zoom) camera. can

본 발명의 또 다른 특징에 따르면, 서버는 네트워크를 통하여 적어도 하나의 카메라와 데이터를 송수신하는 통신 장치, 상기 적어도 하나의 카메라의 구동을 제어하는 프로그램을 저장하는 메모리, 그리고 상기 프로그램을 실행하는 적어도 하나의 프로세서를 포함하고, 상기 프로그램은, 이벤트 발생을 감지하면, 상기 적어도 하나의 카메라에게 프리셋 설정 요청을 전송하고, 프리셋 설정된 적어도 하나의 카메라에게 각각의 카메라 회전 방향 및 각각의 카메라 회전 각도를 전송하며, 상기 각각의 카메라 회전 방향 및 상기 각각의 카메라 회전 각도로 회전한 상기 적어도 하나의 카메라로부터 상기 적어도 하나의 카메라가 촬영한 영상을 수신하여 관제 화면에 출력하는 명령어들(instructions)을 포함한다.According to another feature of the present invention, the server includes a communication device for transmitting and receiving data with at least one camera through a network, a memory for storing a program for controlling driving of the at least one camera, and at least one for executing the program of a processor, wherein the program, upon detecting the occurrence of an event, transmits a preset setting request to the at least one camera, and transmits each camera rotation direction and each camera rotation angle to at least one preset camera, , receiving an image captured by the at least one camera from the at least one camera rotated in the respective camera rotation direction and the respective camera rotation angle and outputting the received image to a control screen.

상기 프로그램은, 위도 및 경도가 교차하는 지점이 위치 좌표로 설정되는 가상 화면 위에 카메라 설치 지점과 기준점을 이은 연결선을 중심으로 좌우 일정 각도 이내를 오브젝트 분석 영역으로 설정하고, 상기 가상 화면 위의 이벤트 발생 위치 좌표에 표시된 트랙커와 상기 카메라 설치 위치 지점을 이은 연결선이, 상기 오브젝트 분석 영역에 포함될때까지 상기 가상 화면을 회전시킨 후, 상기 가상 화면의 회전 방향과 반대 방향을 상기 카메라 회전 방향으로 산출하고, 상기 가상 화면의 회전 각도를 상기 카메라 회전 각도로 산출하는 명령어들을 포함할 수 있다.The program sets the object analysis area within a certain angle left and right around the connection line connecting the camera installation point and the reference point on the virtual screen where the point where the latitude and longitude intersect is set as the location coordinate, and the event occurs on the virtual screen After rotating the virtual screen until the connecting line connecting the tracker displayed in the position coordinates and the camera installation location point is included in the object analysis area, a direction opposite to the rotation direction of the virtual screen is calculated as the camera rotation direction, It may include commands for calculating the rotation angle of the virtual screen as the camera rotation angle.

본 발명의 실시예에 따르면, 복잡하지 않은 프로세싱과 적은 비용으로, 특정 이벤트가 발생한 지점으로 카메라의 촬영 방향이 자동으로 향하도록 원격지에서 제어할 수 있다. 따라서, 특정 이벤트 발생 지점을 즉각 촬영할 수 있어, 정확하고 신속한 관제를 제공한다.According to an embodiment of the present invention, with uncomplicated processing and low cost, it is possible to control the camera from a remote location so that the shooting direction of the camera is automatically directed to the point where a specific event occurs. Therefore, it is possible to immediately photograph a specific event occurrence point, providing accurate and rapid control.

도 1은 본 발명의 한 실시예에 따른 지능형 영상 관제 시스템의 구성을 나타낸다.
도 2a 및 도 2b는 본 발명의 실시예에 따른 관제 영역의 예시도이다.
도 3은 본 발명의 실시예에 따른 카메라의 구동 방향을 도시한다.
도 4는 본 발명의 실시예에 따른 카메라 구성을 간략히 나타낸 블록도이다.
도 5는 본 발명의 실시예에 따른 영상 관제 방법을 나타낸 흐름도이다.
도 6은 본 발명의 실시예에 따른 영상 관제 방법이 적용된 예시도이다.
도 7은 도 5의 S109 단계를 상세히 나타낸 순서도이다.
도 8은 본 발명의 실시예에 따른 가상 화면의 예시도이다.
도 9는 본 발명의 한 실시예에 따른 기준점 설정 예시도이다.
도 10은 본 발명의 다른 실시예에 따른 기준점 설정 예시도이다.
도 11 ~ 도 13은 본 발명의 실시예에 따른 가상 화면을 회전하는 동작을 나타낸다.
도 14는 본 발명의 실시예에 따른 서버의 하드웨어 블록도이다.
1 shows the configuration of an intelligent video control system according to an embodiment of the present invention.
2A and 2B are exemplary views of a control area according to an embodiment of the present invention.
3 shows a driving direction of a camera according to an embodiment of the present invention.
4 is a block diagram schematically illustrating a camera configuration according to an embodiment of the present invention.
5 is a flowchart illustrating an image control method according to an embodiment of the present invention.
6 is an exemplary view to which an image control method according to an embodiment of the present invention is applied.
7 is a flowchart illustrating step S109 of FIG. 5 in detail.
8 is an exemplary diagram of a virtual screen according to an embodiment of the present invention.
9 is an exemplary diagram of setting a reference point according to an embodiment of the present invention.
10 is a diagram illustrating a reference point setting according to another embodiment of the present invention.
11 to 13 illustrate an operation of rotating a virtual screen according to an embodiment of the present invention.
14 is a hardware block diagram of a server according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "…부", "…기", "…모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when a part "includes" a certain element, it means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as “…unit”, “…group”, and “…module” described in the specification mean a unit that processes at least one function or operation, which may be implemented by hardware or software or a combination of hardware and software. can

본 명세서에서 단말(Terminal)은 사용자 기기로서, 디바이스(Device), UE(User Equipment), ME(Mobile Equipment), MS(Mobile Station), 이동 단말(Mobile Terminal, MT), 가입자국(Subscriber Station, SS), 휴대 가입자국(Portable Subscriber Station, PSS), 사용자 장치(User Equipment, UE), 접근 단말(Access Terminal, AT) 등의 용어로 언급될 수도 있고, 이동 단말, 가입자국, 휴대 가입자국, 사용자 장치 등의 전부 또는 일부의 기능을 포함할 수도 있다.In the present specification, a terminal is a user equipment, a device, a user equipment (UE), a mobile equipment (ME), a mobile station (MS), a mobile terminal (MT), a subscriber station, SS), Portable Subscriber Station (PSS), User Equipment (UE), Access Terminal (AT), etc. It may include all or part of the functionality of a user device or the like.

본 명세서의 단말은 기지국(base station, BS), 접근점(Access Point, AP), 무선 접근국(Radio Access Station, RAS), 노드B(Node B), 고도화 노드B(evolved NodeB, eNodeB), 송수신 기지국(Base Transceiver Station, BTS), MMR(Mobile Multihop Relay)-BS 등과 같은 네트워크 장치에 접속하여 원격의 서버에 연결될 수 있다.The terminal of the present specification is a base station (BS), an access point (Access Point, AP), a radio access station (Radio Access Station, RAS), a Node B (Node B), an advanced Node B (evolved NodeB, eNodeB), It can be connected to a remote server by accessing a network device such as a base transceiver station (BTS) or a mobile multihop relay (MMR)-BS.

본 명세서에서 "전송 또는 제공" 은 직접적인 전송 또는 제공하는 것 뿐만 아니라 다른 장치를 통해 또는 우회 경로를 이용하여 간접적으로 전송 또는 제공도 포함할 수 있다.As used herein, "transmission or provision" may include not only direct transmission or provision, but also transmission or provision indirectly through another device or using a detour path.

도 1은 본 발명의 한 실시예에 따른 지능형 영상 관제 시스템의 구성을 나타내고, 도 2a 및 도 2b는 본 발명의 실시예에 따른 관제 영역의 예시도이며, 도 3은 본 발명의 실시예에 따른 카메라의 구동 방향을 도시한다.1 shows the configuration of an intelligent video control system according to an embodiment of the present invention, FIGS. 2A and 2B are exemplary views of a control area according to an embodiment of the present invention, and FIG. 3 is an embodiment of the present invention Shows the driving direction of the camera.

도 1을 참조하면, 지능형 영상 관제 시스템은 적어도 하나의 카메라(100), 네트워크(200) 및 관제 서버(300)를 포함한다.Referring to FIG. 1 , the intelligent video control system includes at least one camera 100 , a network 200 , and a control server 300 .

적어도 하나의 카메라(100)는 특정 장소에 설치되고, 관제 영역을 촬영하여 획득한 영상 신호를 네트워크(200)를 통하여 관제 서버(300)로 전송한다. 여기서, 관제 영역은 카메라의 촬영 방향, 예를들면, 카메라 렌즈 방향에 따라 달라진다. 따라서, 카메라의 촬영 방향에 따른 여러 개의 관제 영역이 있다.At least one camera 100 is installed in a specific place, and transmits an image signal obtained by photographing the control area to the control server 300 through the network 200 . Here, the control area varies according to the photographing direction of the camera, for example, the camera lens direction. Therefore, there are several control areas according to the shooting direction of the camera.

도 2a를 참조하면, 특정 장소에 설치된 카메라(100)는 촬영 방향 A에서 관제 영역(R1)을 촬영한다. 도 2b를 참조하면, 카메라(100)는 촬영 방향 B에서 관제 영역(R2)을 촬영한다. Referring to FIG. 2A , the camera 100 installed at a specific location captures the control area R1 in the shooting direction A. Referring to FIG. 2B , the camera 100 photographs the control area R2 in the photographing direction B.

이때, 적어도 하나의 카메라(100)는 네트워크 카메라로서, PTZ(Pan Tilt Zoom) 카메라를 포함한다. PTZ 카메라는 카메라 설치 후에 사용자가 카메라의 촬영 방향을 자유자재로 조정할 수 있는 카메라이다. 여기서, PTZ는 Pan(좌우이동), Tilt(상하이동), Zoom(이미지 확대 및 축소)을 의미한다.In this case, the at least one camera 100 is a network camera and includes a Pan Tilt Zoom (PTZ) camera. A PTZ camera is a camera that allows the user to freely adjust the shooting direction of the camera after the camera is installed. Here, PTZ means Pan (moving left and right), Tilt (moving up and down), and Zoom (image enlargement and reduction).

도 3과 같이, 카메라(100)는 카메라 고정축을 중심으로 상하(틸팅, tilting)방향으로 그리고 좌우(패닝, panning) 방향으로 움직인다. As shown in FIG. 3 , the camera 100 moves in an up-down (tilting) direction and in a left-right (panning) direction with respect to the fixed axis of the camera.

특정 장소에 설치된 카메라(100)는 상하(틸팅) 각도 및/또는 좌우(패닝) 각도에 따른 각각의 관제 영역을 촬영할 수 있다.The camera 100 installed in a specific place may photograph each control area according to an up/down (tilting) angle and/or a left/right (panning) angle.

다시, 도 1을 참조하면, 네트워크(200)는 유·무선 인터넷, 와이파이(WiFi) 등을 포함한 현재 공지되어 있는 각종 통신망을 포함한다. 네트워크(200)는 적어도 하나의 카메라(100)와 관제 서버(300) 사이의 통신 회선을 연결하여 상호 간에 데이터 통신이 이루어지도록 한다.Referring again to FIG. 1 , the network 200 includes various currently known communication networks including wired/wireless Internet, Wi-Fi, and the like. The network 200 connects a communication line between at least one camera 100 and the control server 300 so that data communication is made between them.

관제 서버(300)는 적어도 하나의 카메라(100)로부터 수신한 영상 신호를 관제 화면에 출력한다. 관제 서버(300)는 원격지에서 적어도 하나의 카메라(100)가 촬영하는 영상 신호를 수신하여 관제 지역을 모니터링할 수 있다.The control server 300 outputs the video signal received from the at least one camera 100 on the control screen. The control server 300 may receive an image signal captured by at least one camera 100 in a remote location to monitor the control area.

물론, 관제 서버(300)는 적어도 하나의 카메라(100)로부터 전송된 영상 신호를 내부의 메모리에 저장하거나, 저장 기능을 수행하는 별도의 물리장치 또는 가상화 자원에 설치된 저장 장치(DB)에 저장할 수 있다.Of course, the control server 300 can store the video signal transmitted from the at least one camera 100 in an internal memory, or store it in a storage device (DB) installed in a separate physical device or virtual resource that performs a storage function. have.

관제 서버(300)는 관리자의 선택에 따라, 카메라(100)가 촬영하는 관제 영역을 변경하고, 변경된 관제 영역의 영상을 수신할 수 있다.The control server 300 may change the control area photographed by the camera 100 according to the administrator's selection, and receive an image of the changed control area.

관제 서버(300)는 이벤트가 감지되면, 이벤트 발생 위치를 확인하고, 이벤트 발생 위치의 영상을 획득하기 위해서, 카메라의 촬영 방향을 조정한다.When an event is detected, the control server 300 adjusts the shooting direction of the camera in order to check an event occurrence location and acquire an image of the event occurrence location.

관제 서버(300)는 이벤트 발생 장치(400)로부터 관제 지역에 설정된 이벤트 발생 메시지를 수신할 수 있다. The control server 300 may receive an event generation message set in the control area from the event generating device 400 .

한 실시예에 따르면, 이벤트 발생 메시지는 관제 지역에 설치된 센서, 또는 리더로부터 감지된 결과에 따라 생성될 수 있다. 관제 지역에는 다양한 이벤트를 감지하는 센서가 배치될 수 있다.According to an embodiment, the event occurrence message may be generated according to a result detected by a sensor installed in the control area or a reader. Sensors for detecting various events may be disposed in the control area.

다른 실시예에 따르면, 외부 시스템(미도시), 즉, 이벤트 발생과 관련된 정보를 수집하고 관리하는 시스템(미도시)과 연동하여, 그 시스템(미도시)으로부터 이벤트 발생 정보를 수신할 수 있다. According to another embodiment, in conjunction with an external system (not shown), that is, a system (not shown) that collects and manages information related to event occurrence, event occurrence information may be received from the system (not shown).

그러나, 이러한 실시예로 국한되는 것은 아니고, 이벤트 발생 메시지 또는 이벤트 발생 정보를 획득하는 방법은 다양하다. 본 발명에서는 이벤트 발생 정보를 획득하는 구성을 특정하지 않고, 특정 위치에서 관제가 필요한 이벤트 발생 정보를 획득할 수 있다고 가정한다.However, it is not limited to this embodiment, and there are various methods for acquiring the event occurrence message or event occurrence information. In the present invention, without specifying a configuration for acquiring event occurrence information, it is assumed that event occurrence information required for control can be acquired at a specific location.

도 4는 본 발명의 실시예에 따른 카메라 구성을 간략히 나타낸 블록도이다.4 is a block diagram schematically illustrating a camera configuration according to an embodiment of the present invention.

도 4를 참조하면, 카메라(100)는 촬영부(101), 구동부(103), 통신부(105) 및 제어부(107)를 포함한다.Referring to FIG. 4 , the camera 100 includes a photographing unit 101 , a driving unit 103 , a communication unit 105 , and a control unit 107 .

촬영부(101)는 카메라 렌즈를 비롯하여 영상 촬영에 필요한 구성들을 통칭한다. 촬영부(101)는 관제 영역을 촬영하여 영상 신호를 획득한다. 촬영부(101)는 획득한 영상 신호를 디지털 전송이 가능하도록 처리할 수 있다.The photographing unit 101 collectively refers to components necessary for image photographing, including a camera lens. The photographing unit 101 acquires an image signal by photographing the control area. The photographing unit 101 may process the acquired image signal to enable digital transmission.

구동부(103)는 관제 영역을 향해 카메라 렌즈의 중심이 향하도록 카메라(100)를 회전시킨다. 구동부(103)는 카메라 하우징(미도시) 내에 포함되는 모터 등의 기계적 구성을 포함할 수 있다.The driving unit 103 rotates the camera 100 so that the center of the camera lens is directed toward the control area. The driving unit 103 may include a mechanical component such as a motor included in the camera housing (not shown).

구동부(103)는 카메라 고정축을 중심으로 카메라(100)를 상하(틸팅) 방향 및/또는 좌우(패닝) 방향으로 회전시킨다. 이때, 구동부(103)는 관제 서버(300)로부터 수신된 카메라 구동 신호에 따라 카메라(100)의 촬영 방향을 변경한다. 여기서, 촬영 방향은 틸팅 각도 및 패닝 각도로 구성된다. 틸팅 각도는 상하 방향으로 180도 범위 내로 설정된다. 패닝 각도는 좌우 방향으로 360도 범위 내로 설정된다.The driving unit 103 rotates the camera 100 in an up-down (tilting) direction and/or in a left-right (panning) direction about the camera fixed axis. At this time, the driving unit 103 changes the shooting direction of the camera 100 according to the camera driving signal received from the control server 300 . Here, the photographing direction is composed of a tilting angle and a panning angle. The tilting angle is set within a range of 180 degrees in the vertical direction. The panning angle is set within a range of 360 degrees in the left and right directions.

통신부(105)는 촬영부(101)에서 출력되는 영상 신호를 네트워크(200)를 통해 관제 서버(300)로 전송한다. 통신부(105)는 관제 서버(300)로부터 네트워크(200)를 통해 카메라 구동 신호를 수신하여 구동부(103)로 출력한다.The communication unit 105 transmits the image signal output from the photographing unit 101 to the control server 300 through the network 200 . The communication unit 105 receives the camera driving signal from the control server 300 through the network 200 and outputs it to the driving unit 103 .

제어부(107)는 카메라(100)의 각 구성요소, 즉 촬영부(101), 구동부(103), 통신부(105) 간에 전달되는 신호를 처리한다.The control unit 107 processes signals transmitted between each component of the camera 100 , that is, the photographing unit 101 , the driving unit 103 , and the communication unit 105 .

도 5는 본 발명의 실시예에 따른 영상 관제 방법을 나타낸 흐름도이고, 도 6은 본 발명의 실시예에 따른 영상 관제 방법이 적용된 예시도이다.5 is a flowchart illustrating an image control method according to an embodiment of the present invention, and FIG. 6 is an exemplary diagram to which the image control method according to an embodiment of the present invention is applied.

도 5를 참조하면, 카메라(100)와 관제 서버(300)가 네트워크(200)를 통해 연결된다(S101). Referring to FIG. 5 , the camera 100 and the control server 300 are connected through the network 200 ( S101 ).

관제 서버(300)는 이벤트가 감지(S103)되면, 카메라(100)에게 프리셋 설정 요청을 전송한다(S105). 한 실시예에 따르면, 카메라(100)는 프리셋 정보를 이미 저장하고 있다. 이때, 프리셋 정보는 카메라(100)를 설치할 때 설치자가 입력해놓은 것일 수 있다. 또는 제조사에 의해 카메라(100)에 내장된 정보일 수도 있다. 다른 실시예에 따르면, 프리셋 정보는 관제 서버(300)에 의하여 S105 단계의 프리셋 설정 요청에 포함되어 카메라(100)로 제공될 수 있다. When the event is detected (S103), the control server 300 transmits a preset setting request to the camera 100 (S105). According to one embodiment, the camera 100 already stores preset information. In this case, the preset information may be input by the installer when the camera 100 is installed. Alternatively, it may be information built into the camera 100 by the manufacturer. According to another embodiment, the preset information may be included in the preset setting request of step S105 by the control server 300 and provided to the camera 100 .

카메라(100)는 카메라(100)의 틸팅 각도가 프리셋 정보에 포함된 틸팅 각도가 되도록 회전하고, 카메라(100)의 패닝 각도가 프리셋 정보에 포함된 패닝 각도가 되도록 회전한다(S107). The camera 100 rotates so that the tilting angle of the camera 100 becomes the tilting angle included in the preset information, and rotates so that the panning angle of the camera 100 becomes the panning angle included in the preset information (S107).

관제 서버(300)는 이벤트 발생 위치가 카메라(100)의 관제 영역에 포함되기 위한 카메라 회전 방향 및 카메라 회전 각도를 산출한다(S109). 여기서, 카메라 회전 각도는 패닝 각도이다. 카메라(100)의 틸팅 각도는 영상을 모니터링하면서 관리자의 필요에 따라 조정되는 것으로 가정한다.The control server 300 calculates a camera rotation direction and a camera rotation angle for the event occurrence location to be included in the control area of the camera 100 ( S109 ). Here, the camera rotation angle is the panning angle. It is assumed that the tilting angle of the camera 100 is adjusted according to the needs of the manager while monitoring the image.

관제 서버(300)는 S109 단계에서 산출한 회전 방향 및 회전 각도를 포함하는 카메라 구동 신호를 생성하여 카메라(100)에게 전송한다(S111).The control server 300 generates a camera driving signal including the rotation direction and rotation angle calculated in step S109 and transmits it to the camera 100 ( S111 ).

카메라(100)는 카메라 구동 신호에 따른 촬영 방향을 설정(S113)한다. 카메라(100)는 현재 위치, 즉, 프리셋 설정 상태에서 S111 단계에서 수신한 회전 방향으로 회전한다. 예를들어, 회전 방향이 오른쪽이었다면, 현재 위치에서 카메라(100)는 오른쪽으로 회전한다. 그리고 카메라(100)는 회전 각도만큼 회전한 후, 회전을 멈춘다.The camera 100 sets the shooting direction according to the camera driving signal (S113). The camera 100 rotates in the current position, that is, in the rotation direction received in step S111 in the preset setting state. For example, if the rotation direction is right, the camera 100 rotates to the right at the current position. And, after the camera 100 rotates by the rotation angle, the rotation is stopped.

카메라(100)는 회전을 멈춘 위치에서 관제 영역의 영상을 촬영한다(S115). 카메라(100)는 촬영(S115)한 영상을 관제 서버(300)로 전송한다(S117). 관제 서버(300)는 수신(S117)한 영상을 관제 화면에 출력한다(S119). The camera 100 takes an image of the control area at the position where the rotation is stopped (S115). The camera 100 transmits the captured image (S115) to the control server 300 (S117). The control server 300 outputs the received image (S117) on the control screen (S119).

이때, 하나의 카메라(100)를 예시로 설명하였지만, 관제 서버(300)는 복수개의 카메라(100)의 촬영 방향을 변경시킬 수 있다. 관제 서버(300)는 카메라(100)의 설치 위치 정보를 가지고 있다. 따라서, 이벤트 발생 위치 인근에 설치된 복수개의 카메라(100)를 대상으로 프리셋 설정을 각각 요청하고, 각 카메라(100)의 회전 방향 및 회전 각도를 산출하여 각 카메라(100)에게 제공할 수 있다. 즉, S105 단계 ~ S119 단계가 복수개의 카메라(100)에 대하여 모두 수행될 수 있다. 이때, 관제 서버(300)의 관제 화면에는 복수개의 카메라(100) 각각이 이벤트 발생 위치를 향하여 촬영한 영상이 동시에 출력된다. At this time, although one camera 100 has been described as an example, the control server 300 may change the shooting direction of the plurality of cameras 100 . The control server 300 has installation location information of the camera 100 . Accordingly, preset settings may be requested for a plurality of cameras 100 installed near an event occurrence location, and the rotation direction and rotation angle of each camera 100 may be calculated and provided to each camera 100 . That is, steps S105 to S119 may all be performed for the plurality of cameras 100 . At this time, the images captured by each of the plurality of cameras 100 toward the event occurrence location are simultaneously output on the control screen of the control server 300 .

도 6을 참조하면, 특정 이벤트, 예를들면, SOS와 같은 이벤트가 발생하는 경우, 이벤트가 발생한 위치에 근접한 위치에 설치된 4개의 카메라(#1, #2, #3, #4)가 프리셋 설정 상태에서 화살표 방향으로 회전하여, 이벤트 발생 위치가 포함된 관제 영역을 촬영한다. 이때, 관제 영역을 하나로 도시하였으나, 각 카메라가 향하는 촬영 방향에서 보이는 관제 영역의 세부 영상은 다를 수 있다. 따라서, 관제 서버(300)는 이벤트 발생 위치가 포함된 관제 영역의 영상을 다양한 촬영 방향에서 동시에 획득할 수 있다.Referring to FIG. 6 , when a specific event, for example, an event such as SOS occurs, four cameras (#1, #2, #3, #4) installed in a location close to the location where the event occurred are preset By rotating in the direction of the arrow in the state, the control area including the location of the event is photographed. In this case, although the control area is shown as one, the detailed image of the control area seen in the shooting direction that each camera is facing may be different. Accordingly, the control server 300 may simultaneously acquire images of the control area including the event occurrence location in various shooting directions.

이제, 적어도 하나의 카메라(100)가 이벤트 발생 위치가 포함되는 관제 영역을 촬영하도록 관제 서버(300)가 적어도 하나의 카메라(100)의 회전 방향 및 회전 각도를 산출하는 일련의 과정에 대해 도 7 ~ 도 17을 참조하여 상세히 설명하면 다음과 같다.Now, the control server 300 calculates the rotation direction and the rotation angle of the at least one camera 100 so that the at least one camera 100 captures the control area including the event occurrence position in FIG. 7 . ~ It will be described in detail with reference to FIG. 17 as follows.

도 7은 도 5의 S109 단계를 상세히 나타낸 순서도이고, 도 8은 본 발명의 실시예에 따른 가상 화면의 예시도이고, 도 9는 본 발명의 한 실시예에 따른 기준점 설정 예시도이고, 도 10은 본 발명의 다른 실시예에 따른 기준점 설정 예시도이고, 도 11 ~ 도 13은 본 발명의 실시예에 따른 가상 화면을 회전하는 동작을 나타낸다.7 is a flowchart illustrating step S109 of FIG. 5 in detail, FIG. 8 is an exemplary diagram of a virtual screen according to an embodiment of the present invention, FIG. 9 is an exemplary diagram of setting a reference point according to an embodiment of the present invention, and FIG. is an exemplary diagram of setting a reference point according to another embodiment of the present invention, and FIGS. 11 to 13 show an operation of rotating a virtual screen according to an embodiment of the present invention.

먼저, 도 7 및 도 8을 참조하면, 관제 서버(300)는 관제 화면 위에 가상 화면을 팝업한다(S201). First, referring to FIGS. 7 and 8 , the control server 300 pops up a virtual screen on the control screen (S201).

가상 화면은 관제 화면 위에 팝업되는데, 관제 화면 위에 중첩될 수 있다. 가상 화면은, 위도(latitude)와 경도(longitude)가 서로 교차하는 지점이 위치 좌표로 설정된다. 가상 화면은 서로 교차하는 x축의 복수의 직선과 y축의 복수개의 직선이 표시되어 있다. x축이 위도이고, y축이 경도이다. 직선이 서로 교차하는 지점은 위치 좌표로서, 위치 좌표는 (위도값, 경도값)으로 구성된다. The virtual screen pops up on the control screen, and may be superimposed on the control screen. In the virtual screen, a point where latitude and longitude intersect with each other is set as a location coordinate. In the virtual screen, a plurality of straight lines on the x-axis and a plurality of straight lines on the y-axis that intersect each other are displayed. The x-axis is latitude and the y-axis is longitude. The point where the straight lines intersect each other is the position coordinate, and the position coordinate is composed of (latitude value, longitude value).

관제 서버(300)는 가상 화면에 카메라 설치 지점(Installation point, I) 및 기준점(Reference Point, R)을 표시한다(S203). The control server 300 displays the camera installation point (Installation point, I) and the reference point (Reference Point, R) on the virtual screen (S203).

관제 서버(300)는 가상 화면의 위치 좌표들중 카메라(100)의 설치 위치 좌표를 확인하고, 확인한 위치 좌표에 카메라 설치 지점(I)을 표시한다(S203). 예를들어, 카메라(100)의 설치 위치가 위도가 a1, 경도가 b1이라면, 가상 화면의 (a1, b1)에 카메라 설치 지점(I)을 표시한다(S203). The control server 300 checks the installation position coordinates of the camera 100 among the position coordinates of the virtual screen, and displays the camera installation point (I) in the confirmed position coordinates (S203). For example, if the installation location of the camera 100 has a latitude a1 and a longitude b1, the camera installation point I is displayed at (a1, b1) of the virtual screen (S203).

관제 서버(300)는 카메라(100)의 기준점(R)을 가상 화면에 표시한다(S203). 기준점(R)은 카메라(100)가 프리셋 설정 상태에서 바라보는 관제 영역을 기초로 설정되며, 설정 방법의 실시예는 도 9, 10과 같이 두가지가 있을 수 있다.The control server 300 displays the reference point R of the camera 100 on the virtual screen (S203). The reference point R is set based on the control area viewed by the camera 100 in the preset setting state, and there may be two examples of the setting method as shown in FIGS. 9 and 10 .

한 실시예에 따르면, 도 9와 같이, 카메라(100)가 프리셋 설정 상태에서 바라보는 관제 영역(P1)의 지면 중심점(P3)의 위도 및 경도가 기준점(R)으로 설정될 수 있다. 물론, 지면 중심점(P3)의 정확한 위도 및 경도는 산출이 어려울 수도 있으므로, 일정 범위 내의 오차는 허용된다. 오차의 범위는 측정된 위도 및 경도가 관제 영역(P1)을 벗어나지 않도록 설정된다.According to one embodiment, as shown in FIG. 9 , the latitude and longitude of the ground center point P3 of the control area P1 viewed by the camera 100 in the preset setting state may be set as the reference point R. Of course, since it may be difficult to calculate the exact latitude and longitude of the ground center point P3, an error within a certain range is allowed. The error range is set so that the measured latitude and longitude do not deviate from the control area P1.

다른 실시예에 따르면, 도 10과 같이 카메라(100)가 프리셋 설정 상태에서 바라보는 관제 영역(P1)에 지표가 될 수 있는 건축물이 있는 경우, 그 건축물의 위도 및 경도가 기준점(R)으로 설정될 수 있다.According to another embodiment, when there is a building that can be an indicator in the control area P1 viewed by the camera 100 in the preset setting state as shown in FIG. 10 , the latitude and longitude of the building are set as the reference point R can be

이와 같은 방법으로 설정된 기준점(R)의 위도가 a3, 경도가 b3라면, 관제 서버(300)는 가상 화면에서 (a3, b3)인 지점에 기준점(R)을 표시한다(S203).If the latitude of the reference point R set in this way is a3 and the longitude is b3, the control server 300 displays the reference point R at the point (a3, b3) on the virtual screen (S203).

관제 서버(300)는 카메라 설치 지점(I)과 기준점(R)을 연결한 기준선을 중심으로 좌우 특정(A) 각도 이내의 영역을 오브젝트 분석 영역으로 설정한다(S205). 예를들면, 기준선을 중심으로 좌우 15도 이내의 영역을 오브젝트 분석 영역으로 설정할 수 있다.The control server 300 sets the area within the left and right specific angle (A) around the reference line connecting the camera installation point (I) and the reference point (R) as the object analysis area (S205). For example, an area within 15 degrees left and right of the reference line can be set as the object analysis area.

관제 서버(300)는 이벤트 발생 지점에 트랙커를 표시한다(S207). 이벤트 발생 지점은 이벤트가 발생된 위치의 위도 및 경도로 이루어진 좌표이다. 관제 서버(300)는 이벤트 발생 지점에 트랙커를 표시한다.The control server 300 displays the tracker at the event occurrence point (S207). The event occurrence point is a coordinate consisting of the latitude and longitude of the location where the event occurred. The control server 300 displays the tracker at the event occurrence point.

관제 서버(300)는 카메라 설치 지점(I)과 이벤트 발생 지점을 이은 이동선을 표시한다(S209). 관제 서버(300)는 이벤트 발생 위치 좌표를 확인하고, 확인한 위치 좌표에 트랙커를 표시한다. 예를들어, 이벤트 발생 위치가 위도가 a2, 경도가 b2라면, 가상 화면의 (a2, b2)에 트랙커를 표시한다. 그리고 카메라 설치 지점(I)으로부터 트랙커를 지나는 이동선을 표시한다.The control server 300 displays a moving line connecting the camera installation point (I) and the event occurrence point (S209). The control server 300 checks the coordinates of the event occurrence location, and displays the tracker at the checked location coordinates. For example, if the event occurrence location is latitude a2 and longitude b2, the tracker is displayed at (a2, b2) of the virtual screen. And mark the moving line passing the tracker from the camera installation point (I).

이때, 카메라 설치 지점(I)의 위치 좌표, 기준점(R)의 위치 좌표는 DB로 관제 서버(300)가 사전에 보유하고 있다. 이벤트 발생 위치는 이벤트 발생 장치(400) 또는 외부 시스템 등을 통해 관제 서버(300)가 획득한다.At this time, the position coordinates of the camera installation point (I) and the position coordinates of the reference point (R) are stored in the DB in advance by the control server 300 . The event occurrence location is acquired by the control server 300 through the event generating device 400 or an external system.

관제 서버(300)는 가상 화면을 시계 방향 또는 반시계 방향으로 회전시킨다(S211). 이때, 관제 서버(300)는 단위 각도를 설정하고, 한번 회전시킬 때 단위 각도 만큼 회전시킬 수 있다. 관제 서버(300)는 가상 화면을 화살표 방향, 즉, 시계 반대 방향 또는 시계 방향으로 회전시키는데, 트랙커가 오브젝트 분석 영역에 포함포함될 때까지 회전시킨다.The control server 300 rotates the virtual screen clockwise or counterclockwise (S211). In this case, the control server 300 may set the unit angle and rotate it by the unit angle when rotating once. The control server 300 rotates the virtual screen in the arrow direction, that is, counterclockwise or clockwise, until the tracker is included in the object analysis area.

관제 서버(300)는 회전시킨 후(S211), 트랙커가 오브젝트 분석 영역에 포함되는지를 판단한다(S213). 이때, 포함되지 않으면, 포함될때까지 S211 단계와 S213 단계를 반복한다. After the control server 300 rotates (S211), it is determined whether the tracker is included in the object analysis area (S213). At this time, if not included, steps S211 and S213 are repeated until included.

S213 단계에서 포함된다고 판단되면, 관제 서버(300)는 가상 화면이 회전한 방향과 회전 각도를 확인한다(S215). If it is determined to be included in step S213, the control server 300 checks the rotation direction and rotation angle of the virtual screen (S215).

관제 서버(300)는 확인(S215)한 회전 방향의 반대 방향을 카메라(100)의 회전 방향으로 산출하고, 확인(S215)한 회전 각도를 카메라(100)의 회전 각도로 산출한다(S217). The control server 300 calculates the direction opposite to the rotation direction confirmed (S215) as the rotation direction of the camera 100, and calculates the rotation angle confirmed (S215) as the rotation angle of the camera 100 (S217).

관제 서버(300)는 가상 화면을 회전시키고, 오브젝트 분석 영역 및 기준점(R)은 가상 화면이 회전하더라도 고정된다. 관제 서버(300)는 트랙커가 오브젝트 분석 영역에 포함될까지 가상 화면의 회전을 멈추지 않고 한번에 회전시킬 수 있다. 또는 관제 서버(300)는 단위 회전 각도만큼 단계적 회전을 수행할 수도 있다. 이 경우, 도 11을 참조하면, 가상 화면이 시계 반대 방향으로 1단계 회전을 한 경우, 이동선은 B1, 즉, 단위 회전 각도만큼 시계 반대 방향으로 이동한다. 이때, 오브젝트 영역은 움직이지 않고, 가상 화면의 이동선이 가상 화면과 함께 움직인다. 도 12를 참조하면, 도 11에서 멈춘 위치에서 다시 B2만큼 시계 반대 방향으로 가상 화면이 2단계 회전한다. 도 13을 참조하면, 도 12에서 멈춘 위치에서 다시 B3만큼 시계 반대 방향으로 가상 화면이 3단계 회전한다. 이때, 트랙커가 오브젝트 영역에 포함된다. 관제 서버(300)는 도 11에서 도 13까지 회전한 각도를 산출한다. 단위 회전 각도가 35도라면, 총 3회 회전했으므로, 가상 화면의 회전 각도는 105도가 된다. The control server 300 rotates the virtual screen, and the object analysis area and the reference point R are fixed even when the virtual screen is rotated. The control server 300 may rotate the virtual screen at once without stopping the rotation of the virtual screen until the tracker is included in the object analysis area. Alternatively, the control server 300 may perform a stepwise rotation by a unit rotation angle. In this case, referring to FIG. 11 , when the virtual screen is rotated counterclockwise by one step, the movement line moves counterclockwise by B1, that is, a unit rotation angle. In this case, the object area does not move, and the moving line of the virtual screen moves together with the virtual screen. Referring to FIG. 12 , the virtual screen rotates in two steps in the counterclockwise direction by B2 again from the position stopped in FIG. 11 . Referring to FIG. 13 , the virtual screen rotates in three steps counterclockwise by B3 again from the position stopped in FIG. 12 . In this case, the tracker is included in the object area. The control server 300 calculates the rotated angle from FIGS. 11 to 13 . If the unit rotation angle is 35 degrees, the rotation angle of the virtual screen is 105 degrees because it has been rotated a total of 3 times.

이와 같이, 관제 서버(300)는 가상 화면의 회전 방향과 반대 방향인 시계 방향을 카메라(100)의 회전 방향으로 산출한다. 그리고 카메라(100)의 회전 각도를 105도로 산출한다.As such, the control server 300 calculates the clockwise direction opposite to the rotation direction of the virtual screen as the rotation direction of the camera 100 . Then, the rotation angle of the camera 100 is calculated as 105 degrees.

이상의 방법을 통해 관제 서버(300)가 원격에서 기준점으로 카메라(100)를 이동시킨 후, 가상 화면의 회전을 통해 산출한 회전 방향 및 회전 각도만큼 카메라(100)를 회전시켜, 카메라(100)가 이벤트 발생 지점을 향하도록 할 수 있다. 따라서, 종래처럼 복잡한 영상 분석 알고리즘을 통해 이벤트 발생 위치로 카메라 위치를 변경하거나, 관리자가 원격이든 직접 카메라 설치 위치로 가서든, 일일히 카메라 각도를 조절할 필요가 없이. 즉, 관리자의 개입없이 자동으로 카메라(100)를 이동시킬 수 있으면서도, 복잡한 프로세싱을 요하지 않는다.After the control server 300 moves the camera 100 from the remote to the reference point through the above method, the camera 100 is rotated by the rotation direction and rotation angle calculated through the rotation of the virtual screen. It can be directed to the point of occurrence of the event. Therefore, there is no need to change the camera position to the event occurrence location through a conventional complex image analysis algorithm, or to adjust the camera angle daily whether the administrator goes to the camera installation location remotely or directly. That is, while the camera 100 can be automatically moved without the intervention of an administrator, complicated processing is not required.

한편, 도 14는 본 발명의 실시예에 따른 서버의 하드웨어 블록도로서, 도 1 ~ 도 13에서 설명한 관제 서버(300)의 하드웨어 구성을 나타낸다. Meanwhile, FIG. 14 is a hardware block diagram of a server according to an embodiment of the present invention, and shows the hardware configuration of the control server 300 described with reference to FIGS. 1 to 13 .

도 14를 참고하면, 서버(600)는 통신 장치(601), 메모리(603), 디스플레이(605), 입력 장치(607) 및 적어도 하나의 프로세서(609) 등을 포함하는 하드웨어로 구성되고, 지정된 장소에 하드웨어와 결합되어 실행되는 프로그램이 저장된다. 통신 장치(601)는 프로세서(609)와 연결되어, 네트워크(200)를 통해 데이터를 송신 및/ 또는 수신한다. 메모리(603)는 프로세서(609)와 연결되어, 도 1내지 도 13에서 설명한 실시예들에 따른 구성 및/또는 방법을 실행하게 하는 명령어(instructions)들을 포함하는 프로그램을 저장한다. 프로그램은 메모리 장치(603) 및 프로세서(609) 등의 하드웨어와 결합하여 본 발명을 구현한다. 디스플레이 장치(605)는 프로세서(609)와 연결되어, 도 1내지 도 13에서 설명한 실시예들에 따른 데이터들을 화면에 출력한다. 입력 장치(607)는 프로세서(609)와 연결되어, 도 1내지 도 13에서 설명한 실시예들에 따른 사용자 입력 동작을 위한 수단이다. 이때, 디스플레이(605)와 입력 장치(607)는 하나의 장치로 구현될 수 있다. Referring to FIG. 14 , the server 600 is composed of hardware including a communication device 601 , a memory 603 , a display 605 , an input device 607 , and at least one processor 609 , and a designated A program that is executed in combination with the hardware is stored in the place. The communication device 601 is connected to the processor 609 to transmit and/or receive data through the network 200 . The memory 603 is connected to the processor 609 and stores a program including instructions for executing the configuration and/or method according to the embodiments described with reference to FIGS. 1 to 13 . The program implements the present invention in combination with hardware such as a memory device 603 and a processor 609 . The display device 605 is connected to the processor 609 to output data according to the embodiments described with reference to FIGS. 1 to 13 on the screen. The input device 607 is connected to the processor 609 and is a means for a user input operation according to the embodiments described with reference to FIGS. 1 to 13 . In this case, the display 605 and the input device 607 may be implemented as one device.

이상에서 설명한 본 발명의 실시예는 장치 및 방법을 통해서만 구현이 되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있다.The embodiment of the present invention described above is not implemented only through the apparatus and method, but may be implemented through a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improved forms of the present invention are also provided by those skilled in the art using the basic concept of the present invention as defined in the following claims. is within the scope of the right.

Claims (14)

적어도 하나의 프로세서에 의해 동작하는 관제 서버에서 처리되는 영상 관제 방법으로서,
이벤트 발생을 감지하는 단계,
이벤트 발생 위치와 근접한 위치에 설치된 적어도 하나의 카메라에게 프리셋 설정 요청을 전송하는 단계,
프리셋 설정된 적어도 하나의 카메라에게 카메라 구동 신호를 전송하는 단계, 그리고
상기 카메라 구동 신호에 따라 회전한 적어도 하나의 카메라로부터 영상을 수신하여 관제 화면에 출력하는 단계를 포함하고,
상기 카메라 구동 신호는,
상기 회전한 적어도 하나의 카메라의 촬영 방향이 이벤트 발생 위치가 포함된 관제 영역을 향하게 하는 카메라 회전 방향 및 카메라 회전 각도를 포함하는, 영상 관제 방법.
As an image control method processed in a control server operated by at least one processor,
detecting the occurrence of an event;
transmitting a preset setting request to at least one camera installed in a location close to the event occurrence location;
transmitting a camera driving signal to at least one preset camera, and
Receiving an image from at least one camera rotated according to the camera driving signal and outputting it to a control screen,
The camera driving signal is
Including a camera rotation direction and a camera rotation angle such that the photographing direction of the at least one rotated camera faces a control area including an event occurrence location.
제1항에서,
상기 프리셋 설정 요청을 전송하는 단계와 상기 카메라 구동 신호를 전송하는 단계 사이에,
카메라 설치 위치 좌표, 이벤트 발생 위치 좌표 및 프리셋 설정된 카메라의 기준점 좌표를 기초로 상기 카메라 회전 방향 및 상기 카메라 회전 각도를 산출하는 단계
를 더 포함하는, 영상 관제 방법.
In claim 1,
Between the step of transmitting the preset setting request and the step of transmitting the camera driving signal,
Calculating the camera rotation direction and the camera rotation angle based on the camera installation position coordinates, the event occurrence position coordinates, and the preset reference point coordinates of the camera
Further comprising, a video control method.
제2항에서,
상기 산출하는 단계는,
가상 화면 위의 상기 이벤트 발생 위치 좌표에 표시된 트랙커와 상기 가상 화면 위에 표시된 상기 카메라 설치 위치 좌표를 이은 연결선이, 오브젝트 분석 영역에 포함될때까지 상기 가상 화면을 회전시킨 후, 상기 가상 화면의 회전 방향과 반대 방향을 상기 카메라 회전 방향으로 산출하고, 상기 가상 화면의 회전 각도를 상기 카메라 회전 각도로 산출하며,
상기 오브젝트 분석 영역은,
가상 화면 위에 각각 표시된 상기 카메라 설치 위치 좌표와 상기 기준점 좌표를 이은 기준선을 중심으로 좌우 일정 각도 이내로 설정되는, 영상 관제 방법.
In claim 2,
The calculating step is
After rotating the virtual screen until a connecting line connecting the tracker displayed on the coordinates of the event occurrence location on the virtual screen and the coordinates of the camera installation location displayed on the virtual screen is included in the object analysis area, the rotation direction of the virtual screen and The opposite direction is calculated as the camera rotation direction, and the rotation angle of the virtual screen is calculated as the camera rotation angle,
The object analysis area is
An image control method that is set within a predetermined angle left and right around a reference line connecting the coordinates of the camera installation location and the coordinates of the reference point respectively displayed on the virtual screen.
제3항에서,
상기 가상 화면은,
위도 및 경도가 교차하는 지점이 위치 좌표로 설정되는, 영상 관제 방법.
In claim 3,
The virtual screen is
A video control method in which the point where latitude and longitude intersect is set as the location coordinate.
제3항에서,
상기 기준점 좌표는,
상기 프리셋 설정된 카메라의 촬영 방향이 향하는 관제 영역의 중심 좌표로 설정되는, 영상 관제 방법.
In claim 3,
The reference point coordinates are,
The video control method, which is set as the coordinates of the center of the control area to which the preset camera's shooting direction is directed.
제3항에서,
상기 기준점 좌표는,
상기 프리셋 설정된 카메라의 촬영 방향이 향하는 관제 영역에 포함된 건축물의 위치 좌표로 설정되는, 영상 관제 방법.
In claim 3,
The reference point coordinates are,
The image control method, which is set as the coordinates of the location of the building included in the control area to which the preset camera's shooting direction is directed.
삭제delete 적어도 하나의 프로세서에 의해 동작하는 관제 서버에서 처리되는 영상 관제 방법으로서,
이벤트가 발생하면, 상기 이벤트가 발생한 위치에 근접하게 설치된 카메라에게 프리셋 설정 요청을 전송하는 단계,
위치 좌표로 구성된 가상 화면의 카메라 설치 위치 좌표에 카메라 설치 지점을 표시하고, 상기 가상 화면의 기 설정된 카메라 기준점 좌표에 기준점을 표시하며, 상기 가상 화면의 이벤트 발생 위치 좌표에 트랙커를 표시하는 단계,
상기 카메라 설치 지점과 상기 기준점을 이은 연결선을 기준으로 좌우 일정 각도 이내로 형성되는 영역을 오브젝트 분석 영역으로 설정하는 단계,
상기 트랙커가 상기 오브젝트 분석 영역에 포함될때까지 상기 가상 화면을 회전시켜, 상기 가상 화면이 회전한 방향과 반대 방향을 카메라 회전 방향으로 산출하고, 상기 가상 화면이 회전한 각도를 카메라 회전 각도로 산출하는 단계,
상기 카메라 회전 방향 및 상기 카메라 회전 각도를 포함하는 카메라 구동 신호를 상기 카메라에게 전송하는 단계, 그리고
프리셋 설정 상태에서 상기 카메라 회전 방향 및 상기 카메라 회전 각도로 움직인 카메라가 촬영한 영상을 수신하여 관제 화면에 출력하는 단계
를 포함하는, 영상 관제 방법.
As an image control method processed in a control server operated by at least one processor,
When an event occurs, transmitting a preset setting request to a camera installed close to the location where the event occurred,
Displaying the camera installation point on the camera installation position coordinates of the virtual screen consisting of the position coordinates, displaying the reference point on the preset camera reference point coordinates of the virtual screen, and displaying the tracker on the event occurrence position coordinates of the virtual screen,
setting an area formed within a predetermined angle left and right as an object analysis area based on a connection line connecting the camera installation point and the reference point;
Rotating the virtual screen until the tracker is included in the object analysis area, calculating a direction opposite to the rotation direction of the virtual screen as a camera rotation direction, and calculating the rotation angle of the virtual screen as a camera rotation angle step,
transmitting a camera driving signal including the camera rotation direction and the camera rotation angle to the camera; and
Receiving the image captured by the camera moving in the camera rotation direction and the camera rotation angle in the preset setting state and outputting it to the control screen
Including, video control method.
제8항에서,
상기 기 설정된 기준 좌표는,
프리셋 설정 상태의 카메라가 향하는 관제 영역에 포함되는 위도 및 경도로 이루어진 위치 좌표인, 영상 관제 방법.
In claim 8,
The preset reference coordinates are,
The video control method, which is a position coordinate consisting of latitude and longitude included in the control area to which the camera of the preset setting state faces.
제8항에서,
상기 카메라 회전 각도는,
PTZ(Pan Tilt Zoom) 카메라의 패닝 방향의 회전 각도인, 영상 관제 방법.
In claim 8,
The camera rotation angle is
PTZ (Pan Tilt Zoom) A video control method that is the rotation angle in the panning direction of the camera.
제8항에서,
상기 프리셋 설정 요청은,
상기 이벤트가 발생한 위치에 근접하게 설치된 적어도 둘 이상의 카메라에게 전송되고,
상기 표시하는 단계, 상기 설정하는 단계, 상기 산출하는 단계, 상기 카메라에게 전송하는 단계는,
상기 적어도 둘 이상의 카메라 각각에 대하여 반복되고,
상기 출력하는 단계는,
상기 이벤트가 발생한 위치가 포함된 관제 영역을 향하도록 움직인 상기 적어도 둘 이상의 카메라가 촬영한 각각의 영상을 상기 관제 화면에 동시에 출력하는, 영상 관제 방법.
In claim 8,
The preset setting request is
It is transmitted to at least two or more cameras installed close to the location where the event occurred,
The step of displaying, the step of setting, the step of calculating, the step of transmitting to the camera,
repeated for each of the at least two or more cameras,
The output step is
The video control method of simultaneously outputting the respective images captured by the at least two or more cameras moving toward the control area including the location where the event occurred on the control screen.
제11항에서,
상기 프리셋 설정 요청은,
상기 적어도 둘 이상의 카메라 각각에 대해 고유하게 설정된 프리셋으로 설정하도록 요청하고,
상기 프리셋은,
PTZ(Pan Tilt Zoom) 카메라의 패닝 방향의 회전 각도와 틸팅 방향의 회전 각도를 포함하는, 영상 관제 방법.
In claim 11,
The preset setting request is
Request to set a preset uniquely set for each of the at least two or more cameras,
The preset is
PTZ (Pan Tilt Zoom) including the rotation angle of the panning direction and the rotation angle of the tilting direction of the camera, video control method.
네트워크를 통하여 적어도 하나의 카메라와 데이터를 송수신하는 통신 장치,
상기 적어도 하나의 카메라의 구동을 제어하는 프로그램을 저장하는 메모리, 그리고
상기 프로그램을 실행하는 적어도 하나의 프로세서를 포함하고,
상기 프로그램은,
이벤트 발생을 감지하면, 이벤트 발생 위치와 근접한 위치에 설치된 적어도 하나의 카메라에게 프리셋 설정 요청을 전송하고, 프리셋 설정된 적어도 하나의 카메라에게 각각의 카메라 회전 방향 및 각각의 카메라 회전 각도를 전송하며, 상기 각각의 카메라 회전 방향 및 상기 각각의 카메라 회전 각도로 회전한 상기 적어도 하나의 카메라로부터 상기 적어도 하나의 카메라가 촬영한 영상을 수신하여 관제 화면에 출력하는 명령어들(instructions)을 포함하는, 서버.
A communication device for transmitting and receiving data to and from at least one camera through a network;
a memory storing a program for controlling driving of the at least one camera; and
at least one processor executing the program;
The program is
When an event occurrence is detected, a preset setting request is transmitted to at least one camera installed in a position close to the event occurrence position, and each camera rotation direction and each camera rotation angle are transmitted to at least one preset camera, and each A server comprising: receiving an image photographed by the at least one camera from the at least one camera rotated by the camera rotation direction and the respective camera rotation angle and outputting the image to a control screen.
제13항에서,
상기 프로그램은,
위도 및 경도가 교차하는 지점이 위치 좌표로 설정되는 가상 화면 위에 카메라 설치 지점과 기준점을 이은 연결선을 중심으로 좌우 일정 각도 이내를 오브젝트 분석 영역으로 설정하고,
상기 가상 화면 위의 이벤트 발생 위치 좌표에 표시된 트랙커와 상기 카메라 설치 위치 지점을 이은 연결선이, 상기 오브젝트 분석 영역에 포함될때까지 상기 가상 화면을 회전시킨 후, 상기 가상 화면의 회전 방향과 반대 방향을 상기 카메라 회전 방향으로 산출하고, 상기 가상 화면의 회전 각도를 상기 카메라 회전 각도로 산출하는 명령어들을 포함하는, 서버.
In claim 13,
The program is
On the virtual screen where the point where the latitude and longitude intersect is set as the location coordinate, set the object analysis area within a certain angle left and right with the center of the connection line connecting the camera installation point and the reference point,
After rotating the virtual screen until the connecting line connecting the tracker displayed on the event occurrence location coordinates on the virtual screen and the camera installation location point is included in the object analysis area, the direction opposite to the rotation direction of the virtual screen is said Calculating the camera rotation direction, and including instructions for calculating the rotation angle of the virtual screen as the camera rotation angle, the server.
KR1020170099818A 2017-08-07 2017-08-07 Intelligent video control method and server apparatus thereof KR102333760B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170099818A KR102333760B1 (en) 2017-08-07 2017-08-07 Intelligent video control method and server apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170099818A KR102333760B1 (en) 2017-08-07 2017-08-07 Intelligent video control method and server apparatus thereof

Publications (2)

Publication Number Publication Date
KR20190015955A KR20190015955A (en) 2019-02-15
KR102333760B1 true KR102333760B1 (en) 2021-11-30

Family

ID=65367374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170099818A KR102333760B1 (en) 2017-08-07 2017-08-07 Intelligent video control method and server apparatus thereof

Country Status (1)

Country Link
KR (1) KR102333760B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102208158B1 (en) * 2020-07-08 2021-01-27 금오공과대학교 산학협력단 HEMP and IEMI protected video monitoring system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148260A (en) 2004-11-16 2006-06-08 Canon Inc Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006148260A (en) 2004-11-16 2006-06-08 Canon Inc Automatic tracking device, image abnormality detector, automatic tracking method, image abnormality detecting method, program and storage medium

Also Published As

Publication number Publication date
KR20190015955A (en) 2019-02-15

Similar Documents

Publication Publication Date Title
US7385626B2 (en) Method and system for performing surveillance
KR101582441B1 (en) System for collecting image information and collecting method for image information of moving object
WO2017054700A1 (en) Fire disaster monitoring method and apparatus
KR101745598B1 (en) Security system and method for detecting abnormal behavior
KR101363066B1 (en) Monitoring system for crime-ridden district using unmanned flight vehicle
US20060139484A1 (en) Method for controlling privacy mask display
US11076131B2 (en) Video collection system, video collection server, video collection method, and program
KR20120124785A (en) Object tracking system for tracing path of object and method thereof
CN111046121B (en) Environment monitoring method, device and system
CN103416050A (en) Information provision system, information provision device, photographing device, and computer program
CN113115000B (en) Map generation method and device, electronic equipment and storage medium
KR100888935B1 (en) Method for cooperation between two cameras in intelligent video surveillance systems
KR102333760B1 (en) Intelligent video control method and server apparatus thereof
KR101601963B1 (en) Method and apparatus for video surveillance by using pan-tilt-zoom camera
US20220337790A1 (en) Video monitoring systems and methods
KR101629221B1 (en) Discriminating Camera position and fixing zero point system using GPS sensors and electronic compass
KR20110078655A (en) A method and a system of filming using multiple camera
KR20190114223A (en) Surveillance system and operation method thereof
CN114237094A (en) Intelligent alarm linkage monitoring system, method, electronic equipment and medium
JP2018170574A (en) Monitoring system
KR101716184B1 (en) Method of displaying event image in camera system
WO2005120070A2 (en) Method and system for performing surveillance
KR101158819B1 (en) Method for controlling privacy mask display of monitoring camera
KR102572907B1 (en) Rotating camera image object position information providing system and method thereof
KR20200073374A (en) Surveillance camera system and the control method thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant