KR20190114223A - Surveillance system and operation method thereof - Google Patents

Surveillance system and operation method thereof Download PDF

Info

Publication number
KR20190114223A
KR20190114223A KR1020180036605A KR20180036605A KR20190114223A KR 20190114223 A KR20190114223 A KR 20190114223A KR 1020180036605 A KR1020180036605 A KR 1020180036605A KR 20180036605 A KR20180036605 A KR 20180036605A KR 20190114223 A KR20190114223 A KR 20190114223A
Authority
KR
South Korea
Prior art keywords
cameras
camera
information
processor
memory
Prior art date
Application number
KR1020180036605A
Other languages
Korean (ko)
Other versions
KR102454920B1 (en
Inventor
이호웅
조성봉
목승준
성민석
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020180036605A priority Critical patent/KR102454920B1/en
Publication of KR20190114223A publication Critical patent/KR20190114223A/en
Application granted granted Critical
Publication of KR102454920B1 publication Critical patent/KR102454920B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2381Adapting the multiplex stream to a specific network, e.g. an Internet Protocol [IP] network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • H04N5/247
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

A surveillance system according to an embodiment for solving a problem to be solved by the present invention includes a communication interface for receiving a plurality of images from a plurality of cameras, a memory for storing the location information of each of the plurality of cameras; a display module for displaying at least one image among the plurality of images, and a processor which selects at least two cameras among the plurality of cameras based on the location information, and processes and displays at least two images received from the at least two cameras on the display module. It is possible to monitor various surveillance regions.

Description

감시 시스템 및 그 동작 방법{SURVEILLANCE SYSTEM AND OPERATION METHOD THEREOF}Surveillance system and its operation method {SURVEILLANCE SYSTEM AND OPERATION METHOD THEREOF}

본 발명은 복수의 영상들 중 일부 영상들을 선택적으로 제공하는 감시 시스템 및 그 동작 방법에 관한 것이다.The present invention relates to a surveillance system for selectively providing some images among a plurality of images and a method of operating the same.

최근 들어, 방범, 보안, 매장 관리 등 다양한 목적으로 건물 내부나 외부, 길거리 등에 카메라를 설치하는 경우가 증가하고 있다. 이러한 카메라는 유선 또는 무선으로 네트워크를 통하여 서로 연결되어 네트워크 카메라로서의 기능을 수행할 수 있다.In recent years, the installation of the camera in the interior, exterior, street, etc. for a variety of purposes, such as security, security, store management is increasing. These cameras may be connected to each other via a network by wire or wirelessly to perform a function as a network camera.

또한, 카메라가 설치된 장소를 관리하는 관리자는 개인용 컴퓨터 등을 통하여 카메라에 접속하여 원격으로 건물이나 매장 등의 원격지를 관리할 수 있다.In addition, an administrator who manages a place where a camera is installed may remotely manage a remote place such as a building or a store by accessing the camera through a personal computer.

KRKR 10-159404810-1594048 B1B1

본 발명이 해결하고자 하는 과제는 다양하게 감시 영역을 감시하는 감시 시스템 및 그 동작 방법을 제공하는 것이다.The problem to be solved by the present invention is to provide a monitoring system and a method of operation for monitoring the monitoring area in various ways.

또한, 정확하게 감시 영역을 감시하는 감시 시스템 및 그 동작 방법을 제공하는 것이다.In addition, the present invention provides a surveillance system for accurately monitoring a surveillance region and an operation method thereof.

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템은 복수의 카메라들로부터 복수의 영상들을 수신하는 통신 인터페이스, 상기 복수의 카메라들 각각의 위치 정보를 저장하는 메모리, 상기 복수의 영상들 중 적어도 하나의 영상을 표시하는 디스플레이 모듈, 및 상기 위치 정보에 기초하여 상기 복수의 카메라들 중 적어도 2개의 카메라들을 선택하고, 상기 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 상기 디스플레이 모듈에 표시하는 프로세서를 포함한다.According to one or more exemplary embodiments, a surveillance system includes a communication interface configured to receive a plurality of images from a plurality of cameras, a memory configured to store location information of each of the plurality of cameras, and a plurality of the plurality of cameras. A display module for displaying at least one of the images, and at least two cameras of the plurality of cameras based on the position information, and processing at least two images received from the at least two cameras It includes a processor to display on the display module.

본 실시예에서, 상기 적어도 2개의 영상들은 각각 2차원 영상이고, 상기 프로세서는 상기 적어도 2개의 2차원 영상들을 축소 처리하여 상기 디스플레이 모듈에 동시에 표시하거나, 상기 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고 상기 디스플레이 모듈에 상기 하나의 3차원 영상을 표시할 수 있다.In the present embodiment, the at least two images are each two-dimensional images, and the processor reduces the at least two two-dimensional images and simultaneously displays them on the display module or uses the at least two two-dimensional images. The 3D image may be generated and the one 3D image may be displayed on the display module.

본 실시예에서, 상기 위치 정보는 IP(Internet Protocol) 주소 정보를 나타내고, 상기 프로세서는 상기 메모리로부터 제1 카메라의 제1 IP 주소 정보를 추출하고, 상기 메모리로부터 상기 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하고, 상기 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당될 수 있다.In the present embodiment, the location information represents IP (Internet Protocol) address information, and the processor extracts first IP address information of the first camera from the memory, and a predetermined distance from the first IP address information from the memory. Extract one or more second IP address information existing within, select one or more second cameras corresponding to the one or more second IP address information, and wherein the first camera and the one or more second cameras comprise Included in cameras, the first camera and the one or more second cameras may correspond to the at least two cameras.

본 실시예에서, 상기 복수의 카메라들 중 상기 제1 카메라를 선택하는 사용자 입력을 수신하는 사용자 인터페이스를 더 포함하고, 상기 프로세서는 상기 사용자 입력에 대응하여 상기 메모리로부터 상기 제1 IP 주소 정보를 추출할 수 있다.In an embodiment, the apparatus may further include a user interface configured to receive a user input of selecting the first camera among the plurality of cameras, wherein the processor extracts the first IP address information from the memory in response to the user input. can do.

본 실시예에서, 상기 위치 정보는 카메라의 촬영 가능 범위 정보를 나타내고, 상기 프로세서는 상기 메모리로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하고, 상기 메모리로부터 상기 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하고, 상기 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당될 수 있다.In the present embodiment, the position information indicates the imageable range information of the camera, the processor extracts the first imageable range information of the first camera from the memory, and the first imageable range information and at least Extracts one or more pieces of second recordable range information, some of which are the same, selects one or more second cameras corresponding to the one or more pieces of second recordable range information, and wherein the first camera and the one or more second cameras Included in a plurality of cameras, the first camera and the one or more second cameras may correspond to the at least two cameras.

본 실시예에서, 상기 제1 카메라는 이벤트를 감지한 카메라일 수 있다.In the present embodiment, the first camera may be a camera that detects an event.

본 실시예에서, 상기 통신 인터페이스는 외부 서버로부터 GPS(Global Positioning System) 정보를 수신하고, 상기 제1 카메라는 상기 GPS 정보가 상기 제1 촬영 가능 범위 정보에 속할 수 있다.In the present embodiment, the communication interface may receive Global Positioning System (GPS) information from an external server, and the first camera may include the GPS information in the first photographable range information.

본 실시예에서, 상기 위치 정보는 GPS 정보를 나타내고, 상기 통신 인터페이스는 외부 서버로부터 상기 GPS 정보를 수신하고, 상기 복수의 카메라들에 각각 상기 GPS 정보를 전송하고, 상기 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신하고, 상기 프로세서는 상기 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 상기 적어도 2개의 카메라들을 선택할 수 있다.In the present embodiment, the location information represents GPS information, and the communication interface receives the GPS information from an external server, transmits the GPS information to the plurality of cameras, and photographs from the plurality of cameras. In response to the response, the processor may select the at least two cameras from among the cameras that transmit the photographable response in response to the GPS information.

본 실시예에서, 상기 프로세서는 카메라의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 상기 적어도 2개의 카메라들을 선택할 수 있다.In the present embodiment, the processor may select the at least two cameras in consideration of at least one of a schedule, a specification, an image quality, and a photographing range of a camera.

본 실시예에서, 상기 적어도 2개의 카메라들은 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 공통될 수 있다.In the present embodiment, the at least two cameras may have an empty schedule, a specification or image quality satisfy a predetermined condition, a specification or image quality are common, or a photographing range may be common at a predetermined time point.

본 발명이 해결하고자 하는 과제를 해결하기 위한 일 실시예에 따른 감시 시스템의 동작 방법은 통신 인터페이스에 의해 복수의 카메라들로부터 복수의 영상들을 수신하는 단계, 메모리에 의해 상기 복수의 카메라들 각각의 위치 정보를 저장하는 단계, 프로세서에 의해 상기 위치 정보에 기초하여 상기 복수의 카메라들 중 적어도 2개의 카메라들을 선택하는 단계, 상기 프로세서에 의해 상기 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 디스플레이 모듈에 표시하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method of operating a surveillance system, the method comprising: receiving a plurality of images from a plurality of cameras by a communication interface, and a location of each of the plurality of cameras by a memory; Storing information, selecting at least two cameras of the plurality of cameras by the processor based on the position information, processing the at least two images received from the at least two cameras by the processor, and Displaying on the display module.

본 실시예에서, 상기 적어도 2개의 영상들은 각각 2차원 영상이고, 상기 적어도 2개의 영상들을 처리하여 디스플레이 모듈에 표시하는 단계는, 상기 적어도 2개의 2차원 영상들을 축소 처리하여 상기 디스플레이 모듈에 동시에 표시하거나, 상기 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고 상기 디스플레이 모듈에 상기 하나의 3차원 영상을 표시하는 단계일 수 있다.In the present embodiment, each of the at least two images is a two-dimensional image, and processing and displaying the at least two images on the display module may simultaneously reduce and display the at least two two-dimensional images on the display module. Alternatively, the method may include generating one 3D image by using the at least two 2D images and displaying the one 3D image on the display module.

본 실시예에서, 상기 위치 정보는 IP(Internet Protocol) 주소 정보를 나타내고, 상기 적어도 2개의 카메라들을 선택하는 단계는, 상기 프로세서에 의해 상기 메모리로부터 제1 카메라의 제1 IP 주소 정보를 추출하는 단계, 상기 프로세서에 의해 상기 메모리로부터 상기 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하는 단계, 및 상기 프로세서에 의해 상기 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하는 단계를 포함하고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당될 수 있다.In the present embodiment, the location information represents Internet Protocol (IP) address information, and the selecting of the at least two cameras includes: extracting, by the processor, first IP address information of a first camera from the memory. Extracting, by the processor, one or more second IP address information existing within a predetermined distance from the first IP address information from the memory, and one corresponding to the one or more second IP address information by the processor. Selecting one or more second cameras, wherein the first camera and the one or more second cameras are included in the plurality of cameras, and the first camera and the one or more second cameras are the at least two cameras. This may be the case.

본 실시예에서, 사용자 인터페이스에 의해 상기 복수의 카메라들 중 상기 제1 카메라를 선택하는 사용자 입력을 수신하는 단계를 더 포함하고, 상기 제1 IP 주소 정보를 추출하는 단계는, 상기 사용자 입력에 대응하여 상기 메모리로부터 상기 제1 IP 주소 정보를 추출하는 단계일 수 있다.In the present embodiment, the method may further include receiving a user input of selecting the first camera among the plurality of cameras by a user interface, and extracting the first IP address information corresponds to the user input. And extracting the first IP address information from the memory.

본 실시예에서, 상기 위치 정보는 카메라의 촬영 가능 범위 정보를 나타내고, 상기 적어도 2개의 카메라들을 선택하는 단계는, 상기 프로세서에 의해 상기 메모리로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하는 단계, 상기 프로세서에 의해 상기 메모리로부터 상기 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하는 단계, 및 상기 프로세서에 의해 상기 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하는 단계를 포함하고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고, 상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당될 수 있다.In the present embodiment, the position information indicates the recordable range information of the camera, and the selecting of the at least two cameras includes: extracting first recordable range information of the first camera from the memory by the processor; Extracting, by the processor, one or more pieces of second recordable range information that are at least partially equal to the first piece of recordable range information from the memory, and corresponding to the one or more pieces of second recordable range information by the processor; And selecting one or more second cameras, wherein the first camera and the one or more second cameras are included in the plurality of cameras, and the first camera and the one or more second cameras are the at least two. May correspond to two cameras.

본 실시예에서, 상기 제1 카메라는 이벤트를 감지한 카메라일 수 있다.In the present embodiment, the first camera may be a camera that detects an event.

본 실시예에서, 상기 통신 인터페이스에 의해 외부 서버로부터 GPS(Global Positioning System) 정보를 수신하는 단계를 더 포함하고, 상기 제1 촬영 가능 범위 정보를 추출하는 단계는 상기 메모리로부터 상기 GPS 정보가 속하는 상기 제1 촬영 가능 범위 정보를 추출하는 단계일 수 있다.In the present exemplary embodiment, the method may further include receiving Global Positioning System (GPS) information from an external server by the communication interface, and extracting the first photographable range information may include: receiving the GPS information from the memory; The first photographing range information may be extracted.

본 실시예에서, 상기 위치 정보는 GPS 정보를 나타내고, 상기 적어도 2개의 카메라들을 선택하는 단계는, 상기 통신 인터페이스에 의해 외부 서버로부터 상기 GPS 정보를 수신하는 단계, 상기 통신 인터페이스에 의해 상기 복수의 카메라들에 각각 상기 GPS 정보를 전송하는 단계, 상기 통신 인터페이스에 의해 상기 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신하는 단계, 및 상기 프로세서에 의해 상기 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 상기 적어도 2개의 카메라들을 선택하는 단계를 포함할 수 있다.In the present embodiment, the location information represents GPS information, and the selecting of the at least two cameras comprises: receiving the GPS information from an external server by the communication interface, by the communication interface; Transmitting the GPS information to each of the plurality of cameras, receiving a response indicating whether or not the camera is capable of photographing by the communication interface, and transmitting, by the processor, a photographable response corresponding to the GPS information. Selecting the at least two cameras from among the cameras.

본 실시예에서, 상기 적어도 2개의 카메라들을 선택하는 단계는 카메라의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 상기 적어도 2개의 카메라들을 선택하는 단계일 수 있다.In the present embodiment, the step of selecting the at least two cameras may be a step of selecting the at least two cameras in consideration of at least one of a schedule, a specification, an image quality, and a photographing range of the camera.

본 실시예에서, 상기 적어도 2개의 카메라들은 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 소정 범위 이상일 수 있다.In the present embodiment, the at least two cameras may have an empty schedule, a specification or image quality satisfy a predetermined condition, a specification or image quality are common, or a photographable range may be more than a predetermined range at a predetermined time point.

본 발명의 실시예들에 따르면, 보다 다양한 방향에서 감시 영역을 감시할 수 있다.According to embodiments of the present invention, the monitoring area can be monitored in more various directions.

또한, 보다 정확하게 감시 영역을 감시할 수 있다.In addition, the monitoring area can be monitored more accurately.

도 1은 일 실시예에 따른 감시 시스템 환경을 설명하기 위한 도면이다.
도 2는 일 실시예에 따른 감시 시스템의 구성을 나타내는 블록도이다.
도 3 내지 도 8은 각각 일 실시예에 따른 감시 시스템의 동작 방법을 설명하기 위한 흐름도이다.
도 9 내지 도 12는 각각 일 실시예에 따른 적어도 2개의 카메라들의 선택 방법을 설명하기 위한 흐름도이다.
1 is a diagram for describing a monitoring system environment, according to an exemplary embodiment.
2 is a block diagram illustrating a configuration of a monitoring system according to an exemplary embodiment.
3 to 8 are flowcharts for describing a method of operating a monitoring system, according to an exemplary embodiment.
9 through 12 are flowcharts illustrating a method of selecting at least two cameras, respectively, according to an exemplary embodiment.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시 예를 가질 수 있는 바, 특정 실시 예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.As the inventive concept allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all transformations, equivalents, and substitutes included in the spirit and scope of the present invention. In the following description of the present invention, if it is determined that the detailed description of the related known technology may obscure the gist of the present invention, the detailed description thereof will be omitted.

이하의 실시예에서, 제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 구성요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.In the following embodiments, terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are only used to distinguish one component from another.

이하의 실시예에서 사용한 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 다수의 표현을 포함한다. 이하의 실시예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the following embodiments, terms such as "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, one or more It is to be understood that it does not exclude in advance the possibility of the presence or addition of other features or numbers, steps, operations, components, components or combinations thereof.

본 발명의 실시예들은 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들은 특정 기능들을 실행하는 다양한 개수의 하드웨어 또는/및 소프트웨어 구성들로 구현될 수 있다. 예를 들어, 본 발명의 실시예들은 하나 이상의 마이크로프로세서들의 제어 또는 다른 제어 장치들에 의해서 다양한 기능들을 실행할 수 있는, 메모리, 프로세싱, 로직(logic), 룩업 테이블(look-up table) 등과 같은 직접 회로 구성들을 채용할 수 있다. 본 발명의 실시예의 구성 요소들이 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있는 것과 유사하게, 본 발명의 실시예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다. 또한, 본 발명의 실시예들은 전자적인 환경 설정, 신호 처리, 및/또는 데이터 처리 등을 위하여 종래 기술을 채용할 수 있다. 매커니즘, 요소, 수단, 구성과 같은 용어는 넓게 사용될 수 있으며, 기계적이고 물리적인 구성들로서 한정되는 것은 아니다. 상기 용어는 프로세서 등과 연계하여 소프트웨어의 일련의 처리들(routines)의 의미를 포함할 수 있다.Embodiments of the present invention can be represented by functional block configurations and various processing steps. Such functional blocks may be implemented in various numbers of hardware or / and software configurations that perform particular functions. For example, embodiments of the invention may be implemented directly, such as memory, processing, logic, look-up table, etc., capable of executing various functions by the control of one or more microprocessors or other control devices. Circuit configurations can be employed. Similar to the components of an embodiment of the present invention may be implemented in software programming or software elements, embodiments of the present invention include various algorithms implemented in combinations of data structures, processes, routines or other programming constructs. It may be implemented in a programming or scripting language such as C, C ++, Java, assembler, or the like. The functional aspects may be implemented with an algorithm running on one or more processors. In addition, embodiments of the present invention may employ the prior art for electronic configuration, signal processing, and / or data processing. Terms such as mechanism, element, means, configuration can be used broadly and are not limited to mechanical and physical configurations. The term may include the meaning of a series of routines of software in conjunction with a processor or the like.

이하 첨부된 도면들을 참조하여 본 발명의 여러 가지 실시 예를 상세히 설명한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 감시 시스템 환경(1)을 설명하기 위한 도면이다.1 is a diagram for describing a surveillance system environment 1 according to an exemplary embodiment.

도 1을 참조하면, 일 실시예에 따른 감시 시스템 환경(1)은 카메라(10), 게이트웨이(20), 네트워크(30), 서버(40) 및 클라이언트 단말(50)을 포함한다.Referring to FIG. 1, a surveillance system environment 1 according to an embodiment includes a camera 10, a gateway 20, a network 30, a server 40, and a client terminal 50.

일 실시예에 따른 감시 시스템 환경(1)은 게이트웨이(20)에서 수집된 카메라 (10)의 정보가 네트워크(30)를 통해 서버(40)로 전송되는 구성을 제공할 수 있다. 관리자는 클라이언트 단말(50)을 이용하여 서버(40)에 전송된 정보를 모니터링할 수 있다.The surveillance system environment 1 according to an embodiment may provide a configuration in which information of the camera 10 collected at the gateway 20 is transmitted to the server 40 through the network 30. The manager may monitor the information transmitted to the server 40 using the client terminal 50.

카메라(10)는 감시 영역을 촬영하여 감시 영역에 대한 영상을 획득한다. 카메라(10)는 감시 또는 보안의 목적으로 감시 영역을 실시간으로 촬영할 수 있다. The camera 10 captures a surveillance area to obtain an image of the surveillance area. The camera 10 may capture a surveillance area in real time for the purpose of surveillance or security.

카메라(10)는 하나 이상 구비될 수 있다. 예를 들어, 카메라(10)는 카메라 A(11) 내지 카메라 N(1n)를 포함할 수 있다. 카메라 A(11) 내지 카메라 N(1n)는 제1 영상 내지 제n 영상을 게이트웨이(20)에 전송할 수 있다.One or more cameras 10 may be provided. For example, the camera 10 may include cameras A 11 to N 1 n. The cameras A 11 to N 1n may transmit the first to n th images to the gateway 20.

카메라(10)는 패닝(panning)과 틸팅(tilting)이 가능하며 렌즈의 줌 배율이 조절 가능한 PTZ 카메라일 수 있다. 카메라(10)는 180도 이상의 화각을 가지는 어안 카메라(fisheye camera)일 수 있다. 카메라(10)의 설치 위치, 설치 방향, 패닝 각도, 틸팅 각도, 및 렌즈의 줌 배율 범위에 따라 촬영 가능 범위 정보가 결정될 수 있다.The camera 10 may be a PTZ camera that is capable of panning and tilting and whose zoom magnification of the lens is adjustable. The camera 10 may be a fisheye camera having an angle of view of 180 degrees or more. Shooting range information may be determined according to an installation position, an installation direction, a panning angle, a tilting angle, and a zoom magnification range of the lens of the camera 10.

카메라(10)는 배터리로 구동되는 저전력 카메라일 수 있다.The camera 10 may be a low power camera driven by a battery.

예를 들어, 저전력 카메라는 평상시 슬립 모드(sleep mode)를 유지하고, 주기적으로 깨어나(wake up) 이벤트가 발생하였는지 여부를 체크한다. 저전력 카메라는 이벤트가 발생한 경우 액티브 모드(active mode)로 전환되고, 이벤트가 발생하지 않은 경우 다시 슬립 모드로 복귀한다. 이와 같이, 저전력 카메라는 이벤트가 발생한 경우에만 액티브 모드를 유지함으로써 전력 소모를 줄일 수 있다.For example, a low power camera maintains a normal sleep mode and periodically checks to see if an event has occurred. The low power camera enters the active mode when an event occurs, and returns to the sleep mode when the event does not occur. As such, the low power camera may reduce power consumption by maintaining the active mode only when an event occurs.

예를 들어, 저전력 카메라는 스케줄에 따라 동작 모드를 변경할 수 있다. 저전력 카메라는 스케줄에 따라 액티브 모드를 유지함으로써 전력 소모를 줄일 수 있다.For example, the low power camera may change an operation mode according to a schedule. Low-power cameras can reduce power consumption by keeping the active mode on schedule.

카메라(10)는 유무선 LAN(Local Area Network), 와이파이(Wi-Fi), 지그비(ZigBee), 블루투스(Bluetooth), 근거리 통신(Near Field Communication) 등 다양한 통신 방식을 이용하여 게이트웨이(20)와 통신할 수 있다. 예를 들면, 카메라(10)는 ISM 대역(Industrial Scientific Medical band)의 무선 주파수(Radio Frequency)를 사용하는 저전력 무선 통신 프로토콜에 따라 게이트웨이(20)와 통신할 수 있다.The camera 10 communicates with the gateway 20 by using various communication methods such as a wired / wireless LAN, Wi-Fi, ZigBee, Bluetooth, and Near Field Communication. can do. For example, the camera 10 may communicate with the gateway 20 according to a low power wireless communication protocol using a radio frequency of the Industrial Scientific Medical band (ISM band).

게이트웨이(20)는 카메라(10)로부터 전송된 정보에 기초하여 카메라(10)의 상태를 인식할 수 있고, 인식된 카메라(10)의 상태에 따라 서버(40)에 명령 또는 알람을 전송할 수 있다.The gateway 20 may recognize the state of the camera 10 based on the information transmitted from the camera 10, and transmit a command or an alarm to the server 40 according to the recognized state of the camera 10. .

게이트웨이(20)는 이더넷(Ethernet), 와이파이, 블루투스 등 다양한 유무선 통신 방식을 이용하여 서버(40)에 정보를 전송할 수도 있고, 서버(40)로부터 명령을 수신할 수도 있다.The gateway 20 may transmit information to the server 40 using various wired or wireless communication methods such as Ethernet, Wi-Fi, and Bluetooth, or may receive a command from the server 40.

네트워크(30)는 유선 네트워크 또는 무선 네트워크를 포함할 수 있다. 무선 네트워크는 2G(Generation) 또는 3G 셀룰러 통신 시스템, 3GPP(3rd Generation Partnership Project), 4G 통신 시스템, LTE(Long-Term Evolution), WiMAX(World Interoperability for Microwave Access) 등이 될 수 있다.The network 30 may comprise a wired network or a wireless network. The wireless network may be 2G (Generation) or 3G cellular communication system, 3rd Generation Partnership Project (3GPP), 4G communication system, Long-Term Evolution (LTE), World Interoperability for Microwave Access (WiMAX), or the like.

서버(40)는 네트워크(30)를 통해 카메라(10)로부터 전송된 정보를 클라이언트 단말(50)에 전달할 수 있고, 클라이언트 단말(50)로부터의 사용자 입력에 기초하여 명령을 생성한 후 네트워크(30)를 통해 카메라(10)에 전송할 수 있다.The server 40 may transmit the information transmitted from the camera 10 to the client terminal 50 through the network 30, and after generating a command based on a user input from the client terminal 50, the network 30. ) Can be transmitted to the camera 10.

클라이언트 단말(50)은 서버(40)로부터 전송된 정보를 재생할 수 있고, 저장할 수도 있다. 예를 들어, 클라이언트 단말(50)은 서버(40)로부터 전송된 영상을 표시할 수 있다.The client terminal 50 may reproduce and store the information transmitted from the server 40. For example, the client terminal 50 may display an image transmitted from the server 40.

클라이언트 단말(50)은 사용자 입력을 수신하여 서버(40)에 전송할 수 있다. 사용자 입력은 소정의 카메라(10)를 지정하는 사용자 입력일 수 있다.The client terminal 50 may receive a user input and transmit it to the server 40. The user input may be a user input for designating a predetermined camera 10.

클라이언트 단말(50)은 적어도 하나 이상의 프로세서를 포함할 수 있다. 클라이언트 단말(50)은 마이크로 프로세서나 범용 컴퓨터 시스템과 같은 다른 하드웨어 장치에 포함된 형태로 구동될 수 있다. 클라이언트 단말(50)은 개인용 컴퓨터 또는 이동 단말일 수 있다.The client terminal 50 may include at least one processor. The client terminal 50 may be driven in a form included in other hardware devices such as microprocessors or general purpose computer systems. The client terminal 50 may be a personal computer or a mobile terminal.

도 2는 일 실시예에 따른 감시 시스템(100)의 구성을 나타내는 블록도이다.2 is a block diagram illustrating a configuration of a monitoring system 100 according to an embodiment.

도 2를 참조하며, 일 실시예에 따른 감시 시스템(100)은 통신 인터페이스(110), 메모리(120), 디스플레이 모듈(130), 프로세서(140), 및 사용자 인터페이스(150)를 포함한다.Referring to FIG. 2, a monitoring system 100 according to an embodiment includes a communication interface 110, a memory 120, a display module 130, a processor 140, and a user interface 150.

통신 인터페이스(110)는 복수의 카메라들로부터 복수의 영상들을 수신한다. 복수의 카메라들은 예를 들어, 카메라 A(11) 내지 카메라 N(1n)일 수 있다.The communication interface 110 receives a plurality of images from a plurality of cameras. The plurality of cameras may be, for example, camera A 11 to camera N 1 n.

통신 인터페이스(110)는 외부 서버(미도시)로부터 GPS(Global Positioning System) 정보를 수신할 수 있다.The communication interface 110 may receive Global Positioning System (GPS) information from an external server (not shown).

외부 서버(미도시)는 경찰 서버나 날씨 서버와 같은 공공기관 서버, 방송국 서버, 교통 서버, 통신 서버 등일 수 있으며, 이에 한정하지 않는다.The external server may be a public institution server such as a police server or a weather server, a broadcasting station server, a traffic server, a communication server, or the like, but is not limited thereto.

GPS 정보는 이벤트 발생 위치를 좌표로 나타낼 수 있다. GPS 정보는 예를 들어, 범죄 발생 위치, 천재지변 발생 위치, 방송되는 장소의 위치, 이동 차량의 위치, 이동 단말의 위치 등일 수 있으며, 이에 한정하지 않는다.The GPS information may indicate an event occurrence position in coordinates. The GPS information may be, for example, a crime occurrence location, a natural disaster occurrence location, a location of a broadcast place, a location of a moving vehicle, a location of a mobile terminal, and the like, but is not limited thereto.

통신 인터페이스(110)는 복수의 카메라들에 각각 GPS 정보를 전송하고, 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신할 수 있다.The communication interface 110 may transmit GPS information to the plurality of cameras, respectively, and receive a response regarding whether the camera can capture a plurality of cameras.

촬영 가능 여부에 대한 응답은 복수의 카메라들 각각의 촬영 가능 범위에 GPS 정보가 속하는지 여부에 따라 결정될 수 있다. 예를 들어, 통신 인터페이스(110)에 의해 카메라(10)에 전송된 GPS 정보가 카메라(10)의 촬영 가능 범위에 속하는 경우, 통신 인터페이스(110)는 카메라(10)로부터 GPS 정보에 대한 촬영 가능 응답을 수신할 수 있다. 한편, 통신 인터페이스(110)에 의해 카메라(10)에 전송된 GPS 정보가 카메라(10)의 촬영 가능 범위에 속하지 않는 경우, 통신 인터페이스(110)는 카메라(10)로부터 GPS 정보에 대한 촬영 불가 응답을 수신할 수 있다.The response to whether the image can be taken may be determined according to whether the GPS information belongs to the imageable range of each of the plurality of cameras. For example, when the GPS information transmitted to the camera 10 by the communication interface 110 falls within the captureable range of the camera 10, the communication interface 110 may capture the GPS information from the camera 10. A response can be received. On the other hand, when the GPS information transmitted to the camera 10 by the communication interface 110 does not belong to the photographable range of the camera 10, the communication interface 110 does not take a response to the GPS information from the camera 10 Can be received.

메모리(120)는 복수의 카메라들 각각의 위치 정보를 저장한다.The memory 120 stores location information of each of the plurality of cameras.

위치 정보는 카메라(10)의 IP(Internet Protocol) 주소 정보, 카메라(10)의 촬영 가능 범위 정보, 또는 카메라(10)의 GPS 정보일 수 있으며, 이에 한정하지 않는다.The location information may be IP (Internet Protocol) address information of the camera 10, photographable range information of the camera 10, or GPS information of the camera 10, but is not limited thereto.

메모리(120)는 카메라(10)와 카메라(10)의 위치 정보를 매칭하여 저장할 수 있다.The memory 120 may match and store location information of the camera 10 and the camera 10.

디스플레이 모듈(130)은 복수의 영상들 중 적어도 하나의 영상을 표시할 수 있다.The display module 130 may display at least one image from among the plurality of images.

예를 들어, 디스플레이 모듈(130)은 카메라 A(11) 내지 카메라 N(1n)로부터 수신한 제1 영상 내지 제n 영상 중 제1 영상을 표시할 수 있다.For example, the display module 130 may display a first image of the first to n th images received from the cameras A 11 to N (1n).

예를 들어, 디스플레이 모듈(130)은 카메라 A(11) 내지 카메라 N(1n)로부터 수신한 제1 영상 내지 제n 영상들을 동시에 표시할 수 있다.For example, the display module 130 may simultaneously display the first to n th images received from the cameras A 11 to N (1n).

예를 들어, 디스플레이 모듈(130)은 카메라 A(11) 내지 카메라 N(1n)로부터 수신한 제1 영상 내지 제n 영상 중 적어도 2개의 영상들을 동시에 표시할 수 있다.For example, the display module 130 may simultaneously display at least two images of the first to n th images received from the cameras A 11 to N (1n).

예를 들어, 디스플레이 모듈(130)은 카메라 A(11) 내지 카메라 N(1n)로부터 수신한 제1 영상 내지 제n 영상 중 적어도 2개의 영상들에 의한 3차원 영상을 표시할 수 있다.For example, the display module 130 may display a 3D image based on at least two images among the first to n th images received from the cameras A 11 to N (1n).

프로세서(140)는 위치 정보에 기초하여 복수의 카메라들 중 적어도 2개의 카메라들을 선택하고, 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 디스플레이 모듈(130)에 표시한다.The processor 140 selects at least two cameras from among the plurality of cameras based on the location information, processes the at least two images received from the at least two cameras, and displays the same on the display module 130.

영상은 2차원 영상일 수 있다. 이때, 프로세서(140)는 적어도 2개의 2차원 영상들을 축소 처리하여 디스플레이 모듈(130)에 표시할 수 있다. 프로세서(140)는 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고, 디스플레이 모듈(130)에 하나의 3차원 영상을 표시할 수도 있다.The image may be a two-dimensional image. In this case, the processor 140 may reduce and display at least two 2D images on the display module 130. The processor 140 may generate one 3D image by using at least two 2D images and display one 3D image on the display module 130.

프로세서(140)는 카메라(10)의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 복수의 카메라들 중 적어도 2개의 카메라들을 선택할 수 있으며, 이에 한정하지 않는다.The processor 140 may select at least two cameras from among the plurality of cameras in consideration of at least one of a schedule, a specification, an image quality, and a photographing range of the camera 10, but is not limited thereto.

예를 들어, 프로세서(140)는 복수의 카메라들 중 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 공통되는 적어도 2개의 카메라들을 선택할 수 있다.For example, the processor 140 may select at least two cameras of which a schedule is empty, a specification or an image quality meets a predetermined condition, a specification or an image quality is common, or a photographing range is common at a predetermined time of the plurality of cameras. You can choose.

프로세서(140)는 카메라(10)의 스케줄, 사양, 화질, 및 촬영 가능 범위의 우선 순위에 기초하여 복수의 카메라들 중 적어도 2개의 카메라들을 선택할 수 있으며, 이에 한정하지 않는다.The processor 140 may select at least two cameras from among the plurality of cameras based on the schedule, specification, image quality, and priority of the photographable range of the camera 10, but is not limited thereto.

예를 들어, 프로세서(140)는 복수의 카메라들 중 사양, 화질, 또는 촬영 가능 범위가 상이하더라도 소정 시점에 스케줄이 비어있는 적어도 2개의 카메라들을 선택할 수 있다.For example, the processor 140 may select at least two cameras whose schedule is empty at a predetermined time even if specifications, image quality, or a photographable range of the plurality of cameras are different.

예를 들어, 프로세서(140)는 소정 시점에 스케줄이 비어있는 카메라들 중 촬영 가능 범위가 공통된 적어도 2개의 카메라들을 선택할 수 있다.For example, the processor 140 may select at least two cameras having a common imageable range from among cameras having a blank schedule at a predetermined time.

한편, 프로세서(140)는 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출하고, 메모리(120)로부터 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하고, 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택할 수 있다.Meanwhile, the processor 140 extracts first IP address information of the first camera from the memory 120 and extracts one or more pieces of second IP address information existing within a predetermined distance from the first IP address information from the memory 120. One or more second cameras corresponding to the one or more pieces of second IP address information may be selected.

제2 카메라는 제1 카메라와 구별되는 카메라를 의미한다. 제1 카메라 및 하나 이상의 제2 카메라들은 복수의 카메라들에 포함될 수 있다.The second camera means a camera distinguished from the first camera. The first camera and the one or more second cameras may be included in the plurality of cameras.

프로세서(140)는 제1 카메라 및 하나 이상의 제2 카메라들로부터 수신한 적어도 2개의 영상들 즉, 제1 영상 및 하나 이상의 제2 영상들을 처리하여 디스플레이 모듈(130)에 표시할 수 있다.The processor 140 may process and display at least two images, that is, the first image and the one or more second images, received from the first camera and the one or more second cameras on the display module 130.

IP 주소 정보는 카메라(10)를 구별하는 식별 정보일 수 있다. 제1 IP 주소 정보는 제1 카메라의 식별 정보일 수 있고, 제2 IP 주소 정보는 제2 카메라의 식별 정보일 수 있다. 즉, 제1 IP 주소 정보와 제2 IP 주소 정보는 구별될 수 있다.The IP address information may be identification information for distinguishing the camera 10. The first IP address information may be identification information of the first camera, and the second IP address information may be identification information of the second camera. That is, the first IP address information and the second IP address information may be distinguished.

프로세서(140)는 예를 들어, 복수의 카메라들 중 제1 카메라를 선택하는 사용자 입력에 대응하여 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출할 수 있다.For example, the processor 140 may extract first IP address information of the first camera from the memory 120 in response to a user input of selecting the first camera among the plurality of cameras.

프로세서(140)는 예를 들어, 복수의 카메라들 중 제1 카메라의 이벤트 감지에 대응하여 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출할 수 있다. 이벤트는 예를 들어, 카메라(10) 작동의 이상, 모션, 범죄, 천재지변, 방송되는 장소, 객체의 이동 등일 수 있으며, 이에 한정하지 않는다.For example, the processor 140 may extract first IP address information of the first camera from the memory 120 in response to detecting an event of the first camera among the plurality of cameras. The event may be, for example, an abnormal operation of the camera 10, a motion, a crime, a natural disaster, a place to be broadcast, a movement of an object, or the like, but is not limited thereto.

프로세서(140)는 제1 IP 주소 정보를 기준으로 하나 이상의 제2 IP 주소 정보들을 추출할 수 있다.The processor 140 may extract one or more pieces of second IP address information based on the first IP address information.

예를 들어, 프로세서(140)는 사용자 입력 또는 이벤트 감지에 대응하여 복수의 카메라들 중 카메라 A(11)를 선택할 수 있다. 이때, 프로세서(140)는 카메라 A(11)와 동일한 게이트웨이(20)에 접근 가능하거나, IP 주소 정보의 적어도 일부가 일치하거나, 소정의 물리적 거리에 존재하는 것으로 판단되는 카메라 B(12) 내지 카메라 N(1n)을 선택할 수 있다.For example, the processor 140 may select the camera A 11 among the plurality of cameras in response to user input or event detection. In this case, the processor 140 may access the same gateway 20 as the camera A 11, at least some of the IP address information may match, or may be determined to exist at a predetermined physical distance. N (1n) can be selected.

한편, 프로세서(140)는 메모리(120)로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하고, 메모리(120)로부터 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하고, 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택할 수 있다.Meanwhile, the processor 140 extracts first recordable range information of the first camera from the memory 120, and at least one second recordable range information that is at least partially equal to the first recordable range information from the memory 120. And one or more second cameras corresponding to the one or more pieces of second recordable range information.

촬영 가능 범위는 앞서 설명한 바와 같이, 카메라(10)의 설치 위치, 설치 방향, 패닝 각도, 틸팅 각도, 및 렌즈의 줌 배율 범위 중 적어도 하나에 기초하여 결정될 수 있다. 촬영 가능 범위는 GPS 정보로 정의될 수 있으며, 이에 한정하지 않는다.As described above, the imageable range may be determined based on at least one of an installation position, an installation direction, a panning angle, a tilting angle, and a zoom magnification range of the lens 10 of the camera 10. The shootable range may be defined by GPS information, but is not limited thereto.

프로세서(140)는 예를 들어, 복수의 카메라들 중 제1 카메라를 선택하는 사용자 입력에 대응하여 메모리(120)로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출할 수 있다.For example, the processor 140 may extract first captureable range information of the first camera from the memory 120 in response to a user input of selecting the first camera among the plurality of cameras.

프로세서(140)는 예를 들어, 복수의 카메라들 중 제1 카메라의 이벤트 감지에 대응하여 메모리(120)로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출할 수 있다.For example, the processor 140 may extract first captureable range information of the first camera from the memory 120 in response to detecting an event of the first camera among the plurality of cameras.

프로세서(140)는 예를 들어, 외부 서버(미도시)로부터 수신한 GPS 정보에 대응하여 메모리(120)로부터 GPS 정보가 속한 제1 촬영 가능 범위 정보를 추출할 수 있다.For example, the processor 140 may extract first captureable range information to which the GPS information belongs from the memory 120 in response to the GPS information received from an external server (not shown).

한편, 프로세서(140)는 예를 들어, 통신 인터페이스(110)를 통해 촬영 가능 응답을 전송한 카메라(10)들 중 적어도 2개의 카메라들을 선택할 수 있다.Meanwhile, the processor 140 may select at least two cameras among the cameras 10 that have transmitted the photographable response through the communication interface 110, for example.

사용자 인터페이스(150)는 복수의 카메라들 중 제1 카메라를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 제1 IP 주소 정보를 포함하는 사용자 입력을 수신할 수 있다.The user interface 150 may receive a user input for selecting a first camera among the plurality of cameras. For example, the user interface 150 may receive a user input including first IP address information.

사용자 인터페이스(150)는 이벤트를 설정하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 GPS 정보를 전송하는 외부 서버(미도시)를 선정하는 사용자 입력을 수신할 수 있다.The user interface 150 may receive a user input for setting an event. For example, the user interface 150 may receive a user input for selecting an external server (not shown) that transmits GPS information.

사용자 인터페이스(150)는 적어도 2개의 영상들에 대한 디스플레이 모드를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 적어도 2개의 2차원 영상들을 디스플레이 모듈(130)에 동시에 표시하는 2차원 영상 디스플레이 모드를 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 적어도 2개의 2차원 영상들로부터 생성된 하나의 3차원 영상을 디스플레이 모듈(130)에 표시하는 3차원 영상 디스플레이 모드를 선택하는 사용자 입력을 수신할 수 있다.The user interface 150 may receive a user input for selecting a display mode for at least two images. For example, the user interface 150 may receive a user input of selecting a 2D image display mode for simultaneously displaying at least two 2D images on the display module 130. For example, the user interface 150 may receive a user input for selecting a 3D image display mode in which one 3D image generated from at least two 2D images is displayed on the display module 130.

사용자 인터페이스(150)는 적어도 2개의 영상들에 대한 선택 기준을 선택하는 사용자 입력을 수신할 수 있다. 예를 들어, 사용자 인터페이스(150)는 카메라(10)의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 적어도 2개의 영상들에 대한 선택 기준으로 선택하는 사용자 입력을 수신할 수 있다. 사용자 인터페이스(150)는 예를 들어, 카메라(10)의 스케줄, 사양, 화질, 및 촬영 가능 범위의 우선 순위를 선택하는 사용자 입력을 수신할 수 있다.The user interface 150 may receive a user input for selecting selection criteria for at least two images. For example, the user interface 150 may receive a user input for selecting at least one of a schedule, a specification, an image quality, and a captureable range of the camera 10 as selection criteria for at least two images. For example, the user interface 150 may receive a user input for selecting a schedule, a specification, an image quality, and a priority of the photographable range of the camera 10.

본 발명의 실시예들에 따른 감시 시스템(100)은 하나의 물리적 장치로 구현될 수도 있고, 복수의 물리적 장치가 유기적으로 결합되어 구현될 수도 있다. 이를 위해 감시 시스템(100)에 포함된 구성 중 일부는 어느 하나의 물리적 장치로 구현되거나 설치되고, 나머지 일부는 다른 물리적 장치로 구현되거나 설치될 수도 있다.The monitoring system 100 according to the embodiments of the present invention may be implemented as one physical device, or a plurality of physical devices may be organically combined and implemented. To this end, some of the components included in the monitoring system 100 may be implemented or installed in any one physical device, and others may be implemented or installed in another physical device.

한편, 감시 시스템(100)은 게이트웨이(20), 서버(40) 또는 클라이언트 단말(50)에 내장될 수도 있고, 게이트웨이(20), 서버(40) 또는 클라이언트 단말(50)과 별개로 구비된 장치에 적용될 수도 있다.Meanwhile, the monitoring system 100 may be embedded in the gateway 20, the server 40, or the client terminal 50, and may be provided separately from the gateway 20, the server 40, or the client terminal 50. May be applied to

이하에서는, 도 3 내지 도 12를 참조하여 본 발명의 실시예들에 따른 감시 시스템(100)의 동작 방법에 대하여 상세하게 설명한다. 이하에서는, 앞서 설명한 부분과 동일한 부분에 대한 설명은 생략하거나 간단히 한다.Hereinafter, a method of operating the monitoring system 100 according to embodiments of the present invention will be described in detail with reference to FIGS. 3 to 12. In the following, the description of the same parts as those described above will be omitted or simplified.

도 3 내지 도 8은 각각 일 실시예에 따른 감시 시스템(100)의 동작 방법을 설명하기 위한 흐름도이다.3 to 8 are flowcharts for describing a method of operating the monitoring system 100, according to an exemplary embodiment.

도 1 내지 도 3을 참조하면, 통신 인터페이스(110)는 복수의 카메라들로부터 복수의 영상들을 수신한다(S101).1 to 3, the communication interface 110 receives a plurality of images from a plurality of cameras (S101).

예를 들어, 통신 인터페이스(110)는 소정 네트워크에 포함된 카메라 A(11) 내지 카메라 N(1n) 각각으로부터 영상을 수신할 수 있다.For example, the communication interface 110 may receive an image from each of the cameras A 11 to N 1n included in a predetermined network.

이어서, 메모리(120)는 복수의 카메라들 각각의 위치 정보를 저장한다(S103).Subsequently, the memory 120 stores location information of each of the plurality of cameras (S103).

예를 들어, 메모리(120)는 소정 네트워크가 구축되는 시점에 카메라 A(11) 내지 카메라 N(1n) 각각의 위치 정보를 저장할 수 있다.For example, the memory 120 may store location information of each of the cameras A 11 to N 1 n at a time when a predetermined network is established.

예를 들어, 메모리(120)는 임의의 시점에 카메라 A(11) 내지 카메라 N(1n) 각각으로부터 전송된 위치 정보를 저장할 수 있다.For example, the memory 120 may store location information transmitted from each of the cameras A 11 to N 1 n at any point in time.

이어서, 프로세서(140)는 위치 정보에 기초하여 복수의 카메라들 중 적어도 2개의 카메라들을 선택한다(S105).Subsequently, the processor 140 selects at least two cameras from among the plurality of cameras based on the location information (S105).

이하에서는, 도 4 및 도 5를 참조하여 위치 정보가 IP 주소 정보를 나타내는 경우에 대하여 상세하게 설명한다.Hereinafter, the case where the location information indicates the IP address information will be described in detail with reference to FIGS. 4 and 5.

이하의 제1 카메라 및 하나 이상의 제2 카메라들은, 도 3의 S101, S103, S105의 복수의 카메라들에 포함될 수 있으며, 도 3의 S105, S107의 적어도 2개의 카메라들에 해당될 수 있다.The following first camera and one or more second cameras may be included in a plurality of cameras of S101, S103, and S105 of FIG. 3, and may correspond to at least two cameras of S105 and S107 of FIG. 3.

도 4를 참조하면, 제1 카메라에서 이벤트가 감지되면(S201), 프로세서(140)는 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출한다(S203).Referring to FIG. 4, when an event is detected by the first camera (S201), the processor 140 extracts first IP address information of the first camera from the memory 120 (S203).

프로세서(140)는 이벤트가 감지된 카메라(10)를 제1 카메라로 결정할 수 있다. 프로세서(140)는 카메라(10)로부터 수신한 영상을 분석함으로써, 카메라(10)에 의해 이벤트가 감지되는지 여부를 판단할 수 있다. 프로세서(140)는 이벤트 정보를 전송한 카메라(10)를 제1 카메라로 결정할 수도 있다.The processor 140 may determine the camera 10 on which the event is detected as the first camera. The processor 140 may determine whether an event is detected by the camera 10 by analyzing the image received from the camera 10. The processor 140 may determine the camera 10 transmitting the event information as the first camera.

프로세서(140)는 예를 들어, 카메라 A(11)에 의해 범죄 행위 또는 화재 발생과 같은 이벤트가 감지되면, 메모리(120)로부터 카메라 A(11)의 IP 주소 정보를 추출할 수 있다.For example, when an event such as a criminal activity or a fire is detected by the camera A 11, the processor 140 may extract IP address information of the camera A 11 from the memory 120.

이어서, 프로세서(140)는 메모리(120)로부터, 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출한다(S205).Subsequently, the processor 140 extracts one or more pieces of second IP address information existing within a predetermined distance from the first IP address information from the memory 120 (S205).

예를 들어, 프로세서(140)는 카메라 A(11)의 IP 주소 정보로부터 소정 거리 이내에 존재하는 카메라 B(12)의 IP 주소 정보 내지 카메라 N(1n)의 IP 주소 정보를 추출할 수 있다.For example, the processor 140 may extract IP address information of the camera B 12 or IP address information of the camera N 1n existing within a predetermined distance from the IP address information of the camera A 11.

이때, 카메라 A(11)의 IP 주소 정보 내지 카메라 N(1n)의 IP 주소 정보는 동일한 게이트웨이(20)에 접근 가능한 IP 주소 정보이거나, IP 주소 정보의 적어도 일부가 일치하거나, 소정의 물리적 거리에 존재하는 IP 주소 정보일 수 있다.In this case, the IP address information of the camera A 11 to the IP address information of the camera N 1n may be IP address information accessible to the same gateway 20, or at least a part of the IP address information may be matched, or at a predetermined physical distance. It may be an existing IP address information.

이어서, 프로세서(140)는 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택한다(S207).Subsequently, the processor 140 selects one or more second cameras corresponding to the one or more pieces of second IP address information (S207).

예를 들어, 프로세서(140)는 카메라 B(12)의 IP 주소 정보 내지 카메라 N(1n)의 IP 주소 정보에 대응하는 카메라 B(12) 내지 카메라 N(1n)을 선택할 수 있다.For example, the processor 140 may select the camera B 12 to the camera N 1n corresponding to the IP address information of the camera B 12 or the IP address information of the camera N 1n.

도 5를 참조하면, 사용자 인터페이스(150)가 복수의 카메라들 중 제1 카메라를 선택하는 사용자 입력을 수신하면(S301), 프로세서(140)는 사용자 입력에 대응하여 메모리(120)로부터 제1 카메라의 제1 IP 주소 정보를 추출한다(S303).Referring to FIG. 5, when the user interface 150 receives a user input for selecting a first camera among a plurality of cameras (S301), the processor 140 may receive a first camera from the memory 120 in response to the user input. Extract the first IP address information of the device (S303).

예를 들어, 사용자 인터페이스(150)는 제1 카메라를 가리키는 제1 IP 주소 정보를 포함하는 사용자 입력을 수신하거나, 이벤트가 감지된 제1 카메라를 가리키는 사용자 입력을 수신할 수 있으며, 이에 한정하지 않는다.For example, the user interface 150 may receive a user input including first IP address information indicating a first camera, or may receive a user input indicating a first camera where an event is detected, but is not limited thereto. .

이어서, 프로세서(140)는 메모리(120)로부터, 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출한다(S305).Subsequently, the processor 140 extracts one or more pieces of second IP address information existing within a predetermined distance from the first IP address information from the memory 120 (S305).

이어서, 프로세서(140)는 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택한다(S307).Subsequently, the processor 140 selects one or more second cameras corresponding to the one or more pieces of second IP address information (S307).

본 실시예들에 따르면, 소정 감시 영역이 다양한 각도에서 촬영된 영상들을 획득함으로써, 감시 대상을 보다 정확하게 파악할 수 있으며, 감시를 보다 강화할 수 있다.According to the present embodiments, by acquiring images photographed from various angles of a predetermined surveillance region, the subject to be monitored can be more accurately identified, and the surveillance can be further enhanced.

본 실시예들에 따르면, IP 주소 정보라는 기존 정보를 이용함으로써, 자원을 보다 효율적으로 활용할 수 있다.According to the embodiments, by using the existing information, such as IP address information, it is possible to utilize resources more efficiently.

이하에서는, 도 6 내지 도 8을 참조하여 위치 정보가 카메라(10)의 촬영 가능 범위 정보를 나타내는 경우에 대하여 상세하게 설명한다. 여기서, 카메라(10)의 촬영 가능 범위 정보는 GPS 정보일 수 있으며, 이에 한정되지 않는다.Hereinafter, with reference to FIGS. 6-8, the case where the positional information shows the image | capturing range information of the camera 10 is demonstrated in detail. Here, the imageable range information of the camera 10 may be GPS information, but is not limited thereto.

도 6을 참조하면, 제1 카메라에서 이벤트가 감지되면(S401), 프로세서(140)는 메모리(120)로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출한다(S403).Referring to FIG. 6, when an event is detected by the first camera (S401), the processor 140 extracts first captureable range information of the first camera from the memory 120 (S403).

예를 들어, 프로세서(140)는 이벤트가 감지된 카메라 A(11)의 촬영 가능 범위 정보를 추출할 수 있다.For example, the processor 140 may extract captureable range information of the camera A 11 in which an event is detected.

이어서, 프로세서(140)는 메모리(120)로부터 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출한다(S405).Subsequently, the processor 140 extracts, from the memory 120, one or more pieces of second recordable range information that are at least partially equal to the first recordable range information (S405).

예를 들어, 프로세서(140)는 카메라 A(11)의 촬영 가능 범위 정보와 적어도 일부가 동일한 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보를 추출할 수 있다.For example, the processor 140 may extract recordable range information of the camera B 12 that is at least partially equal to the recordable range information of the camera A 11 to captureable range information of the camera N 1n. .

이어서, 프로세서(140)는 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택한다(S407).Subsequently, the processor 140 selects one or more second cameras corresponding to the one or more pieces of second recordable range information (S407).

예를 들어, 프로세서(140)는 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보에 대응하는 카메라 B(12) 내지 카메라 N(1n)을 선택할 수 있다.For example, the processor 140 may select the camera B 12 to the camera N 1n corresponding to the recordable range information of the camera B 12 to the recordable range information of the camera N 1n.

이때, 카메라 B(12) 내지 카메라 N(1n)은 각각 카메라 A(11)와 적어도 일부의 감시 영역을 동시에 촬영할 수 있는 카메라(10)일 수 있다.In this case, the cameras B 12 to N 1 n may be cameras 10 capable of simultaneously photographing the camera A 11 and at least a portion of the surveillance area.

예를 들어, 카메라 B(12) 내지 카메라 N(1n)은 각각 카메라 A(11)에 의해 감지된 이벤트 발생 영역을, 카메라 A(11)와는 다른 방향에서, 카메라 A(11)와 동시에 촬영할 수 있다.For example, the cameras B 12 to N 1n may respectively capture the event occurrence area detected by the camera A 11 in the same direction as the camera A 11 in a direction different from that of the camera A 11. have.

본 실시예에 따르면, 이벤트 발생 영역을 다양한 각도에서 촬영한 영상들을 획득할 수 있으므로, 이벤트 발생 상황을 보다 정확하게 파악할 수 있고, 이로 인해 사용자는 이벤트 발생 상황에 보다 적합하게 대처할 수 있다.According to the present exemplary embodiment, since images of the event occurrence region may be acquired at various angles, the event occurrence situation may be more accurately understood, and thus the user may more appropriately cope with the event occurrence situation.

도 7을 참조하면, 통신 인터페이스(110)가 외부 서버(미도시)로부터 GPS 정보를 수신하면(S501), 프로세서(140)는 메모리(120)로부터 GPS정보가 속하는 제1 촬영 가능 범위 정보를 추출한다(S503).Referring to FIG. 7, when the communication interface 110 receives GPS information from an external server (not shown) (S501), the processor 140 extracts first recordable range information to which GPS information belongs from the memory 120. (S503).

예를 들어, 프로세서(140)는 메모리(120)에 저장된 복수의 카메라들 각각의 촬영 가능 범위 정보 중에서 GPS 정보와 동일한 값을 가지는 카메라 A(11)의 촬영 가능 범위 정보를 추출할 수 있다. 예를 들어, GPS 정보는 화재 발생 위치를 가리킬 수 있고, 프로세서(140)는 복수의 카메라들의 촬영 가능 범위 정보들 중 화재 발생 위치를 포함하는 카메라 A(11)의 촬영 가능 범위 정보를 추출할 수 있다.For example, the processor 140 may extract recordable range information of the camera A 11 having the same value as the GPS information among the recordable range information of each of the plurality of cameras stored in the memory 120. For example, the GPS information may indicate a fire occurrence position, and the processor 140 may extract recordable range information of the camera A 11 including the fire occurrence position among the recordable range information of the plurality of cameras. have.

이어서, 프로세서(140)는 메모리(120)로부터 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출한다(S505).Subsequently, the processor 140 extracts, from the memory 120, one or more pieces of second recordable range information that are at least partially equal to the first recordable range information (S505).

예를 들어, 프로세서(140)는 카메라 A(11)의 촬영 가능 범위 정보와 적어도 일부가 동일한 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보를 추출할 수 있다.For example, the processor 140 may extract recordable range information of the camera B 12 that is at least partially equal to the recordable range information of the camera A 11 to captureable range information of the camera N 1n. .

이때, 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보는 각각 GPS 정보를 포함할 수도 있고, GPS 정보를 포함하지 않을 수도 있다.In this case, the photographing range information of the camera B 12 to the photographing range information of the camera N 1n may include GPS information or may not include GPS information.

이어서, 프로세서(140)는 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택한다(S507).Subsequently, the processor 140 selects one or more second cameras corresponding to the one or more pieces of second recordable range information (S507).

예를 들어, 프로세서(140)는 카메라 B(12)의 촬영 가능 범위 정보 내지 카메라 N(1n)의 촬영 가능 범위 정보에 대응하는 카메라 B(12) 내지 카메라 N(1n)을 선택할 수 있다.For example, the processor 140 may select the camera B 12 to the camera N 1n corresponding to the recordable range information of the camera B 12 to the recordable range information of the camera N 1n.

이때, 카메라 B(12) 내지 카메라 N(1n)은 각각 GPS 정보가 가리키는 위치를 촬영하는 카메라(10)일 수도 있고, GPS 정보가 가리키는 위치를 촬영하지 않는 카메라(10)일수도 있다.In this case, the cameras B 12 to N 1 n may be cameras 10 photographing positions indicated by the GPS information, or cameras 10 not photographing positions indicated by the GPS information.

예를 들어, 카메라 B(12)는 화재 발생 위치를 카메라 A(11)와 다른 각도에서 촬영할 수 있고, 카메라 D(14)는 화재 발생 위치 주변을 카메라 A(11)와 다른 각도에서 촬영할 수 있다.For example, the camera B 12 may photograph the fire occurrence position at a different angle from the camera A 11, and the camera D 14 may photograph the vicinity of the fire occurrence position at a different angle from the camera A 11. .

본 실시예에 따르면, 메모리(120)에 미리 저장된 카메라(10)의 촬영 가능 범위 정보를 활용함으로써, 감시 시스템(100)이 감시 동작을 보다 빠르게 수행할 수 있다.According to the present exemplary embodiment, the surveillance system 100 may perform the surveillance operation faster by utilizing the photographing range information of the camera 10 stored in the memory 120 in advance.

도 8을 참조하면, 감시 시스템(100)은 통신 인터페이스(110)에 의해, 외부 서버(미도시)로부터 GPS 정보를 수신한다(S601).Referring to FIG. 8, the monitoring system 100 receives GPS information from an external server (not shown) by the communication interface 110 (S601).

이어서, 감시 시스템(100)은 통신 인터페이스(110)에 의해, 카메라 A(11)에 GPS 정보를 전송하고(S602-1), 카메라 B(12)에 GPS 정보를 전송하고(S602-2), 카메라 C(13)에 GPS 정보를 전송하고(S602-3), 카메라 D(14)에 GPS 정보를 전송한다(S602-4).Subsequently, the monitoring system 100 transmits GPS information to the camera A 11 by the communication interface 110 (S602-1), transmits GPS information to the camera B 12 (S602-2), The GPS information is transmitted to the camera C 13 (S602-3), and the GPS information is transmitted to the camera D 14 (S602-4).

즉, 통신 인터페이스(110)는 복수의 카메라들에 각각 GPS 정보를 전송할 수 있다.That is, the communication interface 110 may transmit GPS information to each of the plurality of cameras.

이어서, 감시 시스템(100)은 통신 인터페이스(110)에 의해, 카메라 A(11)로부터 촬영 가능 응답을 수신하고(S603-1), 카메라 B(12)로부터 촬영 가능 응답을 수신하고(S603-2), 카메라 C(13)로부터 촬영 가능 응답을 수신하고(S603-3), 카메라 D(14)로부터 촬영 불가 응답을 수신한다(S603-4).Subsequently, the monitoring system 100 receives the imageable response from the camera A 11 by the communication interface 110 (S603-1), and receives the imageable response from the camera B 12 (S603-2). ), The camera device 13 receives a photographable response from the camera C 13 (S603-3), and receives a photographing impossible response from the camera D 14 (S603-4).

즉, 통신 인터페이스(110)는 복수의 카메라들로부터 GPS 정보에 대응하는 촬영 가능 여부에 대한 응답을 수신할 수 있다.That is, the communication interface 110 may receive a response regarding whether photographing corresponding to GPS information is possible from the plurality of cameras.

이어서, 감시 시스템(100)은 프로세서(140)에 의해 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 적어도 2개의 카메라들을 선택한다(S604).Subsequently, the monitoring system 100 selects at least two cameras among the cameras that transmit the photographable response in response to the GPS information by the processor 140 (S604).

예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 중 적어도 2개의 카메라들을 선택할 수 있다.For example, the processor 140 may select at least two cameras among the camera A 11, the camera B 12, and the camera C 13 that transmit the photographable response.

본 실시예에 따르면, 실시간으로 업데이트되는 카메라(10)의 촬영 가능 범위 정보를 활용함으로써, 감시 시스템(100)이 보다 정확하게 감시 동작을 수행할 수 있다.According to the present exemplary embodiment, the surveillance system 100 may perform the surveillance operation more accurately by utilizing the photographing range information of the camera 10 which is updated in real time.

본 실시예들에 따르면, 이벤트 발생 영역을 다양한 각도에서 촬영한 영상들을 획득할 수 있으므로, 사용자가 이벤트 발생 상황을 보다 정확하게 파악할 수 있다.According to the exemplary embodiments, since the images of the event occurrence region photographed from various angles may be acquired, the user may more accurately grasp the event occurrence situation.

본 실시예들에 따르면, 이벤트 발생 영역뿐만 아니라 이벤트 발생 영역 주변을 촬영한 영상들을 동시에 획득할 수 있으므로, 사용자가 이벤트 변경 경로를 실시간으로 정확하게 파악할 수 있다.According to the exemplary embodiments, since images of not only the event occurrence region but also the surroundings of the event occurrence region may be simultaneously acquired, the user may accurately grasp the event change path in real time.

본 실시예들에 따르면, PTZ 카메라의 패닝, 틸팅, 및 줌 배열 조절 동작에 따른 촬영 가능 범위 정보를 최대한 이용함으로써, 자원을 보다 효율적으로 활용할 수 있다.According to the present embodiments, the resource can be utilized more efficiently by utilizing the photographing range information according to the panning, tilting, and zoom array adjustment operations of the PTZ camera.

이하에서는, 도 9 내지 도 12를 참조하여 프로세서(140)가 적어도 2개의 카메라들을 선택하기 위한 다양한 기준에 대하여 상세하게 설명한다.Hereinafter, various criteria for the processor 140 to select at least two cameras will be described in detail with reference to FIGS. 9 through 12.

도 9 내지 도 12는 각각 일 실시예에 따른 적어도 2개의 카메라들의 선택 방법을 설명하기 위한 흐름도이다.9 through 12 are flowcharts illustrating a method of selecting at least two cameras, respectively, according to an exemplary embodiment.

도 9를 참조하면, 프로세서(140)는 촬영 가능 응답을 전송한 복수의 카메라들 각각의 스케줄을 확인한다(S711).Referring to FIG. 9, the processor 140 confirms a schedule of each of the plurality of cameras that have transmitted the photographable response (S711).

예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 각각의 스케줄을 확인할 수 있다.For example, the processor 140 may check a schedule of each of the camera A 11, the camera B 12, and the camera C 13 that have transmitted the photographable response.

이어서, 프로세서(140)는 소정 시점에 스케줄이 비어있는 적어도 2개의 카메라들을 선택한다(S712).Subsequently, the processor 140 selects at least two cameras whose schedule is empty at a predetermined time point (S712).

예를 들어, 프로세서(140)는 현재 스케줄이 비어있는 카메라 A(11)와 카메라 B(12)를 적어도 2개의 카메라들로 결정할 수 있다.For example, the processor 140 may determine the camera A 11 and the camera B 12 having the empty schedule as at least two cameras.

본 실시예에 따르면, 공백 없이 감시 영역을 감시하는 감시 시스템(100)을 제공할 수 있다.According to the present embodiment, it is possible to provide a monitoring system 100 for monitoring a surveillance area without a space.

도 10을 참조하면, 프로세서(140)는 촬영 가능 응답을 전송한 복수의 카메라들 각각의 사양을 확인한다(S721).Referring to FIG. 10, the processor 140 checks the specifications of each of the plurality of cameras that have transmitted the photographable response (S721).

예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 각각의 사양을 확인할 수 있다.For example, the processor 140 may check the specifications of each of the camera A 11, the camera B 12, and the camera C 13 that transmit the photographable response.

이어서, 프로세서(140)는 소정 사양을 만족하거나 사양이 공통된 적어도 2개의 카메라들을 선택한다(S722).Subsequently, the processor 140 selects at least two cameras satisfying a predetermined specification or having a common specification (S722).

예를 들어, 프로세서(140)는 줌 배율이 동일한 카메라 A(11)와 카메라 B(12)를 적어도 2개의 카메라들로 결정할 수 있다.For example, the processor 140 may determine camera A 11 and camera B 12 having the same zoom magnification as at least two cameras.

도 11을 참조하면, 프로세서(140)는 촬영 가능 응답을 전송한 복수의 카메라들 각각의 화질을 확인한다(S731).Referring to FIG. 11, the processor 140 checks the image quality of each of the plurality of cameras that have transmitted the photographable response (S731).

예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 각각의 화질을 확인할 수 있다.For example, the processor 140 may check the image quality of each of the camera A 11, the camera B 12, and the camera C 13 that transmits the photographable response.

이어서, 프로세서(140)는 소정 화질을 만족하거나 화질이 공통된 적어도 2개의 카메라들을 선택한다(S722).Subsequently, the processor 140 selects at least two cameras that satisfy a predetermined image quality or have a common image quality (S722).

예를 들어, 프로세서(140)는 제공하는 화질이 동일한 카메라 A(11)와 카메라 B(12)를 적어도 2개의 카메라들로 결정할 수 있다.For example, the processor 140 may determine the camera A 11 and the camera B 12 having the same image quality as the at least two cameras.

본 실시예들에 따르면, 복수의 카메라들을 이용하는 경우라 하더라도 품질이 일정한 감시 영상을 제공하는 감시 시스템(100)을 제공할 수 있다.According to the embodiments, even when using a plurality of cameras can provide a surveillance system 100 for providing a surveillance image of a constant quality.

도 12를 참조하면, 프로세서(140)는 촬영 가능 응답을 전송한 복수의 카메라들 각각의 촬영 가능 범위를 확인한다(S721).Referring to FIG. 12, the processor 140 checks a photographing range of each of the plurality of cameras that transmit a photographing response (S721).

예를 들어, 프로세서(140)는 촬영 가능 응답을 전송한 카메라 A(11), 카메라 B(12), 및 카메라 C(13) 각각의 촬영 가능 범위를 확인할 수 있다.For example, the processor 140 may check a photographing range of each of the camera A 11, the camera B 12, and the camera C 13 that transmits the photographable response.

이어서, 프로세서(140)는 촬영 가능 범위가 소정 범위 이상인 적어도 2개의 카메라들을 선택한다(S722).Subsequently, the processor 140 selects at least two cameras having a captureable range of more than a predetermined range (S722).

예를 들어, 프로세서(140)는 패닝 각도, 틸팅 각도, 및 줌 배율이 소정 범위 이상인 카메라 A(11)와 카메라 B(12)를 적어도 2개의 카메라들로 결정할 수 있다.For example, the processor 140 may determine the camera A 11 and the camera B 12 having the panning angle, the tilting angle, and the zoom magnification more than a predetermined range as at least two cameras.

본 실시예에 따르면, 복수의 카메라들을 이용하여 최대한 넓은 감시 영역을 감시할 수 있는 감시 시스템(100)을 제공할 수 있다.According to the present embodiment, it is possible to provide a surveillance system 100 capable of monitoring the widest surveillance region using a plurality of cameras.

다시 도 3을 참조하면, 프로세서(140)는 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 디스플레이 모듈(130)에 표시한다(S107).Referring back to FIG. 3, the processor 140 processes and displays at least two images received from at least two cameras on the display module 130 (S107).

이때, 적어도 2개의 영상들은 각각 2차원 영상일 수 있다.In this case, the at least two images may each be a two-dimensional image.

예를 들어, 프로세서(140)는 적어도 2개의 2차원 영상들을 축소 처리하여 디스플레이 모듈(130)에 동시에 표시할 수 있다.For example, the processor 140 may reduce and display at least two two-dimensional images on the display module 130 at the same time.

예를 들어, 프로세서(140)는 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고, 디스플레이 모듈(130)에 하나의 3차원 영상을 표시할 수 있다.For example, the processor 140 may generate one 3D image using at least two 2D images, and display one 3D image on the display module 130.

이제까지 본 발명에 대하여 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 본 발명을 구현할 수 있음을 이해할 것이다. So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will understand that the present invention can be embodied in a modified form without departing from the essential characteristics of the present invention.

그러므로 상기 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 특허청구범위에 의해 청구된 발명 및 청구된 발명과 균등한 발명들은 본 발명에 포함된 것으로 해석되어야 한다.Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown not in the above description but in the claims, and the invention claimed by the claims and the inventions equivalent to the claims should be construed as being included in the present invention.

1: 감시 시스템 환경
10: 카메라
11: 카메라 A
12: 카메라 B
13: 카메라 C
14: 카메라 D
1n: 카메라 N
20: 게이트웨이
30: 네트워크
40: 서버
50: 클라이언트 단말
1: Surveillance system environment
10: camera
11: camera A
12: Camera B
13: camera C
14: Camera D
1n: Camera N
20: gateway
30: network
40: server
50: client terminal

Claims (20)

복수의 카메라들로부터 복수의 영상들을 수신하는 통신 인터페이스;
상기 복수의 카메라들 각각의 위치 정보를 저장하는 메모리;
상기 복수의 영상들 중 적어도 하나의 영상을 표시하는 디스플레이 모듈; 및
상기 위치 정보에 기초하여 상기 복수의 카메라들 중 적어도 2개의 카메라들을 선택하고, 상기 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 상기 디스플레이 모듈에 표시하는 프로세서;를 포함하는 감시 시스템.
A communication interface for receiving a plurality of images from the plurality of cameras;
A memory for storing location information of each of the plurality of cameras;
A display module configured to display at least one image of the plurality of images; And
And a processor that selects at least two cameras from among the plurality of cameras based on the location information, and processes and displays at least two images received from the at least two cameras on the display module.
청구항 1에 있어서,
상기 적어도 2개의 영상들은 각각 2차원 영상이고,
상기 프로세서는 상기 적어도 2개의 2차원 영상들을 축소 처리하여 상기 디스플레이 모듈에 동시에 표시하거나, 상기 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고 상기 디스플레이 모듈에 상기 하나의 3차원 영상을 표시하는, 감시 시스템.
The method according to claim 1,
The at least two images are each two-dimensional image,
The processor may reduce and display the at least two 2D images on the display module at the same time, or generate one 3D image using the at least two 2D images, and generate the one 3D image on the display module. Displaying, surveillance system.
청구항 1에 있어서,
상기 위치 정보는 IP(Internet Protocol) 주소 정보를 나타내고,
상기 프로세서는 상기 메모리로부터 제1 카메라의 제1 IP 주소 정보를 추출하고, 상기 메모리로부터 상기 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하고, 상기 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하고,
상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고,
상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당되는, 감시 시스템.
The method according to claim 1,
The location information represents IP (Internet Protocol) address information,
The processor extracts first IP address information of the first camera from the memory, extracts one or more second IP address information existing within a predetermined distance from the first IP address information from the memory, and the one or more second IP addresses. Select one or more second cameras corresponding to the IP address information,
The first camera and the one or more second cameras are included in the plurality of cameras,
The first camera and the one or more second cameras correspond to the at least two cameras.
청구항 3에 있어서,
상기 복수의 카메라들 중 상기 제1 카메라를 선택하는 사용자 입력을 수신하는 사용자 인터페이스;를 더 포함하고,
상기 프로세서는 상기 사용자 입력에 대응하여 상기 메모리로부터 상기 제1 IP 주소 정보를 추출하는, 감시 시스템.
The method according to claim 3,
And a user interface configured to receive a user input of selecting the first camera among the plurality of cameras.
The processor extracting the first IP address information from the memory in response to the user input.
청구항 1에 있어서,
상기 위치 정보는 카메라의 촬영 가능 범위 정보를 나타내고,
상기 프로세서는 상기 메모리로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하고, 상기 메모리로부터 상기 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하고, 상기 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하고,
상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고,
상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당되는, 감시 시스템.
The method according to claim 1,
The location information represents the recordable range information of the camera,
The processor extracts first recordable range information of the first camera from the memory, extracts one or more pieces of second recordable range information that are at least partially equal to the first recordable range information from the memory, and the one or more pieces. Select one or more second cameras corresponding to the second recordable range information,
The first camera and the one or more second cameras are included in the plurality of cameras,
The first camera and the one or more second cameras correspond to the at least two cameras.
청구항 5에 있어서,
상기 제1 카메라는 이벤트를 감지한 카메라인, 감시 시스템.
The method according to claim 5,
And the first camera is a camera that detects an event.
청구항 5에 있어서,
상기 통신 인터페이스는 외부 서버로부터 GPS(Global Positioning System) 정보를 수신하고,
상기 제1 카메라는 상기 GPS 정보가 상기 제1 촬영 가능 범위 정보에 속하는, 감시 시스템.
The method according to claim 5,
The communication interface receives GPS (Global Positioning System) information from an external server,
And said first camera is that said GPS information belongs to said first recordable range information.
청구항 1에 있어서,
상기 위치 정보는 GPS 정보를 나타내고,
상기 통신 인터페이스는 외부 서버로부터 상기 GPS 정보를 수신하고, 상기 복수의 카메라들에 각각 상기 GPS 정보를 전송하고, 상기 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신하고,
상기 프로세서는 상기 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 상기 적어도 2개의 카메라들을 선택하는, 감시 시스템.
The method according to claim 1,
The location information indicates GPS information,
The communication interface receives the GPS information from an external server, transmits the GPS information to each of the plurality of cameras, and receives a response indicating whether or not the camera can shoot from the plurality of cameras.
And the processor selects the at least two cameras from among cameras that have transmitted a shootable response corresponding to the GPS information.
청구항 1에 있어서,
상기 프로세서는 카메라의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 상기 적어도 2개의 카메라들을 선택하는, 감시 시스템.
The method according to claim 1,
And the processor selects the at least two cameras in consideration of at least one of a schedule, a specification, an image quality, and a photographable range of a camera.
청구항 9에 있어서,
상기 적어도 2개의 카메라들은 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 공통되는, 감시 시스템.
The method according to claim 9,
And said at least two cameras have a schedule empty at a predetermined time, a specification or picture quality satisfies a predetermined condition, a specification or picture quality is common, or a photographing range is common.
통신 인터페이스에 의해, 복수의 카메라들로부터 복수의 영상들을 수신하는 단계;
메모리에 의해, 상기 복수의 카메라들 각각의 위치 정보를 저장하는 단계;
프로세서에 의해, 상기 위치 정보에 기초하여 상기 복수의 카메라들 중 적어도 2개의 카메라들을 선택하는 단계; 및
상기 프로세서에 의해, 상기 적어도 2개의 카메라들로부터 수신한 적어도 2개의 영상들을 처리하여 디스플레이 모듈에 표시하는 단계;를 포함하는 감시 시스템의 동작 방법.
Receiving, by the communication interface, a plurality of images from the plurality of cameras;
Storing location information of each of the plurality of cameras by a memory;
Selecting, by a processor, at least two cameras of the plurality of cameras based on the location information; And
And processing, by the processor, at least two images received from the at least two cameras and displaying them on a display module.
청구항 11에 있어서,
상기 적어도 2개의 영상들은 각각 2차원 영상이고,
상기 적어도 2개의 영상들을 처리하여 디스플레이 모듈에 표시하는 단계는,
상기 적어도 2개의 2차원 영상들을 축소 처리하여 상기 디스플레이 모듈에 동시에 표시하거나, 상기 적어도 2개의 2차원 영상들을 이용하여 하나의 3차원 영상을 생성하고 상기 디스플레이 모듈에 상기 하나의 3차원 영상을 표시하는 단계인, 감시 시스템의 동작 방법.
The method according to claim 11,
The at least two images are each two-dimensional image,
Processing and displaying the at least two images on a display module,
The at least two 2D images are reduced and displayed on the display module at the same time, or one 3D image is generated using the at least two 2D images and the one 3D image is displayed on the display module. Step, the method of operation of the surveillance system.
청구항 11에 있어서,
상기 위치 정보는 IP(Internet Protocol) 주소 정보를 나타내고,
상기 적어도 2개의 카메라들을 선택하는 단계는,
상기 프로세서에 의해, 상기 메모리로부터 제1 카메라의 제1 IP 주소 정보를 추출하는 단계;
상기 프로세서에 의해, 상기 메모리로부터 상기 제1 IP 주소 정보로부터 소정 거리 이내에 존재하는 하나 이상의 제2 IP 주소 정보들을 추출하는 단계; 및
상기 프로세서에 의해, 상기 하나 이상의 제2 IP 주소 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하는 단계;를 포함하고,
상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고,
상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당되는, 감시 시스템의 동작 방법.
The method according to claim 11,
The location information represents IP (Internet Protocol) address information,
Selecting the at least two cameras,
Extracting, by the processor, first IP address information of a first camera from the memory;
Extracting, by the processor, one or more second IP address information present within a predetermined distance from the first IP address information from the memory; And
Selecting, by the processor, one or more second cameras corresponding to the one or more second IP address informations;
The first camera and the one or more second cameras are included in the plurality of cameras,
The first camera and the one or more second cameras correspond to the at least two cameras.
청구항 13에 있어서,
사용자 인터페이스에 의해, 상기 복수의 카메라들 중 상기 제1 카메라를 선택하는 사용자 입력을 수신하는 단계;를 더 포함하고,
상기 제1 IP 주소 정보를 추출하는 단계는,
상기 사용자 입력에 대응하여 상기 메모리로부터 상기 제1 IP 주소 정보를 추출하는 단계인, 감시 시스템의 동작 방법.
The method according to claim 13,
Receiving, by a user interface, a user input for selecting the first camera among the plurality of cameras;
Extracting the first IP address information,
Extracting the first IP address information from the memory in response to the user input.
청구항 11에 있어서,
상기 위치 정보는 카메라의 촬영 가능 범위 정보를 나타내고,
상기 적어도 2개의 카메라들을 선택하는 단계는,
상기 프로세서에 의해, 상기 메모리로부터 제1 카메라의 제1 촬영 가능 범위 정보를 추출하는 단계;
상기 프로세서에 의해, 상기 메모리로부터 상기 제1 촬영 가능 범위 정보와 적어도 일부가 동일한 하나 이상의 제2 촬영 가능 범위 정보들을 추출하는 단계; 및
상기 프로세서에 의해, 상기 하나 이상의 제2 촬영 가능 범위 정보들에 대응하는 하나 이상의 제2 카메라들을 선택하는 단계;를 포함하고,
상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 복수의 카메라들에 포함되고,
상기 제1 카메라 및 상기 하나 이상의 제2 카메라들은 상기 적어도 2개의 카메라들에 해당되는, 감시 시스템의 동작 방법.
The method according to claim 11,
The location information represents the recordable range information of the camera,
Selecting the at least two cameras,
Extracting, by the processor, first recordable range information of a first camera from the memory;
Extracting, by the processor, one or more pieces of second recordable range information that are at least partially equal to the first recordable range information from the memory; And
Selecting, by the processor, one or more second cameras corresponding to the one or more second recordable range informations;
The first camera and the one or more second cameras are included in the plurality of cameras,
The first camera and the one or more second cameras correspond to the at least two cameras.
청구항 15에 있어서,
상기 제1 카메라는 이벤트를 감지한 카메라인, 감시 시스템.
The method according to claim 15,
And the first camera is a camera that detects an event.
청구항 15에 있어서,
상기 통신 인터페이스에 의해, 외부 서버로부터 GPS(Global Positioning System) 정보를 수신하는 단계;를 더 포함하고,
상기 제1 촬영 가능 범위 정보를 추출하는 단계는,
상기 메모리로부터 상기 GPS 정보가 속하는 상기 제1 촬영 가능 범위 정보를 추출하는 단계인, 감시 시스템의 동작 방법.
The method according to claim 15,
Receiving, by the communication interface, Global Positioning System (GPS) information from an external server;
The extracting of the first recordable range information may include:
Extracting the first recordable range information to which the GPS information belongs from the memory.
청구항 11에 있어서,
상기 위치 정보는 GPS 정보를 나타내고,
상기 적어도 2개의 카메라들을 선택하는 단계는,
상기 통신 인터페이스에 의해, 외부 서버로부터 상기 GPS 정보를 수신하는 단계;
상기 통신 인터페이스에 의해, 상기 복수의 카메라들에 각각 상기 GPS 정보를 전송하는 단계;
상기 통신 인터페이스에 의해, 상기 복수의 카메라들로부터 촬영 가능 여부에 대한 응답을 수신하는 단계; 및
상기 프로세서에 의해, 상기 GPS 정보에 대응하여 촬영 가능 응답을 전송한 카메라들 중 상기 적어도 2개의 카메라들을 선택하는 단계;를 포함하는, 감시 시스템의 동작 방법.
The method according to claim 11,
The location information indicates GPS information,
Selecting the at least two cameras,
Receiving, by the communication interface, the GPS information from an external server;
Transmitting, by the communication interface, the GPS information to the plurality of cameras, respectively;
Receiving, by the communication interface, a response as to whether or not photographing is possible from the plurality of cameras; And
Selecting, by the processor, the at least two cameras from among cameras that have transmitted a shootable response corresponding to the GPS information.
청구항 11에 있어서,
상기 적어도 2개의 카메라들을 선택하는 단계는,
카메라의 스케줄, 사양, 화질, 및 촬영 가능 범위 중 적어도 하나를 고려하여 상기 적어도 2개의 카메라들을 선택하는 단계인, 감시 시스템의 동작 방법.
The method according to claim 11,
Selecting the at least two cameras,
Selecting the at least two cameras in consideration of at least one of a schedule, a specification, an image quality, and a photographing range of a camera.
청구항 19에 있어서,
상기 적어도 2개의 카메라들은 소정 시점에 스케줄이 비어있거나, 사양 또는 화질이 소정 조건을 만족하거나, 사양 또는 화질이 공통되거나, 촬영 가능 범위가 소정 범위 이상인, 감시 시스템의 동작 방법.
The method according to claim 19,
The at least two cameras have an empty schedule at a predetermined time point, a specification or picture quality satisfies a predetermined condition, a specification or picture quality is common, or a photographing range is more than a predetermined range.
KR1020180036605A 2018-03-29 2018-03-29 Surveillance system and operation method thereof KR102454920B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180036605A KR102454920B1 (en) 2018-03-29 2018-03-29 Surveillance system and operation method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180036605A KR102454920B1 (en) 2018-03-29 2018-03-29 Surveillance system and operation method thereof

Publications (2)

Publication Number Publication Date
KR20190114223A true KR20190114223A (en) 2019-10-10
KR102454920B1 KR102454920B1 (en) 2022-10-14

Family

ID=68206926

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180036605A KR102454920B1 (en) 2018-03-29 2018-03-29 Surveillance system and operation method thereof

Country Status (1)

Country Link
KR (1) KR102454920B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111935457A (en) * 2020-08-12 2020-11-13 创意信息技术股份有限公司 Intelligent storage system
KR20230073816A (en) * 2021-11-19 2023-05-26 주식회사 핀텔 Policy Base Adaptive Video Analyzing Architecture Generating Method, Device, and Computer Program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070035574A (en) * 2004-08-18 2007-03-30 샤프 가부시키가이샤 Image data display
KR20140097844A (en) * 2013-01-30 2014-08-07 주식회사 엘지씨엔에스 Method and system of providing display in display monitoring system
KR101594048B1 (en) 2009-11-09 2016-02-15 삼성전자주식회사 3 device and method for generating 3 dimensional image using cooperation between cameras
KR20160079411A (en) * 2014-12-26 2016-07-06 삼성전자주식회사 Security system and operating method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20070035574A (en) * 2004-08-18 2007-03-30 샤프 가부시키가이샤 Image data display
KR101594048B1 (en) 2009-11-09 2016-02-15 삼성전자주식회사 3 device and method for generating 3 dimensional image using cooperation between cameras
KR20140097844A (en) * 2013-01-30 2014-08-07 주식회사 엘지씨엔에스 Method and system of providing display in display monitoring system
KR20160079411A (en) * 2014-12-26 2016-07-06 삼성전자주식회사 Security system and operating method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111935457A (en) * 2020-08-12 2020-11-13 创意信息技术股份有限公司 Intelligent storage system
KR20230073816A (en) * 2021-11-19 2023-05-26 주식회사 핀텔 Policy Base Adaptive Video Analyzing Architecture Generating Method, Device, and Computer Program

Also Published As

Publication number Publication date
KR102454920B1 (en) 2022-10-14

Similar Documents

Publication Publication Date Title
US10783648B2 (en) Apparatus and method for processing image
US10140826B2 (en) Surveillance system and method of controlling the same
JP2022060383A (en) Program, information transmission method, computer-readable storage medium, and information transmission system
US10200631B2 (en) Method for configuring a camera
US11538316B2 (en) Surveillance system and control method thereof
US10341616B2 (en) Surveillance system and method of controlling the same
WO2018116485A1 (en) Video collection system, video collection server, video collection method and program
KR102043234B1 (en) Equipment monitoring system and operation method thereof
KR102596485B1 (en) Apparatus and method for registering camera
US10805527B2 (en) Image processing device and method
KR101005568B1 (en) Intelligent security system
KR102454920B1 (en) Surveillance system and operation method thereof
KR20090046128A (en) Apparatus and system with single bodt type for ubiquitous security
US10455186B2 (en) Method and apparatus for allocating resources
US10736043B2 (en) Surveillance system and method of controlling the same
KR101772391B1 (en) Exetended Monitoring Device Using Voice Recognition Module Installed in Multi Spot
KR102369796B1 (en) Network camera system and operating method for the same
JP2018170574A (en) Monitoring system
KR102333760B1 (en) Intelligent video control method and server apparatus thereof
KR100880428B1 (en) Ubiquitous security system
KR101372862B1 (en) Smart security system capable of operating in dead zone
US20230188682A1 (en) System and method for tracking a region of interest
KR101345657B1 (en) Smart security system capable of correcting the location information
JP6750931B1 (en) Digital motion formula security system, method and program
JP2009188740A (en) Monitoring system and method

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant