KR20230007792A - Clowd server, system comprising clowd server and client device and controlling method thereof - Google Patents

Clowd server, system comprising clowd server and client device and controlling method thereof Download PDF

Info

Publication number
KR20230007792A
KR20230007792A KR1020210088549A KR20210088549A KR20230007792A KR 20230007792 A KR20230007792 A KR 20230007792A KR 1020210088549 A KR1020210088549 A KR 1020210088549A KR 20210088549 A KR20210088549 A KR 20210088549A KR 20230007792 A KR20230007792 A KR 20230007792A
Authority
KR
South Korea
Prior art keywords
image
client device
images
received
cloud server
Prior art date
Application number
KR1020210088549A
Other languages
Korean (ko)
Inventor
산지브 바
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020210088549A priority Critical patent/KR20230007792A/en
Publication of KR20230007792A publication Critical patent/KR20230007792A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/222Secondary servers, e.g. proxy server, cable television Head-end
    • H04N21/2223Secondary servers, e.g. proxy server, cable television Head-end being a public access point, e.g. for downloading to or uploading from clients
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/242Synchronization processes, e.g. processing of PCR [Program Clock References]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47202End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting content on demand, e.g. video on demand
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Image Processing (AREA)

Abstract

Disclosed is a cloud server communicating with a plurality of security cameras. The cloud server, which can improve convenience of users, may include: a communication interface; a memory; and a processor which stores a plurality of images in the memory when the plurality of images are received from the plurality of security cameras through the communication interface, acquires a synthetic image including at least a part of the plurality of images based on synchronization information included in each of the received plurality of images to store the synthetic image in the memory, and transmits information related to the synthetic image to a client device through the communication interface when a request related to the synthetic image is received from the client device.

Description

클라우드 서버, 시스템 및 그 제어 방법{CLOWD SERVER, SYSTEM COMPRISING CLOWD SERVER AND CLIENT DEVICE AND CONTROLLING METHOD THEREOF}Cloud server, system and its control method {CLOWD SERVER, SYSTEM COMPRISING CLOWD SERVER AND CLIENT DEVICE AND CONTROLLING METHOD THEREOF}

본 발명은 보안 카메라로부터 획득된 이미지를 처리하는 클라우드 서버, 시스템 및 그 제어 방법에 관한 것이다.The present invention relates to a cloud server for processing an image obtained from a security camera, a system, and a control method thereof.

최근 실내 공간을 촬영하는 보안 카메라의 보급이 활발해지고 있다. 사용자는 복수의 보안 카메라로부터 획득된 복수의 이미지를 제공받을 수 있으며, 이를 위해 클라우드 서버는 보안 카메라로부터 획득된 이미지를 처리하여 클라이언트 기기로 전송할 수 있다. 그러나, 사용자가 보안 카메라로부터 획득된 이미지를 제공받기 위해서는 각 카메라에 대응되는 복수의 요청을 해야만 하는 불편함이 있었으며, 각 카메라로부터 획득된 이미지의 제공과 관련된 프로토콜(Protocol)이 상이할 수 있어 클라우드 서버가 사용자가 보내온 복수의 요청을 처리하는 데 있어 높은 서버 트래픽(Server Traffic)이 발생하는 문제점이 있었다.BACKGROUND OF THE INVENTION [0002] Recently, the spread of security cameras that take pictures of indoor spaces is increasing. A user may be provided with a plurality of images obtained from a plurality of security cameras, and to this end, the cloud server may process images acquired from the security cameras and transmit the images to the client device. However, in order for a user to receive an image obtained from a security camera, it is inconvenient for a user to make a plurality of requests corresponding to each camera, and protocols related to providing images obtained from each camera may be different. There was a problem in that high server traffic occurs when the server processes a plurality of requests sent by users.

이에 따라 복수의 보안 카메라로부터 획득된 이미지와 관련된 단일한 합성 이미지를 획득하여 사용자가 요청한 이미지를 클라이언트 기기에 제공할 수 있는 클라우드 서버에 대한 지속적인 요구가 있었다.Accordingly, there has been a continuous demand for a cloud server capable of acquiring a single composite image related to images acquired from a plurality of security cameras and providing the image requested by a user to a client device.

본 개시는 상술한 필요성에 따른 것으로, 복수의 보안 카메라로부터 획득된 이미지에 기초하여 합성 이미지를 획득하고, 합성 이미지와 관련된 정보를 클라이언트 기기로 전송하는 클라우드 서버, 시스템 및 그 제어 방법을 제공함에 있다.The present disclosure is in accordance with the above-described needs, and is to provide a cloud server, a system, and a control method thereof for obtaining a composite image based on images obtained from a plurality of security cameras and transmitting information related to the composite image to a client device. .

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 클라우드 서버는, 통신 인터페이스, 메모리 및 상기 통신 인터페이스를 통해 상기 복수의 보안 카메라로부터 복수의 이미지가 수신되면, 상기 수신된 복수의 이미지를 상기 메모리에 저장하고, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 상기 메모리에 저장하고, 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 통신 인터페이스를 통해 상기 클라이언트 기기로 전송하는 프로세서를 포함할 수 있다.When a plurality of images are received from the plurality of security cameras through a communication interface, a memory, and the communication interface, the cloud server according to an embodiment of the present invention for achieving the above object displays the plurality of received images. Store in the memory, obtain a composite image including at least some of the plurality of images based on synchronization information included in each of the received plurality of images, store it in the memory, and acquire the composite image and the composite image from a client device. and a processor for transmitting information related to the synthesized image to the client device through the communication interface when a related request is received.

여기서, 상기 프로세서는, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하고, 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 적어도 일부 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득할 수 있다.Here, the processor identifies at least some images captured at the same time among the plurality of images based on synchronization information included in each of the received plurality of images, and the at least some images are identified based on the output format of the client device. An output format of an image may be converted, and a composite image including at least some images of which the output format is converted may be obtained.

또한, 상기 프로세서는, 상기 클라이언트 기기로부터 상기 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면, 상기 합성 이미지에서 상기 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 상기 크랍핑된 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송할 수 있다.In addition, the processor, when receiving a request for information on the region of interest in the synthesized image from the client device, crops an image corresponding to the region of interest from the synthesized image to include the cropped image Information may be transmitted to the client device.

또한, 상기 프로세서는, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 요청이 수신된 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 합성 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 합성 이미지에 기초하여 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송할 수 있다.In addition, when a request related to the composite image is received from the client device, the processor converts an output format of the composite image based on an output format of the client device having received the request, and the output format is converted. Based on the synthesized image, information related to the synthesized image may be transmitted to the client device.

또한, 상기 프로세서는, 상기 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 상기 적어도 일부 이미지를 상기 카메라 식별 정보에 대응되는 위치에 배치하여 상기 합성 이미지를 획득하여 상기 클라이언트 기기로 전송하고, 상기 클라이언트 기기로부터 상기 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면, 상기 위치 정보에 대응되는 카메라 식별 정보를 획득하고, 상기 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하고, 상기 획득된 합성 이미지를 상기 클라이언트 기기로 전송할 수 있다.The processor obtains the synthesized image by arranging the at least some images at a location corresponding to the camera identification information based on camera identification information included in the at least some images, and transmits the synthesized image to the client device. When location information corresponding to a partial region of the composite image is received from the device, camera identification information corresponding to the location information is obtained, a composite image is obtained based on the obtained camera identification information, and the obtained composite image is obtained. may be transmitted to the client device.

또한, 상기 프로세서는, 상기 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 상기 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 상기 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 상기 합성 이미지를 획득할 수 있다.In addition, the processor may arrange at least one of an image including a dynamic object among the at least some images, an image taken at a predetermined place among the at least some images, or an image having a threshold brightness or higher among the at least some images at a specific location to perform the A composite image can be obtained.

또한, 상기 프로세서는, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 클라이언트 기기의 위치 정보 및 상기 복수의 보안 카메라 각각의 위치 정보에 기초하여 상기 복수의 보안 카메라 중 상기 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하고, 상기 합성 이미지에서 상기 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송할 수 있다.In addition, when a request related to the synthesized image is received from the client device, the processor determines a critical value from the client device among the plurality of security cameras based on location information of the client device and location information of each of the plurality of security cameras. A security camera located within the distance may be identified, and information including an image of an area other than an image area acquired from the identified camera may be transmitted to the client device in the composite image.

한편, 본 발명의 일 실시 예에 따른 클라우드 서버 및 클라이언트 기기를 포함하는 시스템은, 복수의 보안 카메라로부터 복수의 이미지가 수신되면, 상기 수신된 복수의 이미지를 저장하고, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장하고, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는 클라우드 서버 및 상기 클라우드 서버로부터 수신된 정보에 포함된 상기 합성 이미지를 디스플레이하고, 상기 합성 이미지에 포함된 관심 영역에 대한 선택 명령이 수신되면, 상기 수신된 선택 명령에 기초하여 상기 합성 이미지를 디스플레이하는 클라이언트 기기를 포함할 수 있다.Meanwhile, when a plurality of images are received from a plurality of security cameras, a system including a cloud server and a client device according to an embodiment of the present invention stores the received plurality of images, and each of the received plurality of images Acquire and store a synthesized image including at least some of the plurality of images based on synchronization information included in the image, and when a request related to the synthesized image is received from the client device, information related to the synthesized image is transmitted to the client device. Displays the synthesized image included in the cloud server transmitted to the device and information received from the cloud server, and when a command for selecting a region of interest included in the synthesized image is received, the synthesized image is selected based on the received command It may include a client device that displays an image.

여기서, 상기 클라이언트 기기는, 상기 수신된 선택 명령에 기초하여 상기 관심 영역에 대한 정보를 상기 클라우드 서버로 전송하고, 상기 클라우드 서버는, 상기 클라이언트 기기로부터 수신된 상기 관심 영역에 대한 정보에 기초하여 상기 관심 영역을 포함하는 합성 이미지를 처리하고, 상기 처리된 합성 이미지를 상기 클라이언트 기기로 전송하며, 상기 클라이언트 기기는, 상기 클라우드 서버로부터 수신된 상기 처리된 합성 이미지를 디스플레이할 수 있다.Here, the client device transmits information on the region of interest to the cloud server based on the received selection command, and the cloud server transmits information on the region of interest based on the information received from the client device. A synthesized image including the region of interest may be processed, and the processed synthesized image may be transmitted to the client device, and the client device may display the processed synthesized image received from the cloud server.

또한, 상기 클라이언트 기기는, 상기 수신된 선택 명령에 기초하여 상기 합성 이미지를 처리하고, 상기 처리된 합성 이미지를 디스플레이할 수 있다.Also, the client device may process the synthesized image based on the received selection command and display the processed synthesized image.

한편, 본 발명의 일 실시 예에 따른 클라우드 서버의 제어 방법은, 복수의 보안 카메라로부터 복수의 이미지가 수신되면 상기 수신된 복수의 이미지를 저장하는 단계, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장하는 단계 및 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는 단계를 포함할 수 있다.Meanwhile, a control method of a cloud server according to an embodiment of the present invention includes, when a plurality of images are received from a plurality of security cameras, storing the received plurality of images, synchronizing each of the received plurality of images. Acquiring and storing a composite image including at least some of the plurality of images based on information and transmitting information related to the composite image to the client device when a request related to the composite image is received from a client device steps may be included.

여기서, 상기 합성 이미지를 획득하여 저장하는 단계는, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하는 단계 및 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 적어도 일부 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득하는 단계를 포함할 수 있다.Here, the acquiring and storing the composite image may include identifying at least some images captured at the same time among the plurality of images based on synchronization information included in each of the plurality of received images, and The method may include converting an output format of the at least some images based on an output format, and obtaining a composite image including the at least some images whose output formats are converted.

또한, 상기 전송하는 단계는, 상기 클라이언트 기기로부터 상기 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면, 상기 합성 이미지에서 상기 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 상기 크랍핑된 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송할 수 있다.The transmitting may include cropping an image corresponding to the region of interest from the synthesized image when a request for information on the region of interest among the synthesized images is received from the client device to obtain the cropped image. The included information may be transmitted to the client device.

또한, 상기 전송하는 단계는, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 요청이 수신된 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 합성 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 합성 이미지에 기초하여 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송할 수 있다.The transmitting may include, when a request related to the synthesized image is received from the client device, converting an output format of the synthesized image based on an output format of the client device having received the request, and Information related to the synthesized image may be transmitted to the client device based on the converted synthesized image.

또한, 상기 합성 이미지를 획득하여 저장하는 단계는, 상기 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 상기 적어도 일부 이미지를 상기 카메라 식별 정보에 대응되는 위치에 배치하여 상기 합성 이미지를 획득하는 단계, 상기 클라이언트 기기로부터 상기 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면, 상기 위치 정보에 대응되는 카메라 식별 정보를 획득하는 단계 및 상기 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하는 단계를 포함할 수 있다.In addition, the acquiring and storing the synthesized image may include arranging the at least some images at positions corresponding to the camera identification information based on camera identification information included in the at least some images to obtain the synthesized image; obtaining camera identification information corresponding to the location information when location information corresponding to a partial region of the composite image is received from the client device, and acquiring a composite image based on the obtained camera identification information. can do.

또한, 상기 합성 이미지를 획득하여 저장하는 단계는, 상기 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 상기 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 상기 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 상기 합성 이미지를 획득할 수 있다.In addition, the acquiring and storing the synthesized image may include at least one of an image including a dynamic object among the at least some images, an image taken at a predetermined place among the at least some images, and an image having a brightness level higher than or equal to a threshold brightness among the at least some images. The synthesized image may be acquired by arranging the at a specific location.

또한, 상기 전송하는 단계는, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 클라이언트 기기의 위치 정보 및 상기 복수의 보안 카메라 각각의 위치 정보에 기초하여 상기 복수의 보안 카메라 중 상기 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하는 단계 및 상기 합성 이미지에서 상기 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는 단계를 포함할 수 있다.The transmitting may include, when a request related to the synthesized image is received from the client device, the client device among the plurality of security cameras based on location information of the client device and location information of each of the plurality of security cameras. The method may include identifying a security camera located within a threshold distance from and transmitting information including an image of an area other than an image area obtained from the identified camera in the composite image to the client device.

본 개시의 다양한 실시 예에 따르면, 클라우드 서버는 복수의 보안 카메라로부터 획득된 이미지와 관련된 단일한 합성 이미지를 획득하고 사용자가 요청한 이미지를 클라이언트 기기로 제공할 수 있으므로 사용자의 편의성이 향상된다.According to various embodiments of the present disclosure, the cloud server may acquire a single composite image related to images obtained from a plurality of security cameras and provide the image requested by the user to the client device, thereby improving user convenience.

도 1은 본 개시의 일 실시 예에 따른 클라우드 서버의 동작을 개략적으로 설명하기 위한 도면이다.
도 2는 본 개시의 일 실시 예에 따른 클라우드 서버의 구성을 설명하기 위한 블록도이다.
도 3은 본 개시의 일 실시 예에 따른 합성 이미지 획득 동작을 개략적으로 설명하기 위한 도면이다.
도 4는 본 개시의 일 실시 예에 따른 동기화 정보에 기초하여 합성 이미지를 획득하는 동작을 설명하기 위한 도면이다.
도 5a 및 도 5b는 본 개시의 일 실시 예에 따른 이미지의 출력 포맷 변환에 따른 합성 이미지 획득 동작을 설명하기 위한 도면이다.
도 6은 본 개시의 일 실시 예에 따른 합성 이미지의 일부를 클라이언트 기기로 제공하는 동작을 설명하기 위한 도면이다.
도 7은 본 개시의 다른 실시 예에 따른 합성 이미지의 획득 동작을 설명하기 위한 도면이다.
도 8은 본 개시의 일 실시 예에 따른 클라이언트 기기의 및 복수의 보안 카메라의 위치 정보에 기초하여 합성 이미지를 획득하는 동작을 설명하기 위한 도면이다.
도 9는 본 개시의 일 실시 예에 따른 제어 방법을 설명하기 위한 흐름도이다.
도 10은 본 개시의 일 실시 예에 따른 클라우드 서버와 클라이언트 기기가 연동하여 합성 이미지를 제공하는 실시 예를 설명하기 위한 시퀀스도이다.
1 is a diagram schematically illustrating an operation of a cloud server according to an embodiment of the present disclosure.
2 is a block diagram illustrating a configuration of a cloud server according to an embodiment of the present disclosure.
3 is a diagram schematically illustrating an operation of obtaining a composite image according to an embodiment of the present disclosure.
4 is a diagram for explaining an operation of obtaining a composite image based on synchronization information according to an embodiment of the present disclosure.
5A and 5B are diagrams for explaining an operation of obtaining a composite image according to conversion of an output format of an image according to an embodiment of the present disclosure.
6 is a diagram for explaining an operation of providing a part of a composite image to a client device according to an embodiment of the present disclosure.
7 is a diagram for explaining an operation of obtaining a composite image according to another embodiment of the present disclosure.
8 is a diagram for explaining an operation of obtaining a composite image based on location information of a client device and a plurality of security cameras according to an embodiment of the present disclosure.
9 is a flowchart illustrating a control method according to an embodiment of the present disclosure.
10 is a sequence diagram for explaining an embodiment in which a cloud server and a client device work together to provide a composite image according to an embodiment of the present disclosure.

이하에서는 첨부 도면을 참조하여 본 개시를 상세히 설명한다. Hereinafter, the present disclosure will be described in detail with reference to the accompanying drawings.

본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 개시의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 개시에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure have been selected from general terms that are currently widely used as much as possible while considering the functions in the present disclosure, but they may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technologies, and the like. . In addition, in a specific case, there is also a term arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the disclosure. Therefore, terms used in the present disclosure should be defined based on the meaning of the term and the general content of the present disclosure, not simply the name of the term.

본 개시에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.In the present disclosure, expressions such as “has,” “can have,” “includes,” or “can include” indicate the presence of a corresponding feature (eg, numerical value, function, operation, or component such as a part). , which does not preclude the existence of additional features.

A 또는/및 B 중 적어도 하나라는 표현은 "A" 또는 "B" 또는 "A 및 B" 중 어느 하나를 나타내는 것으로 이해되어야 한다. The expression at least one of A and/or B should be understood to denote either "A" or "B" or "A and B".

본 개시에서 사용된 "제1," "제2," "첫째," 또는 "둘째,"등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. Expressions such as "first," "second," "first," or "second," used in the present disclosure may modify various elements regardless of order and/or importance, and may refer to one element as It is used only to distinguish it from other components and does not limit the corresponding components.

어떤 구성요소(예: 제1 구성요소)가 다른 구성요소(예: 제2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 어떤 구성요소가 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. A component (e.g., a first component) is "(operatively or communicatively) coupled with/to" another component (e.g., a second component); When referred to as "connected to", it should be understood that an element may be directly connected to another element, or may be connected through another element (eg, a third element).

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Singular expressions include plural expressions unless the context clearly dictates otherwise. In this application, the terms "comprise" or "consist of" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other It should be understood that the presence or addition of features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.

본 개시에서 "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서(미도시)로 구현될 수 있다.In the present disclosure, a “module” or “unit” performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software. In addition, a plurality of "modules" or a plurality of "units" are integrated into at least one module and implemented by at least one processor (not shown), except for "modules" or "units" that need to be implemented with specific hardware. It can be.

본 개시에서 사용자라는 용어는 클라이언트 기기를 사용하는 사람을 지칭할 수 있다.In the present disclosure, the term user may refer to a person using a client device.

도 1은 본 개시의 일 실시 예에 따른 클라우드 서버의 동작을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating an operation of a cloud server according to an embodiment of the present disclosure.

도 1에 따르면 클라우드 서버(100)는 복수의 보안 카메라(11, 12, 13, 14)와 통신하며, 복수의 보안 카메라(11, 12, 13, 14)로부터 획득된 이미지를 클라이언트 기기(201, 202, 203, 204)에 제공할 수 있다.According to FIG. 1, a cloud server 100 communicates with a plurality of security cameras 11, 12, 13, and 14, and transmits images obtained from the plurality of security cameras 11, 12, 13, and 14 to a client device 201, 202, 203, 204).

복수의 보안 카메라(11, 12, 13, 14)는 기 설정된 화각(Field of View; FoV) 내에 영역에 대한 촬영을 수행하여 이미지를 획득할 수 있다. 복수의 보안 카메라(11, 12, 13, 14)는 오브젝트에 의해 반사되어 수신되는 가시광 기타 광학 신호를 이미지 센서로 포커싱하는 렌즈 및 가시광 기타 광학 신호를 감지할 수 있는 이미지 센서를 포함할 수 있다. 여기서, 이미지 센서는 복수의 픽셀로 구분되는 2D의 픽셀 어레이(Array)를 포함할 수 있다.The plurality of security cameras 11 , 12 , 13 , and 14 may obtain an image by capturing an area within a preset field of view (FoV). The plurality of security cameras 11 , 12 , 13 , and 14 may include a lens for focusing visible light and other optical signals received after being reflected by an object into an image sensor and an image sensor capable of detecting visible light and other optical signals. Here, the image sensor may include a 2D pixel array divided into a plurality of pixels.

클라이언트 기기(201, 202, 203, 204)는 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 카메라, 또는 웨어러블 장치 등으로 구현될 수 있으나, 이에 한정되는 것은 아니며 이미지를 표시하기 위한 디스플레이를 구비하고 있는 전자 장치라면 어떠한 유형의 기기라도 클라이언트 기기로 사용될 수 있다. The client devices 201, 202, 203, and 204 include smart phones, tablet PCs, mobile phones, video phones, e-book readers, desktop PCs, laptop PCs, netbook computers, workstations, servers, PDAs, and portable multimedia players (PMPs). , MP3 player, camera, wearable device, etc., but is not limited thereto, and any type of electronic device having a display for displaying an image may be used as a client device.

클라이언트 기기는 특정 보안 카메라로부터 획득된 이미지의 제공을 위한 요청을 클라우드 서버(100)로 전송할 수 있으며, 클라우드 서버(100)는 클라이언트 기기로부터 수신된 요청에 기초하여 특정 보안 카메라로부터 획득된 이미지와 관련된 정보를 요청이 수신된 클라이언트 기기로 전송할 수 있다.The client device may transmit a request for providing an image acquired from a specific security camera to the cloud server 100, and the cloud server 100 may transmit a request related to an image acquired from a specific security camera based on the request received from the client device. information may be transmitted to the client device on which the request was received.

예를 들어, 클라이언트 기기 중 거실에 위치한 TV(201)에서 주방을 촬영하는 보안 카메라(13)로부터 획득된 이미지를 제공 받기 위해서는 TV(201)는 클라우드 서버(100)로 보안 카메라(13)로부터 획득된 이미지의 제공과 관련된 요청을 전송할 수 있다.For example, in order to receive an image obtained from a security camera 13 photographing a kitchen in a TV 201 located in a living room among client devices, the TV 201 acquires an image from the security camera 13 to the cloud server 100. You can send a request related to the provision of the image.

그러나 복수의 보안 카메라(11, 12, 13, 14)가 획득한 이미지가 서로 상이한 타입의 이미지일 수 있으므로, 클라이언트 기기가 복수의 보안 카메라(11, 12, 13, 14)로부터 획득된 이미지를 제공받기 위해서는 서로 상이한 타입의 이미지의 처리와 관련된 개별적인 요청을 전송해야 할 수 있다.However, since the images obtained by the plurality of security cameras 11, 12, 13, and 14 may be images of different types, the client device provides images obtained from the plurality of security cameras 11, 12, 13, and 14. Receipt may require sending separate requests related to the processing of different types of images.

여기서, 클라우드 서버(100)는 복수의 상이한 프로토콜에 따라 개별적인 요청을 수신할 수도 있으나, RESTful API(Representational State Transfer Application Programming Interface)에 따라 개별적인 요청을 수신할 수도 있다. 클라우드 서버(100)가 복수의 상이한 프로토콜에 또는 API에 따라 개별적인 요청을 수신하는 경우 복수의 요청을 수신하는 과정에서 과도한 서버 트래픽(Server Traffic) 또는 연산 부담이 발생할 수 있다.Here, the cloud server 100 may receive individual requests according to a plurality of different protocols or may receive individual requests according to RESTful API (Representational State Transfer Application Programming Interface). When the cloud server 100 receives individual requests according to a plurality of different protocols or APIs, excessive server traffic or computational burden may occur in the process of receiving the plurality of requests.

서버 트래픽과 연산 부담을 감소시키기 위하여, 본 개시의 일 실시 예에 따른 클라우드 서버(100)는 서로 상이한 타입의 이미지를 합성하여 단일한 합성 이미지를 획득하고, 합성 이미지에 포함된 일 영역에 대응되는 이미지와 관련한 요청을 클라이언트 기기로부터 수신하여 적어도 하나의 보안 카메라로부터 획득된 이미지를 클라이언트 기기로 제공할 수 있다.In order to reduce server traffic and computational burden, the cloud server 100 according to an embodiment of the present disclosure obtains a single composite image by synthesizing different types of images, and a A request related to an image may be received from the client device and an image obtained from at least one security camera may be provided to the client device.

이하에서는, 복수의 보안 카메라로부터 획득된 이미지를 포함하는 합성 이미지를 획득하여 클라이언트 기기로 전송할 수 있는 다양한 실시 예에 대해 좀더 구체적으로 설명하도록 한다.Hereinafter, various embodiments in which a synthesized image including images obtained from a plurality of security cameras may be acquired and transmitted to a client device will be described in more detail.

도 2는 본 개시의 일 실시 예에 따른 클라우드 서버의 구성을 설명하기 위한 블록도이다.2 is a block diagram illustrating a configuration of a cloud server according to an embodiment of the present disclosure.

도 2에 따르면 클라우드 서버(100)는 통신 인터페이스(110), 메모리(120) 및 프로세서(130)를 포함할 수 있다. 다만, 도 2에 도시된 구성은 본 개시의 실시 예들을 구현하기 위한 예시도이며, 통상의 기술자에게 자명한 수준의 적절한 하드웨어 및 소프트웨어 구성들이 클라우드 서버(100)에 추가로 포함될 수 있다.According to FIG. 2 , the cloud server 100 may include a communication interface 110 , a memory 120 and a processor 130 . However, the configuration shown in FIG. 2 is an exemplary diagram for implementing the embodiments of the present disclosure, and suitable hardware and software configurations that are obvious to those skilled in the art may be additionally included in the cloud server 100.

통신 인터페이스(110)는 다양한 타입의 데이터를 입력 및 출력할 수 있다. 예를 들어 통신 인터페이스(110)는 AP 기반의 Wi-Fi(와이파이, Wireless LAN 네트워크), 블루투스(Bluetooth), 지그비(Zigbee), 유/무선 LAN(Local Area Network), WAN(Wide Area Network), 이더넷(Ethernet), IEEE 1394, HDMI(High-Definition Multimedia Interface), USB(Universal Serial Bus), MHL(Mobile High-Definition Link), AES/EBU(Audio Engineering Society/ European Broadcasting Union), 옵티컬(Optical), 코액셜(Coaxial) 등과 같은 통신 방식을 통해 외부 장치(예를 들어, 소스 장치), 외부 저장 매체(예를 들어, USB 메모리), 외부 서버(예를 들어 웹 하드)와 다양한 타입의 데이터를 송수신할 수 있다.The communication interface 110 may input and output various types of data. For example, the communication interface 110 is AP-based Wi-Fi (Wi-Fi, Wireless LAN network), Bluetooth (Bluetooth), Zigbee (Zigbee), wired / wireless LAN (Local Area Network), WAN (Wide Area Network), Ethernet, IEEE 1394, HDMI (High-Definition Multimedia Interface), USB (Universal Serial Bus), MHL (Mobile High-Definition Link), AES/EBU (Audio Engineering Society/ European Broadcasting Union), Optical External device (eg, source device), external storage medium (eg, USB memory), external server (eg, web hard) and various types of data through communication methods such as , Coaxial, etc. can transmit and receive.

메모리(120)는 본 개시의 다양한 실시 예를 위해 필요한 데이터를 저장할 수 있다. 메모리(120)는 데이터 저장 용도에 따라 클라우드 서버 (100)에 임베디드된 메모리 형태로 구현되거나, 클라우드 서버 (100)에 탈부착이 가능한 메모리 형태로 구현될 수도 있다. 예를 들어, 클라우드 서버 (100)의 구동을 위한 데이터의 경우 클라우드 서버 (100)에 임베디드된 메모리에 저장되고, 클라우드 서버 (100)의 확장 기능을 위한 데이터의 경우 클라우드 서버 (100)에 탈부착이 가능한 메모리에 저장될 수 있다. 한편, 클라우드 서버 (100)에 임베디드된 메모리의 경우 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나로 구현될 수 있다. 또한, 클라우드 서버 (100)에 탈부착이 가능한 메모리의 경우 메모리 카드(예를 들어, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 등), USB 포트에 연결가능한 외부 메모리(예를 들어, USB 메모리) 등과 같은 형태로 구현될 수 있다.The memory 120 may store data necessary for various embodiments of the present disclosure. The memory 120 may be implemented in the form of a memory embedded in the cloud server 100 or in the form of a removable memory in the cloud server 100 according to a data storage purpose. For example, data for driving the cloud server 100 is stored in a memory embedded in the cloud server 100, and data for an extended function of the cloud server 100 is detachable from the cloud server 100. It can be stored in available memory. Meanwhile, in the case of memory embedded in the cloud server 100, volatile memory (e.g., DRAM (dynamic RAM), SRAM (static RAM), SDRAM (synchronous dynamic RAM), etc.), non-volatile memory (non-volatile memory) Examples: OTPROM (one time programmable ROM), PROM (programmable ROM), EPROM (erasable and programmable ROM), EEPROM (electrically erasable and programmable ROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash, etc.) ), a hard drive, or a solid state drive (SSD). In addition, in the case of a memory that is detachable from the cloud server 100, a memory card (for example, a compact flash drive (CF)) ), SD (secure digital), Micro-SD (micro secure digital), Mini-SD (mini secure digital), xD (extreme digital), MMC (multi-media card), etc.), external memory that can be connected to the USB port ( For example, it may be implemented in the form of a USB memory) or the like.

프로세서(130)는 클라우드 서버(100)의 동작을 전반적으로 제어한다. 구체적으로, 프로세서(130)는 클라우드 서버(100)의 각 구성과 연결되어 클라우드 서버 (100)의 동작을 전반적으로 제어할 수 있다. 예를 들어, 프로세서(130)는 통신 인터페이스(110) 및 메모리(120)와 연결되어 클라우드 서버 (100)의 동작을 제어할 수 있다.The processor 130 controls overall operations of the cloud server 100 . Specifically, the processor 130 may be connected to each component of the cloud server 100 to control the overall operation of the cloud server 100 . For example, the processor 130 may be connected to the communication interface 110 and the memory 120 to control the operation of the cloud server 100 .

일 실시 예에 따라 프로세서(130)는 디지털 시그널 프로세서(digital signal processor(DSP), 마이크로 프로세서(microprocessor), 중앙처리장치(central processing unit(CPU)), MCU(Micro Controller Unit), MPU(micro processing unit), NPU(Neural Processing Unit), 컨트롤러(controller), 어플리케이션 프로세서(application processor(AP)) 등 다양한 이름으로 명명될 수 있으나, 본 명세서에서는 프로세서(130)로 기재한다.According to an embodiment, the processor 130 includes a digital signal processor (DSP), a microprocessor, a central processing unit (CPU), a micro controller unit (MCU), and a micro processing unit (MPU). unit), NPU (Neural Processing Unit), controller, application processor (application processor (AP)), etc., but described as processor 130 in this specification.

프로세서(130)는 SoC(System on Chip), LSI(large scale integration)로 구현될 수도 있고, FPGA(Field Programmable gate array) 형태로 구현될 수도 있다. 또한, 프로세서(130)는 SRAM 등의 휘발성 메모리를 포함할 수 있다.The processor 130 may be implemented as a system on chip (SoC), large scale integration (LSI), or may be implemented as a field programmable gate array (FPGA). Also, the processor 130 may include volatile memory such as SRAM.

본 개시의 일 실시 예에 따른 프로세서(130)는 통신 인터페이스(110)를 통해 복수의 보안 카메라로부터 복수의 이미지가 수신되면 수신된 복수의 이미지를 메모리(120)에 저장할 수 있다.When a plurality of images are received from a plurality of security cameras through the communication interface 110, the processor 130 according to an embodiment of the present disclosure may store the received plurality of images in the memory 120.

또한, 프로세서(130)는 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 메모리(120)에 저장할 수 있다.Also, the processor 130 may acquire a composite image including at least some of the plurality of images based on the synchronization information included in each of the plurality of received images, and store the synthesized image in the memory 120 .

동기화 정보란 복수의 이미지에 포함된 각 프레임과 관련된 시간 정보일 수 있다. 일 예에 따른 동기화 정보는 복수의 이미지에 포함된 특정 프레임이 획득된 시점에 관한 정보일 수 있으나, 이에 한정되는 것은 아니다.The synchronization information may be time information related to each frame included in a plurality of images. Synchronization information according to an example may be information about a time point at which a specific frame included in a plurality of images is acquired, but is not limited thereto.

프로세서(130)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 합성 이미지와 관련된 정보를 통신 인터페이스(110)를 통해 클라이언트 기기로 전송할 수 있다.When a request related to the composite image is received from the client device, the processor 130 may transmit information related to the composite image to the client device through the communication interface 110 .

프로세서(130)는 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하고, 클라이언트 기기의 출력 포맷에 기초하여 적어도 일부 이미지의 출력 포맷을 변환할 수 있다. 여기서, 동일한 시간에 촬영된 적어도 일부 이미지를 식별한다고 함은 복수의 이미지에 포함된 복수의 프레임 중에서 동일한 시간에 획득된 적어도 하나의 프레임을 식별하는 것을 의미할 수 있다.The processor 130 identifies at least some images captured at the same time among the plurality of images based on the synchronization information included in each of the plurality of images received, and determines the output format of the at least some images based on the output format of the client device. can be converted Here, identifying at least some images captured at the same time may mean identifying at least one frame acquired at the same time among a plurality of frames included in a plurality of images.

클라이언트 기기의 출력 포맷은 클라이언트 기기를 통해 제공될 이미지의 타입, 이미지의 해상도 또는 이미지의 프레임 레이트(Frame rate) 중 적어도 하나를 포함할 수 있다.The output format of the client device may include at least one of the type of image to be provided through the client device, the resolution of the image, or the frame rate of the image.

또한, 프로세서(130)는 클라이언트 기기로부터 합성 이미지 중 관심 영역에 대한 요청이 수신되면 합성 이미지에서 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 크랍핑된 이미지를 포함하는 정보를 클라이언트 기기로 전송할 수 있다.In addition, when a request for a region of interest among the synthesized images is received from the client device, the processor 130 crops an image corresponding to the region of interest from the synthesized image and transmits information including the cropped image to the client device. can

합성 이미지 중 관심 영역이란 합성 이미지에 포함된 일 영역 중 임계 수치 이상의 보안상 중요도를 갖는 영역을 의미할 수 있다. 일 예에 따른 관심 영역은 사용자가 클라이언트 기기를 제어함으로써 선택된 영역이거나 클라이언트 기기에 저장된 알고리즘에 따라 결정된 영역일 수 있다.The region of interest in the synthesized image may refer to a region of a security importance level higher than a critical value among regions included in the synthesized image. The region of interest according to an example may be a region selected by a user by controlling the client device or a region determined according to an algorithm stored in the client device.

또한, 관심 영역은 복수의 보안 카메라 중 적어도 하나의 카메라로부터 획득된 이미지가 포함된 영역 또는 해당 영역 중 관심 오브젝트가 위치하는 일부 영역을 포함할 수 있다. 관심 영역은 사각형 형태를 가질 수 있으나, 이에 한정되는 것은 아니다.Also, the ROI may include an area including an image acquired from at least one camera among a plurality of security cameras or a partial area where an object of interest is located among the corresponding areas. The region of interest may have a rectangular shape, but is not limited thereto.

크랍핑이란 합성 이미지에 포함된 관심 영역에 포함된 이미지를 포함하는 정보를 획득하는 동작을 의미한다. 구체적으로 프로세서(130)는 관심 영역에 포함된 이미지를 포함하는 이미지 정보를 획득하고, 획득된 이미지 정보 및 이미지 정보의 제공과 관련된 UI(User Interface)정보를 클라이언트 기기로 전송하도록 통신 인터페이스(110)를 제어할 수 있다.Cropping refers to an operation of acquiring information including an image included in a region of interest included in a synthesized image. Specifically, the processor 130 obtains image information including an image included in the region of interest, and transmits the acquired image information and user interface (UI) information related to the provision of the image information to the client device through the communication interface 110 can control.

일 예에 따른 프로세서(130)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 출력 포맷을 변환할 수 있다. 구체적으로, 클라이언트 기기는 클라우드 서버(100)로부터 제공받을 합성 이미지의 타입, 이미지의 해상도 또는 이미지의 프레임 레이트 중 적어도 하나와 관련된 요청을 클라우드 서버(100)로 전송할 수 있다.When a request related to a synthesized image is received from a client device, the processor 130 according to an example may convert an output format of the synthesized image based on an output format of the client device receiving the request. Specifically, the client device may transmit a request related to at least one of a type of composite image to be provided from the cloud server 100, a resolution of the image, or a frame rate of the image to the cloud server 100.

예를 들어, 프로세서(130)가 획득한 합성 이미지가 1080p의 해상도와 120fps의 프레임 레이트를 가지는 경우 클라이언트 기기로부터 720p의 해상도와 60fps의 프레임 레이트를 가지는 합성 이미지를 제공받기 위한 요청이 수신되면, 프로세서(130)는 메모리(120)에 저장된 합성 이미지가 720p의 해상도 및 60fps의 프레임 레이트를 갖도록 합성 이미지의 출력 포맷을 변환할 수 있다.For example, when the synthesized image obtained by the processor 130 has a resolution of 1080p and a frame rate of 120 fps, when a request for receiving a synthesized image having a resolution of 720p and a frame rate of 60 fps is received from a client device, the processor 130 may convert the output format of the composite image so that the composite image stored in the memory 120 has a resolution of 720p and a frame rate of 60 fps.

또한, 프로세서(130)는 출력 포맷이 변환된 합성 이미지에 기초하여 합성 이미지와 관련된 정보를 클라이언트 기기로 전송할 수 있다.Also, the processor 130 may transmit information related to the synthesized image to the client device based on the synthesized image whose output format is converted.

프로세서(130)는 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 적어도 일부 이미지를 카메라 식별 정보에 대응되는 위치에 배치하여 합성 이미지를 획득하고, 획득된 합성 이미지를 클라이언트 기기로 전송할 수 있다.The processor 130 may obtain a composite image by arranging at least some images at positions corresponding to the camera identification information based on camera identification information included in the at least some images, and transmit the obtained composite image to the client device.

또한, 프로세서(130)는 클라이언트 기기로부터 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면 위치 정보에 대응되는 카메라 식별 정보를 획득하고, 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하고 획득된 합성 이미지를 클라이언트 기기로 전송할 수 있다.In addition, the processor 130 obtains camera identification information corresponding to the location information when location information corresponding to a partial region of the synthesized image is received from the client device, obtains a synthesized image based on the acquired camera identification information, and The composite image can be sent to the client device.

프로세서(130)는 복수의 보안 카메라로부터 획득된 복수의 이미지 중 일정한 조건을 충족하는 이미지만을 조합하여 합성 이미지를 획득할 수도 있다. 예를 들어, 프로세서(130)는 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 합성 이미지를 획득할 수도 있다.The processor 130 may obtain a synthesized image by combining only images that satisfy certain conditions among a plurality of images acquired from a plurality of security cameras. For example, the processor 130 arranges and synthesizes at least one of an image including a dynamic object among at least some images, an image taken at a predetermined place among at least some images, and an image having a brightness level higher than a threshold among at least some images at a specific location. Images can also be obtained.

또한, 프로세서(130)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 클라이언트 기기의 위치 정보 및 복수의 보안 카메라 각각의 위치 정보에 기초하여 복수의 보안 카메라 중 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별할 수 있다. 구체적으로, 클라우드 서버(100)의 메모리(120)에는 복수의 보안 카메라가 위치한 실내 공간에 대응되는 맵 데이터가 저장되어 있을 수 있다. 프로세서(130)는 맵 데이터에 기초하여 복수의 보안 카메라 및 합성 이미지와 관련된 요청이 수신된 클라이언트 기기의 위치 정보를 식별하고, 식별된 복수의 위치 정보에 기초하여 클라이언트 기기와 임계 거리 내에 위치한 보안 카메라를 식별할 수 있다.In addition, when a request related to a composite image is received from the client device, the processor 130 selects a security camera located within a threshold distance from the client device among a plurality of security cameras based on the location information of the client device and the location information of each of the plurality of security cameras. can be identified. Specifically, map data corresponding to an indoor space where a plurality of security cameras are located may be stored in the memory 120 of the cloud server 100 . The processor 130 identifies the location information of the client device for which the request related to the plurality of security cameras and the composite image has been received based on the map data, and the security camera located within a threshold distance from the client device based on the identified plurality of location information. can identify.

이어서, 프로세서(130)는 합성 이미지에서 클라이언트 기기와 임계 거리 내에 위치한 보안 카메라로부터 획득된 이미지를 포함하는 영역을 제외한 나머지 영역에 포함된 이미지에 관한 정보만을 클라이언트 기기로 전송할 수 있다.Subsequently, the processor 130 may transmit only information about images included in the composite image to the client device except for an area including an image obtained from a security camera located within a threshold distance from the client device.

도 3은 본 개시의 일 실시 예에 따른 합성 이미지 획득 동작을 개략적으로 설명하기 위한 도면이다.3 is a diagram schematically illustrating an operation of obtaining a composite image according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따른 클라우드 서버(100)는 복수의 보안 카메라로부터 획득된 복수의 이미지(301, 302, 303, 304)에 기초하여 단일한 합성 이미지(310)를 획득할 수 있다. 복수의 이미지(301, 302, 303, 304) 각각은 실내 공간에 위치한 복수의 보안 카메라가 촬영한 각기 다른 공간에 대한 이미지일 수 있다.The cloud server 100 according to an embodiment of the present disclosure may obtain a single composite image 310 based on a plurality of images 301 , 302 , 303 , and 304 obtained from a plurality of security cameras. Each of the plurality of images 301, 302, 303, and 304 may be images of different spaces captured by a plurality of security cameras located in the indoor space.

또한, 제1 내지 제4 이미지(301, 302, 303, 304) 각각이 여러 프레임을 포함하는 동적 이미지(Video Stream)일 수 있기 때문에, 제1 내지 제4 이미지(301, 302, 303, 304)에 기초하여 획득된 합성 이미지(310) 역시 동적 이미지일 수 있다.In addition, since each of the first to fourth images 301, 302, 303, and 304 may be a dynamic image (Video Stream) including several frames, the first to fourth images 301, 302, 303, and 304 The synthesized image 310 obtained based on may also be a dynamic image.

일 예에 따른 클라우드 서버(100)는 제1 카메라 내지 제4 카메라로부터 각각 획득된 제1 내지 제4 이미지(301, 302, 303, 304)에 기초하여 단일한 합성 이미지(310)를 획득할 수 있다. The cloud server 100 according to an example may obtain a single synthesized image 310 based on the first to fourth images 301, 302, 303, and 304 obtained from the first to fourth cameras, respectively. there is.

제1 내지 제4 이미지(301, 302, 303, 304)는 각기 상이한 타입의 이미지일 수 있다. 예를 들어, 제1 이미지(301) 및 제3 이미지(303)를 구성하는 각 프레임은 jpg 타입의 이미지이며, 제2 이미지(302) 및 제4 이미지(304)럴 구성하는 각 프레임은 png 타입의 이미지일 수 있다. 클라우드 서버(100)는 제1 이미지(301) 및 제3 이미지(303)를 구성하는 각 프레임을 png 타입의 이미지로 변환하고, 변환된 제1 이미지(301) 및 제3 이미지(303), 제2 이미지(302) 및 제4 이미지(304)에 기초하여 png 타입을 갖는 복수의 프레임을 포함하는 합성 이미지(310)를 획득할 수 있다.The first to fourth images 301, 302, 303, and 304 may be images of different types. For example, each frame constituting the first image 301 and the third image 303 is a jpg type image, and each frame constituting the second image 302 and the fourth image 304 is a png type may be an image of The cloud server 100 converts each frame constituting the first image 301 and the third image 303 into a png type image, and the converted first image 301 and the third image 303, Based on the second image 302 and the fourth image 304, a composite image 310 including a plurality of frames having a png type may be obtained.

클라우드 서버(100)는 기 설정된 레이아웃(Layout)에 기초하여 제1 내지 제4 이미지(301, 302, 303, 304)를 특정 위치에 배치하여 합성 이미지(310)를 획득할 수 있다. 여기서, 기 설정된 레이아웃은 N*M의 형태를 갖는 정형 배치 또는 비정형 배치 중 적어도 하나를 포함할 수 있다.The cloud server 100 may acquire the synthesized image 310 by arranging the first to fourth images 301 , 302 , 303 , and 304 in a specific location based on a preset layout. Here, the preset layout may include at least one of a regular arrangement and an irregular arrangement having an N*M shape.

정형 배치에 대응되는 레이아웃에 따를 때, 제1 내지 제4 이미지(301, 302, 303, 304)가 2*2의 배열로 배치되며 합성 이미지(310)에 포함된 제1 내지 제4 이미지(301, 302, 303, 304) 각각에 대응되는 영역의 크기는 동일할 수 있다. 이를 위해 클라우드 서버(100)는 제1 내지 제4 이미지(301, 302, 303, 304) 각각의 크기를 모두 동일하게 조절하고, 조절된 각 이미지에 기초하여 합성 이미지(310)를 획득할 수 있다.According to the layout corresponding to the standard arrangement, the first to fourth images 301, 302, 303, and 304 are arranged in a 2*2 arrangement, and the first to fourth images 301 included in the composite image 310 , 302, 303, 304) may have the same size. To this end, the cloud server 100 may equally adjust the size of each of the first to fourth images 301, 302, 303, and 304, and obtain a synthesized image 310 based on each of the adjusted images. .

한편, 비정형 배치에 대응되는 레이아웃에 따를 때, 제1 내지 제4 이미지(301, 302, 303, 304) 중 적어도 하나의 이미지에 대응되는 영역은 나머지 이미지에 대응되는 영역보다 클 수 있다. 이 경우 합성 이미지(310) 내에는 서로 다른 크기의 영역에 배치된 제1 내지 제4 이미지(301, 302, 303, 304) 및 여백이 포함되어 있을 수 있다.Meanwhile, according to the layout corresponding to the atypical arrangement, an area corresponding to at least one of the first to fourth images 301, 302, 303, and 304 may be larger than areas corresponding to the other images. In this case, the composite image 310 may include the first to fourth images 301 , 302 , 303 , and 304 disposed in regions of different sizes and blanks.

일 예에 따른 클라우드 서버(100)는 카메라 식별 정보에 기초하여 제1 내지 제4 이미지를 각 이미지에 대한 카메라 식별 정보에 대응되는 위치에 배치하여 합성 이미지(310)를 획득할 수 있다. 구체적으로, 클라우드 서버(100)는 제1 카메라의 카메라 식별 정보에 기초하여 제1 카메라로부터 획득된 이미지(301)를 2*2의 정형 배치를 가지는 합성 이미지(310)의 좌측 상단에 배치할 수 있다.The cloud server 100 according to an example may acquire the synthesized image 310 by arranging the first to fourth images at locations corresponding to the camera identification information for each image based on the camera identification information. Specifically, the cloud server 100 may place the image 301 obtained from the first camera on the upper left side of the composite image 310 having a regular arrangement of 2*2 based on the camera identification information of the first camera. there is.

마찬가지로, 클라우드 서버(100)는 제2 카메라 내지 제4 카메라의 카메라 식별 정보에 기초하여 제2 카메라로부터 획득된 이미지(302)를 합성 이미지(310)의 우측 상단에, 제3 카메라로부터 획득된 이미지(303)를 합성 이미지(310)의 좌측 하단에, 제4 카메라로부터 획득된 이미지(304)를 합성 이미지(310)의 우측 하단에 각각 배치하여 합성 이미지(310)를 획득할 수 있다.Similarly, the cloud server 100 places the image 302 obtained from the second camera on the upper right of the composite image 310 based on the camera identification information of the second to fourth cameras, and the image obtained from the third camera. The synthesized image 310 may be obtained by arranging 303 at the bottom left of the synthesized image 310 and the image 304 obtained from the fourth camera at the lower right of the synthesized image 310 .

이 경우, 클라우드 서버(100)는 획득된 합성 이미지(310)에 포함된 각 이미지(301, 302, 303, 304)에 대응되는 위치 정보를 획득할 수 있다. 만일 합성 이미지(310)를 구성하는 이미지가 일부 또는 전부 변경되는 경우, 클라우드 서버(100)는 합성 이미지(310)의 일 영역에 대응되는 카메라 식별 정보 및 위치 정보를 새롭게 매핑(mapping)하여 메모리(120)에 저장할 수 있다. 구체적으로, 합성 이미지(310)의 좌측 상단에 배치되는 이미지가 제5 보안 카메라로부터 획득된 이미지로 대체되는 경우, 클라우드 서버(100)는 합성 이미지(310)의 좌측 상단 영역에 대응되는 위치 정보와 제5 보안 카메라에 대한 카메라 식별 정보를 매핑하여 메모리(120)에 저장할 수 있다.In this case, the cloud server 100 may obtain location information corresponding to each image 301 , 302 , 303 , and 304 included in the obtained composite image 310 . If some or all of the images constituting the synthesized image 310 are changed, the cloud server 100 newly maps camera identification information and location information corresponding to one region of the synthesized image 310 to memory ( 120) can be stored. Specifically, when the image disposed in the upper left corner of the composite image 310 is replaced with an image obtained from the fifth security camera, the cloud server 100 provides location information corresponding to the upper left region of the composite image 310 and Camera identification information for the fifth security camera may be mapped and stored in the memory 120 .

도 4는 본 개시의 일 실시 예에 따른 동기화 정보에 기초하여 합성 이미지를 획득하는 동작을 설명하기 위한 도면이다.4 is a diagram for explaining an operation of obtaining a composite image based on synchronization information according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따른 클라우드 서버(100)는 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별할 수 있다.The cloud server 100 according to an embodiment of the present disclosure may identify at least some images captured at the same time among a plurality of images based on synchronization information included in each of the plurality of images.

동기화 정보는 복수의 이미지에 포함된 복수의 프레임이 획득된 시간에 대한 정보를 포함할 수 있으나, 이에 한정되는 것은 아니다.Synchronization information may include information about times at which a plurality of frames included in a plurality of images are acquired, but is not limited thereto.

예를 들어, 제1 카메라로부터 획득된 이미지는 복수의 프레임(411, 412, 413, 414)이 포함할 수 있다. 마찬가지로 제2 카메라 내지 제4 카메라로부터 획득된 이미지 각각도 복수의 프레임(421 내지 424, 431 내지 434, 441 내지 444)을 포함할 수 있다.For example, an image obtained from the first camera may include a plurality of frames 411, 412, 413, and 414. Likewise, each of the images obtained from the second to fourth cameras may include a plurality of frames 421 to 424 , 431 to 434 , and 441 to 444 .

클라우드 서버(100)는 동일한 시간에 촬영된 프레임(411, 421, 431, 441)에 기초하여 합성 이미지의 제1 프레임(451)을 획득할 수 있다.The cloud server 100 may obtain the first frame 451 of the composite image based on the frames 411 , 421 , 431 , and 441 captured at the same time.

제1 카메라 및 제3 카메라로부터 획득된 이미지의 프레임 레이트는 60fps이며, 제2 카메라 및 제4 카메라로부터 획득된 이미지의 프레임 레이트는 120fps인 경우 합성 이미지의 제2 프레임(452)은 동일한 시간에 제1 카메라 내지 제4 카메라로부터 획득된 프레임(412, 423, 432, 443)을 포함할 수 있다. 이 경우 합성 이미지의 프레임 레이트는 복수의 이미지 중 낮은 프레임 레이트를 갖는 이미지의 프레임 레이트와 동일한 60fps일 수 있다.When the frame rate of the images acquired from the first camera and the third camera is 60 fps, and the frame rate of the images acquired from the second camera and the fourth camera is 120 fps, the second frame 452 of the composite image is taken at the same time It may include frames 412, 423, 432, and 443 obtained from the first camera to the fourth camera. In this case, the frame rate of the composite image may be 60 fps, which is the same as the frame rate of an image having a lower frame rate among the plurality of images.

도 5a 및 도 5b는 본 개시의 일 실시 예에 따른 이미지의 출력 포맷 변환에 따른 합성 이미지 획득 동작을 설명하기 위한 도면이다.5A and 5B are diagrams for explaining an operation of obtaining a composite image according to conversion of an output format of an image according to an embodiment of the present disclosure.

도 5a에 따르면, 클라이언트 기기와 클라우드 서버(100) 간의 통신이 원활하지 않은 경우 등과 같이 사용자가 합성 이미지의 출력 해상도를 감소시키고자 하는 경우가 있을 수 있다. 이 경우 클라이언트 기기는 합성 이미지의 해상도를 360p로 설정하기 위한 요청을 클라우드 서버(100)로 전송할 수 있다. 클라우드 서버(100)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 출력 해상도를 변경할 수 있다. Referring to FIG. 5A , there may be cases where a user wants to reduce the output resolution of a synthesized image, such as when communication between a client device and the cloud server 100 is not smooth. In this case, the client device may transmit a request for setting the resolution of the synthesized image to 360p to the cloud server 100 . When a request related to a synthesized image is received from a client device, the cloud server 100 may change the output resolution of the synthesized image based on the output format of the client device receiving the request.

구체적으로, 기존에 제1 카메라 내지 제4 카메라로부터 획득된 복수의 이미지(511, 512, 513, 514)에 기초하여 획득한 합성 이미지를 저장하고 있던 클라우드 서버(100)는 합성 이미지와 관련된 요청이 수신되면 합성 이미지에 포함된 복수의 영역에 포함된 이미지의 해상도를 360p로 조정하고, 해상도가 조정된 합성 이미지(520)와 관련된 정보를 클라이언트 기기로 전송할 수 있다.Specifically, the cloud server 100, which has previously stored synthesized images obtained based on the plurality of images 511, 512, 513, and 514 acquired from the first to fourth cameras, receives a request related to the synthesized image. If received, the resolution of the image included in the plurality of areas included in the composite image can be adjusted to 360p, and information related to the composite image 520 with the adjusted resolution can be transmitted to the client device.

도 5b에 따르면, 보다 높은 프레임 레이트를 갖는 합성 이미지를 제공받기를 원하는 사용자의 클라이언트 기기는 복수의 보안 카메라로부터 획득된 복수의 이미지 중 적어도 일부의 프레임 레이트를 변경하기 위한 요청을 클라우드 서버(100)로 전송할 수 있다.According to FIG. 5B, a user's client device desiring to receive a composite image having a higher frame rate transmits a request for changing the frame rate of at least some of a plurality of images acquired from a plurality of security cameras to the cloud server 100. can be sent to

예를 들어, 사용자가 120fps의 해상도를 갖는 합성 이미지를 제공받고자 하는 경우 클라이언트 기기는 합성 이미지의 프레임 레이트를 120fps로 설정하기 위한 요청을 클라우드 서버(100)로 전송할 수 있다. 클라우드 서버(100)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 프레임 레이트를 변경할 수 있다.For example, when a user wants to receive a composite image having a resolution of 120 fps, the client device may transmit a request for setting the frame rate of the composite image to 120 fps to the cloud server 100 . When a request related to the composite image is received from the client device, the cloud server 100 may change the frame rate of the composite image based on the output format of the client device receiving the request.

구체적으로, 제1 카메라 및 제3 카메라로부터 획득된 이미지는 60fps의 프레임 레이트를 가지고, 제2 카메라 및 제4 카메라로부터 획득된 이미지는 120fps의 프레임 레이트를 가지므로 클라우드 서버(100)는 제1 카메라 및 제3 카메라로부터 획득된 이미지와 관련하여 보간 프레임을 삽입할 수 있다.Specifically, since the images obtained from the first camera and the third camera have a frame rate of 60 fps, and the images acquired from the second and fourth cameras have a frame rate of 120 fps, the cloud server 100 has a frame rate of 120 fps. And an interpolation frame may be inserted in relation to the image obtained from the third camera.

일 예에 따른 클라우드 서버(100)는 제1 카메라 내지 제4 카메라로부터 특정 시점에 촬영된 복수의 이미지 프레임(531, 532, 533, 534)에 기초하여 합성 이미지에 포함된 제1 프레임(541)을 획득할 수 있다.The cloud server 100 according to an example includes a first frame 541 included in a composite image based on a plurality of image frames 531, 532, 533, and 534 captured at a specific point in time from the first to fourth cameras. can be obtained.

또한, 클라우드 서버(100)는 제1 카메라로부터 특정 시점에 획득된 프레임(531)과 동일한 보간 프레임(531-1) 및 제3 카메라로부터 특정 시점에 획득된 프레임(533)과 동일한 보간 프레임(533-1)을 획득할 수 있다.In addition, the cloud server 100 provides an interpolation frame 531-1 identical to the frame 531 obtained at a specific point in time from the first camera and an interpolation frame 533 identical to the frame 533 obtained at a specific point in time from the third camera. -1) can be obtained.

또한, 클라우드 서버(100)는 특정 시점 이후의 시점에 제2 카메라 및 제4 카메라로부터 획득된 프레임(532-1, 534-1) 및 획득된 보간 프레임(531-1, 533-1)에 기초하여 합성 이미지에 포함된 제2 프레임(542)을 획득할 수 있다. 여기서, 제4 카메라에 의해 상이한 시점에서 획득된 두 프레임(534, 534-1)은 제4 카메라가 촬영하는 공간에 동적 객체가 존재하지 않는 경우 동일할 수 있다.In addition, the cloud server 100 based on the frames 532-1 and 534-1 obtained from the second camera and the fourth camera and interpolated frames 531-1 and 533-1 obtained at a point in time after a specific point in time. By doing so, the second frame 542 included in the composite image can be obtained. Here, the two frames 534 and 534-1 acquired by the fourth camera at different viewpoints may be the same when a dynamic object does not exist in a space photographed by the fourth camera.

따라서 제1 프레임(541) 및 제2 프레임(542)를 포함하는 합성 이미지는 120fps의 프레임 레이트를 가질 수 있으며, 이는 보간 프레임의 삽입 없이 합성 이미지를 획득하는 동작과 관련된 도 4에서 설명한 것과 달리 복수의 이미지 중 높은 프레임 레이트를 가지는 이미지의 프레임 레이트와 합성 이미지의 프레임 레이트를 동일하게 설정할 수 있다.Therefore, the composite image including the first frame 541 and the second frame 542 may have a frame rate of 120 fps, which is different from the description in FIG. 4 related to the operation of obtaining a composite image without inserting interpolation frames. The frame rate of an image having a high frame rate among images of , and the frame rate of a composite image may be set to be the same.

이미지의 해상도를 360p로 설정하기 요청을 클라우드 서버(100)로 전송할 수 있다. 클라우드 서버(100)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 출력 포맷을 변환할 수 있다. A request to set the resolution of an image to 360p may be transmitted to the cloud server 100 . When a request related to a composite image is received from a client device, the cloud server 100 may convert an output format of the composite image based on an output format of the client device receiving the request.

구체적으로, 기존에 제1 카메라 내지 제4 카메라로부터 획득된 복수의 이미지(511, 512, 513, 514)에 기초하여 획득한 합성 이미지를 저장하고 있던 클라우드 서버(100)는 합성 이미지와 관련된 요청이 수신되면 합성 이미지에 포함된 복수의 영역에 포함된 이미지의 해상도를 360p로 조정하고, 해상도가 조정된 합성 이미지(520)와 관련된 정보를 클라이언트 기기로 전송할 수 있다.Specifically, the cloud server 100, which has previously stored synthesized images obtained based on the plurality of images 511, 512, 513, and 514 acquired from the first to fourth cameras, receives a request related to the synthesized image. If received, the resolution of the image included in the plurality of areas included in the composite image can be adjusted to 360p, and information related to the composite image 520 with the adjusted resolution can be transmitted to the client device.

한편, 도 5a 및 도 5b에서 설명한 것과는 다른 실시 예에 따른 클라우드 서버(100)가 복수의 레벨에 대응되는 상이한 해상도 및 복수의 레벨에 대응되는 상이한 프레임 레이트를 갖는 복수의 합성 이미지를 획득하여 메모리(120)에 저장하고, 클라이언트 기기로부터 수신된 요청에 대응되는 해상도 및 프레임 레이트를 가지는 합성 이미지를 클라이언트 기기로 전송할 수도 있다. Meanwhile, the cloud server 100 according to an embodiment different from that described in FIGS. 5A and 5B obtains a plurality of composite images having different resolutions corresponding to a plurality of levels and different frame rates corresponding to a plurality of levels, and stores the memory ( 120), and a composite image having a resolution and frame rate corresponding to the request received from the client device may be transmitted to the client device.

도 6은 본 개시의 일 실시 예에 따른 합성 이미지의 일부를 클라이언트 기기에 제공하는 동작을 설명하기 위한 도면이다.6 is a diagram for explaining an operation of providing a part of a composite image to a client device according to an embodiment of the present disclosure.

도 6에 따르면, 클라우드 서버(100)는 클라이언트 기기(200)로부터 합성 이미지 중 관심 영역에 대한 정보 요청(610)을 수신할 수 있다. 여기서, 관심 영역에 대한 정보는 관심 영역에 포함된 이미지에 관련된 정보를 의미할 수 있다. 일 예에 따른 관심 영역은 2*2의 정형 배치 레이아웃을 가지는 합성 이미지 중에서 적어도 하나의 카메라로부터 획득된 이미지가 포함된 영역 또는 해당 영역 중 관심 오브젝트가 위치하는 일부 영역을 의미할 수 있다.According to FIG. 6 , the cloud server 100 may receive a request 610 for information on a region of interest in a synthesized image from the client device 200 . Here, the information on the region of interest may mean information related to an image included in the region of interest. The region of interest according to an example may mean a region including an image obtained from at least one camera among synthesized images having a 2*2 standard arrangement layout, or a partial region where an object of interest is located among the corresponding regions.

관심 영역이 사각형의 형태를 가지는 것을 전제하는 경우 관심 영역은 사각형의 좌측 상단의 꼭지점의 좌표, 사각형의 가로 사이즈 및 세로 사이즈에 관한 정보로써 표현될 수 있다. 예를 들어 합성 이미지의 가로 사이즈가 640 픽셀, 세로 사이즈가 480 픽셀인 경우, 일 예에 따른 관심 영역은 (0, 0, 320, 240), (320, 0, 320, 240), (0, 240, 320, 240) 또는 (320, 240, 320, 240)로 표현될 수 있다. 다만, 상술한 관심 영역의 표현 방식은 본 개시의 일 실시 예에 불과하며, 클라우드 서버(100)가 상술한 방식과 상이한 방식으로 관심 영역을 식별할 수 있음은 물론이다.If it is assumed that the region of interest has a rectangular shape, the region of interest may be expressed as information about the coordinates of the upper left corner of the rectangle and the horizontal and vertical sizes of the rectangle. For example, when the horizontal size of the composite image is 640 pixels and the vertical size is 480 pixels, the region of interest according to an example is (0, 0, 320, 240), (320, 0, 320, 240), (0, 240, 320, 240) or (320, 240, 320, 240). However, the above-described method of representing the region of interest is merely an embodiment of the present disclosure, and it goes without saying that the cloud server 100 may identify the region of interest in a method different from the above-described method.

일 예에 따르면, 클라이언트 기기(200)는 특정 관심 영역을 식별하고, 식별된 관심 영역에 대한 정보 요청(610)을 클라우드 서버(100)로 전송할 수 있다. 이 경우 클라우드 서버(100)는 요청(610)에 기초하여 클라이언트 기기(200)기 식별한 관심 영역에 대한 정보(620)를 클라이언트 기기(200)로 전송할 수 있다.According to an example, the client device 200 may identify a specific region of interest and transmit a request 610 for information on the identified region of interest to the cloud server 100 . In this case, the cloud server 100 may transmit information 620 on the region of interest identified by the client device 200 to the client device 200 based on the request 610 .

또한, 클라이언트 기기(200)는 식별한 관심 영역에 대응되는 카메라 식별 정보 또는 카메라 식별 정보에 대응되는 합성 이미지와 관련한 위치 정보 중 적어도 하나를 포함하는 요청(610)을 클라우드 서버(100)로 전송할 수 있다. 이 경우 클라우드 서버(100)는 요청(610)에 포함된 카메라 식별 정보 또는 합성 이미지와 관련한 위치 정보 중 적어도 하나에 기초하여 합성 이미지에 포함된 관심 영역을 식별하고, 식별한 관심 영역에 대한 정보(620)를 클라이언트 기기(200)로 전송할 수 있다.In addition, the client device 200 may transmit a request 610 including at least one of camera identification information corresponding to the identified region of interest or location information related to a synthesized image corresponding to the camera identification information to the cloud server 100. there is. In this case, the cloud server 100 identifies a region of interest included in the synthesized image based on at least one of camera identification information included in the request 610 and location information related to the synthesized image, and information on the identified region of interest ( 620) to the client device 200.

본 개시의 일 실시 예에 따라 클라이언트 기기(200)로부터 합성 이미지 중 일부 영역에 대응되는 위치 정보(610)가 수신되는 경우, 클라우드 서버(100)는 수신된 위치 정보(610)에 대응되는 카메라 식별 정보를 획득할 수 있다. 예를 들어, 클라우드 서버(100)는 클라이언트 기기(200)로부터 합성 이미지의 좌측 상단 영역에 대응되는 위치 정보(610)가 수신되면 해당 영역의 위치 정보에 대응되는 카메라 식별 정보를 획득할 수 있다. 클라우드 서버(100)는 획득된 카메라 식별 정보에 대응되는 보안 카메라로부터 획득된 이미지를 크랍핑하여 크랍핑된 이미지를 포함하는 정보(620)를 클라이언트 기기(200)로 전송할 수 있다.According to an embodiment of the present disclosure, when location information 610 corresponding to a partial region of a synthesized image is received from the client device 200, the cloud server 100 identifies a camera corresponding to the received location information 610. information can be obtained. For example, when location information 610 corresponding to the upper left area of the synthesized image is received from the client device 200, the cloud server 100 may obtain camera identification information corresponding to the location information of the corresponding area. The cloud server 100 may crop an image obtained from a security camera corresponding to the obtained camera identification information and transmit information 620 including the cropped image to the client device 200 .

따라서, 합성 이미지를 구성하는 이미지가 일부 또는 전부 변경되는 경우에도 클라우드 서버(100)는 클라이언트 기기(200)로부터 수신된 위치 정보(610)에 기초하여 합성 이미지의 일 영역에 대응되는 카메라 식별 정보에 기초하여 사용자가 제공받기를 원하는 이미지를 클라이언트 기기(200)로 전송할 수 있다.Therefore, even when some or all of the images constituting the composite image are changed, the cloud server 100 provides camera identification information corresponding to a region of the composite image based on the location information 610 received from the client device 200. Based on this, an image that the user wants to be provided may be transmitted to the client device 200 .

다른 예에 따르면, 클라이언트 기기(200)는 클라우드 서버(100)에 관심 영역의 식별 및 관심 영역에 대한 정보의 전송을 요청할 수도 있다. 이 경우 클라우드 서버(100)는 수신된 요청(610)에 기초하여 합성 이미지에 포함된 관심 영역을 식별하고, 관심 영역에 포함된 이미지에 관련된 정보(620)를 클라이언트 기기(200)로 전송할 수도 있다.According to another example, the client device 200 may request the cloud server 100 to identify an area of interest and transmit information on the area of interest. In this case, the cloud server 100 may identify a region of interest included in the synthesized image based on the received request 610 and transmit information 620 related to the image included in the region of interest to the client device 200 . .

클라이언트 기기(200)는 클라우드 서버(100)로부터 수신한 관심 영역에 대한 정보(620)에 기초하여 관심 영역에 포함된 이미지를 디스플레이하는 UI(630)를 사용자에게 제공할 수 있다.The client device 200 may provide the user with a UI 630 displaying an image included in the region of interest based on the information 620 about the region of interest received from the cloud server 100 .

도 7은 본 개시의 다른 실시 예에 따른 합성 이미지의 획득 동작을 설명하기 위한 도면이다.7 is a diagram for explaining an operation of obtaining a composite image according to another embodiment of the present disclosure.

도 7에 따르면, 클라우드 서버(100)는 합성 이미지(700)에 포함된 복수의 이미지(701, 702, 703, 704, 705, 706, 707, 708, 709)중 적어도 하나의 이미지를 식별할 수 있다. 또한, 클라우드 서버(100)는 식별된 이미지를 특정 위치에 배치하여 새로운 합성 이미지(710)를 획득할 수 있다.According to FIG. 7 , the cloud server 100 may identify at least one image among a plurality of images 701 , 702 , 703 , 704 , 705 , 706 , 707 , 708 , and 709 included in a composite image 700 . there is. In addition, the cloud server 100 may obtain a new composite image 710 by disposing the identified image in a specific location.

구체적으로, 클라우드 서버(100)는 합성 이미지(700)에 포함된 복수의 이미지(701, 702, 703, 704, 705, 706, 707, 708, 709)중 동적 객체를 포함하는 이미지, 기 설정된 장소에서 촬영된 이미지 또는 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 새로운 합성 이미지(710)를 획득할 수 있다.Specifically, the cloud server 100 includes a plurality of images 701 , 702 , 703 , 704 , 705 , 706 , 707 , 708 , and 709 included in the composite image 700 , an image including a dynamic object, and a preset location. A new synthesized image 710 may be obtained by arranging at least one of an image taken at or an image having a threshold brightness or higher at a specific location.

예를 들어, 클라우드 서버(100)는 3*3의 정형 배치를 가지는 합성 이미지(700)에 포함된 영역 중에서 임계 밝기 미만의 이미지(704, 709)를 제외한 나머지 이미지에 기초하여 새로운 합성 이미지(710)를 획득할 수 있다. 임계 밝기 미만의 이미지(704, 709)는 사용자가 관심을 갖지 않는 공간을 촬영한 이미지일 수 있기 때문이다.For example, the cloud server 100 creates a new synthesized image 710 based on the remaining images except for the images 704 and 709 with less than a threshold brightness among areas included in the synthesized image 700 having a regular arrangement of 3*3. ) can be obtained. This is because the images 704 and 709 below the threshold brightness may be images of spaces in which the user is not interested.

다만, 사용자는 임계 밝기 미만의 이미지에 대응되는 장소라고 하더라도 해당 장소에 우선순위를 부여할 수 있으며, 클라이언트 기기는 장소에 대한 우선순위 정보를 포함하는 합성 이미지와 관련된 요청을 클라우드 서버(100)로 전송할 수 있다. 이 경우 클라우드 서버(100)는 우선순위가 부여된 장소에 대응되는 이미지가 포함된 새로운 합성 이미지(710)를 획득할 수 있다.However, the user may give a priority to the corresponding place even if it is a place corresponding to an image with less than the threshold brightness, and the client device sends a request related to a synthesized image including priority information about the place to the cloud server 100. can transmit In this case, the cloud server 100 may acquire a new composite image 710 including images corresponding to places to which priorities are assigned.

또한, 클라우드 서버(100)는 임계 밝기 미만의 이미지를 제외한 나머지 이미지 중에서 동적 객체를 포함하는 이미지(702, 706, 707, 708)를 특정 위치에 배치하여 새로운 합성 이미지(710)를 획득할 수 있다. 동적 객체를 포함하는 이미지(702, 706, 707, 708)는 사용자가 관심을 갖는 공간을 촬영한 이미지일 수 있기 때문이다.In addition, the cloud server 100 may acquire a new composite image 710 by arranging images 702 , 706 , 707 , and 708 including dynamic objects among the remaining images except for images having a brightness below a threshold in a specific location. . This is because the images 702 , 706 , 707 , and 708 including dynamic objects may be images of spaces of interest to the user.

이를 통해 클라우드 서버(100)는 사용자가 관심을 갖는 공간을 촬영한 적어도 하나의 이미지를 포함하는 새로운 합성 이미지(710)를 획득하여 획득된 새로운 합성 이미지(710)와 관련된 정보를 클라이언트 기기로 제공할 수 있다.Through this, the cloud server 100 acquires a new composite image 710 including at least one image of a space of interest to the user and provides information related to the new composite image 710 to the client device. can

도 8은 본 개시의 일 실시 예에 따른 클라이언트 기기의 및 복수의 보안 카메라의 위치 정보에 기초하여 합성 이미지를 획득하는 동작을 설명하기 위한 도면이다. 도 8에서는 복수의 보안 카메라 및 복수의 보안 카메라로부터 획득된 이미지에 동일한 식별 부호를 붙였다.8 is a diagram for explaining an operation of obtaining a composite image based on location information of a client device and a plurality of security cameras according to an embodiment of the present disclosure. In FIG. 8 , the same identification code is attached to a plurality of security cameras and images obtained from the plurality of security cameras.

도 8에 따르면, 클라우드 서버(100)는 클라이언트 기기(200)로부터 합성 이미지와 관련된 요청이 수신되면 클라이언트 기기(200)의 위치 정보 및 복수의 보안 카메라 각각(801, 802, 803, 804, 805)의 위치 정보에 기초하여 복수의 보안 카메라(801, 802, 803, 804, 805) 중 클라이언트 기기(200)로부터 임계 거리 내에 위치한 보안 카메라(801, 805)를 식별할 수 있다.According to FIG. 8 , the cloud server 100 receives location information of the client device 200 and a plurality of security cameras 801 , 802 , 803 , 804 , and 805 when a request related to a synthesized image is received from the client device 200 . A security camera 801 or 805 located within a critical distance from the client device 200 among the plurality of security cameras 801 , 802 , 803 , 804 , and 805 may be identified based on the location information of .

클라이언트 기기(200)의 위치(800)와 임계 거리 내에 위치한 보안 카메라(801, 805)는 클라이언트 기기(200)의 위치(800)를 촬영하는 카메라일 가능성이 높으므로, 해당 카메라(801, 805)로부터 획득된 이미지는 사용자가 제공받기를 원하지 않는 이미지일 수 있다. 클라우드 서버(100)는 클라이언트 기기(200)의 위치(800)와 클라이언트 기기(200)로부터 임계 거리 내에 위치한 보안 카메라의 위치(801, 805) 사이의 가시선 정보 및 거리 정보에 기초하여 클라이언트 기기(200)의 위치(800)를 직접 촬영하는 카메라(801)를 식별할 수 있다. 이를 위해 클라우드 서버(100)는 메모리(120)에 저장된 맵 데이터를 활용할 수 있다. Since the security cameras 801 and 805 located within a critical distance from the location 800 of the client device 200 are likely to be cameras that capture the location 800 of the client device 200, the corresponding cameras 801 and 805 The image obtained from may be an image that the user does not want to be provided. The cloud server 100 determines the client device 200 based on line of sight information and distance information between the location 800 of the client device 200 and the locations 801 and 805 of security cameras located within a critical distance from the client device 200 . A camera 801 that directly captures the location 800 of ) may be identified. To this end, the cloud server 100 may utilize map data stored in the memory 120 .

또한, 클라우드 서버(100)는 식별된 보안 카메라(801)를 제외한 나머지 보안 카메라(802, 803, 804, 805)로부터 획득된 이미지에 기초하여 합성 이미지(810)를 획득하고, 획득된 합성 이미지(810)에 관련된 정보를 클라이언트 기기(200)로 전송할 수 있다.In addition, the cloud server 100 obtains a composite image 810 based on images obtained from the security cameras 802, 803, 804, and 805 except for the identified security camera 801, and the obtained composite image ( Information related to 810 may be transmitted to the client device 200 .

이를 통해 클라우드 서버(100)는 사용자의 위치(800)를 제외한 다른 공간을 촬영하는 보안 카메라(802, 803, 804, 805)로부터 획득된 이미지를 포함하는 합성 이미지(810)를 제공받을 수 있게 된다.Through this, the cloud server 100 can be provided with a synthesized image 810 including images obtained from security cameras 802, 803, 804, and 805 that capture a space other than the user's location 800. .

도 9는 본 개시의 일 실시 예에 따른 제어 방법을 설명하기 위한 흐름도이다.9 is a flowchart for explaining a control method according to an embodiment of the present disclosure.

본 개시의 일 실시 예에 따른 클라우드 서버의 제어 방법에 따르면, 복수의 보안 카메라로부터 복수의 이미지가 수신되면 수신된 복수의 이미지를 저장한다(S910).According to the control method of the cloud server according to an embodiment of the present disclosure, when a plurality of images are received from a plurality of security cameras, the received plurality of images are stored (S910).

이어서, 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장한다(S920).Then, based on the synchronization information included in each of the plurality of images, a composite image including at least some of the plurality of images is acquired and stored (S920).

마지막으로, 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 합성 이미지와 관련된 정보를 클라이언트 기기로 전송한다(S930).Finally, when a request related to the composite image is received from the client device, information related to the composite image is transmitted to the client device (S930).

여기서, 합성 이미지를 획득하여 저장하는 단계(S920)는 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하는 단계 및 클라이언트 기기의 출력 포맷에 기초하여 적어도 일부 이미지의 출력 포맷을 변환하고, 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득하는 단계를 포함할 수 있다.Here, the step of acquiring and storing the composite image (S920) includes identifying at least some images captured at the same time among a plurality of images based on synchronization information included in each of the plurality of received images, and output format of the client device. It may include converting output formats of at least some images based on and obtaining a composite image including at least some images whose output formats are converted.

또한, 합성 이미지와 관련된 정보를 클라이언트 기기로 전송하는 단계(S930)에서는 클라이언트 기기로부터 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면 합성 이미지에서 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 크랍핑된 이미지를 포함하는 정보를 클라이언트 기기로 전송할 수 있다.In addition, in the step of transmitting information related to the synthesized image to the client device (S930), when a request for information on the region of interest in the synthesized image is received from the client device, an image corresponding to the region of interest is cropped and enlarged from the synthesized image. Information including the wrapped image may be transmitted to the client device.

또한, 합성 이미지와 관련된 정보를 클라이언트 기기로 전송하는 단계(S930)에서는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 요청이 수신된 클라이언트 기기의 출력 포맷에 기초하여 합성 이미지의 출력 포맷을 변환하고, 출력 포맷이 변환된 합성 이미지에 기초하여 합성 이미지와 관련된 정보를 클라이언트 기기로 전송할 수 있다.In addition, in the step of transmitting information related to the synthesized image to the client device (S930), when a request related to the synthesized image is received from the client device, the output format of the synthesized image is converted based on the output format of the client device receiving the request, Based on the synthesized image whose output format is converted, information related to the synthesized image may be transmitted to the client device.

또한, 합성 이미지를 획득하여 저장하는 단계(S920)는 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 적어도 일부 이미지를 카메라 식별 정보에 대응되는 위치에 배치하여 합성 이미지를 획득하는 단계, 클라이언트 기기로부터 합성 이미지 중 일부 영역에 대한 위치 정보가 수신되면 위치 정보에 대응되는 카메라 식별 정보를 획득하는 단계 및 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하는 단계를 포함할 수 있다.In addition, acquiring and storing the synthesized image (S920) includes acquiring a synthesized image by arranging at least some images at locations corresponding to the camera identification information based on camera identification information included in the at least some images, and obtaining a synthesized image from a client device. The method may include acquiring camera identification information corresponding to the location information when location information on some regions of the synthesized image is received, and obtaining a composite image based on the acquired camera identification information.

또한, 합성 이미지를 획득하여 저장하는 단계(S920)에서는 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 합성 이미지를 획득할 수 있다.In addition, in the step of obtaining and storing the synthesized image (S920), at least one of an image including a dynamic object among at least some images, an image taken at a predetermined place among at least some images, and an image having a brightness level higher than or equal to a threshold brightness among at least some images is specified. A composite image can be obtained by placing it in a location.

또한, 합성 이미지와 관련된 정보를 클라이언트 기기로 전송하는 단계(S930)는 클라이언트 기기로부터 합성 이미지와 관련된 요청이 수신되면 클라이언트 기기의 위치 정보 및 복수의 보안 카메라 각각의 위치 정보에 기초하여 복수의 보안 카메라 중 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하는 단계 및 합성 이미지에서 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 클라이언트 기기로 전송하는 단계를 포함할 수 있다.In addition, in the step of transmitting information related to the synthesized image to the client device (S930), when a request related to the synthesized image is received from the client device, a plurality of security cameras are provided based on the location information of the client device and the location information of each of the plurality of security cameras. The method may include identifying a security camera located within a critical distance from the client device and transmitting information including images of areas other than an image area acquired from the camera identified in the composite image to the client device.

도 10은 본 개시의 일 실시 예에 따른 클라우드 서버와 클라이언트 기기가 연동하여 합성 이미지를 제공하는 실시 예를 설명하기 위한 시퀀스도이다.10 is a sequence diagram for explaining an embodiment in which a cloud server and a client device work together to provide a composite image according to an embodiment of the present disclosure.

도 10에 따르면 본 개시의 일 실시 예에 따른 시스템은 클라우드 서버(100) 및 클라이언트 기기(200)를 포함할 수 있다.According to FIG. 10 , a system according to an embodiment of the present disclosure may include a cloud server 100 and a client device 200 .

클라우드 서버(100)는 복수의 보안 카메라로부터 복수의 이미지가 수신되면 수신된 복수의 이미지를 저장할 수 있다(S1010). 이어서, 클라우드 서버(100)는 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장할 수 있다(S1020).When a plurality of images are received from a plurality of security cameras, the cloud server 100 may store the received plurality of images (S1010). Subsequently, the cloud server 100 may obtain and store a synthesized image including at least some of the plurality of images based on synchronization information included in each of the plurality of received images (S1020).

또한, 클라우드 서버(100)는 클라이언트 기기(200)로부터 합성 이미지와 관련된 요청이 수신되면(S1030) 합성 이미지와 관련된 정보를 클라이언트 기기(200)로 전송할 수 있다(S1040).In addition, when a request related to a composite image is received from the client device 200 (S1030), the cloud server 100 may transmit information related to the composite image to the client device 200 (S1040).

일 예에 따른 클라이언트 기기(200)는 클라우드 서버(100)로부터 수신된 정보에 포함된 합성 이미지를 디스플레이할 수 있다. 또한, 클라이언트 기기(200)는 합성 이미지에 포함된 관심 영역에 대한 선택 명경에 기초하여 관심 영역에 대한 정보를 클라우드 서버(100)로 전송할 수 있다(S1060). 여기서, 관심 영역에 대한 선택 명령이란 합성 이미지에 포함된 영역 중 적어도 하나의 영역에 대응되는 이미지의 제공을 요청하기 위한 명령을 의미할 수 있다. 또한, 관심 영역에 대한 정보는 합성 이미지의 출력 포맷에 관한 정보, 관심 영역에 대응되는 보안 카메라의 카메라 식별 정보 또는 관심 영역에 대응되는 위치 정보 중 적어도 하나를 포함할 수 있다.The client device 200 according to an example may display a composite image included in information received from the cloud server 100 . In addition, the client device 200 may transmit information on the region of interest to the cloud server 100 based on the selected scene for the region of interest included in the synthesized image (S1060). Here, the command for selecting a region of interest may refer to a command for requesting provision of an image corresponding to at least one region among regions included in the synthesized image. Also, the information on the region of interest may include at least one of information about an output format of a synthesized image, camera identification information of a security camera corresponding to the region of interest, or location information corresponding to the region of interest.

이어서, 클라우스 서버(100)는 관심 영역에 대한 정보에 기초하여 관심 영역을 포함하는 합성 이미지를 처리할 수 있다(S1070). 또한, 클라우드 서버(100)는 처리된 합성 이미지를 클라이언트 기기(200)로 전송할 수 있다(S1080).Next, the cloud server 100 may process the synthesized image including the region of interest based on the information on the region of interest (S1070). In addition, the cloud server 100 may transmit the processed synthesized image to the client device 200 (S1080).

클라우드 서버(100)로부터 처리된 합성 이미지가 수신되면, 클라이언트 기기(200)는 수신된 정보에 포함된 합성 이미지를 디스플레이할 수 있다(S1090).When the processed synthesized image is received from the cloud server 100, the client device 200 may display the synthesized image included in the received information (S1090).

한편, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 클라우드 서버(100)에 설치 가능한 어플리케이션 형태로 구현될 수 있다. Meanwhile, the methods according to various embodiments of the present disclosure described above may be implemented in the form of applications that can be installed in the existing cloud server 100.

또한, 상술한 본 개시의 다양한 실시 예들에 따른 방법들은, 기존 클라우드 서버(100)에 대한 소프트웨어 업그레이드, 또는 하드웨어 업그레이드 만으로도 구현될 수 있다. In addition, the methods according to various embodiments of the present disclosure described above may be implemented only by upgrading software or hardware of the existing cloud server 100 .

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다. 일부 경우에 있어 본 명세서에서 설명되는 실시 예들이 프로세서(130) 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 동작을 수행할 수 있다.Meanwhile, various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof. In some cases, the embodiments described herein may be implemented by the processor 130 itself. According to software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the software modules may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 클라우드 서버 (100)의 프로세싱 동작을 수행하기 위한 컴퓨터 명령어(computer instructions)는 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium) 에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어는 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 클라우드 서버 (100)에서의 처리 동작을 특정 기기가 수행하도록 한다. Meanwhile, computer instructions for performing the processing operation of the cloud server 100 according to various embodiments of the present disclosure described above may be stored in a non-transitory computer-readable medium. there is. When the computer instructions stored in the non-transitory computer readable medium are executed by the processor of the specific device, the processing operation in the cloud server 100 according to various embodiments described above is performed by the specific device.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.A non-transitory computer readable medium is a medium that stores data semi-permanently and is readable by a device, not a medium that stores data for a short moment, such as a register, cache, or memory. Specific examples of the non-transitory computer readable media may include CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해 되어져서는 안될 것이다.Although the preferred embodiments of the present disclosure have been shown and described above, the present disclosure is not limited to the specific embodiments described above, and is common in the technical field belonging to the present disclosure without departing from the gist of the present disclosure claimed in the claims. Of course, various modifications are possible by those with knowledge of, and these modifications should not be individually understood from the technical spirit or prospect of the present disclosure.

100 : 클라우드 서버 110 : 통신 인터페이스
120 : 메모리 130 : 프로세서
200: 클라이언트 기기
100: cloud server 110: communication interface
120: memory 130: processor
200: client device

Claims (17)

복수의 보안 카메라와 통신하는 클라우드 서버에 있어서,
통신 인터페이스;
메모리; 및
상기 통신 인터페이스를 통해 상기 복수의 보안 카메라로부터 복수의 이미지가 수신되면, 상기 수신된 복수의 이미지를 상기 메모리에 저장하고,
상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 상기 메모리에 저장하고,
클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 통신 인터페이스를 통해 상기 클라이언트 기기로 전송하는 프로세서;를 포함하는 클라우드 서버.
A cloud server communicating with a plurality of security cameras,
communication interface;
Memory; and
When a plurality of images are received from the plurality of security cameras through the communication interface, storing the received plurality of images in the memory;
Obtaining a composite image including at least some of the plurality of images based on synchronization information included in each of the received plurality of images and storing the synthesized image in the memory;
and a processor configured to transmit information related to the synthesized image to the client device through the communication interface when a request related to the synthesized image is received from a client device.
제1항에 있어서,
상기 프로세서는,
상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하고,
상기 클라이언트 기기의 출력 포맷에 기초하여 상기 적어도 일부 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득하는, 클라우드 서버.
According to claim 1,
the processor,
Identifying at least some images captured at the same time among the plurality of images based on synchronization information included in each of the received plurality of images;
Converting an output format of the at least some images based on an output format of the client device, and obtaining a composite image including at least some images of which the output format is converted.
제1항에 있어서,
상기 프로세서는,
상기 클라이언트 기기로부터 상기 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면, 상기 합성 이미지에서 상기 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 상기 크랍핑된 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는, 클라우드 서버.
According to claim 1,
the processor,
When a request for information on a region of interest among the synthesized images is received from the client device, an image corresponding to the region of interest is cropped from the synthesized image, and information including the cropped image is transmitted to the client device. transmission, cloud server.
제1항에 있어서,
상기 프로세서는,
상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 요청이 수신된 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 합성 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 합성 이미지에 기초하여 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는, 클라우드 서버.
According to claim 1,
the processor,
When a request related to the synthesized image is received from the client device, the output format of the synthesized image is converted based on the output format of the client device having received the request, and the output format is converted into the synthesized image based on the converted image. A cloud server that transmits information related to a composite image to the client device.
제1항에 있어서,
상기 프로세서는,
상기 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 상기 적어도 일부 이미지를 상기 카메라 식별 정보에 대응되는 위치에 배치하여 상기 합성 이미지를 획득하여 상기 클라이언트 기기로 전송하고,
상기 클라이언트 기기로부터 상기 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면, 상기 위치 정보에 대응되는 카메라 식별 정보를 획득하고, 상기 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하고, 상기 획득된 합성 이미지를 상기 클라이언트 기기로 전송하는, 클라우드 서버.
According to claim 1,
the processor,
Based on camera identification information included in the at least some images, arranging the at least some images at a location corresponding to the camera identification information to obtain the composite image and transmit it to the client device;
When location information corresponding to a partial region of the synthesized image is received from the client device, camera identification information corresponding to the location information is obtained, and a synthesized image is obtained based on the obtained camera identification information. A cloud server that transmits the composite image to the client device.
제1항에 있어서,
상기 프로세서는,
상기 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 상기 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 상기 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 상기 합성 이미지를 획득하는, 클라우드 서버.
According to claim 1,
the processor,
Obtaining the synthesized image by arranging at least one of an image including a dynamic object among the at least some images, an image taken at a predetermined place among the at least some images, or an image having a threshold brightness or higher among the at least some images at a specific location, cloud server.
제1항에 있어서,
상기 프로세서는,
상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 클라이언트 기기의 위치 정보 및 상기 복수의 보안 카메라 각각의 위치 정보에 기초하여 상기 복수의 보안 카메라 중 상기 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하고,
상기 합성 이미지에서 상기 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는, 클라우드 서버.
According to claim 1,
the processor,
When a request related to the synthesized image is received from the client device, a security camera located within a threshold distance from the client device among the plurality of security cameras is selected based on the location information of the client device and the location information of each of the plurality of security cameras. identify,
The cloud server that transmits information including an image of an area other than an image area obtained from the identified camera in the synthesized image to the client device.
클라우드 서버 및 클라이언트 기기를 포함하는 시스템에 있어서,
복수의 보안 카메라로부터 복수의 이미지가 수신되면, 상기 수신된 복수의 이미지를 저장하고, 상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장하고, 상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는 클라우드 서버; 및
상기 클라우드 서버로부터 수신된 정보에 포함된 상기 합성 이미지를 디스플레이하고, 상기 합성 이미지에 포함된 관심 영역에 대한 선택 명령이 수신되면, 상기 수신된 선택 명령에 기초하여 상기 합성 이미지를 디스플레이하는 클라이언트 기기;를 포함하는, 시스템.
In a system including a cloud server and a client device,
When a plurality of images are received from a plurality of security cameras, the received plurality of images are stored, and a composite image including at least some of the plurality of images based on synchronization information included in each of the received plurality of images a cloud server that acquires and stores , and transmits information related to the synthesized image to the client device when a request related to the synthesized image is received from the client device; and
a client device that displays the composite image included in the information received from the cloud server, and displays the composite image based on the received selection command when a selection command for a region of interest included in the composite image is received; Including, system.
제8항에 있어서,
상기 클라이언트 기기는,
상기 수신된 선택 명령에 기초하여 상기 관심 영역에 대한 정보를 상기 클라우드 서버로 전송하고,
상기 클라우드 서버는,
상기 클라이언트 기기로부터 수신된 상기 관심 영역에 대한 정보에 기초하여 상기 관심 영역을 포함하는 합성 이미지를 처리하고, 상기 처리된 합성 이미지를 상기 클라이언트 기기로 전송하며,
상기 클라이언트 기기는,
상기 클라우드 서버로부터 수신된 상기 처리된 합성 이미지를 디스플레이하는, 시스템.
According to claim 8,
The client device,
Transmitting information on the region of interest to the cloud server based on the received selection command;
The cloud server,
processing a composite image including the region of interest based on information about the region of interest received from the client device, and transmitting the processed composite image to the client device;
The client device,
and displaying the processed composite image received from the cloud server.
제8항에 있어서,
상기 클라이언트 기기는,
상기 수신된 선택 명령에 기초하여 상기 합성 이미지를 처리하고, 상기 처리된 합성 이미지를 디스플레이하는, 시스템.
According to claim 8,
The client device,
Process the composite image based on the received selection command, and display the processed composite image.
클라우드 서버의 제어 방법에 있어서,
복수의 보안 카메라로부터 복수의 이미지가 수신되면 상기 수신된 복수의 이미지를 저장하는 단계;
상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 적어도 일부 이미지를 포함하는 합성 이미지를 획득하여 저장하는 단계; 및
클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는 단계;를 포함하는 제어 방법.
In the control method of the cloud server,
Storing the received plurality of images when a plurality of images are received from a plurality of security cameras;
obtaining and storing a synthesized image including at least some of the plurality of images based on synchronization information included in each of the plurality of received images; and
and transmitting information related to the synthesized image to the client device when a request related to the synthesized image is received from a client device.
제11항에 있어서,
상기 합성 이미지를 획득하여 저장하는 단계는,
상기 수신된 복수의 이미지 각각에 포함된 동기화 정보에 기초하여 상기 복수의 이미지 중 동일한 시간에 촬영된 적어도 일부 이미지를 식별하는 단계; 및
상기 클라이언트 기기의 출력 포맷에 기초하여 상기 적어도 일부 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 적어도 일부 이미지를 포함하는 합성 이미지를 획득하는 단계;를 포함하는, 제어 방법.
According to claim 11,
The step of acquiring and storing the composite image,
identifying at least some images captured at the same time among the plurality of images based on synchronization information included in each of the received plurality of images; and
Converting the output format of the at least some images based on the output format of the client device, and obtaining a composite image including the at least some images of which the output format is converted.
제11항에 있어서,
상기 전송하는 단계는,
상기 클라이언트 기기로부터 상기 합성 이미지 중 관심 영역에 대한 정보 요청이 수신되면, 상기 합성 이미지에서 상기 관심 영역에 대응되는 이미지를 크랍핑(cropping)하여 상기 크랍핑된 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는, 제어 방법.
According to claim 11,
The sending step is
When a request for information on a region of interest among the synthesized images is received from the client device, an image corresponding to the region of interest is cropped from the synthesized image, and information including the cropped image is transmitted to the client device. transmission, control method.
제11항에 있어서,
상기 전송하는 단계는,
상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 요청이 수신된 상기 클라이언트 기기의 출력 포맷에 기초하여 상기 합성 이미지의 출력 포맷을 변환하고, 상기 출력 포맷이 변환된 합성 이미지에 기초하여 상기 합성 이미지와 관련된 정보를 상기 클라이언트 기기로 전송하는, 제어 방법.
According to claim 11,
The sending step is
When a request related to the synthesized image is received from the client device, the output format of the synthesized image is converted based on the output format of the client device having received the request, and the output format is converted into the synthesized image based on the converted image. A control method for transmitting information related to a composite image to the client device.
제11항에 있어서,
상기 합성 이미지를 획득하여 저장하는 단계는,
상기 적어도 일부 이미지에 포함된 카메라 식별 정보에 기초하여 상기 적어도 일부 이미지를 상기 카메라 식별 정보에 대응되는 위치에 배치하여 상기 합성 이미지를 획득하는 단계;
상기 클라이언트 기기로부터 상기 합성 이미지 중 일부 영역에 대응되는 위치 정보가 수신되면, 상기 위치 정보에 대응되는 카메라 식별 정보를 획득하는 단계; 및
상기 획득된 카메라 식별 정보에 기초하여 합성 이미지를 획득하는 단계;를 포함하는, 제어 방법.
According to claim 11,
The step of acquiring and storing the composite image,
obtaining the synthesized image by arranging the at least some images at positions corresponding to the camera identification information based on camera identification information included in the at least some images;
acquiring camera identification information corresponding to the location information when location information corresponding to a partial region of the synthesized image is received from the client device; and
Acquiring a synthesized image based on the obtained camera identification information; including, the control method.
제11항에 있어서,
상기 합성 이미지를 획득하여 저장하는 단계는,
상기 적어도 일부 이미지 중 동적 객체를 포함하는 이미지, 상기 적어도 일부 이미지 중 기 설정된 장소에서 촬영된 이미지 또는 상기 적어도 일부 이미지 중 임계 밝기 이상의 이미지 중 적어도 하나를 특정 위치에 배치하여 상기 합성 이미지를 획득하는, 제어 방법.
According to claim 11,
The step of acquiring and storing the composite image,
Obtaining the synthesized image by arranging at least one of an image including a dynamic object among the at least some images, an image taken at a predetermined place among the at least some images, or an image having a threshold brightness or higher among the at least some images at a specific location, control method.
제11항에 있어서,
상기 전송하는 단계는,
상기 클라이언트 기기로부터 상기 합성 이미지와 관련된 요청이 수신되면, 상기 클라이언트 기기의 위치 정보 및 상기 복수의 보안 카메라 각각의 위치 정보에 기초하여 상기 복수의 보안 카메라 중 상기 클라이언트 기기로부터 임계 거리 내에 위치한 보안 카메라를 식별하는 단계; 및
상기 합성 이미지에서 상기 식별된 카메라로부터 획득된 이미지 영역을 제외한 나머지 영역의 이미지를 포함하는 정보를 상기 클라이언트 기기로 전송하는 단계;를 포함하는, 제어 방법.
According to claim 11,
The sending step is
When a request related to the synthesized image is received from the client device, a security camera located within a threshold distance from the client device among the plurality of security cameras is selected based on the location information of the client device and the location information of each of the plurality of security cameras. identifying; and
and transmitting information including an image of an area other than an image area obtained from the identified camera in the synthesized image to the client device.
KR1020210088549A 2021-07-06 2021-07-06 Clowd server, system comprising clowd server and client device and controlling method thereof KR20230007792A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210088549A KR20230007792A (en) 2021-07-06 2021-07-06 Clowd server, system comprising clowd server and client device and controlling method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210088549A KR20230007792A (en) 2021-07-06 2021-07-06 Clowd server, system comprising clowd server and client device and controlling method thereof

Publications (1)

Publication Number Publication Date
KR20230007792A true KR20230007792A (en) 2023-01-13

Family

ID=84900296

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210088549A KR20230007792A (en) 2021-07-06 2021-07-06 Clowd server, system comprising clowd server and client device and controlling method thereof

Country Status (1)

Country Link
KR (1) KR20230007792A (en)

Similar Documents

Publication Publication Date Title
US11496696B2 (en) Digital photographing apparatus including a plurality of optical systems for acquiring images under different conditions and method of operating the same
US9619861B2 (en) Apparatus and method for improving quality of enlarged image
US10334162B2 (en) Video processing apparatus for generating panoramic video and method thereof
US10158795B2 (en) Electronic apparatus for communicating with another apparatus
EP3499410A1 (en) Image processing method and apparatus, and electronic device
US10148875B1 (en) Method and system for interfacing multiple channels of panoramic videos with a high-definition port of a processor
CN111726520B (en) Imaging device, imaging system, and image processing method
US11303871B2 (en) Server and display apparatus, and control methods thereof
US11062422B2 (en) Image processing apparatus, image communication system, image processing method, and recording medium
US20140204083A1 (en) Systems and methods for real-time distortion processing
KR20190019606A (en) An apparatus for composing objects using depth map and a method thereof
WO2023093438A1 (en) Image display method and apparatus, and electronic device and computer-readable storage medium
US11102448B2 (en) Image capturing apparatus, image processing system, image processing method, and recording medium
US11373273B2 (en) Method and device for combining real and virtual images
JP2019149785A (en) Video conversion device and program
CN112492247A (en) Video display design method based on LVDS input
KR20230007792A (en) Clowd server, system comprising clowd server and client device and controlling method thereof
US10645282B2 (en) Electronic apparatus for providing panorama image and control method thereof
US11284094B2 (en) Image capturing device, distribution system, distribution method, and recording medium
US20210352206A1 (en) Digital media frame and method for configuring a field of view of a digital media frame
US20190238744A1 (en) Video image transmission apparatus, information processing apparatus, system, information processing method, and recording medium
US20230140152A1 (en) Image processing apparatus, image capturing apparatus, control method, and storage medium
KR102400790B1 (en) Method for generating virtual reality image, arraratus and system for performing the same
US20230328383A1 (en) Information processing method, non-transitory computer-readable medium, and information processing apparatus
WO2015015584A1 (en) Video transmission system, transmission apparatus, and reception apparatus