KR20220129943A - Apparatus and method for generating a panoramic video image by combining multiple video images - Google Patents

Apparatus and method for generating a panoramic video image by combining multiple video images Download PDF

Info

Publication number
KR20220129943A
KR20220129943A KR1020210034896A KR20210034896A KR20220129943A KR 20220129943 A KR20220129943 A KR 20220129943A KR 1020210034896 A KR1020210034896 A KR 1020210034896A KR 20210034896 A KR20210034896 A KR 20210034896A KR 20220129943 A KR20220129943 A KR 20220129943A
Authority
KR
South Korea
Prior art keywords
video
video images
computing device
processor
video image
Prior art date
Application number
KR1020210034896A
Other languages
Korean (ko)
Other versions
KR102460639B1 (en
Inventor
김성엽
오종현
Original Assignee
(주)지비유 데이터링크스
주식회사 액손소프트코리아
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)지비유 데이터링크스, 주식회사 액손소프트코리아 filed Critical (주)지비유 데이터링크스
Priority to KR1020210034896A priority Critical patent/KR102460639B1/en
Publication of KR20220129943A publication Critical patent/KR20220129943A/en
Priority to KR1020220138218A priority patent/KR102520117B1/en
Priority to KR1020220138219A priority patent/KR102520118B1/en
Priority to KR1020220138216A priority patent/KR102520115B1/en
Priority to KR1020220138217A priority patent/KR102520116B1/en
Application granted granted Critical
Publication of KR102460639B1 publication Critical patent/KR102460639B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/0087Spatio-temporal transformations, e.g. video cubism
    • G06T3/16
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

The present invention relates to a device and a method for generating a panoramic video image by combining a plurality of video images, which can provide a more convenient and efficient working environment. The device of the present invention comprises: a video camera unit including a plurality of video cameras; a memory for receiving and storing the video images; a display unit for displaying a graphical user interface (GUI); and a processor for generating one panoramic video image.

Description

복수의 비디오 이미지를 조합하여 파노라마 비디오 이미지를 생성하기 위한 장치 및 방법{APPARATUS AND METHOD FOR GENERATING A PANORAMIC VIDEO IMAGE BY COMBINING MULTIPLE VIDEO IMAGES}Apparatus and method for generating a panoramic video image by combining a plurality of video images

본 개시는 비디오 감시 시스템에 의해 수신된 비디오 이미지의 처리에 관한 것으로, 보다 구체적으로, 복수의 카메라를 통해 획득되는 복수의 비디오 이미지 또는 그 일부의 후속 분석을 위해 여러 비디오 이미지를 조합하여 파노라마 비디오 이미지를 생성하는 기술에 관한 것이다.The present disclosure relates to the processing of video images received by a video surveillance system, and more particularly, to a panoramic video image by combining multiple video images for subsequent analysis of a plurality of video images or portions thereof acquired through a plurality of cameras. It is about technology to create

일반적으로 영상 감시 시스템은 특정 위치에 하나 이상의 카메라를 설치하고, 다른 장소에서 특정 위치에 설치된 카메라를 통해 획득한 영상을 표시하여 특정 위치를 감시하는 시스템을 말한다. 이러한 영상 감시 시스템은 영상 정보의 특징을 기반으로 영상 데이터를 저장하여 사건이 발생할 경우 빠르게 상황을 검색하고 효율적인 데이터 관리를 할 수 있도록 지원한다. 예컨대, 영상 감시 시스템은 영상 카메라의 정보를 디지털화하여 사전에 정의한 패턴 분석에 따라 사물의 위치 및 패턴을 분석하고 침입 및 사고가 발생하는 경우, 경보, 차단 시스템 작동 및 보안 담당장에게 알림 정보를 제공할 수 있다. In general, a video surveillance system refers to a system for monitoring a specific location by installing one or more cameras at a specific location and displaying an image acquired through a camera installed at a specific location at another location. This video surveillance system stores video data based on the characteristics of the video information, so that when an incident occurs, it is possible to quickly search for the situation and efficiently manage the data. For example, the video surveillance system digitizes the information of the video camera, analyzes the location and pattern of objects according to the pattern analysis defined in advance, and when an intrusion or accident occurs, an alarm, blocking system operation, and notification information are provided to the security officer can do.

오늘날, 보안 업계와 고객의 인식 제고로 인해 영상 감시 시스템 구축에 대한 요구가 높아지고 있으며, 국내에서도 최근들어 화재 및 강력범죄 등의 증가에 따라 감시 예방차원에서 영상 감시 시스템의 적용이 확대되고 있다.Today, the demand for the establishment of a video surveillance system is increasing due to the increased awareness of the security industry and customers, and the application of the video surveillance system is expanding in order to prevent surveillance due to the recent increase in fires and violent crimes in Korea.

이와 함께 영상 감지 기술은 CCTV 카메라, 디지털 저장장치 영상 분석 및 인식 기술들의 발전과 시장확대로 보다 진화된 기술 개발을 요구하고 있는 실정이다.At the same time, the image detection technology is demanding the development of more advanced technologies due to the development and market expansion of CCTV cameras and digital storage device image analysis and recognition technologies.

다만, 이러한 영상 감시 시스템을 활용하여 광활한 영역에 대한 모니터링(또는, 감시)을 수행하고자 하는 경우, 복수의 카메라를 통해 각 영역의 영상 데이터를 수집하여 이웃한 레이아웃을 통해 표시하더라도 전체 영역의 상황을 살피기에는 어려움이 있다. 예를 들어, 공항 감시 시스템은 복수의 카메라를 통해 영역 전체에 대한 시야를 확보할 수 있다. 이 경우, 각 카메라들은 서로 중첩된 시야를 갖도록 구비되어 전체 영역에 대한 영상 데이터를 획득할 수 있다. 다만, 광범위한 추적 영역에서 각 카메라로부터 수집된 영상 데이터를 비교하여 특정 행동이나 상황을 살피기에는 어려움이 있다. 예컨대, 영상 분석 과정에서 인식 오류 확률이 증가할 수 있으며, 각 영상을 비교하고자 하는 작업자의 피로도를 향상시킬 수 있다. 즉, 일관된 시야의 부족으로 인해 작업자의 모니터링 피로가 누적되거나, 특정 이벤트에 대한 응답 시간이 늦어짐에 따라 객체 및 상황 감지 효율이 저하될 우려가 있다. However, when monitoring (or monitoring) a wide area using such an image monitoring system, image data of each area is collected through a plurality of cameras and displayed through a neighboring layout, but the situation of the entire area is monitored. It is difficult to observe. For example, the airport surveillance system may secure a view of the entire area through a plurality of cameras. In this case, each camera is provided to have a field of view overlapping each other, so that image data for the entire area may be acquired. However, it is difficult to examine a specific action or situation by comparing the image data collected from each camera in a wide tracking area. For example, the probability of a recognition error may increase in the image analysis process, and fatigue of an operator who wants to compare each image may be improved. That is, there is a risk that the monitoring fatigue of the operator is accumulated due to the lack of a consistent field of view, or the object and situation detection efficiency is lowered as the response time to a specific event is delayed.

따라서, 당 업계에는 보다 효율적인 모니터링을 위해 각 카메라로부터 획득한 개별 비디오 스트림을 파노라마 비디오로 결합하여 인식 오류 가능성을 줄이고 정확한 이벤트를 분석하기 위한 영상 감지 기술에 대한 수요가 존재할 수 있다.Therefore, there may be a need in the industry for image sensing technology to reduce the possibility of recognition errors and accurately analyze events by combining individual video streams obtained from each camera into a panoramic video for more efficient monitoring.

공개특허공보 제10-2012-0114050호(2012.10.16)Laid-open Patent Publication No. 10-2012-0114050 (2012.10.16)

본 개시가 해결하고자 하는 과제는 상술한 문제점을 해결하기 위한 것으로서, 복수의 비디오 이미지를 조합하여 파노라마 비디오 이미지 생성하는 것이다. 또한, 본 개시는 조합/파노라마 비디오 이미지 기반으로 특정 기능을 갖는 특정 블록을 포함하는 그래픽 사용자 인터페이스를 통한 비디오 감시 시스템을 제공하여 보다 편리하고 효율적인 작업 환경을 제공할 수 있다. SUMMARY OF THE INVENTION An object of the present disclosure is to solve the above-described problem, and to generate a panoramic video image by combining a plurality of video images. In addition, the present disclosure may provide a more convenient and efficient working environment by providing a video surveillance system through a graphic user interface including a specific block having a specific function based on a combination/panoramic video image.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상술한 과제를 해결하기 위한 본 개시의 다양한 실시예에 따른 복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치가 개시된다. 상기 컴퓨팅 장치는, 상기 복수의 비디오 이미지를 획득하는 복수의 비디오 카메라를 포함하는 비디오 카메라부, 상기 비디오 카메라부로부터 상기 복수의 비디오 이미지를 수신하여 저장하는 메모리, 입력 및 출력에 관한 도구(tools)들을 포함하는 그래픽 사용자 인터페이스(GUI, graphical user interface)를 디스플레이하는 디스플레이부 및 상기 복수의 비디오 이미지들을 조합하여 하나의 파노라마 비디오 이미지를 생성하는 프로세서를 포함하고, 상기 도구들은, 상기 복수의 비디오 카메라 중 적어도 둘 이상의 특정 인접한 비디오 카메라들에 대한 클라이언트의 선택 입력을 수신하기 위한 선택 블록, 상기 파노라마 비디오 이미지 내에서 분리된 비디오 이미지를 나타내기 위하여 임의의 영역에 대한 클라이언트의 선택 입력을 수신하기 위한 관심 영역 선택 블록 및 상기 복수의 비디오 이미지 또는 상기 파노라마 비디오 이미지를 디스플레이하는 디스플레이 블록을 포함하고, 상기 프로세서는, 상기 선택 블록을 통해 선택된 상기 둘 이상의 특정 인접한 비디오 카메라 각각으로부터 복수의 비디오 이미지를 수신하고, 수신된 상기 복수의 비디오 이미지들을 상기 파노라마 비디오 이미지로 조합하기 위해 필요한 초기 변환을 설정하고, 상기 인접 비디오 카메라 각각의 비디오 이미지들 중 서로 시간적으로 대응하는 비디오 이미지들에 대해 상기 초기 변환을 수행하고, 상기 변환이 수행된 비디오 이미지들 외에 다른 이미지들에 대한 후속 변환을 수행하여 상기 복수의 비디오 이미지를 파노라마 비디오 이미지로 조합하고, 상기 디스플레이 블록에 포함된 하나의 비디오 카메라 레이아웃 셀에 상기 파노라마 비디오 이미지를 디스플레이할 것을 결정하고, 상기 관심 영역 선택 블록을 통해 상기 파노라마 비디오 이미지 내에서 상기 분리된 비디오 이미지를 나타내기 위한 임의의 관심 영역에 대한 클라이언트의 선택 입력을 수신하는 경우, 상기 디스플레이 블록에 포함된 다른 하나의 비디오 카메라 레이아웃 셀에 상기 분리된 비디오 이미지를 디스플레이할 것을 결정할 수 있다. Disclosed is a computing device for combining a plurality of video images according to various embodiments of the present disclosure for solving the above problems. The computing device includes a video camera unit including a plurality of video cameras for acquiring the plurality of video images, a memory for receiving and storing the plurality of video images from the video camera unit, and tools for input and output a display unit for displaying a graphical user interface (GUI) including a selection block for receiving the client's selection input for at least two or more specific adjacent video cameras, a region of interest for receiving the client's selection input for an arbitrary region to present a video image separated within the panoramic video image a selection block and a display block for displaying the plurality of video images or the panoramic video images, wherein the processor is configured to receive a plurality of video images from each of the two or more specific adjacent video cameras selected through the selection block; setting an initial transformation necessary to combine the plurality of video images into the panoramic video image, and performing the initial transformation on video images temporally corresponding to each other among the video images of each of the adjacent video cameras; The plurality of video images are combined into a panoramic video image by performing subsequent conversion on other images in addition to the video images on which the conversion has been performed, and the panoramic video image is displayed in one video camera layout cell included in the display block. another one included in the display block when receiving a selection input of a client for any region of interest for displaying the separated video image in the panoramic video image through the region of interest selection block The separated above in the video camera layout cell of You may decide to display a video image.

대안적인 실시예에서, 상기 프로세서는, 상기 복수의 비디오 이미지에 대한 실시간 조합 또는, 아카이브 조합을 수행할 수 있다. In an alternative embodiment, the processor may perform real-time combining or archive combining of the plurality of video images.

대안적인 실시예에서, 상기 복수의 비디오 이미지는, 실시간으로 조합되며, 상기 복수의 비디오 카메라로부터 직접적으로 상기 프로세서로 전송될 수 있다. In an alternative embodiment, the plurality of video images may be combined in real time and transmitted directly from the plurality of video cameras to the processor.

대안적인 실시예에서, 상기 복수의 비디오 이미지는, 아카이브된 데이터를 통해 조합되며, 상기 메모리로부터 상기 프로세서로 전송될 수 있다. In an alternative embodiment, the plurality of video images may be combined via archived data and transferred from the memory to the processor.

대안적인 실시예에서, 상기 프로세서는, 상기 초기 변환 설정 과정에서 리소스(resource)에 관여하며 상기 복수의 비디오 이미지를 하나의 파노라마 비디오 이미지로 조합하는 비디오 카드 모듈을 포함할 수 있다. In an alternative embodiment, the processor may include a video card module that participates in a resource in the initial conversion setting process and combines the plurality of video images into one panoramic video image.

대안적인 실시예에서, 상기 프로세서는, 상기 적어도 둘 이상의 특정 인접 카메라들로부터 동기적으로 수신된 각각의 비디오 이미지에서 최적의 로컬 포인트에 대한 검색을 수행하며, 상기 최적의 로컬 포인트는, 상기 적어도 둘 이상의 특정 인접 카메라들로부터 수신되는 복수의 비디오 이미지들에 대한 상기 후속 변환을 위해 비교되는 포인트일 수 있다. In an alternative embodiment, the processor performs a search for an optimal local point in each video image synchronously received from the at least two or more specific neighboring cameras, the optimal local point being the at least two It may be a point that is compared for the subsequent transformation for a plurality of video images received from the above specific neighboring cameras.

대안적인 실시예에서, 상기 최적의 로컬 포인트는, 수동 모드에서의 클라이언트의 입력에 대응하여 추가적으로 결정될 수 있다. In an alternative embodiment, the optimal local point may be further determined in response to the input of the client in the passive mode.

대안적인 실시예에서, 상기 프로세서는, 상기 복수의 비디오 카메라 각각으로부터 렌즈 파라미터 정보를 수신하며, 상기 렌즈 파라미터 정보는, 상기 초기 변환 및 상기 후속 변환을 계산하기 위해 활용될 수 있다. In an alternative embodiment, the processor receives lens parameter information from each of the plurality of video cameras, wherein the lens parameter information may be utilized to calculate the initial transformation and the subsequent transformation.

대안적인 실시예에서, 상기 초기 변환 및 후속 변환 중 적어도 하나는, 비디오 이미지의 밝기 조정 및 비디오 이미지의 대비 조정 중 적어도 하나를 포함할 수 있다. In an alternative embodiment, the at least one of the initial transformation and the subsequent transformation may include at least one of adjusting the brightness of the video image and adjusting the contrast of the video image.

대안적인 실시예에서, 상기 적어도 둘 이상의 특정 인접 카메라들은, 서로 상이한 프레임 레이트(frame rate)를 갖는 것을 특징으로 할 수 있다. In an alternative embodiment, the at least two or more specific adjacent cameras may have different frame rates from each other.

대안적인 실시예에서, 상기 적어도 둘 이상의 특정 인접 카메라 각각으로부터 수신된 비디오 이미지는, 서로 다른 해상도(display resolution)를 갖는 것을 특징으로 할 수 있다. In an alternative embodiment, the video images received from each of the at least two or more specific adjacent cameras may have different display resolutions.

대안적인 실시예에서, 상기 적어도 둘 이상의 특정 인접 카메라는, 서로 중첩된 시야를 갖는 것을 특징으로 할 수 있다. In an alternative embodiment, the at least two or more specific adjacent cameras may be characterized in that they have an overlapping field of view.

대안적인 실시예에서, 상기 프로세서는, 상기 적어도 둘 이상의 특정 인접 카메라 각각으로부터 수신한 복수의 비디오 이미지들 중 시간적으로 대응하는 비디오 이미지들을 하나의 쌍으로하여 연속적인 조합을 수행함으로써, 상기 복수의 비디오 이미지를 조합하여 상기 파노라마 비디오 이미지를 생성할 수 있다. In an alternative embodiment, the processor is configured to: perform successive combining of a pair of temporally corresponding video images among a plurality of video images received from each of the at least two or more specific adjacent cameras, thereby continuously combining the plurality of video images. Images can be combined to create the panoramic video image.

대안적인 실시예에서, 상기 프로세서는, 상기 파노라마 비디오 이미지 또는 상기 파노라마 비디오 이미지의 일 영역에 대응하는 상기 분리된 비디오 이미지를 외부 장치로 내보낼 수 있는 것을 특징으로 할 수 있다. In an alternative embodiment, the processor may be configured to export the panoramic video image or the separated video image corresponding to a region of the panoramic video image to an external device.

대안적인 실시예에서, 상기 프로세서는, 상기 파노라마 비디오 이미지에 대한 비디오 분석을 수행할 수 있다. In an alternative embodiment, the processor may perform video analysis on the panoramic video image.

대안적인 실시예에서, 상기 비디오 분석은, 메타 데이터에 기초한 하나 이상의 검색으로 포함하며, 상기 하나 이상의 검색은, 얼굴 검색, 차량 등록 번호 검색, 움직이는 물체 검색 및 이벤트 검색을 포함할 수 있다. In an alternative embodiment, the video analysis includes one or more searches based on metadata, wherein the one or more searches may include a face search, a license plate number search, a moving object search, and an event search.

대안적인 실시예에서, 상기 임의의 관심 영역에 대한 클라이언트의 선택에 대응하여 획득된 분리된 비디오 이미지는, 상기 하나의 비디오 카메라 레이아웃 셀에 표시된 파노라마 비디오 이미지와 상이한 다른 하나의 비디오 카메라 레이아웃 셀에 별도의 이미지로써 동시에 표시될 수 있다. In an alternative embodiment, the separated video images obtained in response to the client's selection of the arbitrary region of interest are separately stored in another video camera layout cell different from the panoramic video image displayed in the one video camera layout cell. can be displayed simultaneously as an image of

대안적인 실시예에서, 상기 파노라마 비디오 이미지는, 위에서 바라본 합성된 원형 뷰(circular view)에 관련한 이미지일 수 있다.In an alternative embodiment, the panoramic video image may be an image relating to a synthesized circular view viewed from above.

본 개시의 다른 실시예에 따른 프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법이 개시된다. 상기 방법은, 복수의 비디오 카메라 중 적어도 둘 이상의 특정 인접 비디오 카메라에 관한 선택 입력을 수신하는 단계, 상기 적어도 둘 이상의 특정 인접 비디오 카메라 각각으로부터 복수의 비디오 이미지를 수신하여 저장하는 단계, 수신된 상기 복수의 비디오 이미지를 파노라마 비디오 이미지로 조합하기 위해 필요한 초기 변환을 설정하고, 상기 인접 비디오 카메라 각각에 대응하는 비디오 이미지들 중 서로 시간적으로 대응하는 비디오 이미지들에 대해 상기 초기 변환을 수행하는 단계, 상기 변환이 수행된 비디오 이미지들 외에 다른 비디오 이미지들에 대한 후속 변환을 수행하여 상기 복수의 비디오 이미지를 상기 파노라마 비디오 이미지로 조합하는 단계, 디스플레이 블록에 포함된 하나의 비디오 카메라 레이아웃 셀에 상기 파노라마 비디오 이미지를 디스플레이하는 단계, 상기 파노라마 비디오 이미지 내에서 분리된 비디오 이미지를 나타내기 위한 임의의 영역에 대한 클라이언트의 입력을 수신하는 단계 및 상기 디스플레이 블록에 포함된 다른 하나의 비디오 카메라 레이아웃 셀에 상기 분리된 비디오 이미지를 디스플레이하는 단계를 포함할 수 있다. A method of combining a plurality of video images implemented by a computing device including a processor and a memory according to another embodiment of the present disclosure is disclosed. The method includes: receiving a selection input relating to at least two specific adjacent video cameras of a plurality of video cameras; receiving and storing a plurality of video images from each of the at least two or more specific adjacent video cameras; setting an initial transformation necessary for combining the video images of , into a panoramic video image, and performing the initial transformation on video images temporally corresponding to each other among the video images corresponding to each of the adjacent video cameras, the transformation Combining the plurality of video images into the panoramic video image by performing subsequent transformation on other video images in addition to the performed video images, and adding the panoramic video image to one video camera layout cell included in the display block displaying, receiving input from a client for an arbitrary area for displaying a separated video image within the panoramic video image, and the separated video image in another video camera layout cell included in the display block. It may include the step of displaying

대안적인 실시예에서, 상기 복수의 비디오 이미지는, 실시간으로 또는 아카이브된 데이터에 의해 조합될 수 있다. In an alternative embodiment, the plurality of video images may be combined in real time or by archived data.

대안적인 실시예에서, 상기 복수의 비디오 이미지는, 실시간으로 조합되며, 상기 복수의 비디오 카메라로부터 직접적으로 상기 프로세서로 전송될 수 있다. In an alternative embodiment, the plurality of video images may be combined in real time and transmitted directly from the plurality of video cameras to the processor.

대안적인 실시예에서, 상기 복수의 비디오 이미지는, 아카이브된 데이터를 통해 조합되며, 상기 메모리로부터 상기 프로세서로 전송될 수 있다. In an alternative embodiment, the plurality of video images may be combined via archived data and transferred from the memory to the processor.

대안적인 실시예에서, 상기 프로세서에 포함된 비디오 카드 모듈의 리소스는, 상기 초기 변환을 설정하는 단계 및 상기 복수의 비디오 이미지를 하나의 파노라마 비디오를 조합하는 단계에서 활용될 수 있다. In an alternative embodiment, the resource of the video card module included in the processor may be utilized in the step of setting the initial conversion and the step of combining the plurality of video images into one panoramic video.

대안적인 실시예에서, 상기 초기 변환을 설정하는 단계는, 적어도 상기 적어도 둘 이상의 특정 인접 카메라들로부터 동기적으로 수신된 각각의 비디오 이미지에서 최적의 로컬 포인트에 대한 검색을 수행하는 것을 특징으로 하며, 상기 최적의 로컬 포인트는, 상기 적어도 둘 이상의 특정 인접 카메라들로부터 수신되는 복수의 비디오 이미지들에 대한 상기 후속 변환을 위해 비교되는 포인트일 수 있다. In an alternative embodiment, the step of setting the initial transformation is characterized in that the search for an optimal local point is performed in each video image synchronously received from at least the at least two or more specific neighboring cameras, The optimal local point may be a point compared for the subsequent transformation of a plurality of video images received from the at least two or more specific adjacent cameras.

대안적인 실시예에서, 상기 최적의 로컬 포인트는, 수동 모드에서의 클라이언트의 입력에 대응하여 추가적으로 획득될 수 있다. In an alternative embodiment, the optimal local point may be additionally obtained in response to the input of the client in the passive mode.

대안적인 실시예에서, 상기 설정 단계에서, 상기 복수의 비디오 카메라 각각으로부터 렌즈 파라미터 정보를 수신하며, 상기 렌즈 파라미터 정보는, 상기 초기 변환 및 상기 후속 변환을 계산하기 위해 활용되는 것을 특징으로 할 수 있다. In an alternative embodiment, in the setting step, lens parameter information is received from each of the plurality of video cameras, and the lens parameter information is utilized to calculate the initial transformation and the subsequent transformation. .

대안적인 실시예에서, 상기 초기 변환 및 상기 후속 변환 중 적어도 하나는, 비디오 이미지의 밝기 조정 및 비디오 이미지의 대비 조정 중 적어도 하나를 포함할 수 있다. In an alternative embodiment, at least one of the initial transformation and the subsequent transformation may include at least one of adjusting a brightness of a video image and adjusting a contrast of a video image.

대안적인 실시예에서, 상기 적어도 둘 이상의 특정 인접한 카메라들은, 서로 상이한 프레임 레이트를 갖는 것을 특징으로 할 수 있다. In an alternative embodiment, the at least two or more specific adjacent cameras may be characterized as having different frame rates from each other.

대안적인 실시예에서, 상기 적어도 둘 이상의 인접한 카메라 각각으로부터 수신된 비디오 이미지는, 서로 상이한 해상도를 갖는 것을 특징으로 할 수 있다. In an alternative embodiment, the video images received from each of the at least two or more adjacent cameras may have different resolutions.

대안적인 실시예에서, 상기 적어도 둘 이상의 특정 인접 카메라는, 서로 중첩된 시야를 갖는 것을 특징으로 할 수 있다. In an alternative embodiment, the at least two or more specific adjacent cameras may be characterized in that they have an overlapping field of view.

대안적인 실시예에서, 상기 복수의 비디오 이미지를 조합하여 상기 파노라마 비디오 이미지를 생성하는 단계는, 상기 적어도 둘 이상의 특정 인접 카메라 각각으로부터 수신한 복수의 이미지들 중 시간적으로 대응하는 비디오 이미지들을 하나의 쌍으로하는 연속적인 조합을 통해 수행될 수 있다. In an alternative embodiment, the step of generating the panoramic video image by combining the plurality of video images may include: pairing temporally corresponding video images among a plurality of images received from each of the at least two or more specific adjacent cameras. It can be carried out through successive combinations of

대안적인 실시예에서, 상기 파노라마 비디오 이미지 또는 상기 파노라마 비디오 이미지의 일 영역에 대응하는 상기 분리된 이미지는 외부 장치로 내보내지는 것을 특징으로 할 수 있다. In an alternative embodiment, the panoramic video image or the separated image corresponding to a region of the panoramic video image may be exported to an external device.

대안적인 실시예에서, 상기 파노라마 비디오 이미지에 대한 비디오 분석은 추가적으로 수행될 수 있다. In an alternative embodiment, video analysis on the panoramic video image may be additionally performed.

대안적인 실시예에서, 상기 비디오 분석은, 메타 데이터에 기반한 하나 이상의 검색을 포함하며, 상기 하나 이상의 검색은, 얼굴 검색, 차량 등록 번호 검색, 움직이는 물체 검색 및 이벤트 검색을 포함할 수 있다. In an alternative embodiment, the video analysis may include one or more searches based on metadata, wherein the one or more searches may include a face search, a license plate number search, a moving object search, and an event search.

대안적인 실시예에서, 상기 임의의 관심 영역에 대한 클라이언트의 선택에 대응하여 획득된 분리된 비디오 이미지는, 상기 하나의 비디오 카메라 레이아웃 셀에 표시된 파노라마 비디오 이미지와 상이한 다른 하나의 비디오 카메라 레이아웃 셀에 별도의 이미지로써 동시에 표시될 수 있다. In an alternative embodiment, the separated video images obtained in response to the client's selection of the arbitrary region of interest are separately stored in another video camera layout cell different from the panoramic video image displayed in the one video camera layout cell. can be displayed simultaneously as an image of

대안적인 실시예에서, 상기 파노라마 비디오 이미지는, 위에서 바라본 합성된 원형 뷰에 관련한 이미지일 수 있다. In an alternative embodiment, the panoramic video image may be an image relating to a synthesized circular view viewed from above.

본 개시의 또 다른 일 실시예에 따르면, 복수의 비디오 이미지를 조합하는 기술을 구현하기 위하여 하나 이상의 프로세서에 의해 수행되는 인스터럭션들을 포함하는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램의 하나 이상의 프로세서는 상기 방법의 단계들을 수행할 수 있다.According to another embodiment of the present disclosure, a computer program stored in a computer-readable storage medium including instructions executed by one or more processors to implement a technique for combining a plurality of video images is disclosed. One or more processors of the computer program may perform the steps of the method.

본 개시의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the present disclosure are included in the detailed description and drawings.

본 개시의 다양한 실시예에 따라, 복수의 카메라로부터 획득되는 복수의 비디오 이미지에 기반하여 일관된 시야를 갖는 파노라마 비디오 이미지를 제공하여 감시(또는 감지)의 효율을 향상시키는 효과를 제공할 수 있다.According to various embodiments of the present disclosure, it is possible to provide a panoramic video image having a consistent field of view based on a plurality of video images obtained from a plurality of cameras, thereby providing an effect of improving the efficiency of monitoring (or detection).

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

도 1은 본 개시의 다양한 실시예에 따른 복수의 비디오 이미지에 대한 조합을 수행하여 파노라마 비디오 이미지를 생성하기 위한 컴퓨팅 장치의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도를 도시한다.
도 2는 본 개시의 일 실시예와 관련된 복수의 비디오 이미지에 대한 조합을 수행하여 파노라마 비디오 이미지를 생성하기 위한 컴퓨팅 장치의 블록 구성도를 도시한다.
도 3은 본 개시의 일 실시예와 관련된 그래픽 유저 인터페이스의 구성을 예시적으로 나타낸 예시도를 도시한다.
도 4는 본 개시의 일 실시예와 관련된 복수의 비디오 이미지, 파노라마 비디오 이미지 및 분리된 비디오 이미지를 하나 이상의 비디오 카메라 레이아웃 셀을 통해 디스플레이하는 방법을 예시적으로 나타낸 예시도를 도시한다.
도 5는 본 개시의 일 실시예와 관련된 파노라마 비디오 이미지 방법을 제공하기 위한 방법의 단계를 예시적으로 도시한 순서도이다.
1 is a conceptual diagram illustrating a system in which various aspects of a computing device for generating a panoramic video image by performing a combination on a plurality of video images according to various embodiments of the present disclosure may be implemented.
2 is a block diagram of a computing device for generating a panoramic video image by performing combination on a plurality of video images according to an embodiment of the present disclosure.
3 is a diagram illustrating an exemplary configuration of a graphical user interface related to an embodiment of the present disclosure.
4 shows an exemplary diagram exemplarily illustrating a method of displaying a plurality of video images, a panoramic video image, and a separated video image through one or more video camera layout cells according to an embodiment of the present disclosure.
5 is a flowchart exemplarily illustrating steps of a method for providing a panoramic video image method according to an embodiment of the present disclosure.

본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시의 개시가 완전하도록 하고, 본 개시가 속하는 기술 분야의 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present disclosure and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the present embodiments allow the disclosure of the present disclosure to be complete, and those of ordinary skill in the art to which the present disclosure pertains. It is provided to fully understand the scope of the present disclosure to those skilled in the art, and the present disclosure is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present disclosure. In this specification, the singular also includes the plural, unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present disclosure.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein may have the meaning commonly understood by those of ordinary skill in the art to which this disclosure belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless clearly specifically defined.

명세서에서 사용되는 "부" 또는 “모듈”이라는 용어는 소프트웨어, FPGA 또는 ASIC과 같은 하드웨어 구성요소를 의미하며, "부" 또는 “모듈”은 어떤 역할들을 수행한다. 그렇지만 "부" 또는 “모듈”은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. "부" 또는 “모듈”은 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 "부" 또는 “모듈”은 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 "부" 또는 “모듈”들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 "부" 또는 “모듈”들로 결합되거나 추가적인 구성요소들과 "부" 또는 “모듈”들로 더 분리될 수 있다.As used herein, the term “unit” or “module” refers to a hardware component such as software, FPGA, or ASIC, and “unit” or “module” performs certain roles. However, “part” or “module” is not meant to be limited to software or hardware. A “part” or “module” may be configured to reside on an addressable storage medium or may be configured to reproduce one or more processors. Thus, by way of example, “part” or “module” refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, Includes procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables. Components and functionality provided within “parts” or “modules” may be combined into a smaller number of components and “parts” or “modules” or additional components and “parts” or “modules”. can be further separated.

본 명세서에서, 컴퓨터는 적어도 하나의 프로세서를 포함하는 모든 종류의 하드웨어 장치를 의미하는 것이고, 실시 예에 따라 해당 하드웨어 장치에서 동작하는 소프트웨어적 구성도 포괄하는 의미로서 이해될 수 있다. 예를 들어, 컴퓨터는 스마트폰, 태블릿 PC, 데스크톱, 노트북 및 각 장치에서 구동되는 사용자 클라이언트 및 애플리케이션을 모두 포함하는 의미로서 이해될 수 있으며, 또한 이에 제한되는 것은 아니다.In this specification, a computer means all types of hardware devices including at least one processor, and may be understood as encompassing software configurations operating in the corresponding hardware device according to embodiments. For example, a computer may be understood to include, but is not limited to, smart phones, tablet PCs, desktops, notebooks, and user clients and applications running on each device.

당업자들은 추가적으로 여기서 개시된 실시예들과 관련되어 설명된 다양한 예시 적 논리적 블록들, 구성들, 모듈들, 회로들, 수단들, 로직들, 및 알고리즘 단계들이 전자 하드웨어, 컴퓨터 소프트웨어, 또는 양쪽 모두의 조합들로 구현될 수 있음을 인식해야 한다. 하드웨어 및 소프트웨어의 상호교환성을 명백하게 예시하기 위해, 다양한 예시적 컴포넌트들, 블록들, 구성들, 수단들, 로직들, 모듈들, 회로들, 및 단계들은 그들의 기능성 측면에서 일반적으로 위에서 설명되었다. 그러한 기능성이 하드웨어로 또는 소프트웨어로서 구현되는지 여부는 전반적인 시스템에 부과된 특정 어플리케이션(application) 및 설계 제한들에 달려 있다. 숙련된 기술자들은 각각의 특정 어플리케이션들을 위해 다양한 방법들로 설명된 기능성을 구현할 수 있다. 다만, 그러한 구현의 결정들이 본 개시내용의 영역을 벗어나게 하는 것으로 해석되어서는 안된다.Those skilled in the art will further appreciate that the various illustrative logical blocks, configurations, modules, circuits, means, logics, and algorithm steps described in connection with the embodiments disclosed herein may be implemented in electronic hardware, computer software, or combinations of both. It should be recognized that they can be implemented with To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, configurations, means, logics, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. Skilled artisans may implement the described functionality in varying ways for each particular application. However, such implementation decisions should not be interpreted as causing a departure from the scope of the present disclosure.

이하, 첨부된 도면을 참조하여 본 개시의 실시예를 상세하게 설명한다. Hereinafter, embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

본 명세서에서 설명되는 각 단계들은 컴퓨터에 의하여 수행되는 것으로 설명되나, 각 단계의 주체는 이에 제한되는 것은 아니며, 실시 예에 따라 각 단계들의 적어도 일부가 서로 다른 장치에서 수행될 수도 있다.Each step described in this specification is described as being performed by a computer, but the subject of each step is not limited thereto, and at least a portion of each step may be performed in different devices according to embodiments.

도 1은 본 개시의 다양한 실시예에 따른 복수의 비디오 이미지에 대한 조합을 수행하여 파노라마 비디오 이미지를 생성하기 위한 컴퓨팅 장치의 다양한 양태가 구현될 수 있는 시스템을 나타낸 개념도를 도시한다. 1 is a conceptual diagram illustrating a system in which various aspects of a computing device for generating a panoramic video image by performing a combination on a plurality of video images according to various embodiments of the present disclosure may be implemented.

도 1에 도시된 바와 같이, 시스템은 컴퓨팅 장치(100)는, 클라이언트 단말(10), 외부 서버(20) 및 네트워크를 포함할 수 있다. 전술한 시스템을 구성하는 컴포넌트들은 예시적인 것으로서, 본 개시내용의 권리범위가 전술한 컴포넌트들로 제한되지 않는다. 즉, 본 개시내용의 실시예들에 대한 구현 양태에 따라서 추가적인 컴포넌트들이 포함되거나 또는 전술한 컴포넌트들 중 일부가 생략될 수 있다. 본 개시의 실시예들에 따른 컴퓨팅 장치(100), 클라이언트 단말(10) 및 외부 서버(20)는 네트워크를 통해 본 개시의 일 실시예들에 따른 시스템을 위한 데이터를 상호 송수신할 수 있다. As shown in FIG. 1 , the system may include a computing device 100 , a client terminal 10 , an external server 20 , and a network. The components constituting the above-described system are exemplary, and the scope of the present disclosure is not limited to the above-described components. That is, additional components may be included or some of the above-described components may be omitted depending on implementation aspects for the embodiments of the present disclosure. The computing device 100 , the client terminal 10 , and the external server 20 according to embodiments of the present disclosure may mutually transmit/receive data for the system according to embodiments of the present disclosure through a network.

본 개시의 일 실시예에 따르면, 네트워크는 본 개시의 일 실시예에 따른 이미지 데이터, 복수의 비디오 이미지 및 파노라마 비디오 이미지 등을 다른 컴퓨팅 장치, 서버 등과 송수신할 수 있다. 즉, 네트워크는 시스템과 클라이언트 단말 및 외부 서버 간의 통신 기능을 제공할 수 있다. 예를 들어, 네트워크는 외부 서버(예컨대, 보안 서버)로 파노라마 비디오 이미지를 전송하거나, 클라이언트 단말로부터 복수의 비디오 카메라 중 적어도 둘 이상의 특정 카메라에 대한 사용자의 선택 입력에 관한 정보를 수신할 수 있다. 추가적으로, 네트워크는 컴퓨팅 장치(100)로 프로시저를 호출하는 방식으로 컴퓨팅 장치(100)와 클라이언트 단말(10) 또는 외부 서버(20) 간의 정보 전달을 허용할 수 있다. According to an embodiment of the present disclosure, a network may transmit/receive image data, a plurality of video images, and a panoramic video image according to an embodiment of the present disclosure, to another computing device, a server, and the like. That is, the network may provide a communication function between the system and the client terminal and the external server. For example, the network may transmit a panoramic video image to an external server (eg, a security server), or may receive information about a user's selection input for at least two specific cameras among a plurality of video cameras from a client terminal. Additionally, the network may allow information transfer between the computing device 100 and the client terminal 10 or the external server 20 in a manner that calls a procedure to the computing device 100 .

본 개시의 실시예들에 따른 네트워크는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.Networks according to embodiments of the present disclosure include Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), Very High Speed DSL (VDSL). ), UADSL (Universal Asymmetric DSL), HDSL (High Bit Rate DSL), and various wired communication systems such as local area network (LAN) can be used.

또한, 여기서 제시되는 네트워크는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.In addition, the networks presented here are Code Division Multi Access (CDMA), Time Division Multi Access (TDMA), Frequency Division Multi Access (FDMA), Orthogonal Frequency Division Multi Access (OFDMA), Single Carrier-FDMA (SC-FDMA) and Various wireless communication systems may be used, such as other systems.

본 개시의 실시예들에 따른 네트워크는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다. 본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.The network according to the embodiments of the present disclosure may be configured regardless of its communication mode, such as wired and wireless, and is composed of various communication networks such as a personal area network (PAN) and a wide area network (WAN). can be In addition, the network may be a well-known World Wide Web (WWW), and may use a wireless transmission technology used for short-range communication such as Infrared Data Association (IrDA) or Bluetooth. The techniques described herein may be used in the networks mentioned above, as well as in other networks.

본 개시의 컴퓨팅 장치(100)는 특정 영역을 모니터링하고자 하는 클라이언트에 관련한 단말에게 네트워크를 통해 정보를 제공하는 컴퓨팅 장치일 수 있다. 컴퓨팅 장치(100)는 복수의 비디오 이미지를 획득할 수 있으며, 획득한 복수의 비디오 이미지에 기반하여 파노라마 비디오 이미지를 생성할 수 있다. 이 경우, 복수의 비디오 이미지는, 서로 상이한 각도에서 복수의 비디오 카메라 각각을 통해 획득한 비디오 이미지들 일 수 있다. 구체적으로, 컴퓨팅 장치(100)는 서로 상이한 시야를 갖는 각각의 비디오 카메라로부터 획득된 복수의 비디오 이미지를 조합하여 파노라마 비디오 이미지를 생성할 수 있다. 이 경우, 복수의 비디오 카메라 각각은 인접한 비디오 카메라과 일부 중첩된 영역의 비디오 이미지를 획득하도록 구비될 수 있다. 파노라마 비디오 이미지는, 사용자가 보는 시야각 이상의 화각을 복수의 카메라를 통해 동시에 촬영하고, 촬영된 이미지들의 결합을 통해 보다 넓은 시야각을 확보(예컨대, 360도 방향의 시야)하기 위한 비디오 이미지일 수 있다. 예컨대, 파노라마 비디오 이미지는 위에서 바라본 합성된 원형 뷰(circular view)에 관련한 비디오 이미지일 수 있다. 즉, 컴퓨팅 장치(100)는 복수의 카메라를 통해 획득한 비디오 이미지에 기반하여 파노라마 비디오 이미지를 생성함으로써, 다양한 영역에 관련하여 보다 넓은 시야를 제공할 수 있다. 이에 따라, 클라이언트는 특정 영역의 상황을 파악하기 위해 각 카메라에 대응하는 비디오 이미지들 간의 비교를 수행할 필요없이, 하나의 파노라마 비디오 이미지를 통해 해당 영역에 상황을 보다 용이하게 파악할 수 있어, 편의성을 제공받을 수 있다.The computing device 100 of the present disclosure may be a computing device that provides information through a network to a terminal related to a client that wants to monitor a specific area. The computing device 100 may acquire a plurality of video images, and may generate a panoramic video image based on the plurality of acquired video images. In this case, the plurality of video images may be video images acquired through each of the plurality of video cameras at different angles. Specifically, the computing device 100 may generate a panoramic video image by combining a plurality of video images obtained from respective video cameras having different fields of view. In this case, each of the plurality of video cameras may be provided to acquire a video image of an area partially overlapped with an adjacent video camera. The panoramic video image may be a video image for simultaneously capturing an angle of view greater than the viewing angle viewed by the user through a plurality of cameras, and securing a wider viewing angle (eg, 360-degree field of view) by combining the captured images. For example, the panoramic video image may be a video image related to a synthesized circular view viewed from above. That is, the computing device 100 may provide a wider field of view in relation to various areas by generating a panoramic video image based on video images acquired through a plurality of cameras. Accordingly, the client can more easily grasp the situation in the corresponding area through one panoramic video image, without the need to perform comparison between video images corresponding to each camera in order to grasp the situation of the specific area. can be provided

또한, 컴퓨팅 장치(100)는 생성된 파노라마 비디오 이미지에 대한 비디오 분석을 수행할 수 있다. 비디오 분석은, 메타 데이터에 기반한 하나 이상의 검색을 포함할 수 있다. 하나 이상의 검색은, 비디오 이미지 내에 존재하는 오브젝트에 관련한 검색을 의미하는 것으로, 예를 들어, 안면 검색, 차량 등록 번호 검색, 특정 오브젝트 검색, 오브젝트의 움직임 검색, 특정 이벤트 검색 등을 포함할 수 있다. 다만 본 개시의 컴퓨팅 장치(100)가 수행하는 비디오 분석은 이에 제한되지 않으며, 비디오 이미지에 관련한 보다 다양한 분석을 더 포함할 수도 있다.Also, the computing device 100 may perform video analysis on the generated panoramic video image. Video analysis may include one or more searches based on metadata. The one or more searches refer to a search related to an object existing in a video image, and may include, for example, a face search, a vehicle registration number search, a specific object search, a motion search of an object, a specific event search, and the like. However, the video analysis performed by the computing device 100 of the present disclosure is not limited thereto, and may further include various types of analysis related to a video image.

예컨대, 광범위한 영역에 대한 모니터링을 위하여 해당 영역을 관찰하기 위한 복수의 카메라가 구비될 수 있으며, 복수의 카메라 각각을 통해 복수의 비디오 이미지를 획득할 수 있다. 이 경우, 모니터링을 위하여 해당 영역의 복수의 비디오 이미지에 대한 비디오 분석이 수행될 수 있다. 다만, 획득된 복수의 비디오 이미지 각각에 대응하여 비디오 분석을 수행하는 경우, 각 비디오 이미지가 광범위한 영역 각각에서 서로 상이한 시야를 가짐에 따라 비디오 분석의 인식 오류가 증가할 우려가 있다. 즉, 본 개시의 컴퓨팅 장치(100)는, 이와 같은 우려를 해소하기 위하여, 서로 상이한 시야를 갖는 복수의 비디오 이미지를 조합하여 일관된 시야를 갖는 파노라마 비디오 이미지를 생성함으로써, 비디오 분석 과정에서의 효율 및 성능을 향상시킬 수 있다. For example, for monitoring a wide area, a plurality of cameras for observing a corresponding area may be provided, and a plurality of video images may be acquired through each of the plurality of cameras. In this case, video analysis may be performed on a plurality of video images of the corresponding area for monitoring. However, when video analysis is performed corresponding to each of a plurality of acquired video images, as each video image has a different field of view in each of a wide area, there is a fear that a recognition error of the video analysis may increase. That is, the computing device 100 of the present disclosure generates a panoramic video image having a consistent field of view by combining a plurality of video images having different fields of view in order to solve such a concern, thereby increasing the efficiency and efficiency in the video analysis process. performance can be improved.

또한, 컴퓨팅 장치(100)는, 본 개시의 실시예들에 따른 그래픽 사용자 인터페이스(graphical user interface)를 생성할 수 있다. 그래픽 사용자 인터페이스는, 하나 이상의 비디오 카메라 레이아웃 셀을 포함할 수 있다. 하나 이상의 비디오 카메라 레이아웃 셀 각각은, 다양한 비디오 이미지를 표시하기 위하여 구분된 영역일 수 있다. 다양한 비디오 이미지는 예를 들어, 복수의 비디오 이미지, 복수의 비디오 이미지에 기반하여 생성된 파노라마 비디오 이미지 및 파노라마 비디오 이미지의 특정 관심 영역에 관한 분리된 비디오 이미지 중 적어도 하나를 포함할 수 있다. 하나 이상의 비디오 카메라 레이아웃 셀 각각에 표시되는 비디오 이미지는 클라이언트의 선택과 관련한 비디오 이미지일 수 있다. 예를 들어, 하나 이상의 비디오 레이아웃 셀 중 제 1 비디오 레이아웃 셀은 제 1 비디오 카메라를 통해 획득된 제 1 비디오 이미지들을 디스플레이할 수 있으며, 제 2 비디오 레이아웃 셀은 제 1 비디오 카메라와 인접한 제 2 비디오 카메라를 통해 획득된 제 2 비디오 이미지들을 디스플레이할 수 있고, 그리고 제 3 비디오 레이아웃 셀은 제 1 비디오 이미지들 및 제 2 비디오 이미지들의 조합을 통해 생성된 파노라마 비디오 이미지들을 디스플레이할 수 있다. 전술한 하나 이상의 비디오 레이아웃 셀 각각에 표시되는 비디오 이미지들에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. Also, the computing device 100 may generate a graphical user interface according to embodiments of the present disclosure. The graphical user interface may include one or more video camera layout cells. Each of the one or more video camera layout cells may be a divided area for displaying various video images. The various video images may include, for example, at least one of a plurality of video images, a panoramic video image generated based on the plurality of video images, and a separate video image relating to a specific region of interest in the panoramic video image. The video image displayed in each of the one or more video camera layout cells may be a video image associated with the client's selection. For example, a first video layout cell of the one or more video layout cells may display first video images acquired through a first video camera, and the second video layout cell may be a second video camera adjacent to the first video camera. may display the second video images obtained through , and the third video layout cell may display panoramic video images generated through the combination of the first video images and the second video images. The detailed description of the video images displayed in each of the one or more video layout cells described above is only an example, and the present disclosure is not limited thereto.

즉, 그래픽 사용자 인터페이스는, 하나 이상의 비디오 레이아웃 셀을 통해 클라이언트의 선택에 관련한 다양한 비디오 이미지들을 동시에 디스플레이함으로써, 클라이언트로 하여금 특정 영역에 대응한 다양한 시야의 영상을 모니터링하도록 할 수 있다. 이에 따라, 특정 영역을 모니터링 하는 클라이언트의 감시 효율이 향상될 수 있다. That is, the graphical user interface may enable the client to monitor images of various fields of view corresponding to a specific area by simultaneously displaying various video images related to the selection of the client through one or more video layout cells. Accordingly, the monitoring efficiency of a client monitoring a specific area may be improved.

또한, 컴퓨팅 장치(100)는 생성한 그래픽 사용자 인터페이스를 클라이언트 단말(10)로 전송할 수 있다. 이러한 경우, 클라이언트 단말(10)은 시스템에 엑세스할 수 있는 임의의 형태의 컴퓨팅 장치일 수 있다. 컴퓨팅 장치(100)는 네트워크를 통해 클라이언트 단말(10)로 그래픽 사용자 인터페이스를 전송할 수 있다. Also, the computing device 100 may transmit the generated graphic user interface to the client terminal 10 . In this case, the client terminal 10 may be any type of computing device capable of accessing the system. The computing device 100 may transmit a graphical user interface to the client terminal 10 through a network.

본 개시의 일 실시예에 따른 컴퓨팅 장치(100)는 단말 또는 서버일 수 있으며, 임의의 형태의 장치는 모두 포함할 수 있다. 컴퓨팅 장치(100)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 태블릿, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 컴퓨팅 장치(100)는 서비스를 처리하는 웹 서버일 수 있다. 전술한 서버의 종류는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The computing device 100 according to an embodiment of the present disclosure may be a terminal or a server, and may include any type of device. The computing device 100 is a digital device, and may be a digital device equipped with a processor and having a computing capability, such as a laptop computer, a notebook computer, a desktop computer, a web pad, a tablet, and a mobile phone. The computing device 100 may be a web server that processes a service. The above-described types of servers are merely examples and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 보다 구체적으로, 컴퓨팅 장치(100)는 인터넷 기반 컴퓨팅의 일종으로 정보를 사용자의 컴퓨터가 아닌 인터넷에 연결된 다른 컴퓨터로 처리하는 클라우드 컴퓨팅 서비스를 제공하는 서버일 수 있다. 상기 클라우드 컴퓨팅 서비스는 인터넷 상에 자료를 저장해 두고, 사용자가 필요한 자료나 프로그램을 자신의 컴퓨터에 설치하지 않고도 인터넷 접속을 통해 언제 어디서나 이용할 수 있는 서비스일 수 있으며, 인터넷 상에 저장된 자료들을 간단한 조작 및 클릭으로 쉽게 공유하고 전달할 수 있다. 또한, 클라우드 컴퓨팅 서비스는 인터넷 상의 서버에 단순히 자료를 저장하는 것뿐만 아니라, 별도로 프로그램을 설치하지 않아도 웹에서 제공하는 응용프로그램의 기능을 이용하여 원하는 작업을 수행할 수 있으며, 여러 사람이 동시에 문서를 공유하면서 작업을 진행할 수 있는 서비스일 수 있다. 또한, 클라우드 컴퓨팅 서비스는 IaaS(Infrastructure as a Service), PaaS(Platform as a Service), SaaS(Software as a Service), 가상 머신 기반 클라우드 서버 및 컨테이너 기반 클라우드 서버 중 적어도 하나의 형태로 구현될 수 있다. 즉, 본 개시의 컴퓨팅 장치(100)는 상술한 클라우드 컴퓨팅 서비스 중 적어도 하나의 형태로 구현될 수 있다. 전술한 클라우드 컴퓨팅 서비스의 구체적인 기재는 예시일 뿐, 본 개시의 클라우드 컴퓨팅 환경을 구축하는 임의의 플랫폼을 포함할 수도 있다.According to an embodiment of the present disclosure, the computing device 100 may be a server that provides a cloud computing service. More specifically, the computing device 100 is a type of Internet-based computing, and may be a server that provides a cloud computing service that processes information not with a user's computer but with another computer connected to the Internet. The cloud computing service may be a service that stores data on the Internet and allows the user to use it anytime and anywhere through Internet access without installing necessary data or programs on his/her computer. It's easy to share and deliver with a click. In addition, the cloud computing service not only stores data on a server on the Internet, but also enables users to perform desired tasks using the functions of applications provided on the web without installing a separate program. It may be a service that allows you to work while sharing. In addition, the cloud computing service may be implemented in the form of at least one of Infrastructure as a Service (IaaS), Platform as a Service (PaaS), Software as a Service (SaaS), a virtual machine-based cloud server, and a container-based cloud server. . That is, the computing device 100 of the present disclosure may be implemented in the form of at least one of the above-described cloud computing services. The detailed description of the above-described cloud computing service is merely an example, and may include any platform for building the cloud computing environment of the present disclosure.

본 개시의 일 실시예에 따르면, 클라이언트 단말(10)은 컴퓨팅 장치(100)와의 정보 교환을 통해 특정 영역에 관련한 모니터링 정보를 제공받을 수 있는 단말로, 클라이언트가 소지한 단말을 의미할 수 있다. 예컨대, 클라이언트 단말(10)은 특정 영역에서 발생할 수 있는 다양한 이벤트들을 감지하고자 하는 사용자와 관련한 단말일 수 있다. 클라이언트는 클라이언트 단말(10)을 통해 특정 영역에 관련한 파노라마 비디오 이미지에 대한 정보 및 해당 파노라마 비디오 이미지 내에서 특정 이벤트가 발생하였다는 알림 정보 등을 수신할 수 있다. According to an embodiment of the present disclosure, the client terminal 10 is a terminal capable of receiving monitoring information related to a specific area through information exchange with the computing device 100 , and may refer to a terminal possessed by the client. For example, the client terminal 10 may be a terminal related to a user who wants to detect various events that may occur in a specific area. The client may receive, through the client terminal 10 , information on a panoramic video image related to a specific region and notification information that a specific event has occurred in the corresponding panoramic video image.

이러한 클라이언트 단말(10)은 고객 단말기(UE), 모바일, 무선 통신이 가능한 PC, 핸드폰, 키오스크, 셀룰러 폰, 셀룰러, 셀룰러 단말, 가입자 유닛, 가입자국, 이동국, 단말, 원격국, PDA, 원격 단말, 엑세스 단말, 사용자 에이전트, 셀룰러 전화, 무선 전화, 세션 개시 프로토콜(SIP) 전화, 무선 로컬 루프(WLL) 국, 무선 접속 기능을 구비하는 휴대용 장치, 무선 모델과 같은, 무선 메커니즘을 사용할 수 있는 임의의 장치 등으로 지칭될 수 있으나, 이에 한정되지는 않는다. 또한, 클라이언트 단말(10)은, 유선 팩스, 유선 모델을 구비한 PC, 유선 전화, 유선 통신이 가능한 단말 등과 같은 유선 접속 메커니즘을 사용할 수 있는 임의의 장치 등으로 지칭될 수 있으나, 이들로 한정되지는 않는다.The client terminal 10 is a customer terminal (UE), a mobile, a PC capable of wireless communication, a mobile phone, a kiosk, a cellular phone, a cellular, a cellular terminal, a subscriber unit, a subscriber station, a mobile station, a terminal, a remote station, a PDA, a remote terminal Any that can use a wireless mechanism, such as an access terminal, user agent, cellular phone, wireless phone, session initiation protocol (SIP) phone, wireless local loop (WLL) station, portable device with wireless access capability, wireless model, etc. It may be referred to as a device of a, but is not limited thereto. In addition, the client terminal 10 may be referred to as any device capable of using a wired connection mechanism, such as a wired fax machine, a PC equipped with a wired model, a wired telephone, a terminal capable of wired communication, etc., but is not limited thereto. does not

본 개시의 일 실시예에 따르면, 외부 서버(20)는 컴퓨팅 장치(100)와 클라이언트 환경에서 부족한 저장 공간을 용이하게 확보하기 위하여 컴퓨팅 장치(100)에 연결되는 외부 저장 장치를 의미할 수 있다. 이러한 외부 서버(20)는 네트워크에 연결된 컴퓨팅 장치(100)에 외부 저장 장치를 추가함으로써, 데이터들의 저장 공간을 확장시킬 수 있다. 예를 들어, 외부 서버(20)는 컴퓨팅 장치(100)가 획득하는 복수의 비디오 이미지들 중 적어도 일부(예컨대, 확보된 이후 일정 시간이 지난 비디오 이미지들)를 수신하여 저장할 수 있다. 외부 서버(20)는 디지털 기기로서, 랩탑 컴퓨터, 노트북 컴퓨터, 데스크톱 컴퓨터, 웹 패드, 이동 전화기와 같이 프로세서를 탑재하고 메모리를 구비한 연산 능력을 갖춘 디지털 기기일 수 있다. 외부 서버(20)는 서비스를 처리하는 웹 서버일 수 있다. 전술한 외부 서버의 종류는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the external server 20 may refer to an external storage device connected to the computing device 100 in order to easily secure insufficient storage space in the computing device 100 and the client environment. The external server 20 may expand the storage space of data by adding an external storage device to the computing device 100 connected to the network. For example, the external server 20 may receive and store at least some of the plurality of video images acquired by the computing device 100 (eg, video images obtained by a predetermined time elapsed). The external server 20 is a digital device, and may be a digital device equipped with a processor, such as a laptop computer, a notebook computer, a desktop computer, a web pad, and a mobile phone, and having a computing capability with a memory. The external server 20 may be a web server that processes a service. The above-described types of external servers are merely examples, and the present disclosure is not limited thereto.

이하에서는, 도 2를 참조하여 컴퓨팅 장치(100)가 복수의 비디오 이미지들을 조합하여 파노라마 비디오 이미지를 생성하는 방법 및 생성된 파노라마 비디오 이미지를 표시하는 그래픽 사용자 인터페이스에 대하여 보다 구체적으로 후술하도록 한다.Hereinafter, a method for the computing device 100 to generate a panoramic video image by combining a plurality of video images with reference to FIG. 2 and a graphic user interface for displaying the generated panoramic video image will be described in more detail below.

도 2는 본 개시의 일 실시예와 관련된 복수의 비디오 이미지에 대한 조합을 수행하여 파노라마 비디오 이미지를 생성하기 위한 컴퓨팅 장치의 블록 구성도를 도시한다.2 is a block diagram of a computing device for generating a panoramic video image by performing combination on a plurality of video images according to an embodiment of the present disclosure.

도 2에 도시된 바와 같이, 컴퓨팅 장치(100)는 네트워크부(110), 디스플레이부(130), 입력부(140), 메모리(150) 및 프로세서(160)를 포함할 수 있다. 전술한 컴퓨팅 장치(100)에 포함된 컴포넌트들은 예시적인 것으로서 본 개시내용의 권리범위가 전술한 컴포넌트들로 제한되지 않는다. 즉, 본 개시 내용의 실시예들에 대한 구현 양태에 따라 추가적인 컴포넌트들이 포함되거나 또는 전술한 컴포넌트들 중 일부가 생략될 수 있다.As shown in FIG. 2 , the computing device 100 may include a network unit 110 , a display unit 130 , an input unit 140 , a memory 150 , and a processor 160 . Components included in the aforementioned computing device 100 are exemplary and the scope of the present disclosure is not limited to the aforementioned components. That is, additional components may be included or some of the above-described components may be omitted depending on implementation aspects for the embodiments of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 클라이언트 단말(10) 및 외부 서버(20) 간의 데이터를 송수신하는 네트워크부(110)를 포함할 수 있다. 일 실시예에서, 네트워크부(110)는 상술한 컴포넌트가 아닌 외부 기기 또는 애플리케이션에서 입력된 정보를 수신 받을 수 있다. 외부 기기의 예시로는, PC, 휴대 단말기, 웨어러블 장치 등이 있을 수 있다. 또한, 네트워크부(110)는 비디오 카메라부(120), 디스플레이부(130), 입력부(140) 및 프로세서(160) 간의 데이터 통신의 위한 채널을 형성할 수 있다. According to an embodiment of the present disclosure, the computing device 100 may include a network unit 110 that transmits and receives data between the client terminal 10 and the external server 20 . In an embodiment, the network unit 110 may receive information input from an external device or application other than the above-described component. Examples of the external device may include a PC, a portable terminal, a wearable device, and the like. Also, the network unit 110 may form a channel for data communication between the video camera unit 120 , the display unit 130 , the input unit 140 , and the processor 160 .

본 개시의 일 실시예에 따른 네트워크부(110)는 공중전화 교환망(PSTN: Public Switched Telephone Network), xDSL(x Digital Subscriber Line), RADSL(Rate Adaptive DSL), MDSL(Multi Rate DSL), VDSL(Very High Speed DSL), UADSL(Universal Asymmetric DSL), HDSL(High Bit Rate DSL) 및 근거리 통신망(LAN) 등과 같은 다양한 유선 통신 시스템들을 사용할 수 있다.The network unit 110 according to an embodiment of the present disclosure includes a Public Switched Telephone Network (PSTN), x Digital Subscriber Line (xDSL), Rate Adaptive DSL (RADSL), Multi Rate DSL (MDSL), VDSL ( A variety of wired communication systems such as Very High Speed DSL), Universal Asymmetric DSL (UADSL), High Bit Rate DSL (HDSL), and Local Area Network (LAN) can be used.

또한, 본 명세서에서 제시되는 네트워크부(110)는 CDMA(Code Division Multi Access), TDMA(Time Division Multi Access), FDMA(Frequency Division Multi Access), OFDMA(Orthogonal Frequency Division Multi Access), SC-FDMA(Single Carrier-FDMA) 및 다른 시스템들과 같은 다양한 무선 통신 시스템들을 사용할 수 있다.In addition, the network unit 110 presented herein is CDMA (Code Division Multi Access), TDMA (Time Division Multi Access), FDMA (Frequency Division Multi Access), OFDMA (Orthogonal Frequency Division Multi Access), SC-FDMA ( A variety of wireless communication systems may be used, such as Single Carrier-FDMA) and other systems.

본 개시에서 네트워크부(110)는 유선 및 무선 등과 같은 그 통신 양태를 가리지 않고 구성될 수 있으며, 단거리 통신망(PAN: Personal Area Network), 근거리 통신망(WAN: Wide Area Network) 등 다양한 통신망으로 구성될 수 있다. 또한, 상기 네트워크부(110)는 공지의 월드와이드웹(WWW: World Wide Web)일 수 있으며, 적외선(IrDA: Infrared Data Association) 또는 블루투스(Bluetooth)와 같이 단거리 통신에 이용되는 무선 전송 기술을 이용할 수도 있다. 본 명세서에서 설명된 기술들은 위에서 언급된 네트워크들뿐만 아니라, 다른 네트워크들에서도 사용될 수 있다.In the present disclosure, the network unit 110 may be configured regardless of its communication mode, such as wired and wireless, and may be configured with various communication networks such as a personal area network (PAN) and a wide area network (WAN). can In addition, the network unit 110 may be a known World Wide Web (WWW), using a wireless transmission technology used for short-range communication such as infrared (IrDA) or Bluetooth (Bluetooth). may be The techniques described herein may be used in the networks mentioned above, as well as in other networks.

본 개시의 비디오 카메라부(120)는, 특정 장소에 관련한 비디오 이미지를 획득하기 위한 복수의 카메라를 포함할 수 있다. 예컨대, 비디오 카메라부(120)는 특정 영역에 대한 모니터링을 위한 복수의 비디오 이미지들을 획득하기 위하여 특정 영역에 대응하는 방향 또는 촬영 각도로 구비된 복수의 비디오 카메라를 포함할 수 있다. 이 경우, 복수의 비디오 카메라 각각은 특정 영역을 촬영(또는 모니터링)하기 위해 서로 상이한 위치 각각에서 일부 중첩된 시야를 갖도록 구비될 수 있다. 예를 들어, 서로 인접한 제 1 비디오 카메라 및 제 2 비디오 카메라 각각을 통해 획득되는 제 1 비디오 이미지들 및 제 2 비디오 이미지들은 서로 적어도 일부의 중첩 영역을 포함할 수 있다. 중첩 영역은, 제 1 비디오 이미지와 제 2 비디오 이미지에 동일하게 포함된 영역을 의미할 수 있다. 이러한 복수의 비디오 이미지는 특정 영역에서 발생할 수 있는 이벤트를 보다 용이하게 감지하기 위해, 높은 시야를 갖도록 구비될 수 있다.The video camera unit 120 of the present disclosure may include a plurality of cameras for acquiring a video image related to a specific place. For example, the video camera unit 120 may include a plurality of video cameras provided in a direction or a photographing angle corresponding to a specific area in order to acquire a plurality of video images for monitoring the specific area. In this case, each of the plurality of video cameras may be provided to have a partially overlapping field of view at each of different positions in order to photograph (or monitor) a specific area. For example, the first video images and the second video images acquired through each of the first and second video cameras adjacent to each other may include at least a partial overlapping area with each other. The overlapping area may mean an area equally included in the first video image and the second video image. The plurality of video images may be provided to have a high field of view in order to more easily detect an event that may occur in a specific area.

본 개시의 다른 실시예에 따르면, 특정 인접 비디오 카메라 각각은 서로 상이한 프레임 레이트(frame rate)를 가질 수 있다. 프레임 레이트는, 하나의 비디오 이미지를 표시하는 속도를 의미할 수 있다. 예컨대, 서로 인접한 제 1 비디오 카메라 및 제 2 비디오 카메라의 프레임 레이트 각각은 12fps 및 25fps일 수 있다. 다시 말해, 제 1 비디오 카메라를 통해 획득한 제 1 비디오 이미지들은 1초에 12 프레임을 표시하며, 제 2 비디오 카메라를 통해 획득한 제 2 비디오 이미지들은 1초에 25 프레임을 표시할 수 있다. 인접한 카메라 각각의 프레임 레이트가 상이함에 따라 각 카메라를 통해 수신한 복수의 이미지를 조합하는 과정에서의 효율이 향상될 수 있다.According to another embodiment of the present disclosure, each of the specific adjacent video cameras may have a different frame rate from each other. The frame rate may mean a speed at which one video image is displayed. For example, the frame rates of the first video camera and the second video camera adjacent to each other may be 12 fps and 25 fps, respectively. In other words, the first video images acquired through the first video camera may display 12 frames per second, and the second video images acquired through the second video camera may display 25 frames per second. As the frame rates of each of the adjacent cameras are different, efficiency in the process of combining a plurality of images received through each camera may be improved.

본 개시의 또 다른 실시예에 따르면, 특정 인접 비디오 카메라 각각은 서로 상이한 해상도(display resolution)를 가질 수 있다. 해상도는 비디오 이미지에 대한 화질을 의미할 수 있다. 인접한 카메라 각각의 해상도가 서로 상이함에 따라 각 카메라를 통해 수신한 복수의 이미지들을 조합하는 과정에서의 효율이 향상될 수 있다. 이 경우, 후속되는 조합 과정에서 모든 비디오 이미지의 해상도가 서로 일치되도록 변환될 수 있다. According to another embodiment of the present disclosure, each of the specific adjacent video cameras may have different display resolutions. The resolution may mean the quality of the video image. As the resolutions of adjacent cameras are different from each other, efficiency in the process of combining a plurality of images received through each camera may be improved. In this case, in a subsequent combining process, the resolutions of all video images may be converted to match each other.

본 개시의 일 실시예에 따르면 디스플레이부(130)는 프로세서(160)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크를 통해 수신한 임의의 형태의 정보를 출력할 수 있다.According to an embodiment of the present disclosure, the display unit 130 may output any type of information generated or determined by the processor 160 and any type of information received through a network.

본 개시의 일 실시예에 따르면, 디스플레이부(130)는 비디오 카메라부(120)를 통해 획득한 복수의 비디오 이미지를 디스플레이할 수 있다. 예를 들어, 디스플레이부(130)는 비디오 카메라부(120)에 포함된 복수의 비디오 카메라 중 특정 비디오 카메라로부터 획득한 복수의 이미지를 디스플레이 할 수 있다. 이 경우, 디스플레이되는 복수의 이미지는, 시점 별로 획득되는 이미지들의 조합으로, 시간의 흐름에 따른 각 비디오 이미지를 나열하여 영상화한 것을 의미할 수 있다. 즉, 디스플레이부(130)는 복수의 비디오 카메라 각각으로부터 복수의 비디오 이미지를 수신하여 디스플레이함으로써, 사용자에게 각 비디오 카메라가 촬영하는 영역에 대한 모니터링을 가능하게할 수 있다.According to an embodiment of the present disclosure, the display unit 130 may display a plurality of video images acquired through the video camera unit 120 . For example, the display unit 130 may display a plurality of images obtained from a specific video camera among a plurality of video cameras included in the video camera unit 120 . In this case, the plurality of displayed images is a combination of images acquired for each viewpoint, and may mean that each video image is arranged and visualized according to the passage of time. That is, the display unit 130 may receive and display a plurality of video images from each of the plurality of video cameras, thereby enabling the user to monitor an area photographed by each video camera.

또한, 디스플레이부(130)는 입력 및 출력에 관한 도구들을 포함하는 그래픽 사용자 인터페이스를 디스플레이할 수 있다. 디스플레이부(130)는 도 3에 도시된 바와 같은 그래픽 사용자 인터페이스를 표시할 수 있다. 이하에서 도시되고 그리고 후술되는 그래픽 사용자 인터페이스에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.Also, the display unit 130 may display a graphic user interface including tools related to input and output. The display unit 130 may display a graphic user interface as shown in FIG. 3 . The detailed description of the graphical user interface shown and described below is merely an example, and the present disclosure is not limited thereto.

본 개시의 일 실시예에서 디스플레이부(130)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED), 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. 이들 중 일부 디스플레이 모듈은 그를 통해 외부를 볼 수 있도록 투명형 또는 광투과형으로 구성될 수 있다. 이는 투명 디스플레이 모듈이라 지칭될 수 있는데, 상기 투명 디스플레이 모듈의 대표적인 예로는 TOLED(Transparent OLED) 등이 있다.In an embodiment of the present disclosure, the display unit 130 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode, OLED), a flexible display, and a three-dimensional display (3D display) may include at least one. Some of these display modules may be configured as a transparent type or a light transmitting type so that the outside can be viewed through them. This may be referred to as a transparent display module, and a representative example of the transparent display module is a transparent OLED (TOLED).

본 개시의 실시예들에서, “표시”는 디스플레이부(130)를 통해 사용자에게 데이터가 보여 지도록 하는 동작일 수 있다. “표시”와 “디스플레이”는 상호 교환 가능하게 사용될 수 있다.In embodiments of the present disclosure, “display” may be an operation of displaying data to a user through the display unit 130 . “Display” and “display” may be used interchangeably.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 클라이언트로부터의 입력을 허용하기 위한 입력부(140)를 포함할 수 있다. 입력부(140)는 클라이언트로부터 다양한 입력을 입력 받을 수 있다. 예를 들어, 입력부(140)는, 특정 카메라에 대응하는 비디오 이미지를 표시하기 위한 클라이언트의 선택 입력 또는, 파노라마 비디오 이미지 내에서 특정 관심 영역에 관련한 클라이언트의 선택 입력 등을 입력 받을 수 있다. 입력부(140)를 통한 클라이언트의 입력에 따라 본 개시의 실시예들에 따른 복수의 비디오 이미지에 기반한 파노라마 비디오 이미지를 제공하기 위한 컴퓨터 프로그램이 실행될 수 있다. According to an embodiment of the present disclosure, the computing device 100 may include an input unit 140 for accepting an input from a client. The input unit 140 may receive various inputs from the client. For example, the input unit 140 may receive a selection input of a client for displaying a video image corresponding to a specific camera or a selection input of a client related to a specific region of interest in the panoramic video image. According to a client input through the input unit 140 , a computer program for providing a panoramic video image based on a plurality of video images according to embodiments of the present disclosure may be executed.

본 개시의 실시예들에 따른 입력부(140)는 클라이언트의 버튼 조작 또는 터치 입력을 감지하여 신호를 수신하거나, 카메라 또는 마이크로폰을 통하여 사용자 등의 음성 또는 동작을 수신하여 이를 입력 신호로 변환할 수도 있다. 이를 위해 음성 인식(Speech Recognition) 기술 또는 동작 인식(Motion Recognition) 기술들이 사용될 수 있다.The input unit 140 according to embodiments of the present disclosure may receive a signal by sensing a button manipulation or a touch input of a client, or may receive a user's voice or motion through a camera or a microphone and convert it into an input signal. . For this, speech recognition technology or motion recognition technology may be used.

본 개시의 실시예들에 따른 입력부(140)는 컴퓨팅 장치(100)와 연결된 외부 입력 장비로서 구현될 수도 있다. 예를 들어 입력 장비는, 마우스, 키보드, 터치패드, 조이스틱, 트랙 패드, 스타일러스, 입력 버튼, 터치 스크린, 또는 이들의 조합 중 적어도 하나일 수 있으나, 이는 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The input unit 140 according to embodiments of the present disclosure may be implemented as an external input device connected to the computing device 100 . For example, the input device may be at least one of a mouse, a keyboard, a touchpad, a joystick, a trackpad, a stylus, an input button, a touch screen, or a combination thereof, but this is only an example and the present disclosure is not limited thereto.

본 개시의 일 실시예에 따르면, 입력부(140)는 디스플레이부(130)와 동일한 구성일 수도 있다. 예컨대, 입력부(140)는 클라이언트의 선택 입력을 수신하도록 구현되는 터치 스크린으로 구성될 수 있다. 터치 스크린은 접촉식 정전용량 방식, 적외선 광 감지 방식, 표면 초음파(SAW) 방식, 압전 방식, 저항막 방식 중 어느 하나의 방식이 사용될 수 있다. 전술한 터치 스크린에 대한 자세한 기재는 본 발명의 일 실시예에 따른 예시일 뿐이며, 다양한 터치 스크린 패널이 컴퓨팅 장치(100)에 채용될 수 있다. 터치 스크린으로 구성된 입력부(140)는 터치 센서를 포함할 수 있다. 터치 센서는 입력부(140)의 특정 부위에 가해진 압력 또는 입력부(140)의 특정 부위에 발생하는 정전 용량 등의 변화를 전기적인 입력신호로 변환하도록 구성될 수 있다. 터치 센서는 터치 되는 위치 및 면적 뿐만 아니라, 터치 시의 압력까지도 검출할 수 있도록 구성될 수 있다. 터치 센서에 대한 터치 입력이 있는 경우, 그에 대응하는 신호(들)는 터치 제어기로 보내진다. 터치 제어기는 그 신호(들)를 처리한 다음 대응하는 데이터를 프로세서(160)로 전송한다. 이로써, 프로세서는 입력부(140)의 어느 영역이 터치 되었는지 여부 등을 인식할 수 있게 된다. 이에 따라, 본 개시의 디스플레이부(130)는 클라이언트와 컴퓨팅 장치(100)간의 정보 교환을 위한 입/출력을 허용할 수 있다. 따라서, 클라이언트는 디스플레이부(130)를 통해 디스플레이(또는, 스크린)된 모든 가시적인 화면 개체(인터페이스 장치)에 액세스할 수 있다.According to an embodiment of the present disclosure, the input unit 140 may have the same configuration as the display unit 130 . For example, the input unit 140 may be configured as a touch screen configured to receive a selection input from a client. For the touch screen, any one of a contact capacitive method, an infrared light sensing method, a surface ultrasonic wave (SAW) method, a piezoelectric method, and a resistive film method may be used. The detailed description of the above-described touch screen is merely an example according to an embodiment of the present invention, and various touch screen panels may be employed in the computing device 100 . The input unit 140 configured as a touch screen may include a touch sensor. The touch sensor may be configured to convert a change in pressure applied to a specific portion of the input unit 140 or capacitance generated at a specific portion of the input unit 140 into an electrical input signal. The touch sensor may be configured to detect not only the touched position and area, but also the pressure at the time of the touch. When there is a touch input to the touch sensor, a signal(s) corresponding thereto is sent to the touch controller. The touch controller processes the signal(s) and then sends the corresponding data to the processor 160 . Accordingly, the processor can recognize which area of the input unit 140 has been touched, and the like. Accordingly, the display unit 130 of the present disclosure may allow input/output for information exchange between the client and the computing device 100 . Accordingly, the client can access all visible screen objects (interface devices) displayed (or screened) through the display unit 130 .

본 개시의 일 실시예에 따르면, 메모리(150)는 컴퓨팅 장치(100)가 생성하거나 결정한 임의의 형태의 정보 및 네트워크를 통해 수신한 임의의 형태의 정보를 저장할 수 있다. 또한, 메모리(150)는 비디오 카메라부(120)로부터 수신한 복수의 비디오 이미지에 관한 정보들을 저장할 수 있다. 구체적으로, 메모리(150)는 비디오 카메라부(120)에 포함된 모든 비디오 카메라 각각으로부터 수신한 비디오 이미지들에 대한 아카이브를 수행할 수 있다. 아카이브는, 실시간 정보(예컨대, 실시간으로 획득되는 복수의 비디오 이미지에 관한 정보)가 생성되는 동시에 저장되는 것을 의미할 수 있다. 이러한 아카이브는, 정보의 생산과 전달, 공유 속도를 극대화하고 지식에 대한 접근성을 향상시킬 수 있다. 예를 들어, 메모리(150)는 입/출력되는 데이터들(예를 들어, 복수의 비디오 이미지, 파노라마 비디오 이미지에 대한 정보 등)을 임시 또는 영구 저장할 수도 있다. According to an embodiment of the present disclosure, the memory 150 may store any type of information generated or determined by the computing device 100 and any type of information received through a network. Also, the memory 150 may store information about a plurality of video images received from the video camera unit 120 . Specifically, the memory 150 may archive video images received from each of all video cameras included in the video camera unit 120 . The archive may mean that real-time information (eg, information about a plurality of video images acquired in real-time) is generated and stored at the same time. Such archives can maximize the speed of information production, delivery and sharing and improve access to knowledge. For example, the memory 150 may temporarily or permanently store input/output data (eg, information on a plurality of video images and panoramic video images).

또한, 메모리(150)는 본 개시의 일 실시예에 따른 복수의 비디오 이미지에 대한 조합을 통해 파노라마 비디오 이미지를 생성하기 위한 방법을 수행하기 위한 컴퓨터 프로그램을 저장할 수 있으며, 저장된 컴퓨터 프로그램은 컴퓨팅 장치를 구성하는 하나 이상의 프로세서에 의하여 판독되어 구동될 수 있다. In addition, the memory 150 may store a computer program for performing a method for generating a panoramic video image through a combination of a plurality of video images according to an embodiment of the present disclosure, and the stored computer program uses the computing device. It may be read and driven by one or more processors constituting it.

본 개시의 일 실시예에 따르면, 메모리(150)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 컴퓨팅 장치(100)는 인터넷(internet) 상에서 상기 메모리(150)의 저장 기능을 수행하는 웹 스토리지(web storage)와 관련되어 동작할 수도 있다. 전술한 메모리에 대한 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다.According to an embodiment of the present disclosure, the memory 150 is a flash memory type, a hard disk type, a multimedia card micro type, or a card type memory (eg, For example, SD or XD memory), Random Access Memory (RAM), Static Random Access Memory (SRAM), Read-Only Memory (ROM), Electrically Erasable Programmable Read-Only Memory (EEPROM), Programmable Read (PROM) -Only Memory), a magnetic memory, a magnetic disk, and an optical disk may include at least one type of storage medium. The computing device 100 may operate in relation to a web storage that performs a storage function of the memory 150 on the Internet. The description of the above-described memory is only an example, and the present disclosure is not limited thereto.

본 개시의 일 실시에에 따르면, 프로세서(160)는 메모리(150)에 저장된 컴퓨터 프로그램을 판독하여 본 개시의 일 실시예에 따른 파노라마 비디오 이미지를 제공할 수 있다. According to an embodiment of the present disclosure, the processor 160 may read a computer program stored in the memory 150 and provide a panoramic video image according to an exemplary embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 프로세서(160)는 하나 이상의 코어로 구성될 수 있으며, 컴퓨팅 장치의 중앙 처리 장치(CPU: central processing unit), 범용 그래픽 처리 장치 (GPGPU: general purpose graphics processing unit), 텐서 처리 장치(TPU: tensor processing unit) 등의 데이터 분석, 딥러닝을 위한 프로세서를 포함할 수 있다. 프로세서(160)는 통상적으로 컴퓨팅 장치(100)의 전반적인 동작을 처리할 수 있다. According to an embodiment of the present disclosure, the processor 160 may be configured with one or more cores, and may include a central processing unit (CPU) and a general purpose graphics processing unit (GPGPU) of a computing device. , data analysis such as a tensor processing unit (TPU), and a processor for deep learning. The processor 160 may typically process the overall operation of the computing device 100 .

프로세서(160)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나, 메모리(150)에 저장된 응용 프로그램을 구동함으로써, 클라이언트에게 적절한 정보 또는, 기능을 제공하거나 처리할 수 있다.The processor 160 processes signals, data, information, etc. input or output through the above-described components, or by driving an application program stored in the memory 150, to provide or process appropriate information or functions to the client. have.

본 개시의 일 실시예에 따르면, 프로세서(160)는 복수의 비디오 이미지에 기초하여 파노라마 비디오 이미지를 생성할 수 있다. 프로세서(160)는 위에서 살펴본 구성 요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나, 그래픽 사용자 인터페이스를 제공하기 위한 응용 프로그램을 구동함으로써, 클라이언트에게 적정한 정보 또는 기능을 제공하거나 처리할 수 있다. According to an embodiment of the present disclosure, the processor 160 may generate a panoramic video image based on a plurality of video images. The processor 160 processes signals, data, information, etc. input or output through the above-described components, or by driving an application program for providing a graphical user interface, thereby providing or processing appropriate information or functions to the client. have.

구체적으로, 프로세서(160)는 복수의 비디오 이미지에 대한 실시간 조합 또는 아카이브 조합을 수행하여 파노라마 비디오 이미지를 생성할 수 있다. 프로세서(160)는 비디오 카메라부(120)에 포함된 복수의 비디오 카메라 및 메모리(150) 중 적어도 하나로부터 복수의 비디오 이미지를 수신할 수 있으며, 수신한 복수의 비디오 이미지들에 대한 조합을 수행하여 파노라마 비디오 이미지를 생성할 수 있다. 파노라마 비디오 이미지는, 사용자가 보는 시야각 이상의 화각을 복수의 카메라를 통해 동시에 촬영하고, 촬영된 이미지들의 결합을 통해 보다 넓은 시야각을 확보(예컨대, 360도 방향의 시야)하기 위한 비디오 이미지일 수 있다. 프로세서(160)는 비디오 카드 모듈을 포함할 수 있다. 비디오 카드 모듈은, 초기 변환 설정 과정에서 리소스에 관여하고, 복수의 비디오 이미지를 하나의 파노라마 비디오 이미지로의 조합을 수행할 수 있다. 예컨대, 프로세서(160)에 포함된 비디오 카드 모듈은, 그래픽 프로세싱 유닛(graphics processing unit)으로 구성되어 파노라마 비디오 이미지 생성 과정이 보다 고속화될 수 있다. Specifically, the processor 160 may generate a panoramic video image by performing real-time combining or archive combining on a plurality of video images. The processor 160 may receive a plurality of video images from at least one of a plurality of video cameras and the memory 150 included in the video camera unit 120, and perform a combination on the plurality of received video images. You can create panoramic video images. The panoramic video image may be a video image for simultaneously capturing an angle of view greater than the viewing angle viewed by the user through a plurality of cameras, and securing a wider viewing angle (eg, 360-degree field of view) by combining the captured images. The processor 160 may include a video card module. The video card module may participate in a resource in the initial conversion setting process, and may perform a combination of a plurality of video images into one panoramic video image. For example, the video card module included in the processor 160 is configured as a graphics processing unit, so that the panoramic video image generation process can be accelerated.

구체적인 예를 들어, 비디오 카메라부(120)로부터 직접적으로 복수의 비디오 이미지를 수신하는 경우, 프로세서(160)는 복수의 이미지에 대한 실시간 조합을 통해 파노라마 비디오 이미지를 생성할 수 있다. 즉, 복수의 비디오 이미지는 실시간으로 조합되도록, 복수의 비디오 카메라로부터 직접적으로 프로세서(160)로 전송될 수 있다.As a specific example, when receiving a plurality of video images directly from the video camera unit 120 , the processor 160 may generate a panoramic video image through real-time combination of the plurality of images. That is, the plurality of video images may be directly transmitted from the plurality of video cameras to the processor 160 to be combined in real time.

또한, 메모리(150)로부터 아카이브된 복수의 비디오 이미지를 수신하는 경우, 프로세서(160)는 아카이브된 복수의 비디오 이미지에 대한 아카이브 조합을 통해 파노라마 비디오 이미지를 생성할 수 있다. 즉, 복수의 비디오 이미지는 아카이브된 데이터에 기반하여 조합되도록, 메모리(150)로부터 프로세서(160)로 전송될 수 있다. 메모리(150)에 아카이브된 복수의 비디오 이미지를 활용하는 경우, 필요에 따라 원하는 비디오 이미지들을 획득하여 파노라마 비디오 이미지를 생성할 수 있어, 다양한 상황에서 보다 명확한 모니터링 정보를 얻을 수 있다. In addition, when receiving a plurality of archived video images from the memory 150 , the processor 160 may generate a panoramic video image through an archive combination of the plurality of archived video images. That is, the plurality of video images may be transmitted from the memory 150 to the processor 160 to be combined based on the archived data. When a plurality of video images archived in the memory 150 are utilized, desired video images may be acquired as necessary to generate a panoramic video image, so that clearer monitoring information may be obtained in various situations.

프로세서(160)는 비디오 카메라부(120)를 통해 실시간으로 획득되는 복수의 이미지들 및 메모리(150)에 저장된 아카이브된 복수의 이미지들 중 적어도 하나에 기반하여 본 개시의 파노라마 비디오 이미지를 생성할 수 있다. 다시 말해, 프로세서(160)는 실시간 영상에 관련하여 파노라마 비디오 영상을 생성하거나 또는, 지난 시점의 영상(즉, 아카이브된 복수의 비디오 이미지들)에 관련하여 파노라마 비디오 영상을 생성할 수 있다. 따라서, 프로세서(160)는 다양한 시점에 관련하여 파노라마 비디오 이미지를 생성하여 제공할 수 있다.The processor 160 may generate a panoramic video image of the present disclosure based on at least one of a plurality of images acquired in real time through the video camera unit 120 and a plurality of archived images stored in the memory 150 . have. In other words, the processor 160 may generate a panoramic video image in relation to a real-time image, or may generate a panoramic video image in relation to an image of a past viewpoint (ie, a plurality of archived video images). Accordingly, the processor 160 may generate and provide a panoramic video image in relation to various viewpoints.

본 개시의 일 실시예에 따르면, 프로세서(160)는 그래픽 사용자 인터페이스를 생성할 수 있으며, 생성된 그래픽 사용자 인터페이스(200)를 디스플레이부(130)를 통해 디스플레이할 수 있다. 그래픽 사용자 인터페이스(200)는 그래픽 화면 구성 요소(윈도우, 아이콘, 메뉴, 버튼, 목록 등)의 형태로 사용자가 사용할 수 있는 모든 시스템 개체 및 기능을 표시하는 것을 기반으로 컴퓨팅 장치(100)와 클라이언트 간의 상호 작용을 위한 사용자 인터페이스일 수 있다. According to an embodiment of the present disclosure, the processor 160 may generate a graphic user interface and display the generated graphic user interface 200 through the display unit 130 . The graphical user interface 200 is based on displaying all system objects and functions available to the user in the form of graphical screen components (windows, icons, menus, buttons, lists, etc.) between the computing device 100 and the client. It may be a user interface for interaction.

프로세서(160)에 의해 생성된 그래픽 사용자 인터페이스는, 도 3에 도시된 바와 같이, 선택 블록(210), 관심 영역 선택 블록(220) 및 디스플레이 블록(230)을 포함할 수 있다. The graphical user interface generated by the processor 160 may include a selection block 210 , a region of interest selection block 220 , and a display block 230 as shown in FIG. 3 .

그래픽 사용자 인터페이스(200)에 포함된 선택 블록(210)은 복수의 비디오 카메라 중 적어도 둘 이상의 인접한 비디오 카메라에 대한 클라이언트의 선택 입력을 수신하기 위한 블록일 수 있다. 구체적으로, 선택 블록(210)은 상이한 시야를 가진 복수의 비디오 이미지에 대한 조합을 수행하기 위하여 적어도 둘 이상의 인접한 비디오 카메라들에 대한 클라이언트의 선택을 수신하기 위한 블록일 수 있다. 즉, 클라이언트가 선택 블록(210)을 통해 적어도 둘 이상의 비디오 카메라를 선택한 경우, 프로세서(160)는 상기 둘 이상의 비디오 카메라에 대응하는 복수의 이미지들 간의 조합을 수행하여 파노라마 비디오 이미지를 생성할 수 있다. The selection block 210 included in the graphical user interface 200 may be a block for receiving a selection input from a client for at least two adjacent video cameras among a plurality of video cameras. Specifically, the selection block 210 may be a block for receiving a selection of a client for at least two or more adjacent video cameras in order to perform a combination on a plurality of video images having different fields of view. That is, when the client selects at least two video cameras through the selection block 210, the processor 160 may generate a panoramic video image by performing a combination between a plurality of images corresponding to the two or more video cameras. .

예를 들어, 비디오 카메라부(120)가 제 1 비디오 카메라, 제 2 비디오 카메라, 제 3 비디오 카메라 및 제 4 비디오 카메라를 포함하며, 선택 블록(210)을 통해 클라이언트가 서로 인접한 제 2 비디오 카메라 및 제 3 비디오 카메라를 선택한 경우, 프로세서(160)는 해당 클라이언트의 선택에 기반하여 제 2 비디오 카메라 및 제 3 비디오 카메라 각각을 통해 획득한 제 2 비디오 이미지들 및 제 3 비디오 이미지들을 조합하여 파노라마 비디오 이미지를 생성할 수 있다. 전술한 비디오 카메라 및 비디오 이미지에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이제 제한되지 않는다. For example, the video camera unit 120 includes a first video camera, a second video camera, a third video camera, and a fourth video camera, and through the selection block 210 , the client selects a second video camera adjacent to each other and When the third video camera is selected, the processor 160 combines the second video images and the third video images acquired through each of the second video camera and the third video camera based on the selection of the corresponding client to obtain a panoramic video image. can create The specific description of the above-described video camera and video image is merely exemplary, and the present disclosure is not limited thereto.

즉, 그래픽 사용자 인터페이스(200)는 파노라마 비디오 이미지 생성에 기반이 되는 비디오 이미지에 대한 클라이언트의 입력을 수신하기 위한 선택 블록(210)을 포함할 수 있다. 따라서, 클라이언트는 선택 블록(210)을 통해 자신이 보다 넓은 시야를 통해 모니터링하고자 하는 영역(즉, 비디오 카메라들이 촬영하는 영역)을 결정할 수 있다. That is, the graphical user interface 200 may include a selection block 210 for receiving a client's input for a video image on which the panoramic video image is generated. Accordingly, the client may determine an area (ie, an area photographed by video cameras) that the client wants to monitor through a wider field of view through the selection block 210 .

또한, 그래픽 사용자 인터페이스(200)에 포함된 관심 영역 선택 블록(220)은 파노라마 비디오 이미지 내에서 분리된 비디오 이미지를 나타내기 위하여 임의의 영역에 대한 클라이언트의 선택 입력을 수신하기 위한 블록일 수 있다. 분리된 비디오 이미지는, 파노라마 비디오 이미지의 특정 영역을 보다 용이하게 식별하기 위하여 파노라마 비디오 내에서 특정 영역만을 추출한 비디오 이미지일 수 있다. 구체적으로, 관심 영역 선택 블록(220)은 복수의 비디오 이미지의 조합인 파노라마 비디오 이미지 내에서 보다 면밀히 모니터링을 수행하기 위한 임의의 영역에 관한 클라이언트의 선택 입력을 수신할 수 있다. 예를 들어, 관심 영역 선택 블록(220)은 파노라마 이미지 내에 일정 영역에 대한 클라이언트의 드래그 입력을 허용할 수 있으며, 프로세서(160)는 해당 드래그 입력에 대응하는 영역만을 추출하여 분리된 비디오 이미지를 생성할 수 있다. 즉, 클라이언트는 관심 영역 선택 블록(220)을 통해 파노라마 비디오 이미지 중 자신이 보다 면밀히 검토하고자 하는 영역만을 제공받을 수 있어, 모니터링의 효율이 상승될 수 있다. 또한, 비디오 분석의 수행 범위가 축소되어 분석의 정확도 향상에 기여할 수 있다. Also, the region of interest selection block 220 included in the graphical user interface 200 may be a block for receiving a selection input from a client for an arbitrary region in order to display a video image separated within the panoramic video image. The separated video image may be a video image obtained by extracting only a specific region within the panoramic video in order to more easily identify a specific region of the panoramic video image. Specifically, the region of interest selection block 220 may receive a selection input from the client regarding an arbitrary region for more closely monitoring within a panoramic video image that is a combination of a plurality of video images. For example, the region of interest selection block 220 may allow a client's drag input for a certain region within the panoramic image, and the processor 160 generates a separated video image by extracting only the region corresponding to the drag input. can do. That is, the client may be provided with only a region that the client wants to examine more closely among the panoramic video images through the region of interest selection block 220 , thereby increasing monitoring efficiency. In addition, the performance range of video analysis may be reduced, which may contribute to improving the accuracy of analysis.

또한, 그래픽 사용자 인터페이스(200)에 포함된 디스플레이 블록(230)은 복수의 비디오 이미지 또는 파노라마 비디오 이미지를 디스플레이하기 위한 블록일 수 있다. 구체적으로, 디스플레이 블록(230)은 하나 이상의 비디오 카메라 레이아웃 셀을 포함할 수 있다. 하나 이상의 비디오 카메라 레이아웃 셀 각각은, 다양한 비디오 이미지를 표시하기 위하여 구분된 영역일 수 있다. 다양한 비디오 이미지는 예를 들어, 복수의 비디오 이미지, 복수의 비디오 이미지에 기반하여 생성된 파노라마 비디오 이미지 및 파노라마 비디오 이미지의 특정 관심 영역에 관한 분리된 비디오 이미지 중 적어도 하나를 포함할 수 있다. 하나 이상의 비디오 카메라 레이아웃 셀 각각에 표시되는 비디오 이미지는 클라이언트의 선택과 관련한 비디오 이미지일 수 있다. 예를 들어, 하나 이상의 비디오 카메라 레이아웃 셀 중 제 1 레이아웃 셀은 제 1 비디오 카메라를 통해 획득된 제 1 비디오 이미지들을 디스플레이할 수 있으며, 제 2 레이아웃 셀은 제 1 비디오 카메라와 인접한 제 2 비디오 카메라를 통해 획득된 제 2 비디오 이미지들을 디스플레이할 수 있고, 그리고 제 3 레이아웃 셀은 제 1 비디오 이미지들 및 제 2 비디오 이미지들의 조합을 통해 생성된 파노라마 비디오 이미지들을 디스플레이할 수 있고, 그리고 제 4 레이아웃 셀은 파노라마 비디오 이미지에서 추출된 분리된 비디오 이미지들을 디스플레이할 수 있다. 전술한 하나 이상의 비디오 카메라 레이아웃 셀 각각에 표시되는 비디오 이미지들에 대한 구체적인 기재는 예시일 뿐, 본 개시는 이에 제한되지 않는다. Also, the display block 230 included in the graphic user interface 200 may be a block for displaying a plurality of video images or a panoramic video image. Specifically, the display block 230 may include one or more video camera layout cells. Each of the one or more video camera layout cells may be a divided area for displaying various video images. The various video images may include, for example, at least one of a plurality of video images, a panoramic video image generated based on the plurality of video images, and a separate video image relating to a specific region of interest in the panoramic video image. The video image displayed in each of the one or more video camera layout cells may be a video image associated with the client's selection. For example, a first layout cell of the one or more video camera layout cells may display first video images acquired through a first video camera, and a second layout cell may display a second video camera adjacent to the first video camera. may display second video images obtained through, and the third layout cell may display panoramic video images generated through the combination of the first video images and the second video images, and the fourth layout cell may include: Separate video images extracted from the panoramic video image may be displayed. The detailed description of video images displayed in each of the one or more video camera layout cells described above is merely an example, and the present disclosure is not limited thereto.

즉, 디스플레이 블록(230)은, 하나 이상의 비디오 카메라 레이아웃 셀을 통해 클라이언트의 선택에 관련한 다양한 비디오 이미지들을 동시에 구분된 영역에 각각 디스플레이함으로써, 클라이언트로 하여금 특정 영역에 대응한 다양한 시야의 영상을 모니터링하도록 할 수 있다. 이에 따라, 클라이언트는 다양한 시야를 통해 특정 영역에 대한 모니터링을 수행할 수 있어, 감시 효율이 향상될 수 있다.That is, the display block 230 displays various video images related to the client's selection through one or more video camera layout cells in a divided area at the same time, so that the client monitors images of various fields of view corresponding to the specific area. can do. Accordingly, the client can monitor a specific area through various fields of view, thereby improving monitoring efficiency.

본 개시의 일 실시예에 따르면, 프로세서(160)는 적어도 둘 이상의 인접한 카메라로부터 획득한 복수의 이미지들을 조합하여 파노라마 비디오 이미지를 생성할 수 있다. 구체적으로, 프로세서(160)는 그래픽 사용자 인터페이스(200)를 통해 복수의 카메라 중 적어도 둘 이상의 인접한 카메라에 대한 선택에 관련한 클라이언트의 선택 입력을 수신할 수 있으며, 상기 클라이언트의 선택 입력에 대응하는 카메라들 각각이 획득한 비디오 이미지들을 조합하여 파노라마 비디오 이미지를 생성할 수 있다. 즉, 프로세서(160)는 그래픽 사용자 인터페이스(200)를 통해 클라이언트로부터 선택된(또는 지정된) 카메라들 각각으로부터 비디오 이미지들을 수신하고, 수신한 복수의 비디오 이미지들 간의 조합을 수행하여 파노라마 비디오 이미지를 생성할 수 있다. According to an embodiment of the present disclosure, the processor 160 may generate a panoramic video image by combining a plurality of images obtained from at least two or more adjacent cameras. Specifically, the processor 160 may receive a selection input of a client related to selection of at least two or more adjacent cameras among a plurality of cameras through the graphical user interface 200 , and select cameras corresponding to the selection input of the client. A panoramic video image can be created by combining the video images each acquired. That is, the processor 160 receives video images from each of the cameras selected (or designated) from the client through the graphical user interface 200, and performs a combination between the plurality of received video images to generate a panoramic video image. can

본 개시에서의 비디오 이미지들 간의 조합은 우측, 좌측, 위, 아래, 가로 및 세로 등 모든 방향을 통한 조합을 포함할 수 있다. 따라서, 본 개시의 비디오 이미지들 간의 조합에 기반하여 생성되는 파노라마 비디오 이미지는 감지하고자 하는 전체 영역에 대한 사실감과 몰입감을 제공함에 따라, 클라이언트에서 자연스럽고 사실적인 인식을 제공하여 비정상 상황(예컨대, 도난, 경보, 재난 등)에 대한 모니터링 작업의 효율을 향상시킬 수 있다.Combinations between video images in the present disclosure may include combinations through all directions, such as right, left, top, bottom, horizontal, and vertical. Therefore, the panoramic video image generated based on the combination between the video images of the present disclosure provides a sense of realism and immersion for the entire area to be detected, and provides a natural and realistic perception at the client to provide a natural and realistic perception of an abnormal situation (eg, theft). , alarm, disaster, etc.) can improve the efficiency of monitoring work.

자세히 설명하면, 프로세서(160)는 수신된 복수의 비디오 이미지를 파노라마 비디오 이미지로 결합하기 위해 필요한 변환을 계산할 수 있다. 프로세서(160)는 인접 카메라들 각각의 비디오 이미지들 중 서로 시간적으로 대응하는 비디오 이미지들에 대한 변환을 수행할 수 있다. 예컨대, 서로 시간적으로 대응하는 비디오 이미지들은, 동일한 시점에 각 카메라를 통해 수신된 각 비디오 이미지의 순서쌍을 의미할 수 있다. More specifically, the processor 160 may calculate a transform required to combine the plurality of received video images into a panoramic video image. The processor 160 may convert video images temporally corresponding to each other among video images of each of the adjacent cameras. For example, video images temporally corresponding to each other may mean an ordered pair of video images received through each camera at the same time.

본 개시에서의 변환은, 비디오 이미지의 밝기 조정 및 비디오 이미지의 대비 조정 중 적어도 하나를 포함할 수 있다. 즉, 초기 변환 및 후속 변환 중 적어도 하나는 비디오 이미지의 밝기 조정 및 비디오 이미지의 대비 조정 중 적어도 하나를 포함할 수 있다. Transformation in the present disclosure may include at least one of adjusting the brightness of the video image and adjusting the contrast of the video image. That is, at least one of the initial transformation and the subsequent transformation may include at least one of adjusting the brightness of the video image and adjusting the contrast of the video image.

예를 들어, 제 1 비디오 카메라 및 제 2 비디오 카메라 각각을 통해 획득한 제 1 비디오 이미지 및 제 2 비디오 이미지는 서로 상이한 시야를 가짐에 따라 밝기 및 대비 중 적어도 하나가 일부 상이할 수 있다. 이에 따라, 제 1 비디오 이미지 및 제 2 비디오 이미지의 조합을 통해 생성된 파노라마 비디오 이미지는 각 영역의 밝기 및 대비의 차이로 인해 부자연스러울 수 있다. 따라서, 프로세서(160)는 보다 자연스러운 파노라마 비디오 이미지 생성을 위해 각 비디오 카메라를 통해 획득한 비디오 이미지들 간의 조합을 수행하는 과정에서 각 비디오 이미지의 밝기 및 대비에 대한 조정을 수행하는 변환을 계산할 수 있다. For example, the first video image and the second video image acquired through each of the first video camera and the second video camera may have different views, and thus at least one of brightness and contrast may be partially different. Accordingly, the panoramic video image generated through the combination of the first video image and the second video image may be unnatural due to differences in brightness and contrast of each region. Accordingly, the processor 160 may calculate a transformation that adjusts the brightness and contrast of each video image in the process of performing a combination between video images acquired through each video camera to generate a more natural panoramic video image. .

프로세서(160)는 변환을 계산하기 위하여 각 카메라를 통해 획득한 각 비디오 이미지에서 최적의 로컬 포인트를 식별할 수 있다. 최적의 로컬 포인트는, 적어도 둘 이상의 인접 카메라들로부터 수신되는 복수의 비디오 이미지 각각을 조합하기 위한 기준이 되는 영역일 수 있다. 최적의 로컬 포인트는, 예를 들어, 그라디언트 변화(gradient differences) 또는 적분 특성(integral characteristics)의 배경 복잡도에 기반하여 식별될 수 있다. 적분 특성은 포인트 주변의 복잡하고 누적된 특성(예컨대, 밝기, 대비, 양방향 그래디언트 드롭 값 등)을 의미할 수 있다. 예컨대, 최적의 로컬 포인트는, 각 비디오 모듈의 일부 중첩되는 시야에서 동일한 오브젝트가 식별되는 임의의 위치일 수 있다. 추가적인 실시예에서, 프로세서(160)는 수동 모드를 통해 클라이언트로부터 최적의 로컬 포인트에 대한 입력을 수신할 수 있다. 이 경우, 최적의 로컬 포인트는 수동 모드에서의 클라이언트의 입력에 대응하여 비교되는 포인트일 수 있다. 예컨대, 수동 모드는, 이미지에서 최적의 로컬 포인트를 식별하기 어려운 경우, 활용될 수 있다. The processor 160 may identify an optimal local point in each video image acquired through each camera to calculate a transform. The optimal local point may be a reference region for combining each of a plurality of video images received from at least two or more adjacent cameras. An optimal local point may be identified based on background complexity of, for example, gradient differences or integral characteristics. The integral characteristic may mean a complex and accumulated characteristic (eg, brightness, contrast, bidirectional gradient drop value, etc.) around a point. For example, the optimal local point may be any location where the same object is identified in some overlapping field of view of each video module. In a further embodiment, the processor 160 may receive input for the best local point from the client via a passive mode. In this case, the optimal local point may be a point compared corresponding to the input of the client in the passive mode. For example, a manual mode may be utilized when it is difficult to identify an optimal local point in the image.

즉, 프로세서(160)는 특정 인접 카메라들 각각으로부터 수신되는 각 비디오 이미지로부터 조합의 기준이 되는 영역인 최적의 로컬 포인트를 식별하고, 각 비디오 이미지로부터 식별된 최적의 로컬 포인트에 기반하여 각 비디오 이미지의 픽셀의 평균을 결합 영역에 적용하여 파노라마 비디오 이미지로 결합할 수 있다. 이에 따라, 조합을 통해 생성되는 파노라마 비디오 이미지는, 생성의 기반이 되는 이미지 데이터 즉, 각 프레임 간의 전환이 매끄러울 수 있다. 다시 말해, 이미지 데이터의 조합 과정에 경계 부분이 자연스럽게 연결되어 보다 자연스러운 파노라마 비디오 이미지 생성이 가능해질 수 있다. That is, the processor 160 identifies an optimal local point that is a reference region for a combination from each video image received from each of the specific adjacent cameras, and based on the identified optimal local point from each video image, each video image can be combined into a panoramic video image by applying the average of the pixels of Accordingly, in the panoramic video image generated through the combination, the image data that is the basis for generation, that is, the transition between each frame may be smooth. In other words, a more natural panoramic video image may be created by naturally connecting the boundary portion in the process of combining image data.

또한, 프로세서(160)는 변환이 수행된 비디오 이미지들 외에 다른 이미지들에 대하여 동일한 변환을 적용하여 복수의 비디오 이미지를 파노라마 비디오 이미지로 조합할 수 있다. 다시 말해, 초기 변환이 수행된 비디오 이미지들과 상이한 시점(예컨대, 후속 시점)에 각 비디오 카메라를 통해 획득한 비디오 이미지들에 대하여 이전 변환 단계에서 설정된 변환이 동일하게 적용될 수 있다. Also, the processor 160 may combine a plurality of video images into a panoramic video image by applying the same transformation to other images other than the transformed video images. In other words, the transformation set in the previous transformation step may be identically applied to the video images acquired through each video camera at a different time point (eg, a subsequent viewpoint) from the video images on which the initial transformation has been performed.

즉, 프로세서(160)는 서로 대응하는 시점에 인접한 비디오 모듈 각각으로부터 수신한 비디오 이미지에 대한 초기 변환을 계산하고, 해당 변환을 통해 후속적으로 획득되는 비디오 이미지들에 적용(즉, 후속 변환)함으로써, 파노라마 비디오 이미지를 생성할 수 있다. 이에 따라, 복수의 비디오 이미지들의 조합을 통한 파노라마 비디오 이미지 생성 과정에서 컴퓨팅 파워가 절감될 수 있어 효율이 향상될 수 있다. That is, the processor 160 calculates an initial transformation for a video image received from each of the video modules adjacent to each other at a corresponding viewpoint, and applies (ie, subsequent transformation) to video images subsequently obtained through the corresponding transformation. , can create panoramic video images. Accordingly, computing power may be reduced in a process of generating a panoramic video image through a combination of a plurality of video images, and thus efficiency may be improved.

본 개시의 일 실시예에 따르면, 프로세서(160)는 복수의 비디오 카메라 각각에 대응하는 렌즈 파라미터 정보를 수신할 수 있다. 렌즈 파라미터 정보는 각 비디오 카메라의 이미지 획득 성능에 관련한 정보로, 예를 들어, 채도, 대비, 선명도(또는 해상도), 밝기 등에 대한 정보를 포함할 수 있다. 이러한 렌즈 파라미터 정보는 변환을 계산하는 과정에서 각 비디오 이미지에서의 최적의 로컬 포인트 검색을 용이하게 하여 파라미터 비디오 이미지의 생성 효율의 증진시킬 수 있다. According to an embodiment of the present disclosure, the processor 160 may receive lens parameter information corresponding to each of a plurality of video cameras. The lens parameter information is information related to the image acquisition performance of each video camera, and may include, for example, information on saturation, contrast, sharpness (or resolution), brightness, and the like. Such lens parameter information may facilitate the search for an optimal local point in each video image in the process of calculating a transform, thereby enhancing the generation efficiency of the parametric video image.

본 개시의 일 실시예에 따르면, 프로세서(160)는 복수의 비디오 이미지에 대한 조합을 통해 파노라마 비디오 이미지를 생성한 경우, 그래픽 사용자 인터페이스에 포함된 하나 이상의 비디오 카메라 레이아웃 셀 중 적어도 하나에 디스플레이할 것을 결정할 수 있다. According to an embodiment of the present disclosure, when the processor 160 generates a panoramic video image through a combination of a plurality of video images, it is configured to display in at least one of one or more video camera layout cells included in the graphical user interface. can decide

본 개시의 일 실시예에 따르면, 프로세서(160)는 파노라마 비디오 이미지에 대한 비디오 분석을 수행할 수 있다. 비디오 분석은 메타 데이터에 의한 적어도 하나의 검색을 포함할 수 있다. 상기 하나 이상의 검색은, 얼굴 검색, 차량 등록 번호 검색, 움직이는 물체 검색 및 이벤트 검색을 포함할 수 있다.According to an embodiment of the present disclosure, the processor 160 may perform video analysis on a panoramic video image. Video analysis may include at least one search by metadata. The one or more searches may include a face search, a vehicle registration number search, a moving object search, and an event search.

예컨대, 본 개시의 컴퓨팅 장치(100)는 비디오 카메라부에 포함된 복수의 비디오 카메라 각각을 통해 획득한 비디오 이미지들의 아카이브를 메모리(150)에 실시간으로 저장할 수 있다. 메모리(150)에 업로드하거나 비디오 이미지를 프로세서(160)로 전송하는 과정에서 모든 비디오 이미지들은 이미지 내 모든 객체에 대한 데이터를 특징짓는 메타 데이터를 형성되어 있을 수 있다. 이 경우, 메타 데이터는 각 카메라의 시야에서 움직이는 모든 객체(예컨대, 움직임 궤적, 얼굴에 매칭된 식별자, 인식된 번호판 등)에 대한 자세한 설명 정보를 포함할 수 있다. 이에 따라, 프로세서(160)는 메타 데이터를 기반으로 비디오 분석을 위한 하나 이상의 검색이 수행할 수 있다. 즉, 메타 데이터는 비디오 이미지 내의 검색 목적으로 활용될 수 있다. For example, the computing device 100 of the present disclosure may store an archive of video images acquired through each of a plurality of video cameras included in the video camera unit in the memory 150 in real time. In the process of uploading the video image to the memory 150 or transmitting the video image to the processor 160 , all the video images may form metadata characterizing data on all objects in the image. In this case, the metadata may include detailed description information on all objects (eg, movement trajectories, face-matched identifiers, recognized license plates, etc.) moving in the field of view of each camera. Accordingly, the processor 160 may perform one or more searches for video analysis based on the metadata. That is, the metadata may be utilized for a search purpose within a video image.

예를 들어, 클라이언트가 감지하고자 하는 사용자의 이미지(예컨대, 사진)을 가지고 있는 경우, 해당 이미지에 기반한 메타 데이터를 생성함으로써, 복수의 비디오 이미지에 기반한 얼굴 검색을 수행할 수 있다. 다른 예를 들어, 클아이언트가 감지하고자 하는 차량의 등록 번호가 있는 경우, 해당 번호에 기반한 메타 데이터를 생성함으로써, 복수의 비디오 이미지에 기반한 차량 검색을 수행할 수 있다. For example, when the client has an image (eg, a photo) of a user to be detected, a face search based on a plurality of video images may be performed by generating metadata based on the image. As another example, if there is a registration number of a vehicle that the client wants to detect, by generating metadata based on the number, a vehicle search based on a plurality of video images may be performed.

즉, 본 개시의 프로세서(160)는 파노라마 비디오 이미지 내에서 얼굴 검색, 차량 등록 번호 검색, 움직이는 물체 검색 및 이벤트 검색을 포함하는 비디오 분석으로 수행하여 검색 시간을 단축시킴에 따라, 클라이언트의 모니터링 과정에 편의성을 제공할 수 있다. 또한, 비디오 분석에 대상이 되는 비디오 이미지는 개별 스트림의 조합을 통해 생성된 파노라마 비디오 이미지임에 따라, 보다 광범위한 시야 및 균일한 시야를 제공할 수 있으므로, 비디오 분석의 정확도 및 효율이 향상될 수 있다. That is, the processor 160 of the present disclosure reduces the search time by performing video analysis including face search, vehicle registration number search, moving object search, and event search within the panoramic video image, so that the monitoring process of the client It can provide convenience. In addition, as the video image subject to video analysis is a panoramic video image generated through a combination of individual streams, a wider field of view and a uniform field of view can be provided, so that the accuracy and efficiency of video analysis can be improved. .

본 개시의 일 실시예에 따르면, 프로세서(160)는 분리된 비디오 이미지를 생성할 수 있다. 구체적으로, 프로세서(160)는 그래픽 사용자 인터페이스(200)에 포함된 관심 영역 선택 블록을 통해 파노라마 비디오 이미지 내에 임의의 관심 영역에 관한 클라이언트의 선택 입력을 수신할 수 있으며, 해당 선택 입력에 대응하여 파노라마 비디오 이미지 내에서 분리된 비디오 이미지를 생성할 수 있다. 즉, 프로세서(160)에 의해 생성된 분리된 비디오 이미지는 파노라마 비디오 이미지 내의 특정 영역을 확대한 비디오 이미지일 수 있다. 이러한 분리된 비디오 이미지는 프로세서(160)에 의해 그래픽 사용자 인터페이스(200)에 표시되어 디스플레이될 수 있다. 이 경우, 임의의 관심 영역에 대한 클라이언트의 선택에 대응하여 생성된 분리된 비디오 이미지는, 그래픽 사용자 인터페이스(200)에 포함된 하나 이상의 비디오 카메라 레이아웃 셀 중 파노라마 비디오 이미지가 표시된 하나의 비디오 카메라레이아웃 셀과 상이한 다른 하나의 비디오 카메라 레이아웃 셀에 별도의 이미지로써 동시에 표시될 수 있다. According to an embodiment of the present disclosure, the processor 160 may generate a separated video image. Specifically, the processor 160 may receive a selection input from the client regarding an arbitrary region of interest in the panoramic video image through the region of interest selection block included in the graphical user interface 200 , and in response to the selection input, the processor 160 may receive a panorama. You can create a separate video image within a video image. That is, the separated video image generated by the processor 160 may be a video image obtained by magnifying a specific area in the panoramic video image. The separated video image may be displayed and displayed on the graphical user interface 200 by the processor 160 . In this case, the separated video image generated in response to the client's selection of an arbitrary region of interest is one video camera layout cell in which a panoramic video image is displayed among one or more video camera layout cells included in the graphical user interface 200 . It can be displayed simultaneously as a separate image in another video camera layout cell different from .

따라서, 클라이언트는 전체 영역 중 자신이 보다 넓은 시야를 통해 모니터링 하고자 하는 영역(예컨대, 관심 영역)에 대한 확대 비디오 이미지(즉, 분리된 비디오 이미지)를 제공받을 수 있다. 이는 비디오 이미지 내에서 특정 영역을 면밀히 검토하고자 하는 클라이언트의 모니터링 작업의 효율을 향상시킬 수 있다. 추가적으로, 그래픽 사용자 인터페이스에 포함된 복수의 셀 각각을 통해 파노라마 비디오 이미지와 상기 파노라마 비디오 이미지의 일 영역에 대한 확대에 관련한 분리된 비디오 이미지를 동시에 표시함으로써, 클라이언트로 하여금 해당 영역의 상황을 파악하기 위한 보다 다양한 모니터링 정보를 제공할 수 있다. Accordingly, the client may be provided with an enlarged video image (ie, a separated video image) of a region (eg, an ROI) that the client wants to monitor through a wider field of view among the entire region. This can improve the efficiency of monitoring tasks for clients who want to closely examine specific areas within the video image. Additionally, by simultaneously displaying a panoramic video image and a separate video image related to magnification of an area of the panoramic video image through each of a plurality of cells included in the graphical user interface, a method for allowing the client to understand the situation of the corresponding area More diverse monitoring information can be provided.

본 개시의 일 실시예에 따르면, 프로세서(160)는 파노라마 비디오 이미지 내에서 임의의 관심 영역에 관련한 클라이언트의 선택 입력에 대응하여 생성된 분리된 비디오 이미지를 외부 장치로 전송할 것을 결정할 수 있다. 본 개시에서 복수의 비디오 이미지들 간의 조합을 통해 생성된 파노라마 비디오 이미지 또는 분리된 이미지는 메모리(150)에 아카이브 되지 않을 수 있다. 다시 말해, 복수의 비디오 카메라 각각을 통해 획득되는 복수의 비디오 이미지들(즉, 원본에 해당하는 데이터)은 메모리(150)를 통해 아카이브 저장되는 반면, 각 비디오 이미지들에 기반하여 생성된 파노라마 비디오 이미지 또는 파노라마 비디오 이미지의 일 영역에 대응하는 분리된 비디오 이미지는 메모리(150)에 아카이브 되지 않을 수 있다. 즉, 프로세서(160)는 복수의 비디오 이미지들의 조합을 통해 생성된 파노라마 비디오 이미지 또는 분리된 비디오 이미지를 임의의 스케일로 변환하여 외부 장치로 전송할 것을 결정할 수 있다. 예컨대, 파노라마 비디오 이미지 또는 분리된 비디오 이미지는, AVI(Adult Audio Video Interleave) 또는 MKV(Matroska Multimedia Container) 형식과 같은 표준 파일의 형태로 변환하여 외부 장치로 전송될 수 있다. 이에 따라, 본 개시의 메모리(150)는, 원본에 관련한 데이터(즉, 복수의 비디오 이미지) 만을 아카이브 함에 따라, 용량에 따른 과부하를 방지할 수 있다.According to an embodiment of the present disclosure, the processor 160 may determine to transmit a separated video image generated in response to a selection input of a client related to an arbitrary ROI in the panoramic video image to an external device. In the present disclosure, a panoramic video image or a separate image generated through a combination between a plurality of video images may not be archived in the memory 150 . In other words, a plurality of video images (ie, data corresponding to the original) acquired through each of the plurality of video cameras are archived and stored through the memory 150 , while a panoramic video image generated based on each video image is stored. Alternatively, the separated video image corresponding to one region of the panoramic video image may not be archived in the memory 150 . That is, the processor 160 may determine to convert the panoramic video image or the separated video image generated through a combination of a plurality of video images to an arbitrary scale and transmit the converted video image to an external device. For example, the panoramic video image or the separated video image may be converted into a standard file format such as Adult Audio Video Interleave (AVI) or Matroska Multimedia Container (MKV) format and transmitted to an external device. Accordingly, the memory 150 of the present disclosure archives only data related to the original (ie, a plurality of video images), thereby preventing overload due to capacity.

도 4는 본 개시의 일 실시예와 관련된 복수의 비디오 이미지, 파노라마 비디오 이미지 및 분리된 비디오 이미지를 하나 이상의 비디오 카메라 레이아웃 셀을 통해 디스플레이하는 방법을 예시적으로 나타낸 예시도를 도시한다. 도 4에 도시되는 내용에 대한 특징 중 도 1 내지 3과 관련하여 앞서 설명된 특징과 중복되는 특징에 대해서는 도 1 내지 3에 기재된 내용을 참고하고 여기에서는 그 설명을 생략하도록 한다. 4 shows an exemplary diagram exemplarily illustrating a method of displaying a plurality of video images, a panoramic video image, and a separated video image through one or more video camera layout cells according to an embodiment of the present disclosure. Among the features of the content shown in FIG. 4, for features overlapping with the features described above with respect to FIGS. 1 to 3, refer to the content described in FIGS. 1 to 3 and the description thereof will be omitted herein.

본 개시의 그래픽 사용자 인터페이스(200)는 컴퓨팅 장치(100)와 클라이언트 간의 정보 교환을 위한 입/출력을 허용하기 위한 선택 블록(210), 관심 영역 선택 블록(220) 및 디스플레이 블록(230)을 포함할 수 있다. 선택 블록(210) 및 관심 영역 선택 블록(220)은 클라이언트의 선택 입력을 수신하기 위해 활용될 수 있으며, 디스플레이 블록(230)은 클라이언트의 선택 입력에 대응하는 데이터(예컨대, 복수의 비디오 이미지, 파노라마 비디오 이미지 또는, 분리된 비디오 이미지 등)를 출력하기 위해 활용될 수 있다. The graphical user interface 200 of the present disclosure includes a selection block 210 , a region of interest selection block 220 , and a display block 230 for allowing input/output for information exchange between the computing device 100 and the client. can do. The selection block 210 and the region-of-interest selection block 220 may be utilized to receive a selection input of a client, and the display block 230 may display data corresponding to the selection input of the client (eg, a plurality of video images, a panorama). It can be utilized to output a video image or a separated video image, etc.).

그래픽 사용자 인터페이스(200)에 포함된 디스플레이 블록(230)은 도 4에 도시된 바와 같이, 제 1 비디오 레이아웃 셀(211), 제 2 비디오 레이아웃 셀(212), 제 3 비디오 레이아웃 셀(213) 및 제 4 비디오 레이아웃 셀(214)을 포함하여 구성될 수 있으며, 각 비디오 레이아웃 셀은 서로 상이한 종류의 비디오 이미지를 표시할 수 있다. As shown in FIG. 4 , the display block 230 included in the graphical user interface 200 includes a first video layout cell 211 , a second video layout cell 212 , a third video layout cell 213 and A fourth video layout cell 214 may be included, and each video layout cell may display different types of video images.

보다 구체적인 예를 들어, 비디오 카메라부(120)가 제 1 비디오 카메라, 제 2 비디오 카메라, 제 3 비디오 카메라 및 제 4 비디오 카메라를 포함하며, 선택 블록(210)을 통해 클라이언트가 서로 인접한 제 1 비디오 카메라 및 제 2 비디오 카메라를 선택한 경우, 프로세서(160)는 해당 클라이언트의 선택 입력에 대응하여 제 1 비디오 카메라를 통해 획득되는 제 1 비디오 이미지들을 제 1 비디오 레이아웃 셀(211)에 표시하고, 제 2 비디오 카메라를 통해 획득되는 제 2 비디오 이미지들을 제 2 비디오 레이아웃 셀(212)에 표시할 것을 결정할 수 있다. As a more specific example, the video camera unit 120 includes a first video camera, a second video camera, a third video camera, and a fourth video camera, and through the selection block 210 , the client selects adjacent first video cameras. When the camera and the second video camera are selected, the processor 160 displays the first video images acquired through the first video camera in response to the selection input of the corresponding client on the first video layout cell 211, and the second It may be determined to display the second video images acquired through the video camera in the second video layout cell 212 .

또한, 프로세서(160)는 제 1 비디오 카메라 및 제 2 비디오 카메라 각각을 통해 획득한 제 1 비디오 이미지들 및 제 2 비디오 이미지들을 조합하여 파노라마 비디오 이미지를 생성할 수 있다. 프로세서(160)는 생성된 파노라마 비디오 이미지를 제 3 비디오 레이아웃 셀(213)에 표시할 것을 결정할 수 있다. In addition, the processor 160 may generate a panoramic video image by combining the first video images and the second video images obtained through each of the first video camera and the second video camera. The processor 160 may determine to display the generated panoramic video image in the third video layout cell 213 .

또한, 프로세서(160)는 관심 영역 선택 블록(220)을 통해 제 3 비디오 레이아웃 셀(213)에 표시된 파노라마 비디오 이미지로부터 임의의 영역에 대한 클라이언트의 선택 입력을 수신할 수 있다. 예컨대, 임의의 영역은 사용자가 파노라마 비디오 이미지 내에서 보다 면밀히 검토하고자 하는 영역에 관련한 것일 수 있다. 프로세서(160)는 임의의 영역에 대한 클라이언트의 선택 입력에 대응하여 파노라마 비디오 이미지 내에서 분리된 비디오 생성하여 제 4 비디오 레이아웃 셀(214)에 표시할 것을 결정할 수 있다. 즉, 프로세서(160)에 의해 생성된 분리된 비디오 이미지는 파노라마 비디오 이미지 내의 특정 영역을 확대한 비디오 이미지일 수 있다. Also, the processor 160 may receive a selection input of the client for an arbitrary region from the panoramic video image displayed in the third video layout cell 213 through the region of interest selection block 220 . For example, an arbitrary region may relate to a region that the user wishes to examine more closely within the panoramic video image. The processor 160 may determine to generate a separated video within the panoramic video image in response to a selection input of the client for an arbitrary region and display the generated video in the fourth video layout cell 214 . That is, the separated video image generated by the processor 160 may be a video image obtained by magnifying a specific area in the panoramic video image.

즉, 본 개시가 제공하는 그래픽 사용자 인터페이스는 클라이언트와 간단한 상호 작용을 통해 다양한 각도, 또는 다양한 종류의 비디오 이미지들을 복수의 비디오 레이아웃 셀 각각에 표시할 수 있어, 클라이언트에게 특정 영역에 대한 모니터링 작업의 편의성을 제공할 수 있다. 이와 더불어, 각 카메라를 통해 획득한 비디오 이미지들 각각(예컨대, 제 1 비디오 이미지 및 제 2 비디오 이미지), 비디오 이미지들의 조합을 통해 생성되어 넓고 균일한 시야를 제공하는 파노라마 비디오 이미지 및 파노라마 비디오 이미지의 일 영역에 대한 확대에 관련한 분리된 비디오 이미지를 복수의 셀 각각에 별도로 동시에 표시함으로써, 클라이언트로 하여금 해당 영역의 상황을 파악하기 위한 보다 다양한 모니터링 정보를 제공할 수 있다. 이에 따라, 모니터링 작업의 효율이 향상될 수 있다. 도 4를 참조하여 전술한 설명들은 일 예시에 불과할 뿐, 비디오 카메라, 복수의 비디오 이미지, 레이아웃 셀이 구비되는 수는, 본 개시의 구현 양태에 따라 다양할 수 있음이 당 업계의 통상의 기술자에게 명백할 것이다. That is, the graphical user interface provided by the present disclosure can display various angles or various types of video images in each of a plurality of video layout cells through simple interaction with the client, so that the client can conveniently monitor a specific area. can provide In addition, each of the video images acquired through each camera (eg, the first video image and the second video image), a panoramic video image and a panoramic video image generated through a combination of video images to provide a wide and uniform field of view By separately and simultaneously displaying a separate video image related to magnification of an area on each of a plurality of cells, it is possible to provide a variety of monitoring information for the client to understand the situation of the corresponding area. Accordingly, the efficiency of the monitoring operation may be improved. It will be appreciated by those skilled in the art that the descriptions described above with reference to FIG. 4 are merely examples, and that the number of video cameras, a plurality of video images, and layout cells may vary according to implementation aspects of the present disclosure. It will be obvious.

도 5는 본 개시의 일 실시예와 관련된 파노라마 비디오 이미지를 제공하는 방법에 관한 예시적인 순서도를 도시한다. 5 shows an exemplary flowchart of a method of providing a panoramic video image in accordance with an embodiment of the present disclosure.

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 복수의 비디오 카메라들 중 적어도 둘 이상의 특정 인접 비디오 카메라에 관한 선택 입력을 수신할 수 있다(310).According to an embodiment of the present disclosure, the computing device 100 may receive a selection input regarding at least two specific adjacent video cameras among a plurality of video cameras ( 310 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 적어도 둘 이상의 특정 인접 비디오 카메라 각각으로부터 복수의 비디오 이미지를 수신하여 저장할 수 있다(320). According to an embodiment of the present disclosure, the computing device 100 may receive and store a plurality of video images from each of at least two or more specific adjacent video cameras ( 320 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 복수의 비디오 이미지들을 파노라마 비디오 이미지로 조합하기 위해 필요한 변환을 설정하고, 인접 카메라 각각에 대응하는 비디오 이미지들 중 서로 시간적으로 대응하는 비디오 이미지들에 대해 변환을 수행할 수 있다(330). According to an embodiment of the present disclosure, the computing device 100 sets a transformation necessary for combining a plurality of video images into a panoramic video image, and temporally corresponding video images among video images corresponding to each of the adjacent cameras. Transformation may be performed on them ( 330 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 변환이 수행된 비디오 이미지들 외에 다른 이미지들에 대한 변환을 수행하여 복수의 비디오 이미지를 파노라마 비디오 이미지로 조합할 수 있다(340). According to an embodiment of the present disclosure, the computing device 100 may combine a plurality of video images into a panoramic video image by performing transformation on other images in addition to the transformed video images ( 340 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 디스플레이 블록에 포함된 하나의 비디오 카메라 레이아웃 셀에 파노라마 비디오 이미지를 디스플레이할 수 있다(350). According to an embodiment of the present disclosure, the computing device 100 may display a panoramic video image in one video camera layout cell included in the display block ( 350 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 파노라마 비디오 이미지 내에서 분리된 비디오 이미지를 나타내기 위한 임의의 영역에 대한 클라이언트의 입력을 수신할 수 있다(360).According to an embodiment of the present disclosure, the computing device 100 may receive a client input for an arbitrary area for displaying a video image separated within the panoramic video image ( 360 ).

본 개시의 일 실시예에 따르면, 컴퓨팅 장치(100)는 디스플레이 블록에 포함된 다른 하나의 비디오 카메라 레이아웃 셀에 분리된 비디오 이미지를 디스플레이 할 수 있다(370).According to an embodiment of the present disclosure, the computing device 100 may display the separated video image in another video camera layout cell included in the display block ( 370 ).

전술한 도 5에 도시된 단계들은 필요에 의해 순서가 변경될 수 있으며, 적어도 하나 이상의 단계가 생략 또는 추가될 수 있다. 즉, 전술한 단계는 본 개시의 실시예에 불과할 뿐, 본 개시의 권리 범위는 이에 제한되지 않는다.The order of the steps illustrated in FIG. 5 described above may be changed if necessary, and at least one or more steps may be omitted or added. That is, the above-described steps are merely embodiments of the present disclosure, and the scope of the present disclosure is not limited thereto.

본 개시의 실시예와 관련하여 설명된 방법 또는 알고리즘의 단계들은 하드웨어로 직접 구현되거나, 하드웨어에 의해 실행되는 소프트웨어 모듈로 구현되거나, 또는 이들의 결합에 의해 구현될 수 있다. 소프트웨어 모듈은 RAM(Random Access Memory), ROM(Read Only Memory), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM), 플래시 메모리(Flash Memory), 하드 디스크, 착탈형 디스크, CD-ROM, 또는 본 개시가 속하는 기술 분야에서 잘 알려진 임의의 형태의 컴퓨터 판독가능 기록매체에 상주할 수도 있다.The steps of a method or algorithm described in relation to an embodiment of the present disclosure may be implemented directly in hardware, implemented as a software module executed by hardware, or implemented by a combination thereof. A software module may include random access memory (RAM), read only memory (ROM), erasable programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, hard disk, removable disk, CD-ROM, or It may reside in any type of computer-readable recording medium well known in the art to which the present disclosure pertains.

본 개시의 구성 요소들은 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 애플리케이션)으로 구현되어 매체에 저장될 수 있다. 본 개시의 구성 요소들은 소프트웨어 프로그래밍 또는 소프트웨어 요소들로 실행될 수 있으며, 이와 유사하게, 실시 예는 데이터 구조, 프로세스들, 루틴들 또는 다른 프로그래밍 구성들의 조합으로 구현되는 다양한 알고리즘을 포함하여, C, C++, 자바(Java), 어셈블러(assembler) 등과 같은 프로그래밍 또는 스크립팅 언어로 구현될 수 있다. 기능적인 측면들은 하나 이상의 프로세서들에서 실행되는 알고리즘으로 구현될 수 있다.Components of the present disclosure may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. Components of the present disclosure may be implemented as software programming or software components, and similarly, embodiments include various algorithms implemented as data structures, processes, routines, or combinations of other programming constructs, including C, C++ , Java, assembler, etc. may be implemented in a programming or scripting language. Functional aspects may be implemented in an algorithm running on one or more processors.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 애플리케이션에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.A person of ordinary skill in the art of the present disclosure will recognize that the various illustrative logical blocks, modules, processors, means, circuits and algorithm steps described in connection with the embodiments disclosed herein include electronic hardware, (convenience For this purpose, it will be understood that it may be implemented by various forms of program or design code (referred to herein as "software") or a combination of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends upon the particular application and design constraints imposed on the overall system. A person skilled in the art of the present disclosure may implement the described functionality in various ways for each specific application, but such implementation decisions should not be interpreted as a departure from the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 예를 들어, 컴퓨터-판독가능 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다. 또한, 여기서 제시되는 다양한 저장 매체는 정보를 저장하기 위한 하나 이상의 장치 및/또는 다른 기계-판독가능한 매체를 포함한다. 용어 "기계-판독가능 매체"는 명령(들) 및/또는 데이터를 저장, 보유, 및/또는 전달할 수 있는 무선 채널 및 다양한 다른 매체를 포함하지만, 이들로 제한되는 것은 아니다. The various embodiments presented herein may be implemented as methods, apparatus, or articles of manufacture using standard programming and/or engineering techniques. The term “article of manufacture” includes a computer program, carrier, or media accessible from any computer-readable device. For example, computer-readable media include magnetic storage devices (eg, hard disks, floppy disks, magnetic strips, etc.), optical disks (eg, CDs, DVDs, etc.), smart cards, and flash memory. devices (eg, EEPROMs, cards, sticks, key drives, etc.). Also, various storage media presented herein include one or more devices and/or other machine-readable media for storing information. The term “machine-readable medium” includes, but is not limited to, wireless channels and various other media capable of storing, retaining, and/or carrying instruction(s) and/or data.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It is understood that the specific order or hierarchy of steps in the presented processes is an example of exemplary approaches. Based on design priorities, it is to be understood that the specific order or hierarchy of steps in the processes may be rearranged within the scope of the present disclosure. The appended method claims present elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the presented embodiments is provided to enable any person skilled in the art to make or use the present disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure is not intended to be limited to the embodiments presented herein, but is to be construed in the widest scope consistent with the principles and novel features presented herein.

Claims (37)

복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치로서,
상기 복수의 비디오 이미지를 획득하는 복수의 비디오 카메라를 포함하는 비디오 카메라부;
상기 비디오 카메라부로부터 상기 복수의 비디오 이미지를 수신하여 저장하는 메모리;
입력 및 출력에 관한 도구(tools)들을 포함하는 그래픽 사용자 인터페이스(GUI, graphical user interface)를 디스플레이하는 디스플레이부; 및
상기 복수의 비디오 이미지들을 조합하여 하나의 파노라마 비디오 이미지를 생성하는 프로세서;
를 포함하고,
상기 도구들은,
상기 복수의 비디오 카메라 중 적어도 둘 이상의 특정 인접한 비디오 카메라들에 대한 클라이언트의 선택 입력을 수신하기 위한 선택 블록, 상기 파노라마 비디오 이미지 내에서 분리된 비디오 이미지를 나타내기 위하여 임의의 영역에 대한 클라이언트의 선택 입력을 수신하기 위한 관심 영역 선택 블록 및 상기 복수의 비디오 이미지 또는 상기 파노라마 비디오 이미지를 디스플레이하는 디스플레이 블록을 포함하고,
상기 프로세서는,
상기 선택 블록을 통해 선택된 상기 둘 이상의 특정 인접한 비디오 카메라 각각으로부터 복수의 비디오 이미지를 수신하고, 수신된 상기 복수의 비디오 이미지들을 상기 파노라마 비디오 이미지로 조합하기 위해 필요한 초기 변환을 설정하고, 상기 인접 비디오 카메라 각각의 비디오 이미지들 중 서로 시간적으로 대응하는 비디오 이미지들에 대해 상기 초기 변환을 수행하고, 상기 변환이 수행된 비디오 이미지들 외에 다른 이미지들에 대한 후속 변환을 수행하여 상기 복수의 비디오 이미지를 파노라마 비디오 이미지로 조합하고, 상기 디스플레이 블록에 포함된 하나의 비디오 카메라 레이아웃 셀에 상기 파노라마 비디오 이미지를 디스플레이할 것을 결정하고, 상기 관심 영역 선택 블록을 통해 상기 파노라마 비디오 이미지 내에서 상기 분리된 비디오 이미지를 나타내기 위한 임의의 관심 영역에 대한 클라이언트의 선택 입력을 수신하는 경우, 상기 디스플레이 블록에 포함된 다른 하나의 비디오 카메라 레이아웃 셀에 상기 분리된 비디오 이미지를 디스플레이할 것을 결정하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
A computing device for combining a plurality of video images, comprising:
a video camera unit including a plurality of video cameras for acquiring the plurality of video images;
a memory for receiving and storing the plurality of video images from the video camera unit;
a display unit for displaying a graphical user interface (GUI) including tools related to input and output; and
a processor for generating one panoramic video image by combining the plurality of video images;
including,
The tools are
a selection block for receiving a selection input of a client for at least two specific adjacent video cameras of the plurality of video cameras, a selection input of the client for an arbitrary region to present a separate video image within the panoramic video image A region of interest selection block for receiving and a display block for displaying the plurality of video images or the panoramic video images,
The processor is
Receive a plurality of video images from each of the two or more specific adjacent video cameras selected through the selection block, and set an initial transformation necessary for combining the received plurality of video images into the panoramic video image, the adjacent video cameras The initial conversion is performed on video images temporally corresponding to each other among the video images, and subsequent conversion is performed on images other than the video images on which the conversion is performed to convert the plurality of video images into a panoramic video. Combining into an image, determining to display the panoramic video image in one video camera layout cell included in the display block, and displaying the separated video image within the panoramic video image through the region-of-interest selection block determining to display the separated video image in another video camera layout cell included in the display block when receiving a selection input of the client for any region of interest for
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 프로세서는,
상기 복수의 비디오 이미지에 대한 실시간 조합 또는, 아카이브 조합을 수행하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The processor is
performing real-time combination or archive combination of the plurality of video images,
A computing device for combining a plurality of video images.
제 2 항에 있어서,
상기 복수의 비디오 이미지는,
실시간으로 조합되며, 상기 복수의 비디오 카메라로부터 직접적으로 상기 프로세서로 전송되는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
3. The method of claim 2,
The plurality of video images,
combined in real time and transmitted from the plurality of video cameras directly to the processor;
A computing device for combining a plurality of video images.
제 2 항에 있어서,
상기 복수의 비디오 이미지는,
아카이브된 데이터를 통해 조합되며, 상기 메모리로부터 상기 프로세서로 전송되는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
3. The method of claim 2,
The plurality of video images,
combined via archived data and transferred from the memory to the processor;
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 프로세서는,
상기 초기 변환 설정 과정에서 리소스(resource)에 관여하며 상기 복수의 비디오 이미지를 하나의 파노라마 비디오 이미지로 조합하는 비디오 카드 모듈을 포함하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The processor is
Including a video card module that participates in a resource (resource) in the initial conversion setting process and combines the plurality of video images into one panoramic video image,
A computing device for combining a plurality of video images.
제 1 항 또는 제 5항 중 어느 한 항에 있어서,
상기 프로세서는,
상기 적어도 둘 이상의 특정 인접 카메라들로부터 동기적으로 수신된 각각의 비디오 이미지에서 최적의 로컬 포인트에 대한 검색을 수행하며,
상기 최적의 로컬 포인트는,
상기 적어도 둘 이상의 특정 인접 카메라들로부터 수신되는 복수의 비디오 이미지들에 대한 상기 후속 변환을 위해 비교되는 포인트인,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
6. The method according to any one of claims 1 to 5,
The processor is
performing a search for an optimal local point in each video image synchronously received from the at least two or more specific neighboring cameras;
The optimal local point is,
a point that is compared for the subsequent transformation of a plurality of video images received from the at least two or more specific adjacent cameras;
A computing device for combining a plurality of video images.
제 6 항에 있어서,
상기 최적의 로컬 포인트는,
수동 모드에서의 클라이언트의 입력에 대응하여 추가적으로 결정되는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.

7. The method of claim 6,
The optimal local point is,
Further determined in response to the input of the client in the manual mode,
A computing device for combining a plurality of video images.

제 6 항에 있어서,
상기 프로세서는,
상기 복수의 비디오 카메라 각각으로부터 렌즈 파라미터 정보를 수신하며,
상기 렌즈 파라미터 정보는,
상기 초기 변환 및 상기 후속 변환을 계산하기 위해 활용되는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
7. The method of claim 6,
The processor is
receiving lens parameter information from each of the plurality of video cameras;
The lens parameter information,
utilized to compute the initial transformation and the subsequent transformation;
A computing device for combining a plurality of video images.
제 1 항 내지 제 5항 중 어느 한 항에 있어서,
상기 초기 변환 및 후속 변환 중 적어도 하나는,
비디오 이미지의 밝기 조정 및 비디오 이미지의 대비 조정 중 적어도 하나를 포함하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
6. The method according to any one of claims 1 to 5,
At least one of the initial transformation and the subsequent transformation,
at least one of adjusting the brightness of the video image and adjusting the contrast of the video image;
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 적어도 둘 이상의 특정 인접 카메라들은,
서로 상이한 프레임 레이트(frame rate)를 갖는 것을 특징으로 하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The at least two or more specific adjacent cameras,
Characterized in having different frame rates from each other,
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 적어도 둘 이상의 특정 인접 카메라 각각으로부터 수신된 비디오 이미지는,
서로 다른 해상도(display resolution)를 갖는 것을 특징으로 하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The video image received from each of the at least two or more specific adjacent cameras,
Characterized in having different resolutions (display resolution),
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 적어도 둘 이상의 특정 인접 카메라는,
서로 중첩된 시야를 갖는 것을 특징으로 하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The at least two or more specific adjacent cameras,
Characterized in having a field of view that overlaps with each other,
A computing device for combining a plurality of video images.
제 1 항 내지 제 5 항 중 어느 한 항에 있어서,
상기 프로세서는,
상기 적어도 둘 이상의 특정 인접 카메라 각각으로부터 수신한 복수의 비디오 이미지들 중 시간적으로 대응하는 비디오 이미지들을 하나의 쌍으로하여 연속적인 조합을 수행함으로써, 상기 복수의 비디오 이미지를 조합하여 상기 파노라마 비디오 이미지를 생성하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
6. The method according to any one of claims 1 to 5,
The processor is
The panoramic video image is generated by combining the plurality of video images by sequentially combining the temporally corresponding video images among the plurality of video images received from each of the at least two or more specific adjacent cameras as a pair. doing,
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 프로세서는,
상기 파노라마 비디오 이미지 또는 상기 파노라마 비디오 이미지의 일 영역에 대응하는 상기 분리된 비디오 이미지를 외부 장치로 내보낼 수 있는 것을 특징으로 하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The processor is
characterized in that it is possible to export the panoramic video image or the separated video image corresponding to a region of the panoramic video image to an external device,
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 프로세서는,
상기 파노라마 비디오 이미지에 대한 비디오 분석을 수행하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The processor is
performing video analysis on the panoramic video image,
A computing device for combining a plurality of video images.
제 15 항에 있어서,
상기 비디오 분석은,
메타 데이터에 기초한 하나 이상의 검색으로 포함하며, 상기 하나 이상의 검색은, 얼굴 검색, 차량 등록 번호 검색, 움직이는 물체 검색 및 이벤트 검색을 포함하는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
16. The method of claim 15,
The video analysis is
one or more searches based on metadata, wherein the one or more searches include a face search, a vehicle registration number search, a moving object search, and an event search.
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 임의의 관심 영역에 대한 클라이언트의 선택에 대응하여 획득된 분리된 비디오 이미지는,
상기 하나의 비디오 카메라 레이아웃 셀에 표시된 파노라마 비디오 이미지와 상이한 다른 하나의 비디오 카메라 레이아웃 셀에 별도의 이미지로써 동시에 표시되는,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The separated video image obtained in response to the client's selection of the arbitrary region of interest,
The panoramic video image displayed in the one video camera layout cell is displayed simultaneously as a separate image in the other video camera layout cell different from the one displayed in the video camera layout cell,
A computing device for combining a plurality of video images.
제 1 항에 있어서,
상기 파노라마 비디오 이미지는,
위에서 바라본 합성된 원형 뷰(circular view)에 관련한 이미지인,
복수의 비디오 이미지를 조합하기 위한 컴퓨팅 장치.
The method of claim 1,
The panoramic video image,
An image related to the synthesized circular view seen from above,
A computing device for combining a plurality of video images.
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법으로서,
복수의 비디오 카메라 중 적어도 둘 이상의 특정 인접 비디오 카메라에 관한 선택 입력을 수신하는 단계;
상기 적어도 둘 이상의 특정 인접 비디오 카메라 각각으로부터 복수의 비디오 이미지를 수신하여 저장하는 단계;
수신된 상기 복수의 비디오 이미지를 파노라마 비디오 이미지로 조합하기 위해 필요한 초기 변환을 설정하고, 상기 인접 비디오 카메라 각각에 대응하는 비디오 이미지들 중 서로 시간적으로 대응하는 비디오 이미지들에 대해 상기 초기 변환을 수행하는 단계;
상기 변환이 수행된 비디오 이미지들 외에 다른 비디오 이미지들에 대한 후속 변환을 수행하여 상기 복수의 비디오 이미지를 상기 파노라마 비디오 이미지로 조합하는 단계;
디스플레이 블록에 포함된 하나의 비디오 카메라 레이아웃 셀에 상기 파노라마 비디오 이미지를 디스플레이하는 단계;
상기 파노라마 비디오 이미지 내에서 분리된 비디오 이미지를 나타내기 위한 임의의 영역에 대한 클라이언트의 입력을 수신하는 단계; 및
상기 디스플레이 블록에 포함된 다른 하나의 비디오 카메라 레이아웃 셀에 상기 분리된 비디오 이미지를 디스플레이하는 단계;
를 포함하는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
A method of combining a plurality of video images implemented by a computing device comprising a processor and a memory, the method comprising:
receiving a selection input relating to at least two particular adjacent video cameras of the plurality of video cameras;
receiving and storing a plurality of video images from each of the at least two or more specific adjacent video cameras;
Setting an initial transformation necessary for combining the plurality of received video images into a panoramic video image, and performing the initial transformation on video images temporally corresponding to each other among video images corresponding to each of the adjacent video cameras step;
combining the plurality of video images into the panoramic video image by performing subsequent conversion on video images other than the video images on which the conversion has been performed;
displaying the panoramic video image in one video camera layout cell included in a display block;
receiving a client's input for an arbitrary region for displaying a separated video image within the panoramic video image; and
displaying the separated video image in another video camera layout cell included in the display block;
containing,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 복수의 비디오 이미지는,
실시간으로 또는 아카이브된 데이터에 의해 조합되는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
The plurality of video images,
combined by real-time or archived data;
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 20 항에 있어서,
상기 복수의 비디오 이미지는,
실시간으로 조합되며, 상기 복수의 비디오 카메라로부터 직접적으로 상기 프로세서로 전송되는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
21. The method of claim 20,
The plurality of video images,
combined in real time and transmitted from the plurality of video cameras directly to the processor;
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 20 항에 있어서,
상기 복수의 비디오 이미지는,
아카이브된 데이터를 통해 조합되며, 상기 메모리로부터 상기 프로세서로 전송되는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
21. The method of claim 20,
The plurality of video images,
combined via archived data and transferred from the memory to the processor;
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 프로세서에 포함된 비디오 카드 모듈의 리소스는,
상기 초기 변환을 설정하는 단계 및 상기 복수의 비디오 이미지를 하나의 파노라마 비디오를 조합하는 단계에서 활용되는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
The resource of the video card module included in the processor,
Utilized in the step of setting the initial transformation and combining the plurality of video images into one panoramic video,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항 내지 제 23 항 중 어느 한 항에 있어서,
상기 초기 변환을 설정하는 단계는, 적어도 상기 적어도 둘 이상의 특정 인접 카메라들로부터 동기적으로 수신된 각각의 비디오 이미지에서 최적의 로컬 포인트에 대한 검색을 수행하는 것을 특징으로 하며, 상기 최적의 로컬 포인트는, 상기 적어도 둘 이상의 특정 인접 카메라들로부터 수신되는 복수의 비디오 이미지들에 대한 상기 후속 변환을 위해 비교되는 포인트인,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
24. The method according to any one of claims 19 to 23,
The setting of the initial transformation comprises performing a search for an optimal local point in each video image synchronously received from at least the at least two or more specific adjacent cameras, wherein the optimal local point is , the point being compared for the subsequent transformation for a plurality of video images received from the at least two or more specific adjacent cameras.
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 24 항에 있어서,
상기 최적의 로컬 포인트는,
수동 모드에서의 클라이언트의 입력에 대응하여 추가적으로 획득되는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
25. The method of claim 24,
The optimal local point is,
additionally obtained in response to the input of the client in the manual mode,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 24 항에 있어서,
상기 설정 단계에서,
상기 복수의 비디오 카메라 각각으로부터 렌즈 파라미터 정보를 수신하며,
상기 렌즈 파라미터 정보는,
상기 초기 변환 및 상기 후속 변환을 계산하기 위해 활용되는 것을 특징으로 하는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
25. The method of claim 24,
In the setting step,
receiving lens parameter information from each of the plurality of video cameras;
The lens parameter information,
utilized to compute the initial transformation and the subsequent transformation,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항 내지 제 23 항 중 어느 한 항에 있어서,
상기 초기 변환 및 상기 후속 변환 중 적어도 하나는,
비디오 이미지의 밝기 조정 및 비디오 이미지의 대비 조정 중 적어도 하나를 포함하는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
24. The method according to any one of claims 19 to 23,
At least one of the initial transformation and the subsequent transformation,
at least one of adjusting the brightness of the video image and adjusting the contrast of the video image;
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 적어도 둘 이상의 특정 인접한 카메라들은,
서로 상이한 프레임 레이트를 갖는 것을 특징으로 하는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
The at least two or more specific adjacent cameras,
Characterized in having different frame rates from each other,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 적어도 둘 이상의 인접한 카메라 각각으로부터 수신된 비디오 이미지는,
서로 상이한 해상도를 갖는 것을 특징으로 하는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
The video image received from each of the at least two or more adjacent cameras,
Characterized in having different resolutions from each other,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 적어도 둘 이상의 특정 인접 카메라는,
서로 중첩된 시야를 갖는 것을 특징으로 하는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
The at least two or more specific adjacent cameras,
Characterized in having a field of view that overlaps with each other,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항 내지 제 23항 중 어느 한 항에 있어서,
상기 복수의 비디오 이미지를 조합하여 상기 파노라마 비디오 이미지를 생성하는 단계는, 상기 적어도 둘 이상의 특정 인접 카메라 각각으로부터 수신한 복수의 이미지들 중 시간적으로 대응하는 비디오 이미지들을 하나의 쌍으로하는 연속적인 조합을 통해 수행되는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
24. The method according to any one of claims 19 to 23,
The generating of the panoramic video image by combining the plurality of video images may include: a continuous combination of temporally corresponding video images among a plurality of images received from each of the at least two or more specific adjacent cameras as a pair carried out through
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 파노라마 비디오 이미지 또는 상기 파노라마 비디오 이미지의 일 영역에 대응하는 상기 분리된 이미지는 외부 장치로 내보내지는 것을 특징으로 하는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
The separated image corresponding to the panoramic video image or a region of the panoramic video image is characterized in that it is exported to an external device,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 파노라마 비디오 이미지에 대한 비디오 분석은 추가적으로 수행되는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
Video analysis for the panoramic video image is additionally performed,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 33 항에 있어서,
상기 비디오 분석은,
메타 데이터에 기반한 하나 이상의 검색을 포함하며, 상기 하나 이상의 검색은, 얼굴 검색, 차량 등록 번호 검색, 움직이는 물체 검색 및 이벤트 검색을 포함하는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
34. The method of claim 33,
The video analysis is
one or more searches based on metadata, wherein the one or more searches include a face search, a license plate number search, a moving object search, and an event search.
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 임의의 관심 영역에 대한 클라이언트의 선택에 대응하여 획득된 분리된 비디오 이미지는,
상기 하나의 비디오 카메라 레이아웃 셀에 표시된 파노라마 비디오 이미지와 상이한 다른 하나의 비디오 카메라 레이아웃 셀에 별도의 이미지로써 동시에 표시되는,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
The separated video image obtained in response to the client's selection of the arbitrary region of interest,
The panoramic video image displayed in the one video camera layout cell is displayed simultaneously as a separate image in the other video camera layout cell different from the one displayed in the video camera layout cell,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항에 있어서,
상기 파노라마 비디오 이미지는,
위에서 바라본 합성된 원형 뷰에 관련한 이미지인,
프로세서 및 메모리를 포함하는 컴퓨팅 장치에 의해 구현되는 복수의 비디오 이미지를 조합하는 방법.
20. The method of claim 19,
The panoramic video image,
An image related to the synthesized circular view viewed from above,
A method of assembling a plurality of video images implemented by a computing device comprising a processor and a memory.
제 19 항 내지 제 36 항 중 어느 한 항에 따른 복수의 비디오 이미지를 조합하는 기술을 구현하기 위하여 하나 이상의 프로세서에 의해 수행되는 인스터럭션들을 포함하는 컴퓨터 판독 가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer readable storage medium comprising instructions executed by one or more processors to implement a technique for combining a plurality of video images according to any one of claims 19 to 36.
KR1020210034896A 2021-03-17 2021-03-17 Apparatus and method for generating a panoramic video image by combining multiple video images KR102460639B1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
KR1020210034896A KR102460639B1 (en) 2021-03-17 2021-03-17 Apparatus and method for generating a panoramic video image by combining multiple video images
KR1020220138218A KR102520117B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and setting a region of interest in the generated panoramic video image
KR1020220138219A KR102520118B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and generating a seperated video image based on the generated panoramic video image
KR1020220138216A KR102520115B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and performing video analysis on the generated panoramic video image
KR1020220138217A KR102520116B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a circular view panoramic video image by combining multiple video images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210034896A KR102460639B1 (en) 2021-03-17 2021-03-17 Apparatus and method for generating a panoramic video image by combining multiple video images

Related Child Applications (4)

Application Number Title Priority Date Filing Date
KR1020220138218A Division KR102520117B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and setting a region of interest in the generated panoramic video image
KR1020220138216A Division KR102520115B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and performing video analysis on the generated panoramic video image
KR1020220138219A Division KR102520118B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and generating a seperated video image based on the generated panoramic video image
KR1020220138217A Division KR102520116B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a circular view panoramic video image by combining multiple video images

Publications (2)

Publication Number Publication Date
KR20220129943A true KR20220129943A (en) 2022-09-26
KR102460639B1 KR102460639B1 (en) 2022-10-28

Family

ID=83452557

Family Applications (5)

Application Number Title Priority Date Filing Date
KR1020210034896A KR102460639B1 (en) 2021-03-17 2021-03-17 Apparatus and method for generating a panoramic video image by combining multiple video images
KR1020220138219A KR102520118B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and generating a seperated video image based on the generated panoramic video image
KR1020220138217A KR102520116B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a circular view panoramic video image by combining multiple video images
KR1020220138218A KR102520117B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and setting a region of interest in the generated panoramic video image
KR1020220138216A KR102520115B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and performing video analysis on the generated panoramic video image

Family Applications After (4)

Application Number Title Priority Date Filing Date
KR1020220138219A KR102520118B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and generating a seperated video image based on the generated panoramic video image
KR1020220138217A KR102520116B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a circular view panoramic video image by combining multiple video images
KR1020220138218A KR102520117B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and setting a region of interest in the generated panoramic video image
KR1020220138216A KR102520115B1 (en) 2021-03-17 2022-10-25 Apparatus and method for generating a panoramic video image by combining multiple video images, and performing video analysis on the generated panoramic video image

Country Status (1)

Country Link
KR (5) KR102460639B1 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110062417A (en) * 2009-12-03 2011-06-10 주식회사바텍 Method and apparatus for obtaining high-resolution panoramic image
KR20120072146A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 Apparatus and method for generating stereoscopic image
KR20120114050A (en) 2011-04-06 2012-10-16 삼성테크윈 주식회사 Cctv camera and monitoring method thereof
JP2013152332A (en) * 2012-01-25 2013-08-08 Aoi Japan Co Ltd Imaging system
KR20130099578A (en) * 2012-02-29 2013-09-06 주식회사 미디어네이처 Image photographing apparatus for producing 3-dementional virtual reality
KR101341265B1 (en) * 2006-05-29 2013-12-12 네브테크 비. 브이. Method and arrangement for processing data sets of imaging sensors, a corresponding computer program, and a corresponding computer-readable storage medium

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101341265B1 (en) * 2006-05-29 2013-12-12 네브테크 비. 브이. Method and arrangement for processing data sets of imaging sensors, a corresponding computer program, and a corresponding computer-readable storage medium
KR20110062417A (en) * 2009-12-03 2011-06-10 주식회사바텍 Method and apparatus for obtaining high-resolution panoramic image
KR20120072146A (en) * 2010-12-23 2012-07-03 한국전자통신연구원 Apparatus and method for generating stereoscopic image
KR20120114050A (en) 2011-04-06 2012-10-16 삼성테크윈 주식회사 Cctv camera and monitoring method thereof
JP2013152332A (en) * 2012-01-25 2013-08-08 Aoi Japan Co Ltd Imaging system
KR20130099578A (en) * 2012-02-29 2013-09-06 주식회사 미디어네이처 Image photographing apparatus for producing 3-dementional virtual reality

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Pawan Kharde, "DIY 360° Rotating Camera Rig | 360° Motorised Pan Camera |Pawan Kharde", 유튜브, 2018.03.11. *

Also Published As

Publication number Publication date
KR20220146401A (en) 2022-11-01
KR102460639B1 (en) 2022-10-28
KR20220146403A (en) 2022-11-01
KR102520118B1 (en) 2023-04-11
KR102520115B1 (en) 2023-04-11
KR20220146404A (en) 2022-11-01
KR102520116B1 (en) 2023-04-11
KR20220146402A (en) 2022-11-01
KR102520117B1 (en) 2023-04-11

Similar Documents

Publication Publication Date Title
US20220046292A1 (en) Networked system for real-time computer-aided augmentation of live input video stream
US9430695B2 (en) Determining which participant is speaking in a videoconference
EP2926552B1 (en) Window blanking for pan/tilt/zoom camera
WO2021244295A1 (en) Method and device for recording video
JP2014194765A (en) Method and apparatus to generate haptic feedback based on video content analysis
MX2010012826A (en) 3d content aggregation built into devices.
US20140112533A1 (en) Information processing apparatus, information processing method, program, and information processing system
US20180091727A1 (en) Systems and methods for gesture-based control of equipment in video communication
JP2019513275A (en) Monitoring method and device
JP7029902B2 (en) Video call quality measurement method and system
US11720627B2 (en) Systems and methods for efficiently sending video metadata
US11463270B2 (en) System and method for operating an intelligent face framing management system for videoconferencing applications
JP2021503665A (en) Methods and devices for generating environmental models and storage media
KR102460639B1 (en) Apparatus and method for generating a panoramic video image by combining multiple video images
US20230259993A1 (en) Finding and Filtering Elements of a Visual Scene
US20230205817A1 (en) Systems and methods for identifying events within video content using intelligent search query
CN111310595A (en) Method and apparatus for generating information
US11328491B2 (en) Computerized system and method for an extended reality (XR) progressive visualization interface
EP4164215A1 (en) Video playback method and apparatus, and electronic device and computer-readable storage medium
WO2022261856A1 (en) Image processing method and apparatus, and storage medium
KR20190129592A (en) Method and apparatus for providing video in potable device
US20210256060A1 (en) Systems and methods for searching for events within video content
US20240127560A1 (en) Mixed-reality system and methods
RU2706576C1 (en) System and method of combining several video images into one panoramic video image
US9058674B1 (en) Enhancing resolution of single images

Legal Events

Date Code Title Description
A107 Divisional application of patent
GRNT Written decision to grant