KR101383997B1 - Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging - Google Patents

Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging Download PDF

Info

Publication number
KR101383997B1
KR101383997B1 KR1020130025059A KR20130025059A KR101383997B1 KR 101383997 B1 KR101383997 B1 KR 101383997B1 KR 1020130025059 A KR1020130025059 A KR 1020130025059A KR 20130025059 A KR20130025059 A KR 20130025059A KR 101383997 B1 KR101383997 B1 KR 101383997B1
Authority
KR
South Korea
Prior art keywords
background
texture
video
real
dimensional coordinates
Prior art date
Application number
KR1020130025059A
Other languages
Korean (ko)
Inventor
김재민
이상기
Original Assignee
홍익대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍익대학교 산학협력단 filed Critical 홍익대학교 산학협력단
Priority to KR1020130025059A priority Critical patent/KR101383997B1/en
Application granted granted Critical
Publication of KR101383997B1 publication Critical patent/KR101383997B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

The present invention relates to a method and a system for real-time video merging. The system for real-time video merging according to the present invention includes: a background three-dimensional coordinate calculating unit for calculating the three-dimensional coordinates of a background, based on videos received from a plurality of cameras, and storing the background and the three-dimensional coordinates thereof; a real-time background texture updating unit for updating the texture of the background in real time; an inflow object detecting unit for detecting an external object flowing into the background; an inflow object three-dimensional coordinate calculating unit for calculating the three-dimensional coordinates of the detected external object; an object transforming unit for transforming the three-dimensional coordinates of the external object to be suited to the background and mapping the texture to the object; a background generating unit for generating a final background; a final image generating unit for inserting the texture-mapped object in the final background, merging the final background with the background of an adjacent camera to generate a final image; and a control unit for controlling at least one among the components. According to the present invention, the system can enable a user to easily grasp the whole situation in real time by reconstructing a plurality of screens recorded by each camera into one integrated screen and displaying it, and can enable a person, who cannot directly visit a surveillance area, to indirectly experience the surveillance area in real time by reconstructing a video independently recorded by cameras and displaying the video, according to the vision of a virtual experient, when the virtual experient moves along a path in the surveillance area. [Reference numerals] (400) Real-time background texture updating unit; (410) Background three-dimensional coordinate calculating unit; (420) Background generating unit; (430) Inflow object detecting unit; (44) User terminal; (440) Inflow object three-dimensional coordinate calculating unit; (450) Object transforming unit; (46) Network; (460) Final image generating unit; (470) Control unit

Description

실시간 동영상 합병 방법 및 시스템, 실시간 동영상 합병을 이용한 영상 감시 시스템 및 가상 영상 투어 시스템{Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging}Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging}

본 발명은 실시간으로 동영상을 합병하는 방법 및 시스템에 관한 것으로, 특히 실시간 동영상 합병을 이용한 영상 감시 시스템 및 가상 영상 투어 시스템에 관한 것이다.The present invention relates to a method and system for merging video in real time, and more particularly, to a video surveillance system and a virtual video tour system using real-time video merging.

현재의 관제 시스템은 각각의 카메라가 촬영한 화면을 다수의 디스플레이에 독립적으로 표시하고 있다. 한 명의 관제 요원은 소수의 디스플레이 화면을 담당하고 있는데, 관제 센터의 디스플레이 화면의 숫자가 많은 경우에는 다수의 관제 요원이 필요하다. 또한 현재의 관제 시스템에서 각각의 디스플레이 화면은 독립적인 상황을 보여주기 때문에, 감시 시설 및 영역의 전체 상황을 통합하여 파악하기가 어렵다.Current control systems independently display screens taken by each camera on multiple displays. One controller is responsible for a small number of display screens. In the case of a large number of display screens in a control center, multiple control personnel are required. In addition, in the current control system, since each display screen shows an independent situation, it is difficult to integrate the entire situation of the monitoring facility and the area.

또한, 올림픽, 엑스포 같은 대형 행사가 있는 경우, 대부분의 사람들은 현장에 참여하지 못하고 방송을 통해서만 현장의 분위기를 피상적으로만 파악할 수 있는 실정이며, 심야의 주차장 등과 같이 위험한 지역을 출입해야 하는 경우, 스마트폰 등을 사용하여 실시간으로 출입하는 경로 상에 위험 요소가 있는지를 확인할 수 있는 방법이 없었다. 또한, 원자력 발전소와 같이 사람의 접근이 어려운 곳에서 통합적으로 감시를 할 수 없었으며, 비용이나 시간 등의 문제로 여행 등과 같이 새롭게 방문하는 지역을 사전에 답사하는 것이 용이하지 않은 문제점이 있었다.In addition, in the case of large events such as the Olympics and Expo, most people can't participate in the scene and can only grasp the atmosphere of the scene only through the broadcast. There was no way to check whether there was a risk in the path of entry and exit in real time using a smartphone. In addition, it was not possible to monitor comprehensively in places where people are difficult to access, such as nuclear power plants, there was a problem that it is not easy to investigate a newly visited area in advance, such as travel due to problems such as cost and time.

따라서, 상기와 같은 문제점을 해결하기 위하여, 복수의 카메라에서 출력되는 동영상을 공간적으로 연결된 하나의 동영상으로 합병하여 실시간으로 보여주는 기술이 요구된다.Accordingly, in order to solve the above problems, a technique of merging a video output from a plurality of cameras into a single video that is spatially connected and displaying in real time is required.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 것으로서, 본 발명이 해결하고자 하는 과제는, 네트워크로 연결된 다수의 감시 카메라가 개별적으로 획득한 동영상을 공간적으로 연결된 하나의 동영상으로 합병할 수 있는 실시간 동영상 합병 방법을 제공하는 것이다.The present invention has been made to solve the above-mentioned problems of the prior art, the problem to be solved by the present invention, a plurality of network-connected surveillance cameras can be merged into a single spatially connected video video obtained separately Is to provide a real time video merging method.

또한, 본 발명이 해결하고자 하는 다른 과제는, 네트워크로 연결된 다수의 감시 카메라가 개별적으로 획득한 동영상을 공간적으로 연결된 하나의 동영상으로 합병할 수 있는 실시간 동영상 합병 시스템을 제공하는 것이다.In addition, another problem to be solved by the present invention is to provide a real-time video merging system that can merge the video obtained separately by a plurality of network-connected surveillance cameras into a single spatially connected video.

또한, 본 발명이 해결하고자 하는 또 다른 과제는, 네트워크로 연결된 다수의 카메라가 특정 지역 및 시설을 감시하는 시스템에서 각각의 카메라가 촬영하는 동영상을 공간상으로 연결된 하나의 동영상으로 실시간 합병하여 통합된 관제 화면에 보여 줄 수 있는 실시간 동영상 합병을 이용한 영상 감시 시스템을 제공하는 것이다.In addition, another problem to be solved by the present invention is that a plurality of networked cameras are integrated by real-time merging the video taken by each camera into a single video connected in space in a system for monitoring a specific area and facilities It is to provide a video surveillance system using real-time video merging that can be displayed on the control screen.

또한, 본 발명이 해결하고자 하는 다른 과제는, 감시 지역 내의 한 지점에서 다른 지점까지의 경로를 이동하는 가상의 체험자 또는 감시자의 시점에서 보는 경로의 상황을 시공간 상으로 연속된 동영상으로 합병하여 보여줄 수 있는 실시간 동영상 합병을 이용한 가상 영상 투어 시스템을 제공하는 것이다.In addition, another problem to be solved by the present invention, it can show the situation of the path viewed from the point of view of the virtual experienced person or the observer moving the path from one point to another point in the surveillance area merged into a continuous video in space and time. Is to provide a virtual video tour system using a real-time video merger.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 의한 실시간 동영상 합병 방법은, Real-time video merging method according to an embodiment of the present invention for solving the above problems,

(A) 복수의 카메라로부터 동영상을 수신하는 단계;(A) receiving a video from a plurality of cameras;

(B) 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 단계;(B) calculating three-dimensional coordinates of the background based on the received video and storing the background and three-dimensional coordinates of the background;

(C) 상기 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 단계;(C) updating the texture of the background in real time based on the received video;

(D) 상기 수신된 동영상, 상기 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 단계;(D) detecting an external object introduced into the background based on the received video, the three-dimensional coordinates of the stored background, and the texture of the background updated in real time;

(E) 상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 단계;(E) calculating three-dimensional coordinates of the detected external object based on the detected external object and the stored background;

(F) 상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 단계;(F) mapping the texture to the object after modifying the three-dimensional coordinates of the external object to match the background;

(G) 상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 단계; 및(G) generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background; And

(H) 상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 한다.(H) inserting the texture-mapped object into the final background and merging with the background of an adjacent camera to generate a final image.

상기 단계 (A)에서는 네트워크를 통해 복수의 카메라로부터 동영상을 수신하고, 상기 단계 (E)에서는 상기 검출된 외부 객체 및 상기 저장되어 있는 배경이 만나는 특정 지점의 좌표에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 것이 바람직하다.In the step (A), a video is received from a plurality of cameras via a network, and in the step (E), the detected external object is based on a coordinate of a specific point where the detected external object meets the stored background. It is desirable to calculate three-dimensional coordinates.

상기 다른 과제를 해결하기 위한 본 발명의 일 실시예에 의한 실시간 동영상 합병 시스템은,Real-time video merging system according to an embodiment of the present invention for solving the other problem,

복수의 카메라로부터 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 배경 3차원 좌표 계산부;A background three-dimensional coordinate calculation unit configured to calculate a three-dimensional coordinate of the background based on the video received from a plurality of cameras and to store the background and three-dimensional coordinates of the background;

상기 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 배경 텍스처 실시간 갱신부;A background texture real time updating unit which updates a background texture in real time based on the received video;

상기 수신된 동영상, 상기 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 유입 객체 검출부;An inflow object detector configured to detect an external object introduced into the background based on the received video, the 3D coordinates of the stored background, and the texture of the background updated in real time;

상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 유입 객체 3차원 좌표 계산부;An inflow object three-dimensional coordinate calculator configured to calculate three-dimensional coordinates of the detected external object based on the detected external object and the stored background;

상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 객체 변형부;An object deformer configured to map a texture to an object after deforming the 3D coordinates of the external object to match a background;

상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 배경 생성부;A background generator for generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background;

상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 최종 영상 생성부; 및A final image generator which inserts the texture-mapped object into the final background and merges with the background of an adjacent camera to generate a final image; And

상기 복수의 카메라, 상기 배경 3차원 좌표 계산부, 상기 배경 텍스처 실시간 갱신부, 상기 유입 객체 검출부, 상기 유입 객체 3차원 좌표 계산부, 상기 객체 변형부, 상기 배경 생성부 및 상기 최종 영상 생성부 중 적어도 하나를 제어하는 제어부를 포함하는 것을 특징으로 한다.Among the plurality of cameras, the background 3D coordinate calculator, the background texture real-time updater, the inflow object detector, the inflow object 3D coordinate calculator, the object deformer, the background generator, and the final image generator It characterized in that it comprises a control unit for controlling at least one.

상기 배경 3차원 좌표 계산부, 상기 배경 텍스처 실시간 갱신부 및 상기 유입 객체 검출부는 네트워크를 통해 상기 카메라로부터 동영상을 수신하고, 상기 유입 객체 3차원 좌표 계산부는 상기 검출된 외부 객체 및 상기 저장되어 있는 배경이 만나는 특정 지점의 좌표에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 것이 바람직하다.The background 3D coordinate calculator, the background texture real-time updater, and the inflow object detector receive a video from the camera through a network, and the inflow object 3D coordinate calculator is configured to detect the detected external object and the stored background. It is preferable to calculate the three-dimensional coordinates of the detected external object based on the coordinates of the specific point where it meets.

상기 다른 과제를 해결하기 위한 본 발명의 일 실시예에 의한 실시간 동영상 합병을 이용한 영상 감시 시스템은,The video surveillance system using a real-time video merge according to an embodiment of the present invention for solving the other problem,

동영상을 촬영하기 위한 복수의 카메라;A plurality of cameras for shooting a video;

상기 복수의 카메라로부터 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 배경 3차원 좌표 계산부;A background three-dimensional coordinate calculator configured to calculate a three-dimensional coordinate of the background based on the videos received from the plurality of cameras, and store the background and three-dimensional coordinates of the background;

상기 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 배경 텍스처 실시간 갱신부;A background texture real time updating unit which updates a background texture in real time based on the received video;

상기 수신된 동영상, 상기 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 유입 객체 검출부;An inflow object detector configured to detect an external object introduced into the background based on the received video, the 3D coordinates of the stored background, and the texture of the background updated in real time;

상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 유입 객체 3차원 좌표 계산부;An inflow object three-dimensional coordinate calculator configured to calculate three-dimensional coordinates of the detected external object based on the detected external object and the stored background;

상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 객체 변형부;An object deformer configured to map a texture to an object after deforming the three-dimensional coordinates of the external object to match a background;

상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 배경 생성부;A background generator for generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background;

상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 최종 영상 생성부;A final image generator which inserts the texture-mapped object into the final background and merges with the background of an adjacent camera to generate a final image;

상기 최종 영상 생성부에서 출력되는 합병된 영상을 수신하여 표시하는 하나 이상의 사용자 단말; 및One or more user terminals that receive and display the merged image output from the final image generator; And

상기 복수의 카메라, 상기 배경 3차원 좌표 계산부, 상기 배경 텍스처 실시간 갱신부, 상기 유입 객체 검출부, 상기 유입 객체 3차원 좌표 계산부, 상기 객체 변형부, 상기 배경 생성부 및 상기 최종 영상 생성부 중 적어도 하나를 제어하고, 상기 사용자 단말로부터 신호를 수신하는 제어부를 포함하는 것을 특징으로 한다.Among the plurality of cameras, the background 3D coordinate calculator, the background texture real-time updater, the inflow object detector, the inflow object 3D coordinate calculator, the object deformer, the background generator, and the final image generator And a control unit for controlling at least one and receiving a signal from the user terminal.

상기 다른 과제를 해결하기 위한 본 발명의 일 실시예에 의한 실시간 동영상 합병을 이용한 가상 영상 투어 시스템은,The virtual video tour system using a real-time video merge according to an embodiment of the present invention for solving the other problem,

동영상을 촬영하기 위한 복수의 카메라로서, 제어 신호에 따라 화각(view angle), 줌 배율, 패닝 각도 및 방향을 조절할 수 있는 복수의 카메라;A plurality of cameras for photographing a video, comprising: a plurality of cameras capable of adjusting a view angle, a zoom magnification, a panning angle, and a direction according to a control signal;

상기 복수의 카메라로부터 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 배경 3차원 좌표 계산부;A background three-dimensional coordinate calculator configured to calculate a three-dimensional coordinate of the background based on the videos received from the plurality of cameras, and store the background and three-dimensional coordinates of the background;

사용자의 위치, 사용자가 입력한 출발 지점, 도착 지점 및 사용자의 이동 속도에 기반하여 상기 출발 지점에서 도착 지점까지의 사용자 이동 경로에 존재하는 카메라들을 상기 이동 속도에 맞추어 활성화시키고 사용자가 입력한 화각, 줌 배율, 패닝 각도 및 방향에 따라 카메라들을 제어하는 제어부;Based on the user's location, the starting point, the arrival point, and the moving speed of the user, the cameras in the moving path from the starting point to the arrival point are activated according to the moving speed and the angle of view entered by the user, A controller for controlling the cameras according to the zoom magnification, the panning angle and the direction;

상기 활성화된 카메라로부터 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 배경 텍스처 실시간 갱신부;A background texture real-time updating unit that updates a background texture in real time based on a video received from the activated camera;

상기 활성화된 카메라로부터 수신된 동영상, 상기 활성화된 카메라가 위치하는 지점의 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 유입 객체 검출부;An inflow object detection unit that detects an external object introduced into the background based on a video received from the activated camera, a three-dimensional coordinate of a stored background of a location where the activated camera is located, and a texture of the background updated in real time. ;

상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 유입 객체 3차원 좌표 계산부;An inflow object three-dimensional coordinate calculator configured to calculate three-dimensional coordinates of the detected external object based on the detected external object and the stored background;

상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 객체 변형부;An object deformer configured to map a texture to an object after deforming the three-dimensional coordinates of the external object to match a background;

상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 배경 생성부;A background generator for generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background;

상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후에 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 최종 영상 생성부; 및A final image generator which inserts the texture-mapped object into the final background and merges with the background of an adjacent camera to generate a final image; And

상기 최종 영상 생성부에서 출력되는 합병된 영상을 수신하여 표시하는 하나 이상의 사용자 단말을 포함하며,At least one user terminal for receiving and displaying the merged image output from the final image generating unit,

상기 제어부는, 상기 복수의 카메라, 상기 배경 3차원 좌표 계산부, 상기 배경 텍스처 실시간 갱신부, 상기 유입 객체 검출부, 상기 유입 객체 3차원 좌표 계산부, 상기 객체 변형부, 상기 배경 생성부 및 상기 최종 영상 생성부 중 적어도 하나를 제어하고, 상기 사용자 단말로부터 신호를 수신하는 것을 특징으로 한다.The controller may include the plurality of cameras, the background 3D coordinate calculator, the background texture real time updater, the inflow object detector, the inflow object 3D coordinate calculator, the object deformer, the background generator, and the final object. Control at least one of the image generating unit, and receives a signal from the user terminal.

본 발명에 의하면, 네트워크로 연결된 다수의 감시 카메라가 회전하면서 획득한 실시간 동영상을 공간적으로 연결된 하나의 동영상으로 합병함으로써 각각의 카메라가 촬영한 다수의 화면을 하나의 통합 화면으로 재구성하여 보여주기 때문에 실시간으로 전체 상황을 쉽게 파악할 수 있으며, 소수의 관제 요원으로 관제 시스템을 효율적으로 운영할 수 있다. 또한, 본 발명에 의하면, 가상의 체험자 또는 감시자가 감시 영역 상의 경로를 이동할 때 체험자 또는 감시자의 시각에 따라 독립적으로 촬영된 카메라의 동영상을 제구성하여 보여줌으로써, 감시 영역을 새로운 관점에서 관찰할 수 있을 뿐만 아니라, 감시 영역을 직접 방문할 수 없는 사람이 감시 영역을 실시간으로 간접적으로 체험할 수 있다.According to the present invention, the real-time video obtained by rotating a plurality of network-connected surveillance cameras are merged into a single spatially connected video to reconstruct and display a plurality of screens taken by each camera into a single integrated screen. It is possible to easily grasp the whole situation and to operate the control system efficiently with a few control personnel. In addition, according to the present invention, when the virtual experiencer or the observer moves the path on the surveillance region, the surveillance region can be observed from a new perspective by constructing and displaying a video of the camera photographed independently according to the experiencer or the observer's time. In addition, a person who cannot visit the surveillance area directly can experience the surveillance area indirectly in real time.

도 1a는 감시 구역 내의 배경의 3차원 영상 획득을 위한 카메라의 측면도이다.
도 1b는 도 1a에 도시된 카메라의 평면도이다.
도 1c는 배경의 3차원 정보를 추정하는 것을 설명하기 위한 도면이다.
도 2a는 다수의 카메라가 회전하면서 경로를 촬영하는 것을 예시하는 도면이다.
도 2b는 카메라를 고정한 상태에서 촬영한 동영상을 각각의 모니터에 표시하는 것을 예시하는 도면이다.
도 2c는 다수의 카메라가 회전하면서 촬영한 동영상을 공간상으로 연결된 영상으로 합병하여 통합 모니터에 보여주는 것을 예시하는 도면이다.
도 3a는 유입 객체가 있는 인접한 카메라로부터 획득한 두 영상을 도시한 도면이다.
도 3b는 유입 객체의 검출, 분리 및 변형 처리를 하지 않고 단순히 두 영상을 합병하는 경우의 영상을 도시한 도면이다.
도 4는 본 발명의 일 실시예에 의한 실시간 동영상 합병을 이용한 영상 감시 시스템의 개략적인 블록도이다.
도 5는 본 발명의 일 실시예에 의한 실시간 동영상 합병 방법을 도시한 흐름도이다.
도 6은 가상의 체험자 또는 감시자가 감시 영역 상의 경로를 이동할 때 체험자 또는 감시자의 시각에 따라 독립적으로 촬영된 카메라의 동영상을 재구성하여 보여주는 것을 예시한 도면이다.
1A is a side view of a camera for 3D image acquisition of a background in a surveillance zone.
FIG. 1B is a plan view of the camera shown in FIG. 1A.
1C is a diagram for explaining estimating three-dimensional information of a background.
2A is a diagram illustrating photographing a path while rotating a plurality of cameras.
FIG. 2B is a diagram exemplarily displaying moving images photographed with the camera fixed on each monitor. FIG.
FIG. 2C is a diagram illustrating an example of merging moving images taken by rotating a plurality of cameras into images connected in space and displaying them on the integrated monitor.
3A is a diagram illustrating two images obtained from an adjacent camera having an inflow object.
3B is a diagram illustrating an image obtained by simply merging two images without detecting, separating, and modifying an inflow object.
4 is a schematic block diagram of a video surveillance system using real-time video merging according to an embodiment of the present invention.
5 is a flowchart illustrating a real-time video merging method according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an example of reconstructing and displaying a video of a camera independently photographed according to a vision of an experienced person or a monitor when a virtual experienced person or a monitor moves a path on a surveillance area.

본 발명의 목적, 특정한 장점들 및 신규한 특징들은 첨부된 도면들과 연관되어지는 이하의 상세한 설명과 바람직한 실시예들로부터 더욱 명백해질 것이다. 본 명세서에서 각 도면의 구성요소들에 참조번호를 부가함에 있어서, 동일한 구성 요소들에 한해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 번호를 가지도록 하고 있음에 유의하여야 한다. 또한, "제1", "제2", "일면", "타면" 등의 용어는 하나의 구성요소를 다른 구성요소와 구별하기 위해 사용되는 것으로, 구성요소가 상기 용어들에 의해 제한되는 것은 아니다. 이하, 본 발명을 설명함에 있어서, 본 발명의 요지를 불필요하게 흐릴 수 있는 관련된 공지 기술에 대한 상세한 설명은 생략한다.BRIEF DESCRIPTION OF THE DRAWINGS The objectives, specific advantages and novel features of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. It should be noted that, in the present specification, the reference numerals are added to the constituent elements of the drawings, and the same constituent elements are assigned the same number as much as possible even if they are displayed on different drawings. Also, the terms "first "," second ", "one side "," other ", and the like are used to distinguish one element from another, no. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS In the following description of the present invention, detailed description of related arts which may unnecessarily obscure the gist of the present invention will be omitted.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시형태를 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 4는 본 발명의 일 실시예에 의한 실시간 동영상 합병을 이용한 영상 감시 시스템의 개략적인 블록도이고, 도 5는 본 발명의 일 실시예에 의한 실시간 동영상 합병 방법을 도시한 흐름도이다.4 is a schematic block diagram of a video surveillance system using real-time video merging according to an embodiment of the present invention, and FIG. 5 is a flowchart illustrating a real-time video merging method according to an embodiment of the present invention.

도 4에 도시된, 실시간 동영상 합병을 이용한 영상 감시 시스템은, 동영상을 촬영하기 위한 복수의 카메라(C1, ..., Cn)(42), 네트워크(48)를 통해 복수의 카메라(42)와 연결되어 있는 실시간 동영상 합병 시스템(40) 및 네트워크(46)를 통해 상기 실시간 동영상 합병 시스템(40)과 연결되어 있는 사용자 단말(44)을 포함한다.As shown in FIG. 4, the video surveillance system using the real-time video merge includes a plurality of cameras 42 through a network 48 and a plurality of cameras C1,... And a user terminal 44 connected to the real time video merging system 40 through a connected real time video merging system 40 and a network 46.

한편, 상기 실시간 동영상 합병 시스템(40)은, 네트워크(48)를 통해 복수의 카메라(42)로부터 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 배경 3차원 좌표 계산부(410), 상기 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 배경 텍스처 실시간 갱신부(400), 상기 수신된 동영상, 상기 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 유입 객체 검출부(430), 상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 유입 객체 3차원 좌표 계산부(440), 상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 객체 변형부(450), 상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 배경 생성부(420), 상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 최종 영상 생성부(460) 및 상기 복수의 카메라(42), 상기 배경 3차원 좌표 계산부(410), 상기 배경 텍스처 실시간 갱신부(400), 상기 유입 객체 검출부(430), 상기 유입 객체 3차원 좌표 계산부(440), 상기 객체 변형부(450), 상기 배경 생성부(420) 및 상기 최종 영상 생성부(460) 중 적어도 하나를 제어 신호(CS)를 통해 제어하고, 상기 사용자 단말(44)로부터 신호를 수신하는 제어부(470)를 포함한다. 상기 사용자 단말(44)은 본 실시예에서 하나의 사용자 단말을 도시하였지만, 본 발명은 이에 한정되지 않고 복수의 사용자 단말이 존재할 수 있다.Meanwhile, the real-time video merging system 40 calculates three-dimensional coordinates of the background based on the videos received from the plurality of cameras 42 through the network 48 and stores the three-dimensional coordinates of the background and the background. A background three-dimensional coordinate calculation unit 410, a background texture real-time updating unit 400 which updates a texture of a background in real time based on the received video, the received video, three-dimensional coordinates of the stored background, and An inflow object detector 430 for detecting an external object introduced into the background based on the texture of the background updated in real time, and the three-dimensional coordinates of the detected external object based on the detected external object and the stored background. An inflow object three-dimensional coordinate calculation unit 440 that calculates an object deformation unit 450 that transforms a three-dimensional coordinate of the external object to a background and then maps a texture to the object; A background generator 420 for generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background, and inserting the object to which the texture is mapped into the final background, The final image generating unit 460 and the plurality of cameras 42, the background three-dimensional coordinate calculation unit 410, the background texture real-time updating unit 400, and the inflow object detection unit generating a final image by merging with a background. 430, at least one of the inflow object three-dimensional coordinate calculator 440, the object deformer 450, the background generator 420, and the final image generator 460 to receive a control signal CS. Control unit 470 to control through, and receives a signal from the user terminal 44. Although the user terminal 44 illustrates one user terminal in this embodiment, the present invention is not limited thereto, and a plurality of user terminals may exist.

상기와 같이 구성된 실시간 동영상 합병을 이용한 영상 감시 시스템의 동작을 도 4 및 도 5를 참조하여 설명하기로 한다.The operation of the video surveillance system using the real-time video merge configured as described above will be described with reference to FIGS. 4 and 5.

실시간 동영상 합병 시스템(40)은 각각 네트워크(48, 46)를 통해 복수의 카메라(42) 및 사용자 단말(44)로부터 신호를 수신한다(S500). 카메라(42)로부터는 동영상을 수신하고, 사용자 단말(44)로부터는 화각, 팬 정보, 줌 정보, 방향 및 사용자 위치 등을 수신한다. 카메라의 화각, 팬 정보, 줌 정보, 방향 및 사용자 위치가 고정된 값으로 미리 설정되는 경우, 사용자 단말(44)로부터 신호를 수신하는 것은 생략될 수 있다.The real-time video merging system 40 receives signals from the plurality of cameras 42 and the user terminal 44 via the networks 48 and 46, respectively (S500). The camera 42 receives a video, and the user terminal 44 receives an angle of view, pan information, zoom information, direction, user position, and the like. When the angle of view, pan information, zoom information, direction, and user position of the camera are preset to a fixed value, receiving a signal from the user terminal 44 may be omitted.

배경 3차원 좌표 계산부(410)는 도 1a 및 도 1b에 도시된 바와 같이 감시 영역에 설치된 다수의 카메라(42)로부터 출력된 동영상을 네트워크(48)를 통해 수신하여 이를 기반으로 배경의 3차원 좌표 값을 오프라인(offline)으로 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장한다(S520). 도 1a 및 도 1b에 도시된 바와 같은 복수의 카메라(42) 각각은 카메라(10), 회전축(12) 및 구동부(14)를 포함하여, 회전 기능 및 줌 기능을 수행할 수 있다. 또한, 카메라(42)가 실시간 동영상 합병 시스템(40)으로 동영상을 전송할 때, 전송되는 각각의 영상 프레임에는 영상 정보에 더하여 카메라의 팬 정보(상하, 좌우 회전 각도), 줌 정보(확대 축소 비율) 및 녹화 시각 등의 메타정보가 포함된다.As shown in FIGS. 1A and 1B, the background 3D coordinate calculation unit 410 receives a video output from the plurality of cameras 42 installed in the surveillance area through the network 48 and based on the 3D of the background. The coordinate value is calculated offline and the background and the three-dimensional coordinates of the background are stored (S520). Each of the plurality of cameras 42 as illustrated in FIGS. 1A and 1B may include a camera 10, a rotation shaft 12, and a driver 14 to perform a rotation function and a zoom function. In addition, when the camera 42 transmits a video to the real-time video merging system 40, in addition to the image information, each of the transmitted image frames includes pan information (up and down, left and right rotation angles) and zoom information (zoom ratio) of the camera. And meta information such as recording time.

그리고 전체 영역 중 부분 영역의 상황을 녹화하는 각각의 카메라에 대한 위치 정보 및 감시 영역에 대한 정보는 실시간 동영상 합병 시스템(40)에 미리 저장되어 있다고 가정한다. 카메라(42)는 회전을 하면서 넓은 지역을 감시하고, 인접한 카메라와 배경을 겹쳐서 감시할 수 있도록 배치된다.In addition, it is assumed that the location information of each camera and the surveillance area for recording the situation of the partial area of the entire area are previously stored in the real-time video merging system 40. The camera 42 is arranged to monitor a large area while rotating and to superimpose the background with an adjacent camera.

배경 3차원 좌표 계산부(410)는 일차적으로 도 1c와 같이 각각의 카메라가 감시하는 배경의 3차원 좌표를 계산한다(S520).The background 3D coordinate calculator 410 first calculates 3D coordinates of the background monitored by each camera as shown in FIG. 1C (S520).

배경의 3차원 좌표는 카메라의 가상 좌표계(camera coordinate)를 기준으로 한 상대적인 3차원 정보이다. 두 카메라의 가상 좌표계는 상이하기 때문에 인접한 두 카메라에 겹쳐서 촬영된 배경의 3차원 정보는 두 카메라의 좌표계에서 다른 값으로 표시된다. 다른 값으로 표시된 배경의 3차원 정보는 동일한 것이기 때문에, 한 좌표계에서 다른 좌표계의 아핀 변환(affine transformation)을 통하여 인접한 카메라의 가상 좌표계를 하나로 통일한다. 좌표계가 통일되면 네트워크(48)로 연동된 카메라(42)의 감시 영역 안의 배경의 3차원 정보를 하나로 통일한다.The three-dimensional coordinates of the background are relative three-dimensional information based on the camera coordinates of the camera. Since the virtual coordinate systems of the two cameras are different, the three-dimensional information of the background captured by two adjacent cameras is displayed with different values in the coordinate systems of the two cameras. Since the three-dimensional information of the background represented by different values is the same, the virtual coordinate systems of adjacent cameras are unified into one through an affine transformation of one coordinate system to another. If the coordinate system is unified, three-dimensional information of the background in the surveillance area of the camera 42 linked to the network 48 is unified.

배경의 3차원 좌표를 계산하는 과정을 도 1c를 참조하여 설명하면 다음과 같다. 도 1c에서, 좌표(X3,Y3,Z3)는 대상이 되는 배경 상의 한 점(100)의 3차원 좌표를 나타내며, 좌표(X1,Y1,Z1)는 임의의 회전 각도의 카메라의 초점(110) 좌표를 나타내고, 좌표(X2,Y2,Z2)는 임의의 회전 각도의 카메라의 초점(120) 좌표를 나타내며, 좌표(x1,y1)는 배경 상의 점(100)의 좌표(X3,Y3,Z3)가 초점 좌표(X1,Y1,Z1)를 갖는 카메라의 영상 면(image plane)에 투영된 좌표를 나타내고, 좌표(x2,y2)는 배경상의 점(100)의 좌표(X3,Y3,Z3)가 초점 좌표(X2,Y2,Z2)를 갖는 카메라의 영상 면에 투영된 좌표를 나타내며, 참조번호 150은 초점 좌표(X1,Y1,Z1)를 갖는 카메라의 영상 면을 나타내고, 참조번호 160은 초점 좌표(X2,Y2,Z2)를 갖는 카메라의 영상 면을 나타낸다.A process of calculating the three-dimensional coordinates of the background will be described with reference to FIG. 1C. In FIG. 1C, the coordinates X 3 , Y 3 , Z 3 represent the three-dimensional coordinates of a point 100 on the background of interest, and the coordinates X 1 , Y 1 , Z 1 represent an arbitrary rotation angle. The coordinates of the camera's focus 110, the coordinates (X 2 , Y 2 , Z 2 ) represent the camera's focus 120 coordinates of any rotational angle, and the coordinates (x 1 , y 1 ) represent points on the background ( The coordinates (X 3 , Y 3 , Z 3 ) of 100 represent the coordinates projected onto the image plane of the camera having the focal coordinates (X 1 , Y 1 , Z 1 ), and the coordinates (x 2 , y 2 ) represents the coordinates (X 3 , Y 3 , Z 3 ) of the point 100 on the background projected onto the image plane of the camera having the focal coordinates (X 2 , Y 2 , Z 2 ), and reference numeral 150. Denotes an image plane of the camera having the focal coordinates (X 1 , Y 1 , Z 1 ), and reference numeral 160 denotes an image plane of the camera having the focal coordinates (X 2 , Y 2 , Z 2 ).

우선, 회전하는 카메라의 기준 좌표를 설정하고, 널리 사용되는 카메라 교정(camera calibration) 방법을 통하여 카메라의 내부 변수를 추정한다. 추정된 내부 변수와 카메라의 회전 정보로부터 점(110)과 점(120)의 상대적 좌표 값을 알 수 있다. 널리 사용되는 동일점 추정 방법을 사용하여, 두 영상 면에 투영된 동일점(110, 120)의 좌표를 추정한다. 배경의 한 점이 회전하는 카메라의 다수의 영상 면에 투영되었을 때 점(110)과 점(130)을 연결하는 선과 점(120)과 점(140)을 연결하는 선은 점(100)에서 만나게 되고, 점(100)의 좌표(X3,Y3,Z3)를 알 수 있다. 대상의 한 점이 두 영상에 투영된 동일점의 2차원 좌표와 카메라의 초점의 좌표를 아는 경우, 대상의 한 점의 3차원 좌표를 추정하는 방법은 널리 알려진 방법이므로, 이에 대한 설명을 생략하기로 한다.First, reference coordinates of a rotating camera are set, and an internal variable of the camera is estimated through a widely used camera calibration method. The relative coordinate values of the point 110 and the point 120 may be known from the estimated internal variable and the rotation information of the camera. Using the widely used same point estimation method, the coordinates of the same points 110 and 120 projected on two image planes are estimated. When a point in the background is projected on a plurality of image planes of a rotating camera, a line connecting the point 110 and the point 130 and a line connecting the point 120 and the point 140 meet at the point 100. , The coordinates (X 3 , Y 3 , Z 3 ) of the point 100 can be known. If one point of the object knows the two-dimensional coordinates of the same point projected on the two images and the coordinates of the focal point of the camera, the method of estimating the three-dimensional coordinates of the one point of the object is well known, and thus the description thereof will be omitted. do.

배경 3차원 좌표 계산부(410)에서 배경의 3차원 좌표가 오프라인으로 계산되면, 배경 텍스처 실시간 갱신부(400)에서는 배경의 각 좌표의 텍스처(밝기 및 컬러)를 실시간으로 갱신한다(S510).When the 3D coordinates of the background are calculated offline by the background 3D coordinate calculator 410, the background texture real-time updater 400 updates the textures (brightness and color) of each coordinate of the background in real time (S510).

각각의 카메라에서 임의의 시각에 획득한 영상 프레임은 카메라의 위치, 팬 정보 및 줌 정보를 갖는다. 이 정보를 바탕으로 프레임의 각 화소(x,y)에 해당하는 배경의 3차원 좌표(X,Y,Z)가 결정되며, 이를 바탕으로 화소(x,y)의 컬러 값이 배경의 3차원 좌표(X,Y,Z)의 텍스처 값이 된다.The image frame obtained at any time in each camera has the camera's position, pan information and zoom information. Based on this information, the three-dimensional coordinates (X, Y, Z) of the background corresponding to each pixel (x, y) of the frame are determined. Based on this, the color values of the pixels (x, y) are three-dimensional of the background. This is the texture value of the coordinates (X, Y, Z).

다수의 카메라로부터 획득한 영상을 실시간으로 전송하는 것은 네트워크에 부담이 되기 때문에, 배경의 변화를 시각적으로 감지할 수 있는 경우에만 텍스처를 갱신하는 것이 바람직하다.Since transmitting images acquired from multiple cameras in real time is a burden on the network, it is desirable to update the texture only when the change in the background can be visually detected.

다음으로, 배경에 유입된 외부 객체(차량, 사람 등)를 실시간으로 검출하고 배경으로부터 분리하는 것에 대해 설명하기로 한다.Next, a description will be given of detecting external objects (vehicles, people, etc.) introduced into the background in real time and separating them from the background.

유입 객체 검출부(430)는 상기 수신된 동영상, 상기 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출한다(S530). 유입 객체 3차원 좌표 계산부(440)는 상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산한다(S540). 검출된 외부 객체의 3차원 좌표의 계산은, 검출된 외부 객체 및 상기 저장되어 있는 배경이 만나는 특정 지점의 좌표에 기반하여 수행된다. 예를 들어, 검출된 외부 객체가 사람인 경우, 사람의 발바닥과 배경이 만나는 지점에 기반하여 외부 객체인 사람의 3차원 좌표가 계산된다. 객체 변형부(450)는 상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑한다(S550).The inflow object detector 430 detects an external object introduced into the background based on the received video, the three-dimensional coordinates of the stored background, and the texture of the background updated in real time (S530). The inflow object three-dimensional coordinate calculator 440 calculates three-dimensional coordinates of the detected external object based on the detected external object and the stored background (S540). The calculation of the three-dimensional coordinates of the detected external object is performed based on the coordinates of the specific point where the detected external object and the stored background meet. For example, when the detected external object is a person, three-dimensional coordinates of the person, which is the external object, are calculated based on the point where the sole and the background of the person meet. The object deforming unit 450 deforms the 3D coordinates of the external object to match the background and then maps a texture to the object (S550).

각각의 카메라는 임의의 위치에서 임의의 각도로 감시 영역을 촬영하게 되는데, 각각의 시각에 촬영된 영상 프레임은 공간상으로 연결된 통합 영상으로 결합하기 위하여 아핀 변환(affine transformation)을 거치게 된다. 이 때 각 화소가 배경을 나타내는 경우에는 문제가 없지만, 화소가 유입된 객체인 경우에는 화소와 배경의 3차원 좌표가 다르기 때문에, 통합된 영상으로 투영하게 되면, 도 3a 및 도 3b에 도시된 바와 같이, 영상의 왜곡이 발생한다. 도 3a 및 도 3b는, 결합할 때 기하학적인 변환, 즉 아핀 변환을 적용하는 경우 배경과 다른 3차원 좌표를 갖는 객체의 형상에 왜곡이 발생하는 것을 설명하기 위한 도면이다.Each camera captures a surveillance area at an arbitrary angle at an arbitrary position. The image frames captured at each time point undergo an affine transformation to combine into an integrated image connected in space. In this case, there is no problem in the case where each pixel represents the background. However, in the case of the object into which the pixel is introduced, the three-dimensional coordinates of the pixel and the background are different. Similarly, distortion of the image occurs. 3A and 3B are diagrams for explaining that distortion occurs in the shape of an object having three-dimensional coordinates different from the background when applying a geometric transformation, that is, an affine transformation, when combining.

도 3a 및 도 3b에서, 참조번호 30은 네트워크로 연결된 카메라를 나타내고, 참조번호 32는 네트워크로 연결된 카메라(30)와 인접한 카메라를 나타내며, 참조번호 34는 카메라(30)의 영상 면에 투영된 외부 유입 객체를 나타내고, 참조번호 36은 카메라(32)의 영상 면에 투영된 외부 유입 객체를 나타내며, 참조번호 37은 카메라(30)와 카메라(32)의 영상을 연결했을 때 기하학적인 변환을 하지 않은 카메라(30)의 영상을 나타낸 것으로, 이 영상에는 기하학적인 변환이 없기 때문에 유입 객체의 형상에는 왜곡이 없다. 또한, 참조번호 38은 카메라(30)와 카메라(32)의 영상을 연결했을 때 기하학적인 변환을 거친 카메라(32)의 영상을 나타낸 것으로, 기하학적인 변환 때문에 유입 객체의 형상에 왜곡이 발생한 것을 알 수 있다.3A and 3B, reference numeral 30 denotes a camera connected by a network, reference numeral 32 denotes a camera adjacent to a networked camera 30, and reference numeral 34 denotes an external projected onto an image plane of the camera 30. Reference numeral 36 denotes an inflow object, and reference numeral 36 denotes an external inflow object projected on the image plane of the camera 32, and reference numeral 37 denotes that no geometric transformation is performed when the image of the camera 30 and the camera 32 is connected. The image of the camera 30 is shown, and since there is no geometric transformation in this image, there is no distortion in the shape of the inflow object. In addition, reference numeral 38 denotes an image of the camera 32 undergoing a geometric transformation when the images of the camera 30 and the camera 32 are connected, and it is understood that distortion has occurred in the shape of the inflow object due to the geometric transformation. Can be.

이를 보정하기 위하여, 유입된 객체를 검출하여 배경으로부터 분리하고 유입된 객체의 좌표를 계산하고 변형한 후 통합된 영상에 투영한다. 이 때 유입된 객체는 배경과 분리하여 그 영역과 객체의 3차원 좌표 정보는 별도로 관리한다.To correct this, the incoming object is detected, separated from the background, the coordinates of the incoming object are calculated, transformed, and then projected onto the integrated image. In this case, the introduced object is separated from the background, and the 3D coordinate information of the area and the object is managed separately.

배경 생성부(420)는, 상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성한다(S560). 그리고 최종 영상 생성부(460)는 상기 변형된 후 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 다음에 인접 카메라의 배경과 합병하여 최종 영상을 생성한다(S570). 이렇게 생성된 최종 영상은 네트워크(46)를 통해 사용자 단말(44)로 전송되어, 사용자 단말(44)에는 도 2c에 도시된 바와 같이 네트워크로 연결된 다수의 카메라가 개별적으로 획득한 동영상이 공간적으로 연결된 하나의 동영상으로 합병되어 표시된다.The background generator 420 generates a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background (S560). The final image generator 460 inserts the deformed texture-mapped object into the final background and merges it with the background of the adjacent camera to generate a final image (S570). The final image generated in this way is transmitted to the user terminal 44 through the network 46, and as shown in FIG. 2C, the user terminal 44 is spatially connected to a video obtained by a plurality of cameras individually connected to the network. It is merged into one video and displayed.

이제 도 6을 참조하여, 본 발명의 일 실시예에 의한 실시간 동영상 합병을 이용한 가상 영상 투어 시스템에 대해 설명하기로 한다.Referring to FIG. 6, a virtual video tour system using real-time video merging according to an embodiment of the present invention will be described.

본 발명의 일 실시예에 의한 실시간 동영상 합병을 이용한 가상 영상 투어 시스템은, 도 4에 도시된 실시간 동영상 합병을 이용한 영상 감시 시스템과 동일한 구성으로 되어 있지만, 제어부(470)가 사용자의 위치, 사용자가 입력한 출발 지점, 도착 지점 및 이동 속도에 기반하여 상기 출발 지점에서 도착 지점까지의 사용자 이동 경로에 존재하는 카메라들을 상기 이동 속도에 맞추어 활성화시키고 사용자가 입력한 화각, 줌 배율, 팬 정보 및 방향에 따라 카메라들을 제어하도록 사용자 단말(44)로부터 필요한 정보를 수신하는 차이점만 있을 뿐이다.The virtual video tour system using the real-time video merging according to an embodiment of the present invention has the same configuration as the video surveillance system using the real-time video merging shown in FIG. 4, but the controller 470 controls the user's location and Based on the starting point, the arrival point, and the moving speed, the cameras in the user's moving path from the starting point to the arrival point are activated according to the moving speed, and the user's angle of view, zoom ratio, pan information, and direction are input. There is only a difference in receiving the necessary information from the user terminal 44 to control the cameras accordingly.

본 발명의 일 실시예에 의한 실시간 동영상 합병을 이용한 가상 영상 투어 시스템에서는, 가상의 체험자(감시자)가 감시 영역 상의 경로를 따라 이동할 때 체험자(감시자)의 시각에 따라 독립적으로 촬영된 카메라의 동영상을 재구성하여 체험자에게 보여준다.In a virtual video tour system using real-time video merging according to an embodiment of the present invention, when a virtual experience person (monitor) moves along a path on a surveillance area, a video of a camera photographed independently according to the time of the experience person (monitor) is displayed. Reconstruct and show to the experiencer.

도 6에서 (a)는 다수의 카메라가 회전하면서 경로를 촬영하는 것을 예시하고 있는데, 각각의 카메라는 회전하면서 촬영한 영상을 일정 기간 동안 저장하고 있으며, 인접하는 카메라와 중첩하여 경로를 감시한다.In FIG. 6, (a) illustrates a plurality of cameras photographing a path while rotating. Each camera stores a photographed image while rotating and monitors a path by overlapping with an adjacent camera.

도 6에서 (b)는 가상의 체험자가 이동 경로를 따라 이동할 때 경로의 각 지점을 통과하는 시각에 맞게 인접한 카메라에서 촬영한 영상을 가져와서 배경의 3차원 정보를 참조하여 체험자의 시점에 맞게 영상을 재구성하는 것을 예시하고 있다.In FIG. 6, (b) shows an image corresponding to the viewpoint of the experience person by referring to the 3D information of the background by taking an image taken by an adjacent camera according to the time passing through each point of the path when the virtual experience person moves along the movement path. To illustrate the reconstruction.

실시간 동영상 합병 시스템(40)은, 시설물 맵 상에 위치한 각 카메라의 3차원 좌표를 가지고 있으며, 각 카메라에서 촬영된 영상정보와 메타 정보를 저장한다.The real-time video merging system 40 has three-dimensional coordinates of each camera located on the facility map, and stores image information and meta information captured by each camera.

사용자 단말(44) 및 네트워크(46)를 통해 실시간 동영상 합병 시스템(40)에 접속한 사용자가 시설물의 맵을 보고 출발점, 중간 경로, 도착점을 지정하면, 실시간 동영상 합병 시스템(40)은 사용자에게 다음과 같은 서비스를 제공한다.When a user who accesses the real-time video merging system 40 through the user terminal 44 and the network 46 sees a map of the facility and designates a starting point, an intermediate route, and a destination point, the real-time video merging system 40 next asks the user. Providing services like

맵 상에서 경로를 최적의 경로로 선택하고 경로에 위치한 카메라가 촬영한 영상을 시각별로 선택하여 보여준다. 사용자가 경로를 따라 이동하면서 현장을 체험하고자 한다면, 사용자가 경로를 이동하는 느낌을 갖도록, 저장된 각각의 카메라 영상을 선택하고 재구성하여 하나의 동영상으로 보여준다. 이러한 동작은 앞서 설명한 바와 같으므로 개략적으로 설명하기로 한다.The path is selected as the optimal path on the map, and the video taken by the camera located in the path is selected for each time. If the user wants to experience the scene while moving along the path, each of the stored camera images are selected and reconstructed and displayed as one video so that the user feels the path moving. Since this operation is as described above, it will be briefly described.

사용자가 시각 t0에 경로 상의 한 점 P0에 위치한다면, 한 점 P0를 감시하는 다수의 카메라를 선택하고 각각의 카메라에서 시각 t0에 가장 인접한 시각에 저장된 영상들을 가져온다.If the user is located at a point P 0 on the path at time t 0 , select multiple cameras monitoring one point P 0 and retrieve images stored at the time closest to time t 0 in each camera.

사용자의 시점에서 보는 배경의 영역을 선택하고 선택된 배경의 영역의 감시 영상을 매핑한다. 이는 형상에 텍스처 영상을 매핑하는 널리 알려진 방법을 사용한다.The area of the background viewed from the user's point of view is selected and the surveillance image of the area of the selected background is mapped. This uses a well known method of mapping texture images to shapes.

저장된 영상에는 배경에 유입된 객체가 존재하게 되는데, 사용자가 보는 영역에 해당하는 카메라 영상을 통째로 매핑하면 객체의 영상이 왜곡된다. 이러한 영상의 왜곡을 해결하기 위하여, 객체의 영상을 배경 영상에서 분리하는 과정이 필요하다.In the stored image, an object introduced into the background exists. When the camera image corresponding to the area of the user is mapped as a whole, the image of the object is distorted. In order to solve the distortion of the image, a process of separating the image of the object from the background image is necessary.

실시간 동영상 합병 시스템(40)은, 배경의 텍스처 정보를 실시간으로 갱신하면서 저장하고, 저장된 최신 배경의 컬러 및 텍스처와 유입된 객체의 영역의 컬러 및 텍스처를 비교하여 객체를 배경으로부터 분리한다. 배경으로부터 객체를 분리한 후에 배경을 사용자가 보는 배경 영상에 매핑한다. 최종적으로 배경을 매핑하여 생성한 새로운 배경에 분리한 객체를 재배치함으로써 최종 영상을 생성하여, 네트워크(46) 및 사용자 단말(44)을 통해 사용자에게 제공한다.The real-time video merging system 40 stores the texture information of the background while updating in real time, and separates the object from the background by comparing the color and texture of the latest stored background with the color and texture of the area of the imported object. After separating the object from the background, the background is mapped to the background image seen by the user. Finally, the final image is generated by relocating the separated object to a new background generated by mapping the background and provided to the user through the network 46 and the user terminal 44.

본 명세서에서 논의된 방법들은, 적용례에 따라서 다양한 수단을 이용하여 구현될 수도 있다. 예를 들어, 이러한 방법들은 하드웨어, 펌웨어, 소프트웨어 또는 이들의 임의의 조합의 형태로 구현될 수도 있다. 하드웨어를 수반하는 구현예에서, 프로세싱 유닛은 하나 이상의 주문형 집적 회로들(ASICs), 디지털 신호 프로세서들(DSPs), 필드 프로그램가능 게이트 어레이들(FPGAs), 프로세서들, 제어기들, 마이크로-제어기들, 마이크로프로세서들, 전자 장치들, 본 명세서에서 논의된 기능들을 실행하도록 설계된 다른 전자 유닛들 또는 이들의 조합으로 구현될 수도 있다.The methods discussed herein may be implemented using various means depending on the application. For example, these methods may be implemented in the form of hardware, firmware, software, or any combination thereof. In an implementation involving hardware, the processing unit may include one or more application specific integrated circuits (ASICs), digital signal processors (DSPs), field programmable gate arrays (FPGAs), processors, controllers, micro-controllers, It may be implemented in microprocessors, electronic devices, other electronic units designed to perform the functions discussed herein, or a combination thereof.

이상 본 발명을 구체적인 실시예들을 통하여 상세히 설명하였으나, 이는 본 발명을 구체적으로 설명하기 위한 것으로, 본 발명은 이에 한정되지 않으며, 본 발명의 기술적 사상 내에서 당 분야의 통상의 지식을 가진 자에 의해 그 변형이나 개량이 가능함이 명백하다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, the same is by way of illustration and example only and is not to be construed as limiting the present invention. It is obvious that the modification or improvement is possible.

본 발명의 단순한 변형 내지 변경은 모두 본 발명의 영역에 속하는 것으로 본 발명의 구체적인 보호 범위는 첨부된 특허청구범위에 의하여 명확해질 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

본 발명은, 올림픽, 엑스포 같은 대형 행사에서 현장에 참여 못하는 사람들이 현장에 참여하여 경험하는 것과 같은 간접 체험을 하는데 이용될 수 있다. 또한, 본 발명은, 심야의 주차장 등에서 경로 상에 위험이 없는 지를 미리 스마트폰으로 확인하거나, 원자력 발전소와 같이 사람의 접근이 어려운 곳의 감시를 효과적으로 하거나, 새롭게 방문하는 지역을 사전에 답사하는데 이용될 수 있다.The present invention can be used for indirect experiences such as those who do not participate in the field at large events such as the Olympics and Expo. In addition, the present invention is used to confirm whether there is no danger on the route in the parking lot of the late night, such as a smart phone in advance, to effectively monitor the places where people are difficult to access, such as nuclear power plants, or to visit the newly visited area in advance Can be.

40 : 실시간 동영상 합병 시스템
42 : 카메라
44 : 사용자 단말
46 : 네트워크
48 : 네트워크
400 : 배경 텍스처 실시간 갱신부
410 : 배경 3차원 좌표 계산부
420 : 배경 생성부
430 : 유입 객체 검출부
440 : 유입 객체 3차원 좌표 계산부
450 : 객체 변형부
460 : 최종 영상 생성부
470 : 제어부
40: Real Time Video Merger System
42: camera
44: user terminal
46: network
48: network
400: background texture real-time update unit
410: background 3D coordinate calculation unit
420: background generator
430: inflow object detector
440: inflow object three-dimensional coordinate calculation unit
450: object deformation
460: the final image generating unit
470: control unit

Claims (6)

(A) 복수의 카메라로부터 동영상을 수신하는 단계;
(B) 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 단계;
(C) 상기 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 단계;
(D) 상기 수신된 동영상, 상기 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 단계;
(E) 상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 단계;
(F) 상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 단계;
(G) 상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 단계; 및
(H) 상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 단계를 포함하는 것을 특징으로 하는 실시간 동영상 합병 방법.
(A) receiving a video from a plurality of cameras;
(B) calculating three-dimensional coordinates of the background based on the received video and storing the background and three-dimensional coordinates of the background;
(C) updating the texture of the background in real time based on the received video;
(D) detecting an external object introduced into the background based on the received video, the three-dimensional coordinates of the stored background, and the texture of the background updated in real time;
(E) calculating three-dimensional coordinates of the detected external object based on the detected external object and the stored background;
(F) mapping the texture to the object after modifying the three-dimensional coordinates of the external object to match the background;
(G) generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background; And
(H) real-time video merging method comprising the step of inserting the texture-mapped object to the final background and merging with the background of an adjacent camera to generate a final image.
청구항 1에 있어서,
상기 단계 (A)에서는 네트워크를 통해 복수의 카메라로부터 동영상을 수신하고, 상기 단계 (E)에서는 상기 검출된 외부 객체 및 상기 저장되어 있는 배경이 만나는 특정 지점의 좌표에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 것을 특징으로 하는 실시간 동영상 합병 방법.
The method according to claim 1,
In the step (A), a video is received from a plurality of cameras via a network, and in the step (E), the detected external object is based on a coordinate of a specific point where the detected external object meets the stored background. Real-time video merging method, characterized in that for calculating the three-dimensional coordinates.
복수의 카메라로부터 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 배경 3차원 좌표 계산부;
상기 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 배경 텍스처 실시간 갱신부;
상기 수신된 동영상, 상기 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 유입 객체 검출부;
상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 유입 객체 3차원 좌표 계산부;
상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 객체 변형부;
상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 배경 생성부;
상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 최종 영상 생성부; 및
상기 복수의 카메라, 상기 배경 3차원 좌표 계산부, 상기 배경 텍스처 실시간 갱신부, 상기 유입 객체 검출부, 상기 유입 객체 3차원 좌표 계산부, 상기 객체 변형부, 상기 배경 생성부 및 상기 최종 영상 생성부 중 적어도 하나를 제어하는 제어부를 포함하는 것을 특징으로 하는 실시간 동영상 합병 시스템.
A background three-dimensional coordinate calculation unit configured to calculate a three-dimensional coordinate of the background based on the video received from a plurality of cameras and to store the background and three-dimensional coordinates of the background;
A background texture real time updating unit which updates a background texture in real time based on the received video;
An inflow object detector configured to detect an external object introduced into the background based on the received video, the 3D coordinates of the stored background, and the texture of the background updated in real time;
An inflow object three-dimensional coordinate calculator configured to calculate three-dimensional coordinates of the detected external object based on the detected external object and the stored background;
An object deformer configured to map a texture to an object after deforming the three-dimensional coordinates of the external object to match a background;
A background generator for generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background;
A final image generator which inserts the texture-mapped object into the final background and merges with the background of an adjacent camera to generate a final image; And
Among the plurality of cameras, the background 3D coordinate calculator, the background texture real-time updater, the inflow object detector, the inflow object 3D coordinate calculator, the object deformer, the background generator, and the final image generator Real-time video merging system comprising a control unit for controlling at least one.
청구항 3에 있어서, 상기 배경 3차원 좌표 계산부, 상기 배경 텍스처 실시간 갱신부 및 상기 유입 객체 검출부는 네트워크를 통해 상기 카메라로부터 동영상을 수신하고, 상기 유입 객체 3차원 좌표 계산부는 상기 검출된 외부 객체 및 상기 저장되어 있는 배경이 만나는 특정 지점의 좌표에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 것을 특징으로 하는 실시간 동영상 합병 시스템.The apparatus of claim 3, wherein the background 3D coordinate calculator, the background texture real-time updater, and the inflow object detector receive a video from the camera through a network, and the inflow object three-dimensional coordinate calculator is configured to detect the detected external object and And a three-dimensional coordinate of the detected external object based on coordinates of a specific point where the stored background meets. 동영상을 촬영하기 위한 복수의 카메라;
상기 복수의 카메라로부터 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 배경 3차원 좌표 계산부;
상기 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 배경 텍스처 실시간 갱신부;
상기 수신된 동영상, 상기 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 유입 객체 검출부;
상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 유입 객체 3차원 좌표 계산부;
상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 객체 변형부;
상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 배경 생성부;
상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 최종 영상 생성부;
상기 최종 영상 생성부에서 출력되는 합병된 영상을 수신하여 표시하는 하나 이상의 사용자 단말; 및
상기 복수의 카메라, 상기 배경 3차원 좌표 계산부, 상기 배경 텍스처 실시간 갱신부, 상기 유입 객체 검출부, 상기 유입 객체 3차원 좌표 계산부, 상기 객체 변형부, 상기 배경 생성부 및 상기 최종 영상 생성부 중 적어도 하나를 제어하고, 상기 사용자 단말로부터 신호를 수신하는 제어부를 포함하는 것을 특징으로 하는 실시간 동영상 합병을 이용한 영상 감시 시스템.
A plurality of cameras for shooting a video;
A background three-dimensional coordinate calculator configured to calculate a three-dimensional coordinate of the background based on the videos received from the plurality of cameras, and store the background and three-dimensional coordinates of the background;
A background texture real time updating unit which updates a background texture in real time based on the received video;
An inflow object detector configured to detect an external object introduced into the background based on the received video, the 3D coordinates of the stored background, and the texture of the background updated in real time;
An inflow object three-dimensional coordinate calculator configured to calculate three-dimensional coordinates of the detected external object based on the detected external object and the stored background;
An object deformer configured to map a texture to an object after deforming the three-dimensional coordinates of the external object to match a background;
A background generator for generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background;
A final image generator which inserts the texture-mapped object into the final background and merges with the background of an adjacent camera to generate a final image;
One or more user terminals that receive and display the merged image output from the final image generator; And
Among the plurality of cameras, the background 3D coordinate calculator, the background texture real-time updater, the inflow object detector, the inflow object 3D coordinate calculator, the object deformer, the background generator, and the final image generator And a control unit for controlling at least one and receiving a signal from the user terminal.
동영상을 촬영하기 위한 복수의 카메라로서, 제어 신호에 따라 화각(view angle), 줌 배율, 패닝 각도 및 방향을 조절할 수 있는 복수의 카메라;
상기 복수의 카메라로부터 수신된 동영상에 기반하여 배경의 3차원 좌표를 계산하고 상기 배경 및 상기 배경의 3차원 좌표를 저장하는 배경 3차원 좌표 계산부;
사용자의 위치, 사용자가 입력한 출발 지점, 도착 지점 및 사용자의 이동 속도에 기반하여 상기 출발 지점에서 도착 지점까지의 사용자 이동 경로에 존재하는 카메라들을 상기 이동 속도에 맞추어 활성화시키고 사용자가 입력한 화각, 줌 배율, 패닝 각도 및 방향에 따라 카메라들을 제어하는 제어부;
상기 활성화된 카메라로부터 수신된 동영상에 기반하여 배경의 텍스처를 실시간으로 갱신하는 배경 텍스처 실시간 갱신부;
상기 활성화된 카메라로부터 수신된 동영상, 상기 활성화된 카메라가 위치하는 지점의 저장되어 있는 배경의 3차원 좌표 및 상기 실시간으로 갱신된 배경의 텍스처에 기반하여 배경에 유입된 외부 객체를 검출하는 유입 객체 검출부;
상기 검출된 외부 객체 및 상기 저장되어 있는 배경에 기반하여 상기 검출된 외부 객체의 3차원 좌표를 계산하는 유입 객체 3차원 좌표 계산부;
상기 외부 객체의 3차원 좌표를 배경에 맞게 변형한 후 객체에 텍스처를 매핑하는 객체 변형부;
상기 실시간으로 갱신된 배경의 텍스처 및 상기 저장되어 있는 배경의 3차원 좌표에 기반하여 최종 배경을 생성하는 배경 생성부;
상기 텍스처가 매핑된 객체를 상기 최종 배경에 삽입한 후에 인접 카메라의 배경과 합병하여 최종 영상을 생성하는 최종 영상 생성부; 및
상기 최종 영상 생성부에서 출력되는 합병된 영상을 수신하여 표시하는 하나 이상의 사용자 단말을 포함하며,
상기 제어부는, 상기 복수의 카메라, 상기 배경 3차원 좌표 계산부, 상기 배경 텍스처 실시간 갱신부, 상기 유입 객체 검출부, 상기 유입 객체 3차원 좌표 계산부, 상기 객체 변형부, 상기 배경 생성부 및 상기 최종 영상 생성부 중 적어도 하나를 제어하고, 상기 사용자 단말로부터 신호를 수신하는 것을 특징으로 하는 실시간 동영상 합병을 이용한 가상 영상 투어 시스템.
A plurality of cameras for photographing a video, comprising: a plurality of cameras capable of adjusting a view angle, a zoom magnification, a panning angle, and a direction according to a control signal;
A background three-dimensional coordinate calculator configured to calculate a three-dimensional coordinate of the background based on the videos received from the plurality of cameras, and store the background and three-dimensional coordinates of the background;
Based on the user's location, the starting point, the arrival point, and the moving speed of the user, the cameras in the moving path from the starting point to the arrival point are activated according to the moving speed and the angle of view entered by the user, A controller for controlling the cameras according to the zoom magnification, the panning angle and the direction;
A background texture real-time updating unit that updates a background texture in real time based on a video received from the activated camera;
An inflow object detection unit that detects an external object introduced into the background based on a video received from the activated camera, a three-dimensional coordinate of a stored background of a location where the activated camera is located, and a texture of the background updated in real time. ;
An inflow object three-dimensional coordinate calculator configured to calculate three-dimensional coordinates of the detected external object based on the detected external object and the stored background;
An object deformer configured to map a texture to an object after deforming the three-dimensional coordinates of the external object to match a background;
A background generator for generating a final background based on the texture of the background updated in real time and the three-dimensional coordinates of the stored background;
A final image generator which inserts the texture-mapped object into the final background and merges with the background of an adjacent camera to generate a final image; And
At least one user terminal for receiving and displaying the merged image output from the final image generating unit,
The controller may include the plurality of cameras, the background 3D coordinate calculator, the background texture real time updater, the inflow object detector, the inflow object 3D coordinate calculator, the object deformer, the background generator, and the final object. Virtual video tour system using a real-time video merge, characterized in that for controlling at least one of the image generating unit, and receiving a signal from the user terminal.
KR1020130025059A 2013-03-08 2013-03-08 Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging KR101383997B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130025059A KR101383997B1 (en) 2013-03-08 2013-03-08 Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130025059A KR101383997B1 (en) 2013-03-08 2013-03-08 Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging

Publications (1)

Publication Number Publication Date
KR101383997B1 true KR101383997B1 (en) 2014-04-10

Family

ID=50657331

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130025059A KR101383997B1 (en) 2013-03-08 2013-03-08 Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging

Country Status (1)

Country Link
KR (1) KR101383997B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190035316A (en) * 2017-09-26 2019-04-03 엔에이치엔엔터테인먼트 주식회사 Method and system for sharing information
CN110704268A (en) * 2018-07-10 2020-01-17 浙江宇视科技有限公司 Automatic video image testing method and device
WO2022206728A1 (en) * 2021-03-31 2022-10-06 影石创新科技股份有限公司 Real-time framing method, panoramic camera, and computer readable storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040053257A (en) * 2001-11-02 2004-06-23 사르노프 코포레이션 Method and apparatus for providing immersive surveillance
KR20050117276A (en) * 2004-06-10 2005-12-14 삼성전자주식회사 Apparatus and method for extracting moving objects from video image
KR100862398B1 (en) 2008-07-18 2008-10-13 한국비전기술(주) Automatic police enforcement method of illegal-stopping and parking vehicle having cctv for preventing crime using multiple camera and system thereof
KR20100132110A (en) * 2009-06-09 2010-12-17 (주)이지스 A method for obtaining 3-dimension coordinate of camera image using 3-dimension space data and method for controlling interlock of cameras thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20040053257A (en) * 2001-11-02 2004-06-23 사르노프 코포레이션 Method and apparatus for providing immersive surveillance
KR20050117276A (en) * 2004-06-10 2005-12-14 삼성전자주식회사 Apparatus and method for extracting moving objects from video image
KR100862398B1 (en) 2008-07-18 2008-10-13 한국비전기술(주) Automatic police enforcement method of illegal-stopping and parking vehicle having cctv for preventing crime using multiple camera and system thereof
KR20100132110A (en) * 2009-06-09 2010-12-17 (주)이지스 A method for obtaining 3-dimension coordinate of camera image using 3-dimension space data and method for controlling interlock of cameras thereof

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190035316A (en) * 2017-09-26 2019-04-03 엔에이치엔엔터테인먼트 주식회사 Method and system for sharing information
KR102105231B1 (en) * 2017-09-26 2020-04-28 엔에이치엔 주식회사 Method and system for sharing information
CN110704268A (en) * 2018-07-10 2020-01-17 浙江宇视科技有限公司 Automatic video image testing method and device
CN110704268B (en) * 2018-07-10 2023-10-27 浙江宇视科技有限公司 Automatic testing method and device for video images
WO2022206728A1 (en) * 2021-03-31 2022-10-06 影石创新科技股份有限公司 Real-time framing method, panoramic camera, and computer readable storage medium

Similar Documents

Publication Publication Date Title
CN109348119B (en) Panoramic monitoring system
KR100911066B1 (en) Image display system, image display method and recording medium
JP2020184795A (en) Video monitoring system, video monitoring method, and program
KR101695249B1 (en) Method and system for presenting security image
CN110458897B (en) Multi-camera automatic calibration method and system and monitoring method and system
US8982245B2 (en) Method and system for sequential viewing of two video streams
EP2951642A1 (en) Omnistereo imaging
JP2006507764A (en) Critical alignment of parallax images for autostereoscopic display
JPH07287761A (en) Device and method for processing picture
JP4928476B2 (en) Stereoscopic image generating apparatus, method thereof and program thereof
EP2787735A1 (en) Image processing device, image processing method and program
KR101778744B1 (en) Monitoring system through synthesis of multiple camera inputs
CN104704817A (en) Visual field display system, visual field display method, and visual field display program
KR101383997B1 (en) Real-time video merging method and system, visual surveillance system and virtual visual tour system using the real-time video merging
US20140168375A1 (en) Image conversion device, camera, video system, image conversion method and recording medium recording a program
KR102456332B1 (en) Methods for Reducing Visually Induced Motion Sickness in Head-Mounted Displays and Connected Remote Displays
US9918066B2 (en) Methods and systems for producing a magnified 3D image
CN114442805A (en) Monitoring scene display method and system, electronic equipment and storage medium
JP2006119843A (en) Image forming method, and apparatus thereof
KR101700651B1 (en) Apparatus for tracking object using common route date based on position information
CN110692085A (en) Control device for a camera arrangement, camera arrangement and method for the stereoscopic recording of a surveillance area
KR101051355B1 (en) 3D coordinate acquisition method of camera image using 3D spatial data and camera linkage control method using same
TW201603557A (en) Three-dimensional image processing system, apparatus and method for the same
CN111131697B (en) Multi-camera intelligent tracking shooting method, system, equipment and storage medium
CN109756728B (en) Image display method and apparatus, electronic device, computer-readable storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee