KR20090131891A - System and method for providing video stream of multiple personal roi - Google Patents

System and method for providing video stream of multiple personal roi Download PDF

Info

Publication number
KR20090131891A
KR20090131891A KR1020080057873A KR20080057873A KR20090131891A KR 20090131891 A KR20090131891 A KR 20090131891A KR 1020080057873 A KR1020080057873 A KR 1020080057873A KR 20080057873 A KR20080057873 A KR 20080057873A KR 20090131891 A KR20090131891 A KR 20090131891A
Authority
KR
South Korea
Prior art keywords
camera
image
frame
client terminal
interest
Prior art date
Application number
KR1020080057873A
Other languages
Korean (ko)
Inventor
낭종호
유정수
Original Assignee
서강대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서강대학교산학협력단 filed Critical 서강대학교산학협력단
Priority to KR1020080057873A priority Critical patent/KR20090131891A/en
Publication of KR20090131891A publication Critical patent/KR20090131891A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F8/00Arrangements for software engineering
    • G06F8/40Transformation of program code
    • G06F8/41Compilation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PURPOSE: A system and a method for providing video stream of multiple personal ROI are provided to monitor each store by setting up as an ROI(Region of Interest) by the users. CONSTITUTION: A camera unit(310) processes video frame, and a single merged frame is offered on a real time basis. An encoding unit(314) receives the merged frame. The encoding unit detects the images about the region of interests which client terminals requested. An interface server(312) creates encoding modules(314a-314c) corresponding to the client terminals.

Description

개인별 맞춤형 실시간 동영상 제공 시스템 및 방법{System and method for providing video stream of multiple personal ROI}System and method for providing video stream of multiple personal ROI}

본 발명은 개인별 맞춤형 실시간 동영상 제공 시스템 및 방법에 관한 것으로서, 특히 양방향 전송 경로를 갖는 감시 및 방송 환경에서 특정 지역이나 공간에 대한 파노라마형 동영상을 실시간으로 획득하고, 획득한 실시간 동영상에서 각 사용자별로 설정된 관심 영역(Region of Interest;ROI)을 추출하여 해당 사용자에게 실시간으로 제공하는 실시간 동영상 제공 시스템 및 방법에 관한 것이다.The present invention relates to a system and a method for providing a personalized real-time video for each individual, and particularly, in a surveillance and broadcasting environment having a bidirectional transmission path, to obtain a panoramic video of a specific region or space in real time, and to set each user in the obtained real-time video. The present invention relates to a real-time video providing system and method for extracting a region of interest (ROI) and providing the same to a corresponding user in real time.

일반적으로, 전방향(omni-directional) 비디오 카메라 시스템은 고정 시점을 기준으로 360도 전방향을 촬영할 수 있는 카메라 시스템을 말하는 것으로서, 특수 형태의 특수 렌즈를 장착하거나 다수 개의 카메라를 이용하여 전방향을 촬영한다. In general, an omni-directional video camera system refers to a camera system capable of capturing 360-degree omnidirectional views from a fixed point of view. The omni-directional video camera system may be equipped with a special type of special lens or may be omni-directional using a plurality of cameras. Shoot.

또한, 원격 조정 카메라 시스템은 피사체를 촬영하는 카메라와 상기 카메라를 원격에서 제어하는 컨트롤러로 구성되며, 컨트롤러를 조정하여 피사체를 줌인(Zoom-In) 또는 줌아웃(Zoon-Out)하여 피사체를 가까이 포커싱하거나 피사체 주변이 포괄적으로 보이도록 포커싱한 후 촬영하게 된다. In addition, the remote control camera system is composed of a camera for photographing the subject and a controller for controlling the camera remotely, and adjusts the controller to zoom-in or zoom-out the subject to focus the subject closer. The camera shoots after focusing so that the surroundings of the subject are comprehensive.

도 1은 일반적인 1:1 원격 조정 카메라 시스템을 나타낸 도면이다. 도 1에 도시된 바와 같이, 상기 원격 조정 카메라 시스템은 원격지에 배치된 카메라(110), 및 상기 카메라를 제어하여 피사체에 대한 촬영을 제어하는 컨트롤러(120)를 구비하고, 이 시스템에 의해 피사체에 대한 특정 부분에 대한 영상(130)을 획득하게 된다. 이러한 일반적인 원격 조정 카메라 시스템은 오직 하나의 컨트롤러를 통해서 피사체를 촬영하거나 감시할 수 있기 때문에, 1개의 관심 영역에 대한 영상만을 제공할 수 있다. 따라서, 다수 개의 관심 영역에 대한 영상을 제공하지 못하는 단점이 있다. 1 is a view showing a typical 1: 1 remote control camera system. As shown in FIG. 1, the remote control camera system includes a camera 110 disposed at a remote location, and a controller 120 that controls the camera to control photographing of a subject. An image 130 for a specific portion of the image is obtained. Since such a general remote control camera system can photograph or monitor a subject through only one controller, it can provide an image of only one region of interest. Thus, there is a disadvantage in that it cannot provide images for a plurality of ROIs.

또한, 종래의 원격 조정 카메라 시스템은 카메라를 직접 줌인 또는 줌아웃하거나, 카메라를 이동시키거나 회전시켜 원하는 위치의 영상을 획득하게 되므로, 다수의 사용자가 서로 다른 관심영역을 갖고 있는 경우, 각 사용자에게 서로 다른 관심 영역에 대한 영상을 실시간으로 제공하는 것은 불가능하다는 문제점을 안고 있다. In addition, the conventional remote control camera system is to directly zoom in or zoom out the camera, or to move or rotate the camera to obtain the image of the desired position, so that when a plurality of users have different areas of interest, each user to each other There is a problem that it is impossible to provide images of other regions of interest in real time.

따라서, 본 발명은 다수 개의 카메라를 사용하여 전방향을 촬영하여 다수의 사용자에게 제공할 수 있는 방안을 제안하고자 하며, 다수의 사용자들이 상기 촬영된 전방향에 대한 영상 중 각 사용자의 관심 영역에 대한 영상을 효율적으로 제공할 수 있는 방안을 제안하고자 한다. Therefore, the present invention is to propose a method that can be provided to a plurality of users by photographing the omnidirectional using a plurality of cameras, a plurality of users for each region of interest of the image of the omnidirectional photographed This paper proposes a method to efficiently provide images.

상기한 종래 기술이 안고 있는 문제점을 해결하기 위한 본 발명의 목적은 양방향 전송 경로를 갖는 감시 및 방송 환경에서 특정 지역이나 공간에 대하여 전방향에 대한 실시간 동영상을 획득하고, 획득된 실시간 동영상으로부터 다수의 사용자들이 각각 설정한 관심 영역(Region of Interest)들을 추출하여 각 사용자별로 해당 관심 영역에 대한 동영상을 실시간으로 제공하는 실시간 동영상 제공 시스템 및 방법을 제공하는 것이다.An object of the present invention for solving the problems of the prior art is to obtain a real-time video in all directions for a specific area or space in a surveillance and broadcast environment having a bidirectional transmission path, and from the obtained real-time video The present invention provides a real-time video providing system and method for extracting regions of interest set by users and providing a video of a corresponding region of interest for each user in real time.

또한 본 발명의 다른 목적은 다수의 사용자에게 각각의 관심 영역에 대한 동영상을 실시간으로 제공하되, 보다 고화질의 영상을 보다 효율적으로 제공될 수 있는 실시간 동영상 제공 시스템 및 방법을 제공하는 것이다. Another object of the present invention is to provide a real-time video providing system and method that can provide a plurality of users a video for each region of interest in real time, more efficiently to provide a higher quality image.

상기한 바를 달성하기 위한 본 발명의 특징은 다수의 클라이언트 단말기에 서로 다른 관심 영역에 대한 실시간 영상들을 각각 제공하는 실시간 동영상 제공 시스템에 관한 것으로서, 상기 시스템은, A feature of the present invention for achieving the above-mentioned aspect relates to a real-time video providing system for providing a plurality of real-time images of different regions of interest to a plurality of client terminals, respectively,

복수의 카메라로 구성되는 카메라 집합부와 영상 처리용 PC를 구비하고, 상기 카메라 집합부로부터 입력되는 영상 프레임들을 영상 처리한 후 각 타임 스탬프에 대해 단일의 병합 프레임을 실시간으로 제공하는 카메라부; 각 클라이언트 단말기와 1:1 세션 연결되며, 상기 카메라부로부터 병합 프레임을 수신하고, 상기 수신된 병합 프레임으로부터 세션 연결된 클라이언트 단말기에서 요청된 관심 영역에 대한 영상을 검출하여 상기 클라이언트 단말기로 전송하는 복수의 인코딩 모듈로 구성되는 인코딩부; 상기 클라이언트 단말기로부터 입력되는 동영상 제공 요청에 따라 상기 인코딩부에 상기 클라이언트 단말기에 대응되는 인코딩 모듈을 생성하는 인터페이스 서버;를 구비하여, 각 클라이언트 단말기로 서로 다른 관심 영역에 대한 영상을 실시간으로 제공한다. A camera unit having a camera set unit consisting of a plurality of cameras and a PC for image processing, for processing a video frame input from the camera set unit and providing a single merged frame in real time for each time stamp; A plurality of sessions are connected to each client terminal in a 1: 1 session and receive a merge frame from the camera unit, and detect an image of a region of interest requested by the session connected client terminal from the received merge frame and transmit the image to the client terminal. An encoding unit configured of an encoding module; And an interface server configured to generate an encoding module corresponding to the client terminal in response to a video providing request input from the client terminal, and provides images of different regions of interest to each client terminal in real time.

전술한 특징을 갖는 시스템의 상기 카메라부의 영상 처리용 PC는,PC for image processing of the camera unit of the system having the above-mentioned features,

상기 카메라 집합부의 카메라들에 연결되어 각 카메라로부터 출력되는 영상프레임을 처리하는 카메라 입력 PC; 카메라 입력 PC로부터 각 타임 스탬프에 대한 영상 프레임들을 수신하고 각 타임 스탬프에 따라 그룹핑을 수행하여 병합 프레임을 생성하고 상기 병합 프레임을 패킷화하여 인코딩부의 각 인코딩 모듈로 멀티캐스팅하는 병합용 PC;를 구비하여, 각 타임 스탬프에 따른 병합 프레임을 모든 인코딩 모듈로 전송하며, A camera input PC connected to the cameras of the camera set unit and processing an image frame output from each camera; A merging PC that receives image frames for each time stamp from a camera input PC, performs grouping according to each time stamp, generates a merge frame, and packetizes the merge frame to multicast to each encoding module of an encoding unit. To send merge frames according to each time stamp to all encoding modules,

특히 상기 카메라부는 복수 개의 카메라 입력 PC를 구비하고, 상기 카메라 집합부의 카메라들을 분할하여 상기 카메라 입력 PC에 연결시키며, 상기 카메라 입력 PC들은 상기 카메라로부터 입력되는 영상 프레임 및 현재 시간 정보를 포함하는 타임 스탬프를 결합하여 상기 병합용 PC로 제공하는 것이 바람직하다. In particular, the camera unit includes a plurality of camera input PCs, divides the cameras of the camera assembly unit and connects the camera input PCs, and the camera input PCs include a time stamp including image frames and current time information input from the cameras. It is preferable to combine to provide to the merging PC.

전술한 특징을 갖는 시스템의 상기 병합용 PC는, 각 카메라에 대응되도록 마련된 복수 개의 동기화 버퍼를 구비하고, 상기 카메라 입력 PC로부터 입력되는 영상 프레임을 해당 카메라에 대응되는 동기화 버퍼에 순차적으로 저장하는 영상 수신부; 상기 동기화 버퍼들에 저장된 영상 프레임들을 각 타임 스탬프별로 그룹핑하 여 병합 프레임을 생성하는 병합 프레임 생성부; 상기 병합 프레임을 패킷화하여 모든 인코딩 모듈로 전송하는 전송부;를 구비하여, 병합 프레임을 모든 인코딩 모듈로 전송하는 것이 바람직하다. The merging PC of the system having the above-mentioned features includes a plurality of synchronization buffers provided to correspond to the respective cameras, and an image for sequentially storing image frames input from the camera input PC in the synchronization buffers corresponding to the cameras. Receiving unit; A merge frame generation unit for generating a merge frame by grouping image frames stored in the synchronization buffers for each time stamp; And a transmission unit for packetizing the merge frame and transmitting the packet to all the encoding modules.

전술한 특징을 갖는 시스템의 상기 인코딩 모듈은 상기 세션 연결된 클라이언트 단말기로부터 관심영역에 대한 위치 정보, 및 QoS 파라미터에 대한 정보를 수신하여 저장하고, 카메라부로부터 병합 프레임을 수신하면, 상기 저장된 관심영역에 대한 위치 정보에 따라 상기 병합 프레임으로부터 관심 영역에 대한 영상을 추출하고, 상기 저장된 QoS 파라미터에 대한 정보에 따라 상기 추출된 관심 영역에 대한 영상을 압축하여 상기 세션 연결된 클라이언트 단말기로 전송하는 것이 바람직하다. The encoding module of the system having the above-described feature receives and stores location information about the region of interest and QoS parameters from the session-connected client terminal, and receives a merge frame from the camera unit. It is preferable to extract an image of the ROI from the merged frame according to the location information of the merged frame, and to compress the image of the extracted ROI based on the stored QoS parameter to transmit the image of the ROI to the session-connected client terminal.

본 발명의 다른 특징은, 다수의 클라이언트 단말기에 서로 다른 관심 영역에 대한 실시간 영상들을 제공하기 위하여, 카메라 집합부를 구성하는 각 카메라와 연결되어 각 카메라로부터 출력되는 영상 프레임을 처리하여 각 타임 스탬프에 대해 병합 프레임을 출력하는 영상 처리 방법에 관한 것으로서, 상기 영상 처리 방법은, According to another aspect of the present invention, in order to provide real-time images of different regions of interest to a plurality of client terminals, it is connected to each camera constituting the camera aggregation unit and processes an image frame output from each camera for each time stamp. An image processing method for outputting a merge frame. The image processing method includes:

(a) 각 카메라로부터 영상 프레임들을 수신하는 단계; (b) 상기 수신된 영상 프레임과 현재 시간 정보를 포함하는 타임 스탬프를 결합하는 단계; (c) 상기 타임 스탬프와 결합된 영상 프레임들을 각 카메라와 대응되도록 설정된 동기화 버퍼에 저장하는 단계; (d) 상기 동기화 버퍼에 저장된 영상 프레임들 중 동일 타임 스탬프를 갖는 영상 프레임들을 그룹핑하여 병합 프레임을 생성하는 단계; (e) 세션 연결된 클라이언트 단말기로부터 관심영역에 대한 위치 정보를 수신하여 저장하는 단 계; (f) 상기 저장된 관심영역에 대한 위치 정보에 따라, 상기 병합 프레임으로부터 관심 영역에 대한 영상을 추출하는 단계; (g) 상기 추출된 관심 영역에 대한 영상을 상기 세션 연결된 클라이언트 단말기로 전송하는 단계;를 구비한다. (a) receiving image frames from each camera; (b) combining the received image frame with a time stamp including current time information; (c) storing image frames associated with the time stamp in a synchronization buffer set to correspond to each camera; (d) generating a merge frame by grouping image frames having the same time stamp among the image frames stored in the synchronization buffer; (e) receiving and storing location information on a region of interest from a session-connected client terminal; (f) extracting an image of the ROI from the merged frame according to the stored position information of the ROI; (g) transmitting the extracted image of the ROI to the session-connected client terminal.

본 발명에 따른 시스템 및 방법에 의하여, 서로 다른 관심 영역을 갖는 다수의 사용자에게 해당 관심 영역에 대한 동영상을 실시간으로 제공할 수 있게 된다. According to the system and method according to the present invention, a plurality of users having different regions of interest can provide a video of the region of interest in real time.

또한, 본 발명에 따른 시스템을 상가 밀집 지역 등에 적용하는 경우, 여러 대의 카메라를 이용하여 해당 지역에 대한 전방향 영상을 획득하여 사용자에게 제공하고, 각 사용자는 자신의 원하는 영역만을 관심 영역으로 설정하여 해당 관신 영역에 대한 영상만으로 제공받을 수 있게 된다. 따라서, 본 발명에 의하여, 각 사용자가 자신의 점포에 해당하는 지역을 관심영역으로 설정함으로써, 단일의 시스템을 이용하여 다수의 사용자들이 자신의 점포들을 개별적으로 감시할 수 있게 된다. In addition, when the system according to the present invention is applied to a densely packed shopping district, the camera obtains an omnidirectional image of the corresponding area using a plurality of cameras, and provides each user with a region of interest. Only the image of the communication area can be provided. Therefore, according to the present invention, each user sets a region corresponding to his or her store as a region of interest, so that a plurality of users can individually monitor their stores using a single system.

또한, 본 발명에 따른 시스템 및 방법을 양방향 통신을 지원하는 IP TV환경에 적용하여 스포츠를 중계하는 경우, 경기장의 전체 모습을 실시간 동영상으로 사용자에게 제공되며, 각 사용자는 경기장의 특정 부분을 관심 영역으로 설정하여 자신이 설정한 관심 영역에 대하여 보다 고화질의 영상을 실시간으로 제공받을 수 있게 된다. In addition, in the case of relaying sports by applying the system and method according to the present invention to an IP TV environment supporting two-way communication, an entire view of the stadium is provided to the user as a real-time video, and each user is interested in a specific portion of the stadium. In this case, a higher quality image can be provided in real time for the ROI set by the user.

또한, 본 발명에 따른 시스템은 각 사용자는 자신의 관심 영역을 이동하거나 줌인 또는 줌아웃할 수 있으며, 변경된 관심 영역에 대한 동영상을 실시간으로 제공받을 수 있게 된다. 따라서, 본 발명에 따른 시스템은 단일의 카메라 시스템을 이용하더라도 다수의 사용자가 자신의 카메라를 원격에서 조정하는 것과 동일한 효과를 달성할 수 있게 된다. In addition, in the system according to the present invention, each user may move, zoom in, or zoom out of his / her region of interest, and may receive a video of the changed region of interest in real time. Thus, the system according to the present invention can achieve the same effect as a large number of users remotely controlling their cameras even when using a single camera system.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명한다. 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단된 경우 그 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In describing the present invention, when it is determined that the detailed description of the related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 2는 본 발명의 실시예에 따른 실시간 동영상 제공 시스템에 의해 다수의 사용자(multiple users)에게 서로 다른 관심 영역들에 대한 실시간 동영상이 제공되는 것을 설명하기 위하여 도시한 개념도이다. 도 2에 도시된 바와 같이, 다수 개의 카메라(202)를 이용하여 획득된 다수 개의 영상들(203, 204, 205)을 병합하여 하나의 병합 영상을 생성하고, 상기 생성된 병합 영상을 전체 화면(210)으로 제공하게 되고, 다수의 사용자들이 각각 컨트롤러(211, 213, 215)을 통해 하나의 전체 화면(210) 중 관심 영역(Region Of Interest)을 설정하고 이를 줌인 또는 줌아웃하거나 이동시킬 수 있게 된다. 즉, 제1 사용자는 제1 컨트롤러(211)를 사용하여 전체 화면에서 보고자 하는 관심영역(212)을 줌인하거나 줌아웃하여 볼 수 있고, 제2 사용자는 제2 컨트롤러(213)를 사용하여 전체 화면에서 보고자 하는 관심영역(214)을 줌인하거나 줌아웃하여 볼 수 있다. 또한, 제3 사용자는 제3 컨트롤러(215)를 사용하여 전체 화면에서 보고자 하는 관심영역(216)을 줌인 또는 줌아웃하거나 이동시켜 볼 수 있게 된다. 이와 같이, 본 발명에 따른 실시간 동영상 제공 시스템은 다수의 사용자들에게 동시에 서비스할 수 있을 뿐만 아니라, 각 사용자들은 서비스 제공 중에 대화형으로 관심 영역을 변경할 수 있으며, 변경된 관심 영역에 대한 동영상을 실시간으로 제공받을 수 있게 된다. FIG. 2 is a conceptual diagram illustrating that a real time video for different ROIs is provided to a plurality of users by a real time video providing system according to an exemplary embodiment of the present invention. As illustrated in FIG. 2, a plurality of images 203, 204, and 205 obtained by using a plurality of cameras 202 are merged to generate a single merged image, and the merged image is displayed on a full screen ( 210, and a plurality of users may set a region of interest of one full screen 210 through the controllers 211, 213, and 215, respectively, and zoom in, zoom out, or move it. . That is, the first user may zoom in or zoom out of the ROI 212 to be viewed on the full screen using the first controller 211, and the second user may view the full screen using the second controller 213. The region of interest 214 to be viewed can be zoomed in or zoomed out. In addition, the third user may zoom in, zoom out, or move the ROI 216 to be viewed on the entire screen using the third controller 215. As described above, the real-time video providing system according to the present invention can not only service a plurality of users at the same time, but each user can interactively change the region of interest while providing the service, and the video of the changed region of interest is displayed in real time. You will be provided.

도 3은 본 발명의 바람직한 실시예에 따른 실시간 동영상 제공 시스템을 전체적으로 도시한 구성도이다. 이하, 도 3을 참조하여 본 발명에 따른 시스템의 구성 및 동작을 구체적으로 설명한다. 3 is a block diagram showing the overall configuration of a real-time video providing system according to a preferred embodiment of the present invention. Hereinafter, the configuration and operation of the system according to the present invention will be described in detail with reference to FIG. 3.

도 3을 참조하면, 본 발명의 실시예에 따른 실시간 동영상 제공 시스템은 다수 개의 카메라로부터 영상 프레임들을 입력받아 병합 처리하여 실시간 병합 프레임을 생성하여 제공하는 카메라부(310), 클라이언트 단말기를 통해 사용자로부터 동영상 서비스 요청을 받아 처리하는 인터페이스 서버(312), 각 클라이언트 단말기에 할당되며, 해당 사용자에 의해 설정된 관심 영역에 대한 실시간 동영상을 해당 클라이언트 단말기에게 전송하는 인코딩 모듈(314a, 314b, 314c)들로 구성되는 인코딩부(314), 인코딩 모듈로부터 관심 영역에 대한 실시간 동영상을 수신하여 디스플레이시키는 다수 개의 클라이언트 단말기(316a, 316b, 316c)를 구비한다. 이하, 전술한 구성을 갖는 실시간 동영상 제공 시스템의 구성 요소들에 대하여 구체적으로 설명한다. Referring to FIG. 3, the real-time video providing system according to an exemplary embodiment of the present invention receives a video frame from a plurality of cameras, merges the image frames, and generates and provides a real-time merged frame from a user through a client terminal. Interface server 312 that receives and processes video service requests, and is assigned to each client terminal, consisting of encoding modules (314a, 314b, 314c) for transmitting a real-time video for the region of interest set by the user to the corresponding client terminal The encoder 314 includes a plurality of client terminals 316a, 316b, and 316c for receiving and displaying a real-time video of the ROI from the encoding module. Hereinafter, the components of the real-time video providing system having the above-described configuration will be described in detail.

각 사용자는 자신의 클라이언트 단말기를 통해 상기 인터페이스 서버(312)에 접속하고, 상기 인터페이스 서버에서 제공하는 전체 동영상 중 관심 영역을 설정하고, 원하는 QoS(Quality of Service) 파라미터를 설정한 후, 동영상 제공 서비스를 요청한다. 여기서, 클라이언트 단말기는 인터넷과 같은 네트워크 접속이 가능한 컴 퓨터나 이동통신단말기, 개인휴대용 단말기(PDA) 등이 될 수 있을 것이며, 상기 클라이언트 단말기는 인터넷을 통해 상기 인터페이스 서버에 접속하거나 세션 연결된 인코딩 모듈로부터 관심 영역에 대한 동영상을 실시간으로 스트리밍받을 수 있게 된다. Each user accesses the interface server 312 through his or her client terminal, sets a region of interest among all videos provided by the interface server, sets a desired Quality of Service (QoS) parameter, and then provides a video providing service. Ask. Here, the client terminal may be a computer capable of accessing a network such as the Internet, a mobile communication terminal, a personal digital assistant (PDA), and the like, and the client terminal may be connected to the interface server through the Internet or may be connected to a session module. The video of the region of interest can be streamed in real time.

상기 인터페이스 서버(312)는 사용자들이 접속할 수 있는 사용자 웹 페이지를 구비하고, 각 사용자들은 상기 인터페이스 서버의 사용자 웹 페이지에 접속하여, 전체 화면 중 관심 영역을 설정하고 동영상 제공 서비스를 요청하게 된다. 상기 인터페이스 서버는 각 사용자에 의해 각 클라이언트 단말기로부터 동영상 제공 서비스가 요청되면, 각 클라이언트 단말기에 대하여 새로운 인코딩 모듈을 생성하여 할당한 후, 각 클라이언트 단말기와 상기 할당된 인코딩 모듈간의 세션(session)을 연결한다. The interface server 312 includes a user web page that users can access, and each user accesses the user web page of the interface server to set a region of interest of the entire screen and request a video providing service. When the interface server requests a video providing service from each client terminal by each user, the interface server generates and allocates a new encoding module for each client terminal, and then connects a session between each client terminal and the allocated encoding module. do.

따라서, 각 클라이언트 단말기와 상기 할당된 인코딩 모듈간의 세션 연결에 의하여, 클라이언트 단말기와 인코딩 모듈은 1:1 방식으로 데이터 송수신이 가능하게 되며, 그 결과 사용자는 클라이언트 단말기를 이용하여 관심 영역 또는 QoS 파라미터들을 실시간으로 변경가능하며, 변경된 정보들을 인코딩 모듈로 전송되고, 인코딩 모듈은 변경된 정보에 따라 동영상을 실시간으로 제공하게 된다. Accordingly, by the session connection between each client terminal and the assigned encoding module, the client terminal and the encoding module can transmit and receive data in a 1: 1 manner, and as a result, the user can use the client terminal to transmit the ROI or QoS parameters. Changeable in real time, the changed information is transmitted to the encoding module, the encoding module provides a video in real time according to the changed information.

또한, 각 클라이언트 단말기에 대한 인코딩 모듈이 생성된 후, 상기 인터페이스 서버는 각 인코딩 모듈에게 사용자에 의해 설정된 관심영역에 대한 위치 정보 및 QoS(Quality of Service) 파라미터에 대한 정보를 전송한다. In addition, after the encoding module for each client terminal is generated, the interface server transmits the position information and the quality of service (QoS) parameter of the ROI set by the user to each encoding module.

각 인코딩 모듈은 상기 인터페이스 서버로부터 클라이언트 단말기에 대한 주 소 정보 및 관심 영역과 QoS 파라미터에 대한 정보를 제공받아 저장한다. 그리고, 각 인코딩 모듈은 카메라부로부터 병합 프레임을 실시간으로 수신하고, 수신된 병합 프레임으로부터 상기 관심 영역에 대한 영상을 추출하고, 요청된 QoS 파라미터에 따라 압축하여 상기 세션 연결된 클라이언트 단말기로 전송한다. 이때, 카메라부로부터 수신된 병합 프레임이 압축되어 있을 경우, 인코딩 모듈은 관심영역에 해당하는 부분만을 복호화함으로써 연산량을 줄일 수 있다. 또한, 각 인코딩 모듈은 세션 연결된 클라이언트 단말기로부터 관심 영역에 대한 정보 또는 QoS 파라미터에 대한 정보를 실시간으로 수신하고, 수신된 정보들에 따라 상기 병합 프레임으로부터 관심 영역에 대한 영상을 추출한 후 압축하여 상기 세션 연결된 클라이언트 단말기로 전송한다. Each encoding module receives and stores address information, region of interest, and QoS parameters for the client terminal from the interface server. Each encoding module receives a merge frame from a camera unit in real time, extracts an image of the ROI from the received merge frame, compresses the image according to a requested QoS parameter, and transmits the image to the session-connected client terminal. In this case, when the merged frame received from the camera unit is compressed, the encoding module may reduce the amount of computation by decoding only the portion corresponding to the ROI. In addition, each encoding module receives in real time information on the region of interest or information on the QoS parameters from the client terminal connected to the session, extracts an image of the region of interest from the merged frame according to the received information, and compresses the session. Send to the connected client terminal.

한편, 상기 카메라부는 다수 개의 카메라와 영상 처리용 컴퓨터들을 이용하여 서비스 제공하고자 하는 영역이나 구역에 대한 전방향 또는 파노라마 영상을 획득하고 상기 영상을 구성하는 병합 프레임을 생성하여 인코딩부의 모든 인코딩 모듈로 전송한다. 이와 같이 본 발명에 따른 시스템은 모든 인코딩 모듈로 병합 프레임을 전송하고 각 인코딩 모듈이 하나의 관심 영역에 대한 영상을 추출하여 전송하도록 함으로써, 하나의 인코딩 모듈에서 병목 현상이 발생하는 것을 방지한다. 상기 카메라부의 구성 및 동작에 대한 설명은 후술한다. Meanwhile, the camera unit acquires an omni-directional or panoramic image of a region or region to be provided using a plurality of cameras and image processing computers, generates a merged frame constituting the image, and transmits the merged frame to all encoding modules of the encoding unit. do. As described above, the system according to the present invention transmits a merge frame to all encoding modules and allows each encoding module to extract and transmit an image for one region of interest, thereby preventing bottlenecks in one encoding module. The configuration and operation of the camera unit will be described later.

이하, 도 4를 참조하여 본 발명의 바람직한 실시예에 따른 시스템에 사용되는 카메라부(310)의 구성 및 동작에 대하여 구체적으로 설명한다. Hereinafter, the configuration and operation of the camera unit 310 used in the system according to the preferred embodiment of the present invention will be described in detail with reference to FIG. 4.

도 4는 본 발명의 실시예에 따른 실시간 동영상 제공 시스템의 카메라부의 구성을 개략적으로 도시한 블록도이다. 도 4를 참조하면, 본 발명의 카메라부(310)는, 복수의 카메라로 구성되는 카메라 집합부(510), 상기 카메라 집합부의 각 카메라에 연결되어 각 카메라로부터 출력되는 영상을 각각 분산 처리하는 복수 개의 카메라 입력 PC(512a-512c), 각 카메라 입력 PC로부터 영상 프레임들을 수신하고 그룹핑을 수행하여 각 타임 스탬프에 대한 병합 프레임을 생성하여 인코딩부의 각 인코딩 모듈로 멀티캐스팅하는 병합용 PC(514)를 구비한다. 이하, 상기 카메라부의 각 구성요소에 대하여 구체적으로 설명한다. 4 is a block diagram schematically illustrating a configuration of a camera unit of a real-time video providing system according to an exemplary embodiment of the present invention. Referring to FIG. 4, the camera unit 310 of the present invention includes a camera assembly unit 510 composed of a plurality of cameras and a plurality of cameras connected to each camera of the camera assembly unit for distributing an image output from each camera, respectively. Camera input PCs 512a to 512c, which receives image frames from each camera input PC and performs grouping to generate a merge frame for each time stamp and multicast it to each encoding module of the encoding unit. Equipped. Hereinafter, each component of the camera unit will be described in detail.

도 5는 본 발명의 실시예에 따른 카메라부의 카메라 집합부(510)를 예시적으로 도시한 예시도이다. 도 5와 같이, 복수의 카메라를 단일의 하우징에 구축할 수 있으며, 이때, 각 카메라들을 서로 다른 방향으로 배치하여 전방향을 촬영하거나 파노라마 형태로 촬영할 수 있도록 하는 것이 바람직하다. 특히 도 5의 (a)와 같이 복수의 카메라들을 구 형태의 하우징에 일정 간격이 이격되도록 배치함으로써 360°에 대한 영상을 획득할 수 있게 되며, 도 5의 (b)와 같이 복수의 카메라들을 원통형이나 다각형 형태의 하우징에 배치함으로써 파노라마 영상을 획득할 수 있게 된다. 그 결과, 본 발명에 따른 시스템은 사용자에게 1차적으로 해당 지역의 파노라마 영상이나 360°영상을 제공할 수 있게 된다. 5 is an exemplary view illustrating a camera assembly unit 510 of a camera unit according to an embodiment of the present invention. As shown in FIG. 5, a plurality of cameras may be constructed in a single housing, and in this case, it is preferable to arrange the cameras in different directions so as to photograph all directions or photograph in a panorama form. In particular, by arranging the plurality of cameras as shown in (a) of FIG. 5 so that a predetermined interval is spaced in the spherical housing, an image of 360 ° can be obtained, and the plurality of cameras are cylindrical as shown in (b) of FIG. Or by placing in a polygonal housing it is possible to obtain a panoramic image. As a result, the system according to the present invention can provide the user with a panoramic image or a 360 ° image of the region.

또한, 카메라 집합부의 카메라 갯수를 증가시키거나 각 카메라의 성능을 향상시킴으로써, 넓은 범위의 고해상도 영상을 획득할 수 있게 된다. 따라서, 카메라 집합부의 카메라 갯수나 각 카메라의 성능은 설치되는 시스템의 해상도 요구 사양에 따라 적정하게 결정될 수 있을 것이다. Also, by increasing the number of cameras of the camera assembly unit or improving the performance of each camera, a wide range of high resolution images can be obtained. Therefore, the number of cameras of the camera assembly unit and the performance of each camera may be appropriately determined according to the resolution requirements of the installed system.

상기 카메라 입력 PC(512a-512c)는 각각 상기 카메라 집합부의 각 카메라와 연결되어, 각 카메라로부터 출력되는 영상을 수신한다. 상기 카메라 입력 PC들은 수신된 영상들을 데이터 처리하고, 각 영상의 공간적 어긋남에 대한 보정 작업을 하고, 무손실 압축을 한 후, 해당 영상을 상기 병합용 PC로 제공한다. The camera input PCs 512a-512c are connected to respective cameras of the camera assembly unit, respectively, and receive images output from each camera. The camera input PCs process the received images, correct the spatial misalignment of each image, perform lossless compression, and provide the image to the merging PC.

도 6은 각 카메라 입력 PC의 동작을 순차적으로 설명하는 흐름도이다. 이하 도 6을 참조하여 전술한 카메라 입력 PC의 동작을 구체적으로 설명한다. 먼저, 카메라 입력 PC는 병합용 PC와 클럭을 동기화한다(S610). 다음, 카메라로부터 촬영한 영상 프레임을 수신하고(S614), 현재 시각 정보를 판독하고 타임 스탬프(Time Stamp)에 상기 현재 시각 정보를 설정한다(S616). 다음, 수신된 영상 프레임에 대한 왜곡 현상을 보정하고 무손실 압축을 한다(S618,S620). 무손실 압축이 수행되면, 상기 타임 스탬프를 상기 영상 프레임에 결합하여 병합용 PC로 전송한다(S622). 6 is a flowchart for sequentially explaining the operation of each camera input PC. Hereinafter, an operation of the camera input PC described above will be described in detail with reference to FIG. 6. First, the camera input PC synchronizes the clock with the merging PC (S610). Next, an image frame photographed from a camera is received (S614), current time information is read out, and the current time information is set in a time stamp (S616). Next, distortion of the received image frame is corrected and lossless compression is performed (S618 and S620). When lossless compression is performed, the time stamp is combined with the image frame and transmitted to the merging PC (S622).

한편, 본 발명의 다른 실시 형태에서는 각 영상들의 공간적 어긋남에 대한 보정 작업은 상기 카메라 입력 PC가 아니라 병합용 PC에서도 수행될 수 있다. 예컨대, 상기 공간적 어긋남에 대한 보정 작업이 인접된 카메라의 입력 영상을 참조하여야 되는 경우에는 상기 병합용 PC에서 수행되도록 하는 것이 바람직하다. On the other hand, in another embodiment of the present invention, the correction for the spatial deviation of the respective images can be performed in the merging PC, not the camera input PC. For example, when the correction for the spatial misalignment should refer to the input image of the adjacent camera, it is preferable to be performed in the merging PC.

상기 병합용 PC(514)는, 도 5에 도시된 바와 같이, 각 카메라에 1:1 대응되도록 마련된 다수 개의 동기화 버퍼(520)를 갖는 영상 수신부(521), 병합 프레임 생성부(522) 및 전송부(523)를 구비한다. As shown in FIG. 5, the merging PC 514 includes an image receiving unit 521, a merging frame generating unit 522, and a transmission unit having a plurality of synchronization buffers 520 provided to correspond to each camera 1: 1. The unit 523 is provided.

상기 영상 수신부(521)는 다수 개의 동기화 버퍼들(520)을 구비하고, 각 동 기화 버퍼는 카메라 집합부의 각 카메라에 1:1 대응된다. The image receiver 521 includes a plurality of synchronization buffers 520, and each synchronization buffer corresponds to each camera of the camera assembly unit 1: 1.

상기 영상 수신부(521)는 각 카메라와 연결된 카메라 입력 PC들로부터 타임스탬프와 결합된 영상 프레임들을 수신하고, 수신된 영상 프레임들을 타임 스탬프에 따라 해당 카메라에 대응되는 동기화 버퍼에 순차적으로 저장한다. 도 7은 3개의 동기화 버퍼에 3개의 타임 스탬프에 대한 영상 프레임이 순차적으로 저장된 상태를 예시적으로 도시한 예시도이다. The image receiver 521 receives image frames combined with a time stamp from camera input PCs connected to each camera, and sequentially stores the received image frames in a synchronization buffer corresponding to the corresponding camera according to the time stamp. 7 is an exemplary diagram illustrating a state in which image frames for three time stamps are sequentially stored in three synchronization buffers.

상기 병합 프레임 생성부(522)는 상기 동기화 버퍼에 저장된 영상 프레임들은 동일한 시간대별로 그룹핑(Grouping)하여 단일의 병합 프레임을 생성한다. 병합 프레임 생성부(522)에 의해 생성된 병합 프레임은 상기 전송부(523)로 제공되고, 상기 전송부는 병합 프레임들을 패킷화하여 모든 인코딩 모듈에게 멀티캐스팅한다. The merge frame generator 522 generates a single merge frame by grouping image frames stored in the synchronization buffer for the same time period. The merge frame generated by the merge frame generator 522 is provided to the transmitter 523. The transmitter packetizes the merge frames and multicasts them to all encoding modules.

본 발명에 따른 시스템에 있어서, 각각의 카메라 입력 PC는 서로 다른 클럭을 가지므로 클럭 동기화 과정이 필요하게 되고, 또한 클럭이 동기화되었다 하더라도 각 카메라 PC의 상태에 따라 저마다 다른 시간에 영상 프레임이 캡쳐될 수 있으므로 효과적인 그루핑 방법이 필요하다. 상기 병합용 PC(514)는 이러한 효과적인 그루핑 방법을 제공한다. 하기의 <표1>은 이러한 그루핑 방법을 나타낸 실시예이다.In the system according to the present invention, since each camera input PC has a different clock, a clock synchronization process is required, and even if the clocks are synchronized, image frames may be captured at different times depending on the state of each camera PC. An effective grouping method is needed. The merging PC 514 provides this effective grouping method. Table 1 below shows examples of such grouping methods.

Figure 112008043965728-PAT00001
Figure 112008043965728-PAT00001

이하, 도 8 및 도 9를 참조하여 본 발명에 따른 시스템의 병합용 PC의 영상 수신부, 병합 프레임 생성부 및 전송부의 동작을 구체적으로 설명한다. 도 8은 본 발명에 따른 카메라부의 병합용 PC의 영상 수신부의 동작을 순차적으로 설명하는 흐름도이며, 도 9는 병합 프레임 생성부 및 전송부의 동작을 순차적으로 설명하는 흐름도이다. Hereinafter, operations of the image receiver, the merge frame generator, and the transmitter of the merging PC of the system according to the present invention will be described in detail with reference to FIGS. 8 and 9. FIG. 8 is a flowchart sequentially illustrating operations of an image receiver of a merging PC of a camera unit according to the present invention, and FIG. 9 is a flowchart sequentially illustrating operations of a merge frame generator and a transmitter.

도 8을 참조하면, 병합용 PC의 영상 수신부는 먼저 모든 카메라 입력 PC와의 클럭 동기화를 수행한 후(S710), 각 카메라 입력 PC로부터 타임 스탬프와 결합된 영상 프레임들을 수신한다(S714). 상기 각 카메라 입력 PC로부터 영상 프레임이 수신되면, 수신된 영상 프레임을 해당 동기화 버퍼에 순차적으로 저장한다(S716). 전술한 상기 과정들은 시스템이 셧다운(Shutdown)될 때까지 반복 수행한다. Referring to FIG. 8, an image receiving unit of a merging PC first performs clock synchronization with all camera input PCs (S710), and then receives image frames combined with a time stamp from each camera input PC (S714). When an image frame is received from each camera input PC, the received image frame is sequentially stored in a corresponding synchronization buffer (S716). The above processes are repeated until the system is shut down.

도 9를 참조하면, 상기 병합용 PC의 병합 프레임 생성부 및 전송부는 동기화 버퍼에 저장된 영상 프레임들을 동일한 타임 스탬프별로 그룹핑하여 병합 프레임을 생성한 후(S820), 병합 프레임을 패킷화하여(S824), 모든 인코더에서 멀티캐스팅한다(S826). Referring to FIG. 9, the merge frame generation unit and the transfer unit of the merging PC group the image frames stored in the synchronization buffer by the same time stamp to generate a merge frame (S820), and packetize the merge frame (S824). , Multicasting in all encoders (S826).

도 10은 상기 병합용 PC의 병합 프레임 생성부 및 전송부가 영상 프레임들을 이용하여 생성되는 병합 프레임 및 전송 패킷을 설명하기 위하여 도시한 전송 프로토콜이다. 도 10을 참조하면, 각 카메라 입력 PC들로부터 전송되는 영상 프레임들('a')을 타임 스탬프별로 그룹핑하여 병합 프레임('b')을 생성한 후, 인코딩 모듈로 전송하기 위하여 상기 병합 프레임을 UDP 패킷들('c')로 변환한다. 상기 UDP 패킷은 시컨스 넘버(SeqNum)가 기재되어 있는 헤더(Header)와 스트리밍 데이터를 나타내는 페이로드(payload)로 구성된다. 여기서, 상기 시컨스 넘버는 생성되는 스트림을 카운팅하기 위한 것이다. FIG. 10 is a transmission protocol illustrating a merge frame and a transport packet generated by the merge frame generator and the transmitter of the merging PC using image frames. Referring to FIG. 10, a merge frame 'b' is generated by grouping image frames 'a' transmitted from respective camera input PCs by time stamps, and then, the merge frame is transmitted to an encoding module. Convert to UDP packets 'c'. The UDP packet includes a header in which a sequence number SeqNum is described and a payload representing streaming data. Here, the sequence number is for counting the generated stream.

본 발명에 따른 병합용 PC에 의해 생성된 병합 프레임은 UDP 패킷들로 변환되어 모든 인코딩 모듈에게 멀티캐스팅된다. 이와 같이, 모든 인코딩 모듈에게 전체 이미지를 똑같이 멀티캐스팅하는 이유는 다음과 같다.The merge frame generated by the merging PC according to the present invention is converted into UDP packets and multicasted to all encoding modules. As such, the reason for multicasting the entire image equally for all encoding modules is as follows.

첫째, 만일 각 인코딩 모듈에게 관심 영역에 대한 영상만을 전송할 경우, 카메라 입력 PC로부터 수신한 영상 프레임은 압축되어 있으므로 병합용 PC에서 관심영역을 추출하기 위해서는 복호화가 필요하게 된다. 이는 사용자 수가 많을 경우 병합용 PC에 병목 현상을 초래할 수 있기 때문에 전체 이미지를 똑같이 멀티캐스팅한다.First, if only the image of the ROI is transmitted to each encoding module, since the image frame received from the camera input PC is compressed, decoding is required to extract the ROI from the merging PC. This multi-casts the entire image equally, because a large number of users can cause a bottleneck on the merging PC.

둘째, 현재 모든 사용자들이 요청한 관심영역 면적의 합이 전체 이미지의 크기보다 클 경우 오히려 전송량이 증가하게 된다. 따라서 전체 이미지를 각 인코딩 모듈에게 동일하게 멀티캐스팅함으로써 전송량을 절약하고 병합용 PC의 병목 현상을 피할 수 있게 된다.Second, if the sum of areas of interest requested by all users is larger than the size of the entire image, the amount of transmission increases. Thus, multicasting the entire image equally to each encoding module saves transmission and avoids bottlenecks in the merging PC.

이하, 도 11을 참조하여 본 발명의 바람직한 실시예에 따른 실시간 동영상 제공 서비스 시스템에 사용되는 인코더부(314)의 각 인코딩 모듈의 구성 및 동작에 대하여 구체적으로 설명한다. Hereinafter, the configuration and operation of each encoding module of the encoder unit 314 used in the real-time video providing service system according to an exemplary embodiment of the present invention will be described in detail with reference to FIG. 11.

도 11은 본 발명에 따른 시스템에 사용되는 인코딩 모듈의 동작을 순차적으로 도시한 흐름도이다. 도 11을 참조하면, 각 인코딩 모듈은 초기에 인터페이스 서버로부터 QoS 파라미터가 수신되면, 인코딩 모듈을 초기화한다(S910). 다음, 그룹화된 병합 프레임을 패킷 형태로 병합용 PC로부터 수신한다(S914). 병합 프레임이 수신된 후, 클라이언트 단말기로부터 관심영역(ROI) 또는 QoS 파라미터의 변경 요청이 있는지 여부를 확인한다(S916). 만약 관심 영역이 변경되었거나 QoS 파라미터가 변경된 경우, 이들에 대한 설정 정보를 업데이트한다(S918). 다음, 병합 프레임 중 상기 설정된 관심영역에 해당하는 영역을 포함하는 패킷들을 디코딩한 후(S920), 디코딩된 패킷들로부터 관심영역을 추출한다(S922). 그리고, 추출된 관심영역을 사전에 설정된 QoS 파라미터에 따라 인코딩한 후(S924), 클라이언트 단말기로 전송한다(S926). 전술한 과정은 시스템이 종료될 때까지 반복 수행된다. 11 is a flowchart sequentially illustrating the operation of the encoding module used in the system according to the present invention. Referring to FIG. 11, when an encoding parameter is initially received from an interface server, each encoding module initializes an encoding module (S910). Next, the grouped merged frames are received from the merging PC in the form of packets (S914). After the merge frame is received, it is checked whether there is a request for changing the region of interest (ROI) or QoS parameter from the client terminal (S916). If the region of interest has been changed or the QoS parameters have been changed, the configuration information for them is updated (S918). Next, after decoding packets including an area corresponding to the set ROI in the merged frame (S920), the ROI is extracted from the decoded packets (S922). The extracted region of interest is encoded according to a predetermined QoS parameter (S924) and then transmitted to the client terminal (S926). The above process is repeated until the system is terminated.

전술한 구성을 갖는 본 발명에 따른 시스템은 넓은 시야각의 고해상도 영상으로부터 여러 사용자에게 관심영역 영상을 서비스해주게 된다. 도 12는 본 발명에 따라 다수의 사용자에게 각각 서로 다른 관심 영역에 대한 영상을 실시간으로 제공하는 것을 설명하기 위하여 도시한 예시도이다. 도 12에 도시된 바와 같이, 전체 병합 프레임(10-1)으로 이루어지는 전체 화면에서, 각 사용자는 관심영역을 설정하는 경우, 도 12의 화면들(10-2, 10-3, 10-4)과 같이 각각의 사용자의 클라이언트 단말기로 관심 영역에 대한 영상을 제공하게 된다. The system according to the present invention having the above-described configuration provides a region of interest image to a plurality of users from a high resolution image having a wide viewing angle. FIG. 12 is an exemplary diagram for explaining providing images of different regions of interest to a plurality of users in real time according to the present invention. As illustrated in FIG. 12, in the entire screen including the entire merged frame 10-1, when each user sets an ROI, the screens 10-2, 10-3, and 10-4 of FIG. As described above, an image of the ROI is provided to the client terminal of each user.

도 1은 일반적인 1:1 원격 조정 카메라 시스템을 나타낸 도면이다. 1 is a view showing a typical 1: 1 remote control camera system.

도 2는 본 발명의 실시예에 따른 실시간 동영상 제공 시스템에 의해 다수의 사용자에게 서로 다른 관심 영역에 대한 실시간 동영상이 제공되는 것을 설명하기 위하여 도시한 개념도이다. FIG. 2 is a conceptual diagram illustrating that a plurality of users are provided with a real time video for a different ROI by a real time video providing system according to an exemplary embodiment of the present invention.

도 3은 본 발명의 바람직한 실시예에 따른 실시간 동영상 제공 시스템을 전체적으로 도시한 구성도이다. 3 is a block diagram showing the overall configuration of the real-time video providing system according to an embodiment of the present invention.

도 4는 본 발명의 실시예에 따른 실시간 동영상 제공 시스템의 카메라부의 구성을 개략적으로 도시한 블록도이다. 4 is a block diagram schematically illustrating a configuration of a camera unit of a real-time video providing system according to an exemplary embodiment of the present invention.

도 5는 본 발명의 실시예에 따른 카메라부의 카메라 집합부(510)를 예시적으로 도시한 예시도이다. 5 is an exemplary view illustrating a camera assembly unit 510 of a camera unit according to an embodiment of the present invention.

도 6은 각 카메라 입력 PC의 동작을 순차적으로 설명하는 흐름도이다. 6 is a flowchart for sequentially explaining the operation of each camera input PC.

도 7은 본 발명의 실시예에 따른 시스템의 병합용 PC에 있어서, 3개의 동기화 버퍼에 3개의 타임 스탬프에 대한 영상 프레임이 순차적으로 저장된 상태를 예시적으로 도시한 예시도이다. FIG. 7 is an exemplary diagram illustrating a state in which image frames for three time stamps are sequentially stored in three synchronization buffers in a merging PC of the system according to an exemplary embodiment of the present invention.

도 8은 본 발명에 따른 카메라부의 병합용 PC의 영상 수신부의 동작을 순차적으로 설명하는 흐름도이며, 도 9는 병합 프레임 생성부 및 전송부의 동작을 순차적으로 설명하는 흐름도이다. FIG. 8 is a flowchart sequentially illustrating operations of an image receiver of a merging PC of a camera unit according to the present invention, and FIG. 9 is a flowchart sequentially illustrating operations of a merge frame generator and a transmitter.

도 10은 상기 병합용 PC의 병합 프레임 생성부 및 전송부가 영상 프레임들을 이용하여 생성되는 병합 프레임 및 전송 패킷을 설명하기 위하여 도시한 전송 프로 토콜이다. FIG. 10 is a transmission protocol illustrating a merge frame and a transport packet generated by the merge frame generation unit and the transmission unit of the merging PC.

도 11은 본 발명에 따른 시스템에 사용되는 인코딩 모듈의 동작을 순차적으로 도시한 흐름도이다. 11 is a flowchart sequentially illustrating the operation of the encoding module used in the system according to the present invention.

도 12는 본 발명에 따라 다수의 사용자에게 각각 서로 다른 관심 영역에 대한 영상을 실시간으로 제공하는 것을 설명하기 위하여 도시한 예시도이다. FIG. 12 is an exemplary diagram for explaining providing images of different regions of interest to a plurality of users in real time according to the present invention.

Claims (9)

다수의 클라이언트 단말기에 서로 다른 관심 영역에 대한 실시간 영상들을 각각 제공하는 실시간 동영상 제공 시스템에 있어서, In the real-time video providing system for providing a plurality of client terminals each of the real-time video for different regions of interest, 복수의 카메라로 구성되는 카메라 집합부와 영상 처리용 PC를 구비하고, 상기 카메라 집합부로부터 입력되는 영상 프레임들을 영상 처리한 후 각 타임 스탬프에 대해 단일의 병합 프레임을 실시간으로 제공하는 카메라부;A camera unit having a camera set unit consisting of a plurality of cameras and a PC for image processing, for processing a video frame input from the camera set unit and providing a single merged frame in real time for each time stamp; 각 클라이언트 단말기와 1:1 세션 연결되며, 상기 카메라부로부터 병합 프레임을 수신하고, 상기 수신된 병합 프레임으로부터 세션 연결된 클라이언트 단말기에서 요청된 관심 영역에 대한 영상을 검출하여 상기 클라이언트 단말기로 전송하는 복수의 인코딩 모듈로 구성되는 인코딩부;A plurality of sessions are connected to each client terminal in a 1: 1 session and receive a merge frame from the camera unit, and detect an image of a region of interest requested by the session connected client terminal from the received merge frame and transmit the image to the client terminal. An encoding unit configured of an encoding module; 상기 클라이언트 단말기로부터 입력되는 동영상 제공 요청에 따라 상기 인코딩부에 상기 클라이언트 단말기에 대응되는 인코딩 모듈을 생성하는 인터페이스 서버; An interface server configured to generate an encoding module corresponding to the client terminal in the encoding unit according to a video providing request input from the client terminal; 를 구비하여, 각 클라이언트 단말기로 서로 다른 관심 영역에 대한 영상을 실시간으로 제공하는 것을 특징으로 하는 실시간 동영상 서비스 제공 시스템. The system includes a real-time video service providing system comprising providing images of different regions of interest to each client terminal in real time. 제1항에 있어서, 상기 카메라부의 영상 처리용 PC는The image processing PC of claim 1, wherein the image processing PC of the camera unit comprises: 상기 카메라 집합부의 카메라들에 연결되어 각 카메라로부터 출력되는 영상프레임을 처리하는 카메라 입력 PC;A camera input PC connected to the cameras of the camera set unit and processing an image frame output from each camera; 카메라 입력 PC로부터 각 타임 스탬프에 대한 영상 프레임들을 수신하고 각 타임 스탬프에 따라 그룹핑을 수행하여 병합 프레임을 생성하고 상기 병합 프레임을 패킷화하여 인코딩부의 각 인코딩 모듈로 멀티캐스팅하는 병합용 PC;A merging PC that receives image frames for each time stamp from a camera input PC, performs grouping according to each time stamp to generate a merge frame, and packetizes the merge frame to multicast to each encoding module of an encoding unit; 를 구비하여, 각 타임 스탬프에 따른 병합 프레임을 모든 인코딩 모듈로 전송하는 것을 특징으로 하는 실시간 동영상 서비스 제공 시스템. And providing a merged frame according to each time stamp to all encoding modules. 제2항에 있어서, 상기 카메라부는 복수 개의 카메라 입력 PC를 구비하고, 상기 카메라 집합부의 카메라들을 분할하여 상기 카메라 입력 PC에 연결시키는 것을 특징으로 하며, The method of claim 2, wherein the camera unit is provided with a plurality of camera input PC, characterized in that to divide the cameras of the camera assembly unit to connect to the camera input PC, 상기 카메라 입력 PC들은 상기 카메라로부터 입력되는 영상 프레임 및 현재 시간 정보를 포함하는 타임 스탬프를 결합하여 상기 병합용 PC로 제공하는 것을 특징으로 하는 실시간 동영상 서비스 제공 시스템. The camera input PCs provide a real-time video service providing system by combining the image frames input from the camera and a time stamp including current time information to the merging PC. 제2항에 있어서, 상기 병합용 PC는 The method of claim 2, wherein the merging PC 각 카메라에 대응되도록 마련된 복수 개의 동기화 버퍼를 구비하고, 상기 카메라 입력 PC로부터 입력되는 영상 프레임을 해당 카메라에 대응되는 동기화 버퍼에 순차적으로 저장하는 영상 수신부;An image receiver including a plurality of synchronization buffers corresponding to each camera, and sequentially storing image frames input from the camera input PC in a synchronization buffer corresponding to the camera; 상기 동기화 버퍼들에 저장된 영상 프레임들을 각 타임 스탬프별로 그룹핑하여 병합 프레임을 생성하는 병합 프레임 생성부;A merge frame generation unit for generating a merge frame by grouping image frames stored in the synchronization buffers for each time stamp; 상기 병합 프레임을 패킷화하여 모든 인코딩 모듈로 전송하는 전송부;A transmitter for packetizing the merged frame and transmitting the packetized packet to all encoding modules; 를 구비하여, 병합 프레임을 모든 인코딩 모듈로 전송하는 것을 특징으로 하는 실시간 동영상 서비스 제공 시스템. And providing a merged frame to all encoding modules. 제1항에 있어서, 상기 인코딩 모듈은 상기 세션 연결된 클라이언트 단말기로부터 관심영역에 대한 위치 정보를 실시간으로 수신하여 저장하고, The apparatus of claim 1, wherein the encoding module receives and stores location information of the ROI from the session-connected client terminal in real time. 카메라부로부터 병합 프레임을 수신하면, 상기 저장된 관심영역에 대한 위치 정보에 따라 상기 병합 프레임으로부터 관심 영역에 대한 영상을 추출하여 상기 세션 연결된 클라이언트 단말기로 전송하는 것을 특징으로 하는 실시간 동영상 서비스 제공 시스템. Receiving a merge frame from the camera unit, according to the position information of the stored region of interest extracts the image of the region of interest from the merge frame, characterized in that for transmitting to the session-connected client terminal. 제5항에 있어서, 상기 인코딩 모듈은 상기 세션 연결된 클라이언트 단말기로부터 QoS 파라미터에 대한 정보를 실시간으로 수신하여 저장하고, The method of claim 5, wherein the encoding module receives and stores information about QoS parameters from the session-connected client terminal in real time. 상기 저장된 QoS 파라미터에 대한 정보에 따라 상기 추출된 관심 영역에 대한 영상을 압축하여 상기 세션 연결된 클라이언트 단말기로 전송하는 것을 특징으로 하는 실시간 동영상 서비스 제공 시스템. And compressing the image of the extracted region of interest according to the information on the stored QoS parameter and transmitting the compressed image to the session-connected client terminal. 다수의 클라이언트 단말기에 서로 다른 관심 영역에 대한 실시간 영상들을 제공하기 위하여, 카메라 집합부를 구성하는 각 카메라와 연결되어 각 카메라로부터 출력되는 영상 프레임을 처리하여 각 타임 스탬프에 대해 병합 프레임을 출력하는 영상 처리 방법에 있어서, In order to provide real-time images of different regions of interest to a plurality of client terminals, an image processing process is performed to output a merge frame for each time stamp by processing an image frame output from each camera connected to each camera constituting the camera aggregation unit. In the method, (a) 각 카메라로부터 영상 프레임들을 수신하는 단계;(a) receiving image frames from each camera; (b) 상기 수신된 영상 프레임과 현재 시간 정보를 포함하는 타임 스탬프를 결합하는 단계;(b) combining the received image frame with a time stamp including current time information; (c) 상기 타임 스탬프와 결합된 영상 프레임들을 각 카메라와 대응되도록 설정된 동기화 버퍼에 저장하는 단계;(c) storing image frames associated with the time stamp in a synchronization buffer set to correspond to each camera; (d) 상기 동기화 버퍼에 저장된 영상 프레임들 중 동일 타임 스탬프를 갖는 영상 프레임들을 그룹핑하여 병합 프레임을 생성하는 단계;(d) generating a merge frame by grouping image frames having the same time stamp among the image frames stored in the synchronization buffer; 를 구비하는 영상 처리 방법. Image processing method comprising a. 제7항에 있어서, 상기 영상 처리 방법은The method of claim 7, wherein the image processing method (e) 세션 연결된 클라이언트 단말기로부터 관심영역에 대한 위치 정보를 수신하여 저장하는 단계;(e) receiving and storing location information on a region of interest from a session-connected client terminal; (f) 상기 저장된 관심영역에 대한 위치 정보에 따라, 상기 병합 프레임으로부터 관심 영역에 대한 영상을 추출하는 단계;(f) extracting an image of the ROI from the merged frame according to the stored position information of the ROI; (g) 상기 추출된 관심 영역에 대한 영상을 상기 세션 연결된 클라이언트 단말기로 전송하는 단계;(g) transmitting an image of the extracted region of interest to the session-connected client terminal; 를 더 구비하는 영상 처리 방법. Image processing method further comprising. 제8항에 있어서, 상기 영상 처리 방법은, (h) 세션 연결된 클라이언트 단말기로부터 QoS 파라미터에 대한 정보를 수신하여 저장하는 단계;를 더 구비하고, The method of claim 8, further comprising: (h) receiving and storing information on QoS parameters from a session-connected client terminal, 상기 (g) 단계는 상기 저장된 QoS 파라미터에 대한 정보에 따라, 상기 추출된 관심 영역에 대한 영상을 압축한 후, 상기 압축된 영상을 상기 세션 연결된 클라이언트 단말기로 전송하는 것을 특징으로 하는 영상 처리 방법. In the step (g), after compressing the image of the extracted region of interest according to the information on the stored QoS parameter, the image processing method comprises transmitting the compressed image to the session-connected client terminal.
KR1020080057873A 2008-06-19 2008-06-19 System and method for providing video stream of multiple personal roi KR20090131891A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080057873A KR20090131891A (en) 2008-06-19 2008-06-19 System and method for providing video stream of multiple personal roi

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080057873A KR20090131891A (en) 2008-06-19 2008-06-19 System and method for providing video stream of multiple personal roi

Publications (1)

Publication Number Publication Date
KR20090131891A true KR20090131891A (en) 2009-12-30

Family

ID=41691011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080057873A KR20090131891A (en) 2008-06-19 2008-06-19 System and method for providing video stream of multiple personal roi

Country Status (1)

Country Link
KR (1) KR20090131891A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101242478B1 (en) * 2011-11-29 2013-03-12 한국과학기술연구원 Real time personal broadcasting system using media jockey based on multi-angle
KR101440131B1 (en) * 2013-04-19 2014-09-12 주식회사 에스원 Qos Image Processing System to control Multi-CCTV by Using Mobile Client Terminal and Qos Image Processing Method thereof
WO2015046688A1 (en) * 2013-09-26 2015-04-02 주식회사 모브릭 Helmet for shooting multi-angle image and shooting method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101242478B1 (en) * 2011-11-29 2013-03-12 한국과학기술연구원 Real time personal broadcasting system using media jockey based on multi-angle
KR101440131B1 (en) * 2013-04-19 2014-09-12 주식회사 에스원 Qos Image Processing System to control Multi-CCTV by Using Mobile Client Terminal and Qos Image Processing Method thereof
WO2015046688A1 (en) * 2013-09-26 2015-04-02 주식회사 모브릭 Helmet for shooting multi-angle image and shooting method

Similar Documents

Publication Publication Date Title
US8966556B2 (en) Real-time multi-media streaming bandwidth management
US10694249B2 (en) Method and system for selective content processing based on a panoramic camera and a virtual-reality headset
US9635252B2 (en) Live panoramic image capture and distribution
US10244168B1 (en) Video system for real-time panoramic video delivery
CN106713945B (en) Client live broadcast processing method and device, live broadcast server and live broadcast system
KR101821145B1 (en) Video live streaming system
EP2676432B1 (en) Remote controlled studio camera system
EP3298790A1 (en) Providing low&amp;high quality streams
JP2011505771A (en) 3D video communication terminal, system, and method
CN102196243A (en) Video data processing method, device and system
KR20150072231A (en) Apparatus and method for providing muti angle view service
CN107592548B (en) Image acquisition device and image transmission method for real-time panoramic live broadcast shooting
US20160057355A1 (en) Decoder and monitor system
JP4358129B2 (en) TV conference apparatus, program, and method
CN115174942A (en) Free visual angle switching method and interactive free visual angle playing system
KR20090131891A (en) System and method for providing video stream of multiple personal roi
KR101748382B1 (en) Method and system for providing video streaming
KR20170130883A (en) Method and apparatus for virtual reality broadcasting service based on hybrid network
CN101521790A (en) Methods for realizing high definition conference system based on digital television
EP4236326A1 (en) A method, an apparatus and a computer program product for transmission of immersive media
US20240292027A1 (en) An apparatus, a method and a computer program for video coding and decoding
JP7382689B1 (en) Streaming distribution system, distribution server and photographer terminal
JP7296219B2 (en) Receiving device, transmitting device, and program
WO2018010004A1 (en) Method and system for selective content processing based on a panoramic camera and a virtual-reality headset
TW201111902A (en) Full screen camera and method for monitoring an object using the full screen camera

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application