KR102242710B1 - Apparatus for providing half free-viewpoint video - Google Patents

Apparatus for providing half free-viewpoint video Download PDF

Info

Publication number
KR102242710B1
KR102242710B1 KR1020190179911A KR20190179911A KR102242710B1 KR 102242710 B1 KR102242710 B1 KR 102242710B1 KR 1020190179911 A KR1020190179911 A KR 1020190179911A KR 20190179911 A KR20190179911 A KR 20190179911A KR 102242710 B1 KR102242710 B1 KR 102242710B1
Authority
KR
South Korea
Prior art keywords
image
virtual
camera
viewpoint
semi
Prior art date
Application number
KR1020190179911A
Other languages
Korean (ko)
Inventor
양지희
박구만
Original Assignee
서울과학기술대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울과학기술대학교 산학협력단 filed Critical 서울과학기술대학교 산학협력단
Priority to KR1020190179911A priority Critical patent/KR102242710B1/en
Application granted granted Critical
Publication of KR102242710B1 publication Critical patent/KR102242710B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

An apparatus for providing a semi-free viewpoint image includes: an image receiving unit for receiving a plurality of actual content images and a plurality of background images obtained by photographing an object, from a plurality of actual cameras arranged at preset camera intervals; an input unit that receives an input of a viewing viewpoint interval from a user terminal; a virtual content image synthesizing unit that determines whether to generate a virtual viewpoint based on the camera interval and the viewing viewpoint interval, and synthesizes a virtual content image corresponding to the virtual viewpoint based on actual camera parameters for the actual content images and the actual cameras according to the result of determination; a semi-free viewpoint image synthesizing unit that extracts the object from the actual content images and the virtual content images, and synthesizes a semi-free viewpoint image based on the extracted object and background images; and an image transmission unit for transmitting the generated semi-free viewpoint image to the user terminal.

Description

반자유 시점 영상을 제공하는 장치{APPARATUS FOR PROVIDING HALF FREE-VIEWPOINT VIDEO}Device that provides semi-free view video {APPARATUS FOR PROVIDING HALF FREE-VIEWPOINT VIDEO}

본 발명은 반자유 시점 영상을 제공하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for providing a semi-free viewpoint image.

자유 시점 영상이란 특정 현장이나 객체를 다수의 카메라를 통해 다시점 영상으로 제작하는 기술로, 사용자에게 시점 선택에 대한 폭을 넓게 해주어 사용자가 원하는 시점을 선택하여 시청할 수 있도록 하는 기술을 의미한다. 자유 시점 영상은 새로운 시점에 대한 선택 및 시청이 가능하며, 사용자는 자유 시점 영상을 통해 현장감, 몰입감 등을 느낄 수 있다는 장점을 갖는다. Free-view video is a technology that produces a specific site or object as a multi-view video through a plurality of cameras, and refers to a technology that allows the user to select and view a desired viewpoint by widening the range of viewpoint selection for the user. The free viewpoint image has the advantage that a new viewpoint can be selected and viewed, and the user can feel a sense of realism and immersion through the free viewpoint image.

이러한 자유 시점 영상과 관련하여 한국등록특허 제 10-1556741호는 실감형 자유시점 영상 제공을 위한 반구형 스마트 카메라 형성 장치 및 방법을 개시하고 있다. In relation to such a free view image, Korean Patent No. 10-1556741 discloses an apparatus and method for forming a hemispherical smart camera for providing a realistic free view image.

종래에는 자유 시점 영상은 MPEG-FTV(Free Viewpoint TV)를 통해 사용자 가이드 및 시점 합성 관련 소프트웨어 및 데이터 셋이 표준화되었다. 그러나 MPEG-FTV에서 제공하는 데이터 셋은 스테레오 카메라의 간격으로 촬영된 초다시점 영상으로, 시점 합성 관련 소프트웨어는 데이터 셋에 최적화되어 있어 실제로 사용자가 직접 촬영한 영상으로 실행하는 경우 별도의 전처리 및 후처리 과정이 필요하다는 단점을 가지고 있었다. Conventionally, for free view images, user guides and view synthesis related software and data sets have been standardized through MPEG-FTV (Free Viewpoint TV). However, the data set provided by MPEG-FTV is a super multi-view video captured at intervals of a stereo camera, and the view synthesis software is optimized for the data set. It had the disadvantage of requiring a treatment process.

기설정된 카메라 간격으로 배치된 복수의 실제 카메라로부터 객체를 촬영한 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 수신하고, 수신한 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 합성한 반자유 시점 영상을 제공하는 장치 및 방법을 제공하고자 한다. Receives a plurality of real content images and a plurality of background images photographing an object from a plurality of real cameras arranged at preset camera intervals, and a semi-free viewpoint image that combines the received plurality of real content images and a plurality of background images. It is intended to provide an apparatus and method to provide.

사용자 단말로부터 시청 시점 간격을 입력받으면, 카메라 간격 및 시청 시점 간격에 기초하여 가상 시점을 생성할지 여부를 판단하고, 판단 결과에 따라 복수의 실제 컨텐츠 영상 및 복수의 실제 카메라에 대한 실제 카메라 파라미터에 기초하여 가상 시점에 대응하는 가상 컨텐츠 영상을 합성하는 반자유 시점 영상을 제공하는 장치 및 방법을 제공하고자 한다.When the viewing point interval is input from the user terminal, it is determined whether to generate a virtual viewpoint based on the camera interval and the viewing viewpoint interval, and based on the actual camera parameters for the plurality of actual content images and the plurality of real cameras according to the determination result. Thus, an apparatus and method for providing a semi-free viewpoint image for synthesizing a virtual content image corresponding to a virtual viewpoint is provided.

복수의 실제 컨텐츠 영상 및 가상 컨텐츠 영상으로부터 객체를 추출하고, 추출된 객체 및 복수의 배경 영상에 기초하여 반자유 시점 영상을 합성하는 반자유 시점 영상을 제공하는 장치 및 방법을 제공하고자 한다.An object is extracted from a plurality of real content images and virtual content images, and an apparatus and method for providing a semi-free view image for synthesizing a semi-free view image based on the extracted object and a plurality of background images are provided.

다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다. However, the technical problem to be achieved by the present embodiment is not limited to the technical problems as described above, and other technical problems may exist.

상술한 기술적 과제를 달성하기 위한 수단으로서, 본 발명의 일 실시예는, 기설정된 카메라 간격으로 배치된 복수의 실제 카메라로부터 객체를 촬영한 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 수신하는 영상 수신부, 사용자 단말로부터 시청 시점 간격을 입력받는 입력부, 상기 카메라 간격 및 상기 시청 시점 간격에 기초하여 가상 시점을 생성할지 여부를 판단하고, 판단 결과에 따라 상기 복수의 실제 컨텐츠 영상 및 상기 복수의 실제 카메라에 대한 실제 카메라 파라미터에 기초하여 상기 가상 시점에 대응하는 가상 컨텐츠 영상을 합성하는 가상 컨텐츠 영상 합성부, 상기 복수의 실제 컨텐츠 영상 및 상기 가상 컨텐츠 영상으로부터 상기 객체를 추출하고, 상기 추출된 객체 및 상기 복수의 배경 영상에 기초하여 반자유 시점 영상을 합성하는 반자유 시점 영상 합성부 및 상기 사용자 단말로 상기 생성된 반자유 시점 영상을 전송하는 영상 전송부를 포함한다. As a means for achieving the above-described technical problem, an embodiment of the present invention is an image receiving unit for receiving a plurality of real content images and a plurality of background images photographing an object from a plurality of real cameras arranged at preset camera intervals , It is determined whether to generate a virtual viewpoint based on the input unit receiving the viewing viewpoint interval from the user terminal, the camera interval and the viewing viewpoint interval, and the plurality of actual content images and the plurality of real cameras according to the determination result. A virtual content image synthesizing unit for synthesizing a virtual content image corresponding to the virtual view based on an actual camera parameter for, extracting the object from the plurality of real content images and the virtual content image, and extracting the object and the plurality of And a semi-free view image synthesizing unit for synthesizing a semi-free view image based on the background image of and an image transmission unit for transmitting the generated semi-free view image to the user terminal.

상술한 과제 해결 수단은 단지 예시적인 것으로서, 본 발명을 제한하려는 의도로 해석되지 않아야 한다. 상술한 예시적인 실시예 외에도, 도면 및 발명의 상세한 설명에 기재된 추가적인 실시예가 존재할 수 있다.The above-described problem solving means are merely exemplary and should not be construed as limiting the present invention. In addition to the above-described exemplary embodiments, there may be additional embodiments described in the drawings and detailed description of the invention.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 카메라 간격이 넓은 컨텐츠 영상으로부터 자유 시점 영상에 대한 데이터를 확보하여 시점을 합성하는 반자유 시점 영상을 제공하는 장치 및 방법을 제공할 수 있다. According to any one of the above-described problem solving means of the present invention, it is possible to provide an apparatus and method for providing a semi-free viewpoint image for synthesizing viewpoints by obtaining data on a free viewpoint image from a content image having a wide camera distance.

사용자로부터 원하는 시점 간격을 입력받아, 사용자가 원하는 시점의 영상으로 합성된 반자유 시점 영상을 제공함으로써, 자유 시점 영상에 대한 사용자의 시청 만족도를 향상시킬 수 있도록 하는 반자유 시점 영상을 제공하는 장치 및 방법을 제공할 수 있다.Apparatus for providing a semi-free view image capable of improving the user's viewing satisfaction for the free view image by receiving a desired view interval from the user and providing a semi-free view image synthesized as an image of the user’s desired view; and Can provide a way.

영상 제공 장치에서 자유 시점 영상의 시점 전환 시, 미리 가상 시점에 대한 카메라 매개 변수의 생성하여 시점 합성을 수행하지 않아도 됨으로써, 영상 제공 장치를 효율적으로 관리하도록 하는 반자유 시점 영상을 제공하는 장치 및 방법을 제공할 수 있다.Apparatus and method for providing a semi-free view image that enables efficient management of the image providing device by not having to perform view synthesis by generating a camera parameter for a virtual view in advance when the view of the free view image is switched in the image providing device Can provide.

도 1은 본 발명의 일 실시예에 따른 영상 제공 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 영상 제공 장치의 구성도이다.
도 3은 본 발명의 일 실시예에 따른 배경 영상으로부터 도출된 좌표 데이터를 도시한 예시적인 도면이다.
도 4는 본 발명의 일 실시예에 따른 배경 영상을 생성하는 과정을 설명하기 위한 예시적인 도면이다.
도 5는 본 발명의 일 실시예에 따른 영상 제공 장치에서 반자유 시점 영상을 제공하는 방법의 순서도이다.
1 is a block diagram of an image providing system according to an embodiment of the present invention.
2 is a block diagram of an image providing apparatus according to an embodiment of the present invention.
3 is an exemplary diagram showing coordinate data derived from a background image according to an embodiment of the present invention.
4 is an exemplary diagram for explaining a process of generating a background image according to an embodiment of the present invention.
5 is a flowchart of a method of providing a semi-free viewpoint image in an image providing apparatus according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art can easily implement the present invention. However, the present invention may be implemented in various different forms and is not limited to the embodiments described herein. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. Throughout the specification, when a part is said to be "connected" with another part, this includes not only "directly connected" but also "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, it means that other components may be further included, and one or more other features, not excluding other components, unless specifically stated to the contrary. It is to be understood that it does not preclude the presence or addition of any number, step, action, component, part, or combination thereof.

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다.In the present specification, the term "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized by using two or more hardware, or two or more units may be realized by one piece of hardware.

본 명세서에 있어서 단말 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말 또는 디바이스에서 수행될 수도 있다.In this specification, some of the operations or functions described as being performed by the terminal or device may be performed instead in a server connected to the terminal or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal or device connected to the server.

이하 첨부된 도면을 참고하여 본 발명의 일 실시예를 상세히 설명하기로 한다. Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 영상 제공 시스템의 구성도이다. 도 1을 참조하면, 영상 제공 시스템(1)은 복수의 실제 카메라(110), 영상 제공 장치(120) 및 사용자 단말(130)을 포함할 수 있다. 복수의 실제 카메라(110), 영상 제공 장치(120) 및 사용자 단말(130)은 영상 제공 시스템(1)에 의하여 제어될 수 있는 구성요소들을 예시적으로 도시한 것이다. 1 is a block diagram of an image providing system according to an embodiment of the present invention. Referring to FIG. 1, an image providing system 1 may include a plurality of actual cameras 110, an image providing device 120, and a user terminal 130. The plurality of actual cameras 110, the image providing apparatus 120, and the user terminal 130 exemplarily show components that can be controlled by the image providing system 1.

도 1의 영상 제공 시스템(1)의 각 구성요소들은 일반적으로 네트워크(network)를 통해 연결된다. 예를 들어, 도 1에 도시된 바와 같이, 영상 제공 장치(120)는 복수의 실제 카메라(110) 및 사용자 단말(130)과 동시에 또는 시간 간격을 두고 연결될 수 있다. Each component of the image providing system 1 of FIG. 1 is generally connected through a network. For example, as shown in FIG. 1, the image providing apparatus 120 may be connected to a plurality of actual cameras 110 and user terminals 130 at the same time or at intervals of time.

네트워크는 단말들 및 서버들과 같은 각각의 노드 상호 간에 정보 교환이 가능한 연결 구조를 의미하는 것으로, 근거리 통신망(LAN: Local Area Network), 광역 통신망(WAN: Wide Area Network), 인터넷 (WWW: World Wide Web), 유무선 데이터 통신망, 전화망, 유무선 텔레비전 통신망 등을 포함한다. 무선 데이터 통신망의 일례에는 3G, 4G, 5G, 3GPP(3rd Generation Partnership Project), LTE(Long Term Evolution), WIMAX(World Interoperability for Microwave Access), 와이파이(Wi-Fi), 블루투스 통신, 적외선 통신, 초음파 통신, 가시광 통신(VLC: Visible Light Communication), 라이파이(LiFi) 등이 포함되나 이에 한정되지는 않는다. A network refers to a connection structure that enables information exchange between nodes such as terminals and servers, and is a local area network (LAN), a wide area network (WAN), and the Internet (WWW: World). Wide Web), wired and wireless data communication networks, telephone networks, wired and wireless television networks, etc. Examples of wireless data communication networks include 3G, 4G, 5G, 3GPP (3rd Generation Partnership Project), LTE (Long Term Evolution), WIMAX (World Interoperability for Microwave Access), Wi-Fi, Bluetooth communication, infrared communication, and ultrasound. Communication, Visible Light Communication (VLC), LiFi, and the like are included, but are not limited thereto.

복수의 실제 카메라(110)는 특정 공간에서 기설정된 카메라 간격(예를 들어, 15cm)으로 1차원으로 평행하게 배치될 수 있다. 이 때, 복수의 실제 카메라(110)는 벽의 한 점에 대해 초점(115)을 맞춰 수렴되도록 설치될 수 있다. The plurality of actual cameras 110 may be arranged in parallel in one dimension at a preset camera interval (eg, 15 cm) in a specific space. In this case, the plurality of actual cameras 110 may be installed to converge by focusing the focus 115 on one point of the wall.

복수의 실제 카메라(110)는 관리자에 의해 카메라 간의 간격 및 복수의 실제 카메라(110)의 개수가 임의로 설정될 수 있다. 예를 들어, 복수의 실제 카메라(110)는 좌측에 위치한 실제 카메라부터 순차적으로 1번 카메라, 2번 카메라, 3번 카메라 등으로 지정될 수 있으며, 기설정된 카메라의 간격은 컨텐츠의 규모에 따라 좁게 배치되도록 설정될 수도 있고, 넓게 배치되도록 설정될 수도 있다. For the plurality of real cameras 110, an interval between the cameras and the number of the plurality of real cameras 110 may be arbitrarily set by an administrator. For example, the plurality of real cameras 110 may be sequentially designated as camera 1, camera 2, camera 3, etc. from the actual camera located on the left side, and the preset camera spacing is narrowed according to the size of the content. It may be set to be disposed or may be set to be disposed widely.

복수의 실제 카메라(110)는 객체를 촬영한 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 영상 제공 장치(120)로 전송할 수 있다. 예를 들어, 3대의 실제 카메라(110)가 기설정된 카메라 간격으로 배치된 경우, 가운데에 위치한 2번 카메라는 체커보드 영상을 촬영하고, 1번 카메라 및 3번 카메라는 특정 공간(예를 들어, 빈 경기장) 및 실제 컨텐츠 영상을 촬영하여 영상 제공 장치(120)로 전송할 수 있다. The plurality of real cameras 110 may transmit a plurality of real content images and a plurality of background images photographing an object to the image providing device 120. For example, when three actual cameras 110 are arranged at a preset camera interval, the second camera located in the middle captures a checkerboard image, and the first and third cameras are in a specific space (for example, An empty stadium) and actual content images may be photographed and transmitted to the image providing device 120.

영상 제공 장치(120)는 기설정된 카메라 간격으로 배치된 복수의 실제 카메라(110)로부터 객체를 촬영한 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 수신할 수 있다. The image providing device 120 may receive a plurality of actual content images and a plurality of background images photographing an object from a plurality of real cameras 110 arranged at preset camera intervals.

영상 제공 장치(120)는 체커보드 영상에 기초하여 내부 카메라 파라미터를 도출하고, 배경 영상으로부터 도출된 좌표 데이터 및 내부 카메라 파라미터로부터 외부 카메라 파라미터를 도출할 수 있다. 여기서, 실제 카메라 파라미터는 내부 카메라 파라미터 및 외부 카메라 파라미터를 포함할 수 있다. The image providing apparatus 120 may derive internal camera parameters based on the checkerboard image, and may derive external camera parameters from coordinate data and internal camera parameters derived from a background image. Here, the actual camera parameters may include internal camera parameters and external camera parameters.

영상 제공 장치(120)는 복수의 실제 컨텐츠 영상 중 이웃하는 영상 간에 원근 변환을 수행함으로써 광축이 평행하도록 변환시키는 이상적인 카메라 파라미터를 실제 카메라 파라미터로부터 도출할 수 있다. 예를 들어, 영상 제공 장치(120)는 이상적인 카메라 파라미터 및 실제 카메라 파라미터 간의 관계 행렬을 도출하고, 도출된 관계 행렬에 기초하여 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 정규화할 수 있다. The image providing apparatus 120 may derive an ideal camera parameter for converting an optical axis to be parallel by performing perspective transformation between neighboring images among a plurality of actual content images, from the actual camera parameters. For example, the image providing apparatus 120 may derive a relationship matrix between an ideal camera parameter and an actual camera parameter, and normalize a plurality of actual content images and a plurality of background images based on the derived relationship matrix.

영상 제공 장치(120)는 사용자 단말(130)로부터 시청 시점 간격을 입력받을 수 있다. The video providing device 120 may receive a viewing time interval from the user terminal 130.

영상 제공 장치(120)는 카메라 간격 및 시청 시점 간격에 기초하여 가상 시점을 생성할지 여부를 판단할 수 있다. 여기서, 영상 제공 장치(120)는 정규화된 복수의 실제 컨텐츠 영상에 기초하여 가상 컨텐츠 영상을 합성할 수 있다. 예를 들어, 영상 제공 장치(120)는 카메라 간격이 시청 시점 간격보다 클 경우, 카메라 간격 사이에 위치하는 시청 시점 간격에 대응하도록 가상 시점을 생성하는 것으로 판단할 수 있다. The image providing apparatus 120 may determine whether to generate a virtual viewpoint based on the camera interval and the viewing viewpoint interval. Here, the image providing apparatus 120 may synthesize a virtual content image based on a plurality of normalized real content images. For example, when the camera interval is greater than the viewing viewpoint interval, the image providing apparatus 120 may determine that the virtual viewpoint is generated to correspond to the viewing viewpoint interval positioned between the camera intervals.

영상 제공 장치(120)는 판단 결과에 따라 복수의 실제 컨텐츠 영상 및 복수의 실제 카메라(110)에 대한 실제 카메라 파라미터에 기초하여 가상 시점에 대응하는 가상 컨텐츠 영상을 합성할 수 있다. 예를 들어, 영상 제공 장치(120)는 복수의 실제 컨텐츠 영상 및 실제 카메라 파라미터에 기초하여 깊이 영상을 생성하고, 가상 시점에 대한 가상 카메라 파라미터가 존재하지 않는 경우, 실제 카메라 파라미터에 기초하여 가상 카메라 파라미터를 도출하고, 깊이 영상 및 가상 카메라 파라미터에 기초하여 가상 시점에 대응하는 가상 컨텐츠 영상을 합성할 수 있다. The image providing apparatus 120 may synthesize a virtual content image corresponding to a virtual viewpoint based on a plurality of real content images and real camera parameters for the plurality of real cameras 110 according to the determination result. For example, the image providing device 120 generates a depth image based on a plurality of real content images and real camera parameters, and if a virtual camera parameter for a virtual viewpoint does not exist, the virtual camera based on the real camera parameter A parameter may be derived, and a virtual content image corresponding to a virtual viewpoint may be synthesized based on the depth image and the virtual camera parameter.

영상 제공 장치(120)는 복수의 배경 영상으로부터 특징점을 추출하고, 추출된 특징점을 매칭하여 일치하는 특징점끼리 대응시키고, 대응되는 특징점에 기초하여 파노라마 영상을 생성하고, 생성된 파노라마 영상에 기초하여 가상 시점에 대응하는 배경 영상을 생성할 수 있다. 예를 들어, 영상 제공 장치(120)는 파노라마 영상으로부터 복수의 실제 카메라 중 양 끝단의 실제 카메라에 대응하는 관심 영역을 설정하고, 복수의 실제 카메라의 실제 시점 및 가상 시점 간의 배치 비율을 도출하고, 도출된 배치 비율에 기초하여 파노라마 영상으로부터 가상 시점에 대응하는 관심 영역을 설정하고, 설정된 관심 영역에 기초하여 가상 시점에 대응하는 배경 영상을 생성할 수 있다. The image providing device 120 extracts feature points from a plurality of background images, matches the extracted feature points to match the matched feature points, generates a panorama image based on the corresponding feature points, and generates a virtual image based on the generated panorama image. A background image corresponding to the viewpoint may be generated. For example, the image providing device 120 sets an ROI corresponding to the real cameras at both ends of the plurality of real cameras from the panoramic image, and derives an arrangement ratio between the real and virtual views of the plurality of real cameras, An ROI corresponding to the virtual viewpoint may be set from the panoramic image based on the derived arrangement ratio, and a background image corresponding to the virtual viewpoint may be generated based on the set ROI.

영상 제공 장치(120)는 복수의 실제 컨텐츠 영상 및 가상 컨텐츠 영상으로부터 객체를 추출하고, 추출된 객체 및 복수의 배경 영상에 기초하여 반자유 시점 영상을 합성할 수 있다. 예를 들어, 영상 제공 장치(120)는 가상 컨텐츠 영상으로부터 추출된 객체 및 가상 시점에 대응하도록 생성된 배경 영상을 합성하여 반자유 시점 영상을 생성할 수 있다. The image providing apparatus 120 may extract an object from a plurality of real content images and virtual content images, and synthesize a semi-free view image based on the extracted object and a plurality of background images. For example, the image providing apparatus 120 may generate a semi-free view image by synthesizing an object extracted from the virtual content image and a background image generated corresponding to the virtual view.

영상 제공 장치(120)는 복수의 실제 카메라에 대응하는 실제 시점의 수 및 실제 시점 사이에 생성되는 가상 시점의 수에 기초하여 각 시점에서 제공될 반자유 시점 영상의 영상 프레임을 도출할 수 있다. 여기서, 반자유 시점 영상은 각 시점의 배치 위치에 따라 각 시점이 전환되면서 각 시점에서 제공될 영상 프레임이 순차적으로 재생될 수 있다. The image providing apparatus 120 may derive an image frame of a semi-free viewpoint image to be provided at each viewpoint based on the number of real viewpoints corresponding to the plurality of real cameras and the number of virtual viewpoints generated between the actual viewpoints. Here, in the semi-free view image, image frames to be provided at each view may be sequentially reproduced while each view is switched according to an arrangement position of each view.

영상 제공 장치(120)는 사용자 단말(130)로 생성된 반자유 시점 영상을 전송할 수 있다. The image providing device 120 may transmit a semi-free view image generated to the user terminal 130.

도 2는 본 발명의 일 실시예에 따른 영상 제공 장치의 구성도이다. 도 2를 참조하면, 영상 제공 장치(120)는 영상 수신부(210), 파라미터 도출부(220), 정규화부(230), 입력부(240), 가상 컨텐츠 영상 합성부(250), 배경 영상 생성부(260), 반자유 시점 영상 합성부(270) 및 영상 전송부(280)를 포함할 수 있다. 2 is a block diagram of an image providing apparatus according to an embodiment of the present invention. Referring to FIG. 2, the image providing device 120 includes an image receiving unit 210, a parameter deriving unit 220, a normalizing unit 230, an input unit 240, a virtual content image synthesizing unit 250, and a background image generating unit. 260, a semi-free view image synthesizer 270 and an image transmission unit 280 may be included.

영상 수신부(210)는 기설정된 카메라 간격으로 배치된 복수의 실제 카메라(110)로부터 객체를 촬영한 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 수신할 수 있다. 예를 들어, 영상 수신부(210)는 기설정된 카메라 간격으로 3대의 실제 카메라(110)가 배치된 경우, 3대의 실제 카메라(110) 중 1번 카메라 및 3번 카메라로부터 촬영된 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 수신하고, 3대의 실제 카메라(110) 중 가운데 위치한 2번 카메라로부터 촬영된 체커보드 영상을 수신할 수 있다. 여기서, 복수의 실제 컨텐츠 영상은 사용자 단말(130)로 제공할 실제 영상을 의미하고, 복수의 배경 영상(예를 들어, 빈 경기장)은 카메라의 외부 파라미터를 추정하기 위한 영상 데이터를 의미하고, 체커보드 영상은 카메라의 내부 파라미터를 도출하기 위한 영상 데이터를 의미할 수 있다. 체커보드 영상을 복수의 실제 카메라(110) 중 예를 들어, 2번 카메라와 같이 가운데 배치된 실제 카메라로부터 수신하는 이유는 2번 카메라에서 획득한 내부 파라미터를 1번 카메라 및 3번 카메라의 내부로 사용하도록 함으로써, 각 영상이 동일한 내부를 가지도록 하기 위함이다. The image receiving unit 210 may receive a plurality of real content images and a plurality of background images photographing an object from a plurality of real cameras 110 arranged at preset camera intervals. For example, when three real cameras 110 are arranged at preset camera intervals, the image receiving unit 210 includes a plurality of real content images taken from the first camera and the third camera among the three real cameras 110. And a plurality of background images, and a checkerboard image photographed from a camera 2 located in the middle of the three actual cameras 110 may be received. Here, the plurality of actual content images refer to actual images to be provided to the user terminal 130, and the plurality of background images (eg, empty stadiums) refer to image data for estimating external parameters of the camera, and checkers The board image may mean image data for deriving internal parameters of the camera. The reason why the checkerboard image is received from a plurality of real cameras 110, for example, from an actual camera arranged in the middle such as camera 2 is that the internal parameters obtained from camera 2 are transferred to the inside of camera 1 and camera 3 This is to ensure that each image has the same interior by using it.

파라미터 도출부(220)는 체커보드 영상에 기초하여 내부 카메라 파라미터를 도출할 수 있다. 예를 들어, 파라미터 도출부(220)는 카메라 캘리브레이션을 이용하여 내부 파라미터를 도출할 수 있다. 이 때, 계산의 편의를 위해 체커보드 영상에 왜곡이 없는 것으로 가정하여 내부 파라미터를 도출할 수 있다. The parameter derivation unit 220 may derive internal camera parameters based on the checkerboard image. For example, the parameter derivation unit 220 may derive internal parameters using camera calibration. At this time, for convenience of calculation, it is assumed that there is no distortion in the checkerboard image, and an internal parameter may be derived.

파라미터 도출부(220)는 배경 영상으로부터 도출된 좌표 데이터 및 내부 카메라 파라미터로부터 외부 카메라 파라미터를 도출할 수 있다. 여기서, 파라미터 도출부(220)는 외부 파라미터를 도출하기 위해 배경 영상으로부터 3차원 좌표를 도출할 수 있다. 3차원 좌표를 도출하는 과정에 대해서는 도 3을 통해 상세히 설명하도록 한다. The parameter derivation unit 220 may derive external camera parameters from coordinate data derived from the background image and internal camera parameters. Here, the parameter derivation unit 220 may derive 3D coordinates from the background image in order to derive external parameters. The process of deriving the three-dimensional coordinates will be described in detail with reference to FIG. 3.

도 3은 본 발명의 일 실시예에 따른 배경 영상으로부터 도출된 좌표 데이터를 도시한 예시적인 도면이다. 도 3을 참조하면, 영상 수신부(210)가 복수의 실제 카메라(110)로부터 빈 농구 경기장을 배경으로 한 다시점 영상을 수신한 경우, 파라미터 도출부(220)는 농구 경기장의 8개의 모서리 및 농구 경기장의 규격을 이용하여 한 점을 원점으로 하고, 카메라 좌표계와 동일한 방향의 세계 좌표계에 대해 농구 경기장의 8개의 각 점(310 내지 317)에 대한 실제 3차원 좌표값을 취득하고, 각 실제 카메라에서 촬영된 각각의 빈 농구 경기장을 촬영한 배경 영상에서 해당 점들이 투영된 2차원의 이미지 좌표를 취득하여 한 카메라 당 총 8개의 3차원-2차원 좌표 쌍을 도출할 수 있다. 3 is an exemplary diagram showing coordinate data derived from a background image according to an embodiment of the present invention. Referring to FIG. 3, when the image receiving unit 210 receives a multi-view image with an empty basketball arena as a background from a plurality of real cameras 110, the parameter deriving unit 220 includes eight corners and a basketball of the basketball arena. Using the standard of the stadium, one point is the origin, and the actual three-dimensional coordinate values for each of the eight points (310 to 317) of the basketball arena are obtained with respect to the world coordinate system in the same direction as the camera coordinate system. A total of eight 3D-2D coordinate pairs per camera can be derived by acquiring the 2D image coordinates in which the corresponding points are projected from the captured background image of each empty basketball stadium.

예를 들어, 파라미터 도출부(220)는 복수의 실제 카메라(110) 중 예를 들어, 2번 카메라와 같이 가운데 위치한 카메라로부터 획득한 내부 파라미터, 각 실제 카메라의 8개의 좌표 쌍, 왜곡 계수 '0'에 대해 Perspective n point(PNP) 알고리즘을 이용하여 회전행렬, 카메라 위치정보 등을 포함하는 카메라의 외부 파라미터를 도출할 수 있다. 여기서, PNP 알고리즘이란 객체 좌표(X, Y, Z)로 알려진 가시적인 3D 포인트의 세트 및 픽셀 좌표(u, v)로 알려진 2D 투영으로부터 캘리브레이션된 카메라와 3D 객체 사이의 상대 포즈를 추정하는 알고리즘을 의미한다. 예를 들어, 파라미터 도출부(220)는 PNP 알고리즘을 이용하여 지정된 원점을 기준으로 하는 세계 좌표계와 각 실제 카메라의 좌표계 사이의 회전 각, 위치 정보 등을 행렬, 벡터(외부 파라미터)로 도출할 수 있다. For example, the parameter derivation unit 220 includes an internal parameter obtained from a camera located in the middle of the plurality of real cameras 110, for example, camera 2, eight coordinate pairs of each real camera, and a distortion coefficient of '0'. For', it is possible to derive external parameters of the camera including rotation matrix, camera position information, etc. using the Perspective n point (PNP) algorithm. Here, the PNP algorithm is an algorithm that estimates the relative pose between a camera and a 3D object calibrated from a set of visible 3D points known as object coordinates (X, Y, Z) and a 2D projection known as pixel coordinates (u, v). it means. For example, the parameter derivation unit 220 may derive the rotation angle, position information, etc. between the world coordinate system based on the designated origin and the coordinate system of each actual camera as a matrix or vector (external parameter) using a PNP algorithm. have.

이러한 과정을 통해, 파라미터 도출부(220)는 체커보드 영상과 특정 공간을 촬영한 배경 영상을 이용하여 복수의 실제 카메라(110) 각각의 내부 파라미터 및 외부 파라미터를 도출할 수 있다 Through this process, the parameter derivation unit 220 may derive internal parameters and external parameters of each of the plurality of actual cameras 110 by using the checkerboard image and the background image photographing a specific space.

다시 도 2로 돌아와서, 정규화부(230)는 이상적인 카메라 파라미터 및 실제 카메라 파라미터 간의 관계 행렬을 도출하고, 도출된 관계 행렬에 기초하여 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 정규화할 수 있다. 여기서, 정규화는 반자유 시점 영상의 생성을 위해 복수의 실제 카메라(110)가 이용되므로, 각 실제 카메라에서 촬영된 영상의 높낮이, 비틀어짐 등을 보정하기 위해 수행될 수 있다. Returning to FIG. 2 again, the normalization unit 230 may derive a relationship matrix between an ideal camera parameter and an actual camera parameter, and normalize a plurality of actual content images and a plurality of background images based on the derived relationship matrix. Here, since the plurality of real cameras 110 are used to generate the semi-free view image, the normalization may be performed to correct the height and distortion of the image captured by each real camera.

파라미터 도출부(220)는 복수의 실제 컨텐츠 영상 중 이웃하는 영상 간에 원근 변환을 수행함으로써 광축이 평행하도록 변환시키는 이상적인 카메라 파라미터를 실제 카메라 파라미터로부터 도출할 수 있다. 여기서, 실제 카메라 파라미터는 내부 카메라 파라미터 및 외부 카메라 파라미터를 포함할 수 있다.The parameter derivation unit 220 may derive an ideal camera parameter for converting the optical axis to be parallel by performing perspective transformation between neighboring images among the plurality of actual content images, from the actual camera parameters. Here, the actual camera parameters may include internal camera parameters and external camera parameters.

예를 들어, 파라미터 도출부(220)는 복수의 실제 컨텐츠 영상 중 1번 카메라 영상과 2번 카메라 영상 또는 2번 카메라 영상과 3번 카메라 영상과 같이 이웃하는 영상을 기준 영상으로 지정하고, 기준 영상 내 영역 일부분을 기준 패치로 설정할 수 있다. 이 때, 파라미터 도출부(220)는 다음 영상을 목표 영상으로 가정할 경우, 영상 내 기준 패치와 제일 유사도가 높은 영역을 검출할 수 있다. 예를 들어, 파라미터 도출부(220)는 기준 패치의 4개의 점을 이용하여 1번 카메라의 영상과 2번 카메라의 영상, 2번 카메라의 영상과 3번 카메라의 영상의 두 영상 간의 호모그래피 행렬을 추정하고, 추정된 호모그래피 행렬을 이용하여 목표 영상에 대해 원근 변환을 수행할 수 있다. 이 때, 원근 변환은 1번 카메라 영상-2번 카메라 영상, 2번 카메라 영상-3번 카메라 영상, 3번 카메라 영상-4번 카메라 영상과 같이 순차적으로 진행함으로써, 영상의 높낮이가 모두 같도록 변환할 수 있으며, 각 카메라의 광축이 평행하지 않으므로, 도출된 각 카메라의 내부 파라미터 및 외부 파라미터를 이용하여 각 카메라의 광축이 평행하도록 변환할 수 있다. For example, the parameter derivation unit 220 designates a neighboring image, such as a camera image 1 and 2, or a camera 2 and 3, as a reference image among a plurality of actual content images. A part of my area can be set as a reference patch. In this case, when the next image is assumed to be the target image, the parameter derivation unit 220 may detect a region having the highest similarity to the reference patch in the image. For example, the parameter derivation unit 220 uses the four points of the reference patch to form a homography matrix between two images of the image of camera 1 and the image of camera 2, the image of camera 2 and the image of camera 3 Is estimated, and perspective transformation can be performed on the target image using the estimated homography matrix. At this time, the perspective conversion is performed sequentially with the camera 1 image-2, camera 2 video-3, and camera 3-4, so that the heights of the images are all the same. Since the optical axis of each camera is not parallel, it is possible to convert the optical axis of each camera to be parallel using the derived internal parameters and external parameters of each camera.

복수의 실제 카메라(110) 중 가운데 위치한 카메라를 기준 영상으로 설정하여, 가운데 위치한 카메라의 내부 파라미터 및 외부 파라미터를 기준으로 이상적인 카메라의 내부 파라미터 및 외부 파라미터를 도출할 수 있다. 예를 들어, 3대의 실제 카메라(110)가 기설정된 간격으로 배치된 경우, 2번 카메라를 기준 영상으로 설정하여 2번 카메라의 내부 파라미터 및 외부 파라미터를 기준으로 이상적인 카메라의 내부 파라미터 및 외부 파라미터를 도출할 수 있다. By setting a camera located in the middle of the plurality of actual cameras 110 as a reference image, internal parameters and external parameters of an ideal camera may be derived based on the internal parameters and external parameters of the camera located in the center. For example, when three actual cameras 110 are arranged at preset intervals, the second camera is set as the reference image, and the internal parameters and external parameters of the ideal camera are set based on the internal parameters and external parameters of the second camera. Can be derived.

여기서, 이상적인 카메라의 내부 파라미터 및 외부 파라미터는 모든 내부 파라미터가 동일하며, 각 이상적인 카메라의 위치 정보는 x좌표 값이 일정한 값으로 감소되거나 커지며, y좌표 값 또는 z좌표 값은 동일할 수 있다. 여기서, y좌표 값 또는 z좌표 값이 동일한 이유는 복수의 실제 카메라(110)가 1차원으로 평행하게 설치되었기 때문이다. Here, the internal parameters and external parameters of the ideal camera have the same all internal parameters, and the position information of each ideal camera decreases or increases the x-coordinate value to a constant value, and the y-coordinate value or the z-coordinate value may be the same. Here, the reason that the y-coordinate value or the z-coordinate value is the same is because a plurality of actual cameras 110 are installed in parallel in one dimension.

이러한 과정을 통해, 이상적인 카메라의 내부 파라미터 및 외부 파라미터를 도출하고, 도출된 실제 카메라의 내부 파라미터 및 외부 파라미터와 이상적인 카메라의 내부 파라미터 및 외부 파라미터와의 관계를 호모그래피 행렬로 추정할 수 있다. 이 때, 호모그래피 행렬을 이용하여 높낮이가 보정된 영상들에 대해 원근 변환을 통해 최종적인 영상이 획득될 수 있다.Through this process, the internal parameters and external parameters of the ideal camera can be derived, and the relationship between the derived internal and external parameters of the actual camera and the internal and external parameters of the ideal camera can be estimated as a homography matrix. In this case, a final image may be obtained through perspective transformation for images whose height is corrected using a homography matrix.

또한, 빈 경기장 영상에 대해서도 동일하게 원근 변환을 통해 정규화가 진행될 수 있다. In addition, normalization may be performed through perspective transformation in the same manner for an empty stadium image.

입력부(240)는 사용자 단말(130)로부터 시청 시점 간격을 입력받을 수 있다. 여기서, 시청 시점 간격이란 최종적으로 가상 시점을 합성하여 사용자에게 반자유 시점 영상을 제공할 때의 시점들 사이의 간격을 나타낼 수 있다. 시청 시점 간격을 입력받는 이유는 복수의 실제 카메라(110)를 15cm 간격으로 배치하여 촬영한 경우, 1번 카메라, 2번 카메라, 3번 카메라로 시점 전환시에 영상이 끊겨서 전환되는 듯한 효과가 나타나게 되므로, 사용자 단말(130)로부터 복수의 실제 카메라(110) 간격 사이에 몇 개의 가상 시점을 생성할지를 입력받음으로써, 영상이 끊김없이(seamless) 전환되도록 하기 위함이다. The input unit 240 may receive a viewing time interval from the user terminal 130. Here, the viewing viewpoint interval may represent an interval between viewpoints when a virtual viewpoint is finally synthesized and a semi-free viewpoint image is provided to a user. The reason for receiving the viewing point interval is that when a plurality of actual cameras 110 are arranged at 15cm intervals and photographed, the image is cut off when the viewpoint is switched to camera 1, camera 2, and camera 3. Therefore, by receiving an input from the user terminal 130 as to how many virtual viewpoints to be generated between the intervals of the plurality of actual cameras 110, it is to ensure that the image is seamlessly switched.

가상 컨텐츠 영상 합성부(250)는 카메라 간격 및 시청 시점 간격에 기초하여 가상 시점을 생성할지 여부를 판단할 수 있다. 예를 들어, 가상 컨텐츠 영상 합성부(250)는 카메라 간격이 시청 시점 간격보다 클 경우, 카메라 간격 사이에 위치하는 시청 시점 간격에 대응하도록 가상 시점을 생성하는 것으로 판단할 수 있다. 예를 들어, 복수의 실제 카메라(110)가 15cm 간격으로 배치되고, 입력부(240)에서 사용자 단말(130)로부터 시청 시점 간격을 1cm로 입력받은 경우, 가상 컨텐츠 영상 합성부(250)는 가상 시점은 1번 카메라 및 2번 카메라 사이에 총 14개의 시점 영상을 생성할 수 있다. The virtual content image synthesizing unit 250 may determine whether to generate a virtual viewpoint based on the camera interval and the viewing viewpoint interval. For example, when the camera interval is greater than the viewing viewpoint interval, the virtual content image synthesizing unit 250 may determine that the virtual viewpoint is generated to correspond to the viewing viewpoint interval positioned between the camera intervals. For example, when a plurality of real cameras 110 are arranged at 15cm intervals, and the viewing point interval is input from the user terminal 130 in the input unit 240 as 1cm, the virtual content image synthesizing unit 250 is Can generate a total of 14 viewpoint images between camera 1 and camera 2.

가상 컨텐츠 영상 합성부(250)는 판단 결과에 따라 복수의 실제 컨텐츠 영상 및 복수의 실제 카메라(110)에 대한 실제 카메라 파라미터에 기초하여 가상 시점에 대응하는 가상 컨텐츠 영상을 합성할 수 있다. The virtual content image synthesizing unit 250 may synthesize a virtual content image corresponding to a virtual viewpoint based on a plurality of real content images and real camera parameters for the plurality of real cameras 110 according to the determination result.

예를 들어, 가상 컨텐츠 영상 합성부(250)는 복수의 실제 컨텐츠 영상 및 실제 카메라 파라미터에 기초하여 깊이 영상을 생성할 수 있다. 이 때, 가상 시점에 대한 가상 카메라 파라미터가 존재하지 않는 경우, 실제 카메라 파라미터에 기초하여 가상 카메라 파라미터를 도출할 수 있다. 이는, 복수의 실제 카메라(110)가 1차원으로 선형적으로 배치됨에 따라 배치 비율을 이용하여 추정할 수 있기 때문이다. 예를 들어, 1번 시점 및 2번 시점 사이의 1.5번에 대한 가상 시점을 합성해야 하는데, 가상 시점에 대한 가상 파라미터가 존재하지 않는 경우, 1번 카메라의 내부 파라미터 및 외부 파라미터와 2번 카메라의 내부 파라미터의 및 외부 파라미터의 중간값으로 1.5번의 가상 시점에 대한 가상 카메라 파라미터를 정의할 수 있다. 이와 같이, 가상 시점에 대한 카메라 파라미터는 양쪽으로 가장 가까운 실제 카메라의 내부 파라미터를 이용할 수 있다 For example, the virtual content image synthesizing unit 250 may generate a depth image based on a plurality of actual content images and actual camera parameters. In this case, if there is no virtual camera parameter for the virtual viewpoint, the virtual camera parameter may be derived based on the actual camera parameter. This is because a plurality of actual cameras 110 are linearly arranged in one dimension, and thus can be estimated using an arrangement ratio. For example, if a virtual viewpoint for 1.5 between viewpoint 1 and viewpoint 2 needs to be synthesized, but there is no virtual parameter for the virtual viewpoint, the internal parameters and external parameters of camera 1 and camera 2 It is possible to define a virtual camera parameter for the virtual viewpoint of 1.5 times as the median value of the internal parameter and the external parameter. In this way, the camera parameters for the virtual viewpoint can use the internal parameters of the real camera closest to both sides.

가상 컨텐츠 영상 합성부(250)는 깊이 영상 및 가상 카메라 파라미터에 기초하여 가상 시점에 대응하는 가상 컨텐츠 영상을 합성할 수 있다. 이 때, 가상 컨텐츠 영상 합성부(250)는 정규화된 복수의 실제 컨텐츠 영상에 기초하여 가상 컨텐츠 영상을 합성할 수 있다.The virtual content image synthesizing unit 250 may synthesize a virtual content image corresponding to a virtual viewpoint based on the depth image and the virtual camera parameter. In this case, the virtual content image synthesizing unit 250 may synthesize a virtual content image based on a plurality of normalized real content images.

가상 컨텐츠 영상 합성부(250)는 합성된 가상 컨텐츠 영상에서 중요도 지도(saliency map)를 생성하고, 이진화 처리 및 객체에 대한 관심 영역을 설정하여 객체만을 분리할 수 있다. 여기서, 중요도 지도란 영상으로부터 중요 객체가 배경으로부터 분리되어 이진화 영상으로 생성된 것으로, 이미지 또는 비디오 압축, 객체 인식, 장면 분류, 시각적 추적, 행동 탐지 등의 다양한 분야에서 이용되고 있다. The virtual content image synthesizing unit 250 may generate a saliency map from the synthesized virtual content image, perform binarization, and set an ROI for the object to separate only the object. Here, the importance map is generated as a binary image by separating important objects from the background from the image, and is used in various fields such as image or video compression, object recognition, scene classification, visual tracking, and behavior detection.

배경 영상 생성부(260)는 복수의 배경 영상으로부터 특징점을 추출하고, 추출된 특징점을 매칭하여 일치하는 특징점끼리 대응시킬 수 있다. The background image generator 260 may extract feature points from a plurality of background images, match the extracted feature points, and associate the matched feature points with each other.

배경 영상 생성부(260)는 대응되는 특징점에 기초하여 파노라마 영상을 생성할 수 있다. 예를 들어, 배경 영상 생성부(260)는 대응되는 점 중 임의의 4개의 점을 이용하여 원근 변환을 통해 복수의 배경 영상을 워핑하여 하나의 파노라마 영상을 생성할 수 있다. The background image generator 260 may generate a panorama image based on a corresponding feature point. For example, the background image generator 260 may generate one panorama image by warping a plurality of background images through perspective transformation using any four points among corresponding points.

배경 영상 생성부(260)는 생성된 파노라마 영상에 기초하여 가상 시점에 대응하는 배경 영상을 생성할 수 있다. 배경 영상을 생성하는 과정에 대해서는 도 4를 통해 상세히 설명하도록 한다. The background image generator 260 may generate a background image corresponding to a virtual viewpoint based on the generated panorama image. The process of generating the background image will be described in detail with reference to FIG. 4.

도 4는 본 발명의 일 실시예에 따른 배경 영상을 생성하는 과정을 설명하기 위한 예시적인 도면이다. 도 4를 참조하면, 배경 영상 생성부(260)는 파노라마 영상으로부터 복수의 실제 카메라 중 양 끝단의 실제 카메라에 대응하는 관심 영역을 설정하고, 복수의 실제 카메라의 실제 시점 및 가상 시점 간의 배치 비율을 도출하고, 도출된 배치 비율에 기초하여 파노라마 영상으로부터 가상 시점에 대응하는 관심 영역을 설정하고, 설정된 관심 영역에 기초하여 가상 시점에 대응하는 배경 영상을 생성할 수 있다. 4 is an exemplary diagram for explaining a process of generating a background image according to an embodiment of the present invention. Referring to FIG. 4, the background image generator 260 sets an ROI corresponding to the real cameras at both ends of the plurality of real cameras from the panoramic image, and calculates an arrangement ratio between the real and virtual views of the plurality of real cameras. It is possible to derive and set a region of interest corresponding to the virtual viewpoint from the panoramic image based on the derived arrangement ratio, and generate a background image corresponding to the virtual viewpoint based on the set region of interest.

예를 들어, 배경 영상 생성부(260)는 1번 카메라(400)에 해당하는 영상을 제 1 관심 영역(410)으로 설정하고, 이웃하는 2번 카메라(401)에 해당하는 영상을 동일하게 제 2 관심 영역(411)으로 설정할 수 있다. For example, the background image generator 260 sets the image corresponding to the first camera 400 as the first ROI 410, and the same image corresponding to the neighboring camera 2 401 is generated. 2 It can be set as the region of interest 411.

이 때, 배경 영상 생성부(260)는 생성된 가상 시점(402)에 대해 복수의 실제 카메라(110)의 실제 시점 및 가상 시점 간의 배치 비율을 이용하여 파노라마 영상으로부터 가상 시점에 대응하는 관심 영역(412)을 설정하고, 설정된 관심 영역에 기초하여 가상 시점에 대응하는 배경 영상을 생성할 수 있다. In this case, the background image generation unit 260 uses an area of interest corresponding to the virtual view from the panoramic image by using the arrangement ratio between the real view and the virtual view of the plurality of real cameras 110 with respect to the generated virtual view 402. 412) may be set, and a background image corresponding to the virtual viewpoint may be generated based on the set region of interest.

다시 도 2로 돌아와서, 반자유 시점 영상 합성부(270)는 가상 컨텐츠 영상으로부터 추출된 객체 및 가상 시점에 대응하도록 생성된 배경 영상을 합성하여 반자유 시점 영상을 생성할 수 있다. 예를 들어, 반자유 시점 영상 합성부(270)는 복수의 실제 컨텐츠 영상 및 가상 컨텐츠 영상으로부터 객체를 추출하고, 추출된 객체 및 복수의 배경 영상에 대해 블렌딩 과정을 통해 반자유 시점 영상을 합성할 수 있다. 이 때, 반자유 시점 영상은 객체의 위치가 이진화된 중요도 지도에서 관심 영역으로 설정된 좌표에 그대로 배경 영상에 적용됨으로써 합성될 수 있다. Returning to FIG. 2 again, the semi-free view image synthesizing unit 270 may generate a semi-free view image by synthesizing an object extracted from the virtual content image and a background image generated corresponding to the virtual view. For example, the semi-free view image synthesizing unit 270 extracts an object from a plurality of real content images and virtual content images, and synthesizes the semi-free view image through a blending process for the extracted object and a plurality of background images. I can. In this case, the semi-free viewpoint image may be synthesized by applying the position of the object to the background image as it is to the coordinates set as the ROI in the binarized importance map.

반자유 시점 영상 합성부(270)는 복수의 실제 카메라에 대응하는 실제 시점의 수 및 실제 시점 사이에 생성되는 가상 시점의 수에 기초하여 각 시점에서 제공될 반자유 시점 영상의 영상 프레임을 도출할 수 있다. The semi-free view image synthesizing unit 270 may derive an image frame of a semi-free view image to be provided at each view based on the number of real views corresponding to the plurality of real cameras and the number of virtual views generated between the actual views. I can.

종래의 자유 시점 영상은 사용자가 시점을 전환할 때마다 해당 가상 시점의 카메라의 내부 파라미터 및 외부 파라미터를 생성하고, 이를 이용하여 가상 시점을 합성해야 하는데, 영상 제공 장치(120)에서 부하가 발생됨에 따라 전송량이 많아질 수 있다. In the conventional free view image, whenever the user switches the view, an internal parameter and an external parameter of the camera of the corresponding virtual view must be generated, and a virtual view must be synthesized using this. Accordingly, the amount of transmission may increase.

따라서, 본 발명에서 제안하는 반자유 시점 영상은 영상 제공 장치(120)의 관리 측면에서 효율적으로 효과를 극대화할 수 있다는 장점을 갖는다. Accordingly, the semi-free viewpoint image proposed by the present invention has the advantage of efficiently maximizing the effect in terms of the management of the image providing apparatus 120.

예를 들어, 반자유 시점 영상은 컨텐츠의 재생 전, 사용자 단말(130)로부터 원하는 시청 시점 간격 및 프레임 속도를 입력받음으로써, 복수의 실제 카메라(110) 사이에 생성해야 할 가상 시점의 개수 및 프레임 속도를 계산하여 각 시점에서 몇번째 프레임을 사용자 단말(130)로 제공할지를 계산할 수 있다. For example, the semi-free view video receives the desired viewing time interval and frame rate from the user terminal 130 before the content is played, so that the number and frames of virtual views to be generated between the plurality of real cameras 110 By calculating the speed, it is possible to calculate the number of frames to be provided to the user terminal 130 at each time point.

예를 들어, 복수의 실제 카메라(110)에 대해 기설정된 배치 간격이 15cm이고, 사용자 단말(130)로부터 입력받은 시청 시점 간격이 3cm인 경우, 반자유 시점 영상 합성부(270)는 1.2번째, 1.4번째, 1.6번째, 1.8번째 영상을 합성하고, 임의의 시점 구간 별로 첫번째 프레임, 두번째 프레임 등을 묶어 하나의 영상을 생성하여 사용자 단말(130)로 전송할 수 있다. For example, when the predetermined arrangement interval for the plurality of actual cameras 110 is 15 cm, and the viewing point interval received from the user terminal 130 is 3 cm, the semi-free view image synthesizing unit 270 is the 1.2 th, The 1.4th, 1.6th, and 1.8th images may be synthesized, and a first frame, a second frame, etc. may be grouped for each view section to generate a single image and transmitted to the user terminal 130.

영상 전송부(280)는 사용자 단말(130)로 생성된 반자유 시점 영상을 전송할 수 있다. 여기서, 반자유 시점 영상은 각 시점의 배치 위치에 따라 각 시점이 전환되면서 각 시점에서 제공될 영상 프레임이 순차적으로 재생될 수 있다. The image transmission unit 280 may transmit a semi-free view image generated to the user terminal 130. Here, in the semi-free view image, image frames to be provided at each view may be sequentially reproduced while each view is switched according to an arrangement position of each view.

도 5는 본 발명의 일 실시예에 따른 영상 제공 장치에서 반자유 시점 영상을 제공하는 방법의 순서도이다. 도 5에 도시된 영상 제공 장치(120)에서 반자유 시점 영상을 제공하는 방법은 도 1 내지 도 4에 도시된 실시예에 따른 영상 제공 시스템(1)에 의해 시계열적으로 처리되는 단계들을 포함한다. 따라서, 이하 생략된 내용이라고 하더라도 도 1 내지 도 4에 도시된 실시예에 따른 영상 제공 장치(120)에서 반자유 시점을 제공하는 방법에도 적용된다. 5 is a flowchart of a method of providing a semi-free viewpoint image in an image providing apparatus according to an embodiment of the present invention. The method of providing a semi-free viewpoint image in the image providing apparatus 120 shown in FIG. 5 includes steps processed in a time series by the image providing system 1 according to the embodiment shown in FIGS. 1 to 4. . Accordingly, even if omitted below, the method of providing a semi-free view in the image providing apparatus 120 according to the exemplary embodiment illustrated in FIGS. 1 to 4 is also applied.

단계 S510에서 영상 제공 장치(120)는 기설정된 카메라 간격으로 배치된 복수의 실제 카메라(110)로부터 객체를 촬영한 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 수신할 수 있다. In step S510, the image providing apparatus 120 may receive a plurality of real content images and a plurality of background images photographing an object from a plurality of real cameras 110 arranged at preset camera intervals.

단계 S520에서 영상 제공 장치(120)는 사용자 단말(130)로부터 시청 시점 간격을 입력받을 수 있다. In step S520, the image providing device 120 may receive a viewing time interval from the user terminal 130.

단계 S530에서 영상 제공 장치(120)는 카메라 간격 및 시청 시점 간격에 기초하여 가상 시점을 생성할지 여부를 판단하고, 판단 결과에 따라 복수의 실제 컨텐츠 영상 및 복수의 실제 카메라에 대한 실제 카메라 파라미터에 기초하여 가상 시점에 대응하는 가상 컨텐츠 영상을 합성할 수 있다. In step S530, the image providing device 120 determines whether to generate a virtual viewpoint based on the camera interval and the viewing viewpoint interval, and based on the actual camera parameters for the plurality of actual content images and the plurality of actual cameras according to the determination result. Thus, a virtual content image corresponding to a virtual viewpoint can be synthesized.

단계 S540에서 영상 제공 장치(120)는 복수의 실제 컨텐츠 영상 및 가상 컨텐츠 영상으로부터 객체를 추출하고, 추출된 객체 및 복수의 배경 영상에 기초하여 반자유 시점 영상을 합성할 수 있다. In operation S540, the image providing apparatus 120 may extract an object from a plurality of real content images and virtual content images, and synthesize a semi-free view image based on the extracted object and a plurality of background images.

단계 S550에서 영상 제공 장치(120)는 사용자 단말(130)로 생성된 반자유 시점 영상을 전송할 수 있다. In step S550, the image providing device 120 may transmit the generated semi-free view image to the user terminal 130.

상술한 설명에서, 단계 S510 내지 S550은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 전환될 수도 있다.In the above description, steps S510 to S550 may be further divided into additional steps or may be combined into fewer steps, according to an embodiment of the present invention. In addition, some steps may be omitted as necessary, and the order between steps may be switched.

도 1 내지 도 5를 통해 설명된 영상 제공 장치에서 반자유 시점 영상을 제공하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램 또는 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 또한, 도 1 내지 도 5를 통해 설명된 영상 제공 장치에서 반자유 시점 영상을 제공하는 방법은 컴퓨터에 의해 실행되는 매체에 저장된 컴퓨터 프로그램의 형태로도 구현될 수 있다. The method of providing a semi-free viewpoint image in the image providing apparatus described with reference to FIGS. 1 to 5 may be implemented in the form of a computer program stored in a medium executed by a computer or a recording medium including instructions executable by a computer. I can. In addition, the method of providing a semi-free viewpoint image in the image providing apparatus described with reference to FIGS. 1 to 5 may be implemented in the form of a computer program stored in a medium executed by a computer.

컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. Computer-readable media can be any available media that can be accessed by a computer, and includes both volatile and nonvolatile media, removable and non-removable media. Further, the computer-readable medium may include a computer storage medium. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다. The above description of the present invention is for illustrative purposes only, and those of ordinary skill in the art to which the present invention pertains will be able to understand that other specific forms can be easily modified without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and are not limiting. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as being distributed may also be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. The scope of the present invention is indicated by the claims to be described later rather than the detailed description, and all changes or modified forms derived from the meaning and scope of the claims and their equivalent concepts should be construed as being included in the scope of the present invention. do.

110: 복수의 실제 카메라
120: 영상 제공 장치
210: 영상 수신부
220: 파라미터 도출부
230: 정규화부
240: 입력부
250: 가상 컨텐츠 영상 합성부
260: 배경 영상 생성부
270: 반자유 시점 영상 합성부
280: 영상 전송부
110: multiple real cameras
120: video providing device
210: image receiving unit
220: parameter derivation unit
230: normalization unit
240: input
250: virtual content image synthesis unit
260: background image generation unit
270: Semi-free viewpoint image synthesis unit
280: image transmission unit

Claims (5)

반자유 시점 영상을 제공하는 장치에 있어서,
기설정된 카메라 간격으로 배치된 복수의 실제 카메라로부터 객체를 촬영한 복수의 실제 컨텐츠 영상 및 복수의 배경 영상을 수신하는 영상 수신부;
사용자 단말로부터 시청 시점 간격을 입력받는 입력부;
상기 카메라 간격 및 상기 시청 시점 간격에 기초하여 가상 시점을 생성할지 여부를 판단하고, 판단 결과에 따라 상기 복수의 실제 컨텐츠 영상 및 상기 복수의 실제 카메라에 대한 실제 카메라 파라미터에 기초하여 상기 가상 시점에 대응하는 가상 컨텐츠 영상을 합성하는 가상 컨텐츠 영상 합성부;
상기 복수의 실제 컨텐츠 영상 및 상기 가상 컨텐츠 영상으로부터 상기 객체를 추출하고, 상기 추출된 객체 및 상기 복수의 배경 영상에 기초하여 반자유 시점 영상을 합성하는 반자유 시점 영상 합성부; 및
상기 사용자 단말로 상기 생성된 반자유 시점 영상을 전송하는 영상 전송부
를 포함하고,
상기 복수의 배경 영상으로부터 특징점을 추출하고, 추출된 특징점을 매칭하여 일치하는 특징점끼리 대응시키고, 상기 대응되는 특징점에 기초하여 파노라마 영상을 생성하고, 상기 생성된 파노라마 영상에 기초하여 상기 가상 시점에 대응하는 배경 영상을 생성하는 배경 영상 생성부
를 더 포함하고,
상기 배경 영상 생성부는,
상기 파노라마 영상으로부터 상기 복수의 실제 카메라 중 양 끝단의 실제 카메라에 대응하는 관심 영역을 설정하고,
상기 복수의 실제 카메라의 실제 시점 및 상기 가상 시점 간의 배치 비율을 도출하고,
상기 도출된 배치 비율에 기초하여 상기 파노라마 영상으로부터 상기 가상 시점에 대응하는 관심 영역을 설정하고,
상기 설정된 관심 영역에 기초하여 상기 가상 시점에 대응하는 배경 영상을 생성하는 것인, 영상 제공 장치.
In the apparatus for providing a semi-free viewpoint image,
An image receiver configured to receive a plurality of real content images and a plurality of background images photographing an object from a plurality of real cameras arranged at preset camera intervals;
An input unit receiving a viewing time interval from a user terminal;
Determine whether to generate a virtual viewpoint based on the camera interval and the viewing viewpoint interval, and respond to the virtual viewpoint based on the plurality of real content images and real camera parameters for the plurality of real cameras according to the determination result. A virtual content image synthesizing unit for synthesizing the virtual content image;
A semi-free view image synthesizing unit for extracting the object from the plurality of real content images and the virtual content images, and synthesizing a semi-free view image based on the extracted object and the plurality of background images; And
An image transmission unit that transmits the generated semi-free view image to the user terminal
Including,
A feature point is extracted from the plurality of background images, the extracted feature points are matched to match the matching feature points, a panoramic image is generated based on the corresponding feature point, and the virtual view is corresponded to the virtual viewpoint based on the generated panoramic image. A background image generator that generates a background image
Including more,
The background image generation unit,
Set an ROI corresponding to the real cameras at both ends of the plurality of real cameras from the panoramic image,
Derive an arrangement ratio between the actual viewpoint and the virtual viewpoint of the plurality of real cameras,
Set an ROI corresponding to the virtual viewpoint from the panoramic image based on the derived arrangement ratio,
To generate a background image corresponding to the virtual viewpoint based on the set region of interest.
제 1 항에 있어서,
상기 가상 컨텐츠 영상 합성부는 상기 카메라 간격이 상기 시청 시점 간격보다 클 경우, 상기 카메라 간격 사이에 위치하는 상기 시청 시점 간격에 대응하도록 가상 시점을 생성하는 것으로 판단하고,
상기 복수의 실제 컨텐츠 영상 및 상기 실제 카메라 파라미터에 기초하여 깊이 영상을 생성하고,
상기 가상 시점에 대한 가상 카메라 파라미터가 존재하지 않는 경우, 상기 실제 카메라 파라미터에 기초하여 상기 가상 카메라 파라미터를 도출하고,
상기 깊이 영상 및 상기 가상 카메라 파라미터에 기초하여 상기 가상 시점에 대응하는 가상 컨텐츠 영상을 합성하는 것인, 영상 제공 장치.
The method of claim 1,
When the camera interval is greater than the viewing viewpoint interval, the virtual content image synthesizing unit determines that a virtual viewpoint is generated to correspond to the viewing viewpoint interval positioned between the camera intervals,
Generate a depth image based on the plurality of actual content images and the actual camera parameters,
If the virtual camera parameter for the virtual viewpoint does not exist, the virtual camera parameter is derived based on the actual camera parameter,
The image providing apparatus for synthesizing a virtual content image corresponding to the virtual viewpoint based on the depth image and the virtual camera parameter.
제 1 항에 있어서,
체커보드 영상에 기초하여 내부 카메라 파라미터를 도출하고, 상기 배경 영상으로부터 도출된 좌표 데이터 및 상기 내부 카메라 파라미터로부터 외부 카메라 파라미터를 도출하는 파라미터 도출부
를 더 포함하고,
상기 실제 카메라 파라미터는 상기 내부 카메라 파라미터 및 상기 외부 카메라 파라미터를 포함하는 것인, 영상 제공 장치.
The method of claim 1,
A parameter derivation unit that derives internal camera parameters based on the checkerboard image, and derives external camera parameters from coordinate data derived from the background image and the internal camera parameters
Including more,
The image providing apparatus, wherein the actual camera parameter includes the internal camera parameter and the external camera parameter.
제 1 항에 있어서,
상기 반자유 시점 영상 합성부는 상기 가상 컨텐츠 영상으로부터 추출된 객체 및 상기 가상 시점에 대응하도록 생성된 배경 영상을 합성하여 상기 반자유 시점 영상을 생성하는 것인, 영상 제공 장치.
The method of claim 1,
The semi-free view image synthesizing unit generates the semi-free view image by synthesizing an object extracted from the virtual content image and a background image generated corresponding to the virtual view.
삭제delete
KR1020190179911A 2019-12-31 2019-12-31 Apparatus for providing half free-viewpoint video KR102242710B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190179911A KR102242710B1 (en) 2019-12-31 2019-12-31 Apparatus for providing half free-viewpoint video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190179911A KR102242710B1 (en) 2019-12-31 2019-12-31 Apparatus for providing half free-viewpoint video

Publications (1)

Publication Number Publication Date
KR102242710B1 true KR102242710B1 (en) 2021-04-22

Family

ID=75731058

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190179911A KR102242710B1 (en) 2019-12-31 2019-12-31 Apparatus for providing half free-viewpoint video

Country Status (1)

Country Link
KR (1) KR102242710B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837979A (en) * 2021-09-28 2021-12-24 北京奇艺世纪科技有限公司 Live image synthesis method and device, terminal device and readable storage medium
KR102717087B1 (en) 2024-04-30 2024-10-15 원창진공(주) Rotor Type Vacuum Pump

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101851338B1 (en) * 2016-12-02 2018-04-23 서울과학기술대학교 산학협력단 Device for displaying realistic media contents
KR20180081720A (en) * 2015-11-11 2018-07-17 소니 주식회사 Coding device and coding method, decoding device and decoding method
JP2018163467A (en) * 2017-03-24 2018-10-18 Kddi株式会社 Method, device and program for generating and displaying free viewpoint image
KR20180136891A (en) * 2017-06-15 2018-12-26 한국전자통신연구원 Image processing method and appratus for omni-directional video
JP2019121394A (en) * 2018-01-05 2019-07-22 株式会社ソニー・インタラクティブエンタテインメント Image generation device and method of generating image

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180081720A (en) * 2015-11-11 2018-07-17 소니 주식회사 Coding device and coding method, decoding device and decoding method
KR101851338B1 (en) * 2016-12-02 2018-04-23 서울과학기술대학교 산학협력단 Device for displaying realistic media contents
JP2018163467A (en) * 2017-03-24 2018-10-18 Kddi株式会社 Method, device and program for generating and displaying free viewpoint image
KR20180136891A (en) * 2017-06-15 2018-12-26 한국전자통신연구원 Image processing method and appratus for omni-directional video
JP2019121394A (en) * 2018-01-05 2019-07-22 株式会社ソニー・インタラクティブエンタテインメント Image generation device and method of generating image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837979A (en) * 2021-09-28 2021-12-24 北京奇艺世纪科技有限公司 Live image synthesis method and device, terminal device and readable storage medium
CN113837979B (en) * 2021-09-28 2024-03-29 北京奇艺世纪科技有限公司 Live image synthesis method, device, terminal equipment and readable storage medium
KR102717087B1 (en) 2024-04-30 2024-10-15 원창진공(주) Rotor Type Vacuum Pump

Similar Documents

Publication Publication Date Title
US11995902B2 (en) Facial signature methods, systems and software
JP6027034B2 (en) 3D image error improving method and apparatus
KR101538947B1 (en) The apparatus and method of hemispheric freeviewpoint image service technology
CN106254854B (en) Preparation method, the apparatus and system of 3-D image
JP5291755B2 (en) Stereoscopic image generation method and stereoscopic image generation system
KR20170017700A (en) Electronic Apparatus generating 360 Degrees 3D Stereoscopic Panorama Images and Method thereof
KR101851338B1 (en) Device for displaying realistic media contents
CN106231349B (en) Main broadcaster's class interaction platform server method for changing scenes and its device, server
JPH08331607A (en) Three-dimensional display image generating method
JP2013527646A5 (en)
JPWO2019050038A1 (en) Image generation method and image generation device
KR102242710B1 (en) Apparatus for providing half free-viewpoint video
US8577202B2 (en) Method for processing a video data set
US11415935B2 (en) System and method for holographic communication
CN114449303B (en) Live broadcast picture generation method and device, storage medium and electronic device
CN106231397B (en) Main broadcaster's class interaction platform main broadcaster end method for changing scenes and its device, Zhu Boduan
CN106231350B (en) Main broadcaster's class interaction platform method for changing scenes and its device
CN106254893A (en) Main broadcaster's class interaction platform client method for changing scenes and device, client
JP5906165B2 (en) Virtual viewpoint image composition device, virtual viewpoint image composition method, and virtual viewpoint image composition program
KR20190019407A (en) Server, method and user device for providing time slice video
CN113542721A (en) Depth map processing method, video reconstruction method and related device
JPH0981746A (en) Two-dimensional display image generating method
KR20220144695A (en) Server, method and computer program for generating virtual view point image through video synthesis
CN106331672A (en) Method, apparatus and system for obtaining viewpoint image
KR101883981B1 (en) Apparatus and method for providing virtual reality video

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant