KR20180137916A - Virtual reality image contents providing system and thereof providing method - Google Patents

Virtual reality image contents providing system and thereof providing method Download PDF

Info

Publication number
KR20180137916A
KR20180137916A KR1020170077825A KR20170077825A KR20180137916A KR 20180137916 A KR20180137916 A KR 20180137916A KR 1020170077825 A KR1020170077825 A KR 1020170077825A KR 20170077825 A KR20170077825 A KR 20170077825A KR 20180137916 A KR20180137916 A KR 20180137916A
Authority
KR
South Korea
Prior art keywords
image
cameras
base images
camera
base
Prior art date
Application number
KR1020170077825A
Other languages
Korean (ko)
Inventor
김기용
Original Assignee
(주)레드몽키픽처스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)레드몽키픽처스 filed Critical (주)레드몽키픽처스
Priority to KR1020170077825A priority Critical patent/KR20180137916A/en
Publication of KR20180137916A publication Critical patent/KR20180137916A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2625Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of images from a temporal image sequence, e.g. for a stroboscopic effect
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • H04N5/247

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention provides a virtual reality image content providing system, which includes: a camera unit (110) which is formed with a plurality of cameras (111 to 118) arranged to be separated along the circumference (R) of a predetermined radius around a virtual viewer position (P) and obtaining base images (111a to 118a) of the direction facing a position arranged across the viewer position (P) while photographing an image in the direction of the viewer position (P); and an image processing device unit (120) which receives the base images (111a to 118a) obtained from each camera (111 to 118), aligns the base images (111a to 118a) of each camera (111 to 118) arranged in order along the circumference (R) by using prestored position information of each camera (111 to 118), and generates a VR image (VI) connected in every direction by stitching each of the aligned base images (111a to 118a) in order. The present invention is provided to prevent the distortion or refraction of a screen.

Description

가상현실 영상컨텐츠 제공시스템 및 제공방법{VIRTUAL REALITY IMAGE CONTENTS PROVIDING SYSTEM AND THEREOF PROVIDING METHOD}TECHNICAL FIELD [0001] The present invention relates to a virtual reality image content providing system and a virtual reality image content providing system,

본 발명은 가상현실 영상컨텐츠 제공시스템 및 제공방법에 관한 것으로, 보다 상세하게는 외부에서 내부를 향해 촬영한 영상을 이용하여 관람자가 내부에서 외부를 바라보는 시선으로의 VR영상을 생성할 수 있도록 새로운 VR 촬영기법을 적용한 가상현실 영상컨텐츠 제공시스템 및 제공방법에 관한 것이다.The present invention relates to a system and a method for providing a virtual reality image content. More particularly, the present invention relates to a system and method for providing a virtual reality image content providing system and a method for providing a VR image And a method for providing a virtual reality image content providing method using the VR imaging technique.

도 1에는 종래의 VR(Virtual Reality) 촬영기법 방식이 개시되어 있다. 여기서 도 1에 표시된 점선원은 카메라에서 촬영가능한 촬영범위(S)로 그 내부는 촬영공간을 의미하고, A 내지 H는 각 카메라별로 촬영범위(S) 내에서 촬영되는 피사체를 의미한다.FIG. 1 shows a conventional VR (Virtual Reality) shooting technique. Here, the dotted circle shown in FIG. 1 denotes a photographing range S that can be photographed by the camera, the photographing space inside thereof, and A to H means a subject photographed within the photographing range S for each camera.

종래의 VR 촬영은 도 1과 같이 복수 개의 카메라(11 내지 18)가 서로 다른 외측방향을 촬영하도록 설치된 카메라리그(10,Camera Rig)를 촬영공간의 중앙에 배치하여 각 카메라(11 내지 18)별로 지정된 방향의 피사체를 촬영하며, 도 2와 같이 각 카메라(11 내지 18)에서 촬영된 베이스영상(11a 내지 18a)을 스티칭 프로그램으로 이어붙이는 방식으로 가상현실을 구현하기 위한 VR영상을 생성할 수 있었다.In the conventional VR photographing, as shown in FIG. 1, a camera rig 10 (camera rig) installed to photograph different outward directions of a plurality of cameras 11 to 18 is arranged at the center of the photographing space, A VR image for realizing a virtual reality can be generated in such a manner that a subject in a designated direction is photographed and the base images 11a to 18a photographed by the cameras 11 to 18 are attached to a stitching program as shown in FIG. .

그러나, 이러한 종래의 VR 촬영기법은 카메라리그(10)를 중심으로 공간 전체를 360도 방향으로 촬영할 때 적합한 방법이지만 카메라리그(10)를 촬영공간의 중앙에 배치해야 하기 때문에 공간 내에 위치한 피사체와 카메라리그(10) 간의 간섭으로 피사체의 동선에 제약이 발생하였다.However, this conventional VR imaging technique is suitable for photographing the entire space around the camera rig 10 in the 360-degree direction, but since the camera rig 10 must be disposed at the center of the photographing space, There is a constraint on the movement of the subject due to the interference between the leagues 10.

또한, 공간 내에서 촬영된 영상을 단순 스티칭 방식을 통해 이어붙이게 되면 카메라리그(10)의 위치가 VR영상 관람자의 위치가 되면서 안에서 보고 있는 듯한 느낌을 주게 되는데, 이로 인해 피사체가 카메라리그(10)로부터 일정거리 이격된 근접영역(r) 내로 근접하게 되면 VR영상의 화면이 왜곡되거나 굴절이 발생하는 문제점이 있었다.In addition, if an image photographed in the space is attached through a simple stitching method, the position of the camera league 10 becomes the position of the VR image viewer, The image of the VR image is distorted or refracted.

등록특허공보 제10-1538947호(2015.07.17), 실감형 자유시점 영상 제공장치 및 방법Registration No. 10-1538947 (Jul. 17, 2017), real-view free-view image providing apparatus and method

본 발명은 상술한 문제점을 해결하기 위하여 창출된 것으로, 본 발명의 목적은 피사체를 촬영하는 카메라가 촬영공간의 중앙이 아닌 외곽 위치에 배치하여 피사체의 동선이 자유로우며 카메라가 피사체에 근접하지 않아 화면의 왜곡이나 굴절이 발생하는 것을 방지할 수 있도록 새로운 VR 촬영기법을 적용한 가상현실 영상컨텐츠 제공시스템 및 제공방법을 제공하는 것에 있다.SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide a camera for photographing a subject, the camera being disposed at a position outside the center of the photographing space, And a method of providing a virtual reality image content providing system and a method of providing a virtual reality image content using the new VR imaging technique so as to prevent distortion or refraction of the virtual reality image.

본 발명의 특징에 따르면, 가상의 관람자 위치(P)를 중심으로 하는 일정반경의 원주(R)를 따라 이격배치되고 상기 관람자 위치(P) 방향으로 영상을 촬영하면서 관람자 위치(P)를 사이에 두고 배치된 위치와 대향하는 방향의 베이스영상(111a 내지 118a)을 획득하는 복수의 카메라(111 내지 118)로 이루어진 카메라부(110); 및 각 카메라(111 내지 118)에서 획득된 베이스영상(111a 내지 118a)을 수신하며, 기저장된 각 카메라(111 내지 118)의 위치정보를 이용하여 상기 원주(R)를 따라 순서대로 배치된 각 카메라(111 내지 118)들의 베이스영상(111a 내지 118a)을 정렬하고 정렬된 각 베이스영상(111a 내지 118a)들을 순서대로 스티칭(Stitching)하여 360도 방향으로 연결된 VR영상(VI)을 생성하는 영상가공 장치부(120);를 포함하는 가상현실 영상컨텐츠 제공시스템이 제공된다.According to an aspect of the present invention, there is provided an information processing apparatus comprising: a display unit which is spaced apart along a circumference R of a predetermined radius around a virtual viewer position P, A camera unit 110 composed of a plurality of cameras 111 to 118 for acquiring base images 111a to 118a in a direction opposite to a position in which they are disposed; And base images 111a to 118a obtained by the cameras 111 to 118 and using the position information of the cameras 111 to 118 previously stored, (VI) connected in a 360-degree direction by aligning the base images 111a to 118a of the base images 111 to 118 and stitching the aligned base images 111a to 118a in order, (120) for providing a virtual reality image content.

본 발명의 다른 특징에 따르면, 상기 영상가공 장치부(120)는, 각 카메라(111 내지 118)로부터 각각의 피사체(A 내지 H)까지 이격된 카메라기준 피사체거리(D1)와, 상기 관람자 위치(P)로부터 각각의 피사체(A 내지 H)까지 이격된 관람자기준 피사체거리(D2)의 차이를 고려하여, 상기 관람자 위치(P)에서 피사체(A 내지 H)를 촬영했을 때의 피사체 크기를 기준으로 각 카메라(111 내지 118)에서 촬영된 베이스영상(111a 내지 118a)의 피사체 크기를 확대하여 상기 VR영상(VI)을 생성하는 것을 특징으로 하는 가상현실 영상컨텐츠 제공시스템이 제공된다.According to another aspect of the present invention, the image processing apparatus 120 includes a camera reference object distance D1 spaced from each of the cameras 111 to 118 to respective objects A to H, (A to H) are photographed at the spectator position P in consideration of the difference of the spectator reference object distance D2 from the object A to the object A And the VR image (VI) is generated by enlarging a subject size of the base images (111a to 118a) photographed by the cameras (111 to 118).

본 발명의 또 다른 특징에 따르면, 가상의 관람자 위치(P)를 중심으로 하는 일정반경의 원주(R)를 따라 이격배치되는 복수의 카메라(111 내지 118)들의 위치정보를 저장하는 카메라정보 저장 단계(S210); 각 카메라(111 내지 118)들이 상기 관람자 위치(P) 방향으로 영상을 촬영하면서 관람자 위치(P)를 사이에 두고 배치된 위치와 대향하는 방향의 베이스영상(111a 내지 118a)을 획득하는 베이스영상 획득 단계(S220); 각 카메라(111 내지 118)에서 획득된 베이스영상(111a 내지 118a)과 기저장된 각 카메라(111 내지 118)의 위치정보를 이용하여 상기 원주(R)를 따라 순서대로 배치된 각 카메라(111 내지 118)들의 베이스영상(111a 내지 118a)을 정렬하는 베이스영상 정렬 단계(S230); 및 정렬된 각 베이스영상(111a 내지 118a)들을 순서대로 스티칭(Stitching)하여 360도 방향으로 연결된 VR영상(VI)을 생성하는 VR영상 생성 단계(S240);를 포함하는 가상현실 영상컨텐츠 제공방법이 제공된다.According to another aspect of the present invention, there is provided a camera information storage method for storing position information of a plurality of cameras (111 to 118) spaced apart along a circumference (R) of a predetermined radius centered on a virtual spectator position (S210); The base images 111a to 118a in the direction opposite to the positions arranged with the spectator position P interposed therebetween while the cameras 111 to 118 shoot images in the viewer position P direction Step S220; The cameras 111 to 118 arranged in order along the circumference R using the base images 111a to 118a obtained by the cameras 111 to 118 and the position information of the cameras 111 to 118 A base image aligning step S230 of aligning the base images 111a to 118a of the base images 111a to 118a; And a VR image generation step S240 of generating a VR image VI connected in a 360-degree direction by sequentially stitching the aligned base images 111a to 118a. / RTI >

이상에서와 같이 본 발명에 의하면, 피사체를 촬영하는 카메라(111 내지 118)가 촬영공간의 중앙이 아닌 외곽 위치에 배치되어 피사체의 동선이 자유로우며 카메라(111 내지 118)가 피사체에 근접하지 않아 화면의 왜곡이나 굴절이 발생하는 것을 방지할 수 있다.As described above, according to the present invention, since the cameras 111 to 118 for photographing a subject are arranged at positions outside the center of the photographing space, the moving lines of the subject are free and the cameras 111 to 118 are not close to the subject, It is possible to prevent the occurrence of distortion or refraction.

또한, 각 카메라(111 내지 118)로부터 각각의 피사체(A 내지 H)까지 이격된 카메라기준 피사체거리(D1)와, 관람자 위치(P)로부터 각각의 피사체(A 내지 H)까지의 이격된 관람자기준 피사체거리(D2)의 차이를 고려하여, 관람자 위치(P)에서 피사체(A 내지 H)를 촬영했을 때의 피사체 크기를 기준으로 각 카메라(111 내지 118)에서 촬영된 베이스영상(111a 내지 118a)의 피사체 크기를 확대하여 상기 VR영상(VI)을 생성하므로, 관람자 위치(P)에서 영상을 촬영했을 때의 피사체 크기와 동일한 이미지효과를 제공할 수 있다.The distance from the cameras 111 to 118 to the respective subjects A to H and the distances from the viewer position P to the respective objects A to H, The base images 111a to 118a photographed by the cameras 111 to 118 on the basis of the subject size when the subjects A to H are photographed at the spectator position P in consideration of the difference in the subject distance D2, The VR image VI is generated by enlarging the size of the subject of the viewer P, thereby providing the same image effect as the size of the subject when the image is captured at the viewer position P.

도 1은 종래의 VR 촬영기법을 설명하기 위한 개략도,
도 2는 종래의 VR 촬영기법을 통해 획득된 각 베이스영상이 스티칭된 상태를 나타낸 개략도,
도 3은 본 발명의 바람직한 실시예에 따른 가상현실 영상컨텐츠 제공시스템의 구성을 나타낸 개략도,
도 4는 본 발명의 바람직한 실시예에 따른 카메라부의 각 카메라가 배치된 상태를 나타낸 개략도,
도 5는 본 발명의 바람직한 실시예에 따른 카메라부에서 획득된 베이스영상이 스티칭된 상태를 나타낸 개략도,
도 6은 본 발명의 바람직한 실시예에 따른 영상가공 장치부의 기능적 구성을 나타낸 블럭도,
도 7은 본 발명의 바람직한 실시예에 따른 카메라부의 카메라와 피사체간의 촬영거리를 나타낸 개략도,
도 8은 본 발명의 바람직한 실시예에 따른 베이스영상이 촬영거리를 고려하여 베이스영상을 확대한 상태를 나타낸 개략도,
도 9는 본 발명의 바람직한 실시예에 따른 카메라부가 이종격투장에 설치된 상태를 나타낸 사시도,
도 10은 본 발명의 바람직한 실시예에 따른 베이스영상의 특정 피사체가 편집되는 과정을 나타낸 개략도,
도 11은 본 발명의 바람직한 실시예에 따른 가상현실 영상컨텐츠 제공방법의 순서를 나타낸 블럭도이다.
1 is a schematic view for explaining a conventional VR imaging technique,
FIG. 2 is a schematic view showing a state in which each base image obtained through the conventional VR imaging technique is stitched,
FIG. 3 is a schematic view showing a configuration of a virtual reality image contents providing system according to a preferred embodiment of the present invention,
4 is a schematic view showing a state in which each camera of the camera unit is arranged according to a preferred embodiment of the present invention;
5 is a schematic view showing a stitched state of a base image obtained by a camera unit according to a preferred embodiment of the present invention,
6 is a block diagram showing a functional configuration of a video image processing apparatus according to a preferred embodiment of the present invention,
7 is a schematic view showing a photographing distance between a camera and a subject of a camera unit according to a preferred embodiment of the present invention,
FIG. 8 is a schematic view showing a state in which a base image is enlarged in consideration of a shooting distance, according to a preferred embodiment of the present invention;
FIG. 9 is a perspective view illustrating a state in which a camera unit is installed in a different type of fighting land according to a preferred embodiment of the present invention;
FIG. 10 is a schematic view illustrating a process of editing a specific subject of a base image according to a preferred embodiment of the present invention.
11 is a block diagram showing a procedure of a method of providing virtual reality image contents according to a preferred embodiment of the present invention.

상술한 본 발명의 목적, 특징들 및 장점은 다음의 상세한 설명을 통하여 보다 분명해질 것이다. 이하, 본 발명의 바람직한 실시예를 첨부한 도면에 의거하여 설명하면 다음과 같다.The objects, features and advantages of the present invention will become more apparent from the following detailed description. Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.

먼저, 본 발명의 바람직한 실시예에 따른 가상현실 영상컨텐츠 제공시스템의 구성 및 기능을 설명하기로 한다. 본 발명의 바람직한 실시예에 따른 가상현실 영상컨텐츠 제공시스템은 피사체를 촬영하는 카메라가 촬영공간의 중앙이 아닌 외곽측 위치에 배치되어 피사체의 동선이 자유로우며 카메라가 피사체에 근접하지 않아 화면의 왜곡이나 굴절이 발생하는 것을 미연에 차단할 수 있도록 새로운 VR 촬영기법을 적용한 시스템으로서, 도 3에 도시된 바와 같이 카메라부(110) 및 영상가공 장치부(120)를 포함한다.First, the configuration and functions of a virtual reality image content providing system according to a preferred embodiment of the present invention will be described. The system for providing the virtual reality image contents according to the preferred embodiment of the present invention is characterized in that a camera for photographing a subject is disposed at a position outside the center of the photographing space and not at the center of the photographing space so that the subject is free to move and the camera is not close to the subject, The system includes a camera unit 110 and a video image processing unit 120, as shown in FIG. 3, to which a new VR imaging technique is applied to prevent the occurrence of refraction.

상기 카메라부(110)는 VR영상을 생성하는데 기초데이터로 이용되는 베이스영상을 획득하는 촬영수단으로서, 도 4에 도시된 바와 같이 촬영범위(S)에 따른 촬영공간 내에서 가상의 관람자 위치(P)를 중심으로 하는 일정반경의 원주(R)를 따라 이격배치되며 상기 관람자 위치(P) 방향으로 영상을 촬영하면서 관람자 위치(P)를 사이에 두고 배치된 위치와 대향하는 방향의 베이스영상(111a 내지 118a)을 획득하는 복수의 카메라(111 내지 118)로 이루어진다.As shown in FIG. 4, the camera unit 110 acquires a virtual spectator position P (see FIG. 4) in the photographing space according to the photographing range S, And a base image 111a in a direction opposite to a position disposed at a viewer position P while photographing the image in the viewer position P, 118a) for acquiring a plurality of cameras 111-118.

따라서, 제1카메라(111)는 관람자 위치(P)를 지나 대향하는 방향의 피사체(A)를 촬영한 제1베이스영상(111a)을 획득하고, 제2카메라(112)는 대향하는 방향의 피사체(B)를 촬영한 제2베이스영상(112a)을 획득하며, 제3카메라(113)는 대향하는 방향의 피사체(C)를 촬영한 제3베이스영상(113a)을 획득하는 방식과 같이, 카메라부(110)에 포함된 각 카메라(111 내지 118)는 관람자 위치(P)를 중심으로 대향하는 방향의 피사체(A 내지 H)를 촬영한 베이스영상(111a 내지 118a)을 획득할 수 있다.Therefore, the first camera 111 acquires the first base image 111a, which has photographed the subject A in the direction opposite to the viewer position P, and the second camera 112 acquires the first base image 111a, The third camera 113 acquires the second base image 112a obtained by photographing the object B in the opposite direction and acquires the third base image 113a obtained by photographing the object C in the opposite direction, Each of the cameras 111 to 118 included in the unit 110 can acquire the base images 111a to 118a obtained by photographing the subjects A to H in the directions opposite to each other with the spectator position P as the center.

여기서, 도면에는 각 카메라(111 내지 118)가 촬영범위(S)의 외측에 배치된 것을 예시하였으나 이에 한정되지 않으며 촬영범위(S)의 내측 즉, 관람자 위치(P)와 촬영범위(S) 사이의 공간에 배치되어 관람자 위치(P)를 향해 영상을 촬영할 수도 있다. 또한 카메라부(110)가 8개의 카메라로 이루어지는 것을 예시하였으나 이에 국한되지 않으며 촬영공간의 크기나 피사체의 크기에 따라 배치되는 카메라의 수량이 정해질 수 있다.Although the cameras 111 to 118 are arranged outside the shooting range S, the present invention is not limited to this. The inside of the shooting range S, that is, between the viewers position P and the shooting range S So that the image can be taken toward the spectator position P. In addition, although the camera unit 110 includes eight cameras, the present invention is not limited thereto, and the number of cameras arranged according to the size of the photographing space and the size of the subject can be determined.

더불어 상기 카메라(111 내지 118)는 입체적인 느낌의 VR영상으로 가공할 수 있도록 고해상도의 성능이 구비되는 것이 바람직하며 필요에 따라 파노라마 카메라를 이용할 수도 있다.In addition, the cameras 111 to 118 preferably have a high-resolution performance so that they can be processed into stereoscopic VR images, and a panoramic camera may be used if necessary.

그리고, 상기 카메라부(110)에서 촬영된 베이스영상(111a 내지 118a)은 설치된 통신망을 통해 영상가공 장치부(120)로 전송되거나, USB 데이터저장매체 등의 인터페이스장치에 우선 영상이 저장된 후 상기 인터페이스장치를 영상가공 장치부(120)에 접속시켜 저장된 베이스영상(111a 내지 118a)이 입력되는 방식으로 영상가공 장치부(120)에 전달될 수 있다.The base images 111a to 118a photographed by the camera unit 110 are transmitted to the image processing apparatus unit 120 through the installed communication network or stored in advance in an interface device such as a USB data storage medium, The apparatus may be connected to the image processing apparatus unit 120 and transmitted to the image processing apparatus unit 120 in such a manner that the stored base images 111a to 118a are input.

또한, 카메라부(110)와 영상가공 장치부(120)가 상호 근접된 장소에 배치되는 경우 와이파이, 블루투스나 LAN 방식 등의 근거리 통신망을 통해 실시간으로 영상을 송수신하며, 원격지에 배치된 경우 WAN, 인터넷 방식 등의 장거리 통신망을 통해 영상을 송수신할 수 있다.When the camera unit 110 and the image processing apparatus unit 120 are disposed in close proximity to each other, they transmit and receive images in real time via a local area network such as Wi-Fi, Bluetooth, or LAN. It is possible to transmit and receive video through a long-distance communication network such as the Internet.

상기 영상가공 장치부(120)는 카메라부(110)에서 획득된 베이스영상을 VR영상(VI)으로 가공하는 장치로서, 각 카메라(111 내지 118)에서 획득된 베이스영상(111a 내지 118a)을 입력받으며, 도 5에 도시된 바와 같이 기저장된 각 카메라(111 내지 118)의 위치정보를 이용하여 상기 원주(R)를 따라 순서대로 배치된 각 카메라(111 내지 118)들의 베이스영상(111a 내지 118a)을 정렬하고 정렬된 각 베이스영상(111a 내지 118a)들을 순서대로 이어붙이는 스티칭(Stitching) 과정을 거쳐 360도 방향으로 연결된 VR영상(VI)을 생성한다.The image processing apparatus 120 processes the base image obtained by the camera unit 110 into a VR image VI and inputs the base images 111a to 118a acquired by the cameras 111 to 118 The base images 111a to 118a of the cameras 111 to 118 arranged in order along the circumference R using the position information of the cameras 111 to 118 previously stored as shown in FIG. And a VR image VI connected in a 360-degree direction is generated through a stitching process in which the aligned base images 111a to 118a are sequentially attached.

이를 위해, 도 6에 도시된 바와 같이 영상가공 장치부(120)는 각 카메라(111 내지 118)의 위치정보 및 입력된 각 베이스영상(111a 내지 118a)을 저장하는 데이터베이스(121)와, 카메라부(110) 또는 인터페이스 장치와 신호연결되어 카메라(111 내지 118)에서 촬영된 베이스영상(111a 내지 118a)을 입력받는 영상입력부(122)와, 입력된 각 베이스영상(111a 내지 118a)을 프로그래밍된 설정사항에 따라 정렬하는 영상정렬부(123) 및, 정렬된 각 베이스영상(111a 내지 118a)들을 순서대로 스티칭하여 VR영상(VI)을 생성하는 영상스티칭부(124)를 포함한다.6, the image processing apparatus 120 includes a database 121 for storing positional information of the cameras 111 to 118 and input base images 111a to 118a, An image input unit 122 for receiving base images 111a to 118a photographed by the cameras 111 to 118 in signal communication with the base apparatus 110 or the interface apparatus, And an image stitching unit 124 for stitching the aligned base images 111a to 118a in order to generate a VR image VI.

또한, 도 7을 참고하면 각 카메라(111 내지 118)가 촬영공간의 외곽측에 위치하기 때문에 각 카메라(111 내지 118)로부터 각각의 피사체(A 내지 H)까지 이격된 카메라기준 피사체거리(D1)와, 관람자 위치(P)로부터 각각의 피사체(A 내지 H)까지의 이격된 가상의 관람자기준 피사체거리(D2)에 차이가 발생할 수 밖에 없으며, 이에 따라 도 8의 (a)와 같이 각 베이스영상(111a 내지 118a)에 포함되는 피사체(A 내지 H)의 이미지가 작아져 관람자에게는 피사체(A 내지 H)가 실제보다 멀리 위치한 것으로 보일 수 있다.7, since each of the cameras 111 to 118 is located on the outer side of the photographing space, the camera reference object distance D1 spaced from each of the cameras 111 to 118 to the respective objects A to H, And the distance D2 from the spectator position P to the virtual object-based reference object distance D2 from the viewer A to the object A as shown in FIG. 8 (a) The images of the subjects A to H contained in the images 111a to 118a become smaller and the viewers A to H may appear to be farther away from the viewer.

이에 상기 영상가공 장치부(120)의 영상스티칭부(124)는 각 카메라(111 내지 118)로부터 각각의 피사체(A 내지 H)까지 이격된 카메라기준 피사체거리(D1)와, 관람자 위치(P)로부터 각각의 피사체(A 내지 H)까지의 이격된 가상의 관람자기준 피사체거리(D2)의 차이를 고려하여, 도 8의 (b)와 같이 에 도시된 바와 같이 관람자 위치(P)에서 피사체(A 내지 H)를 촬영했을 때의 피사체 크기를 기준으로 각 카메라(111 내지 118)에서 촬영된 베이스영상(111a 내지 118a)의 피사체 크기를 확대하여 상기 VR영상(VI)을 생성할 수 있다.The image stitching unit 124 of the image processing apparatus 120 divides the camera reference object distance D1 and the spectator position P from the cameras 111 to 118 to the respective subjects A to H, 8 (b), considering the difference of the distance D2 between the virtual object-sight reference object distance from the object A to the object A to the object A To H can be enlarged to generate the VR image VI based on the subject size at the time of shooting the base images 111a to 118a captured by the cameras 111 to 118. [

따라서, 촬영공간의 중앙에 카메라리그(10)를 배치하는 종래의 촬영기법을 이용하는 경우와 마찬가지로 관람자 위치(P)에서 영상을 촬영했을 때의 피사체 크기와 동일한 이미지효과를 제공할 수 있다.Accordingly, it is possible to provide the same image effect as the object size when the image is photographed at the spectator position P, as in the case of using the conventional photographing technique in which the camera rig 10 is disposed at the center of the photographing space.

또한, 상기 영상가공 장치부(120)는 도 3에 도시된 바와 같이 각 카메라(111 내지 118)에서 촬영된 베이스영상(111a 내지 118a)을 입력받아 취합관리하는 메인서버(130) 및, 상기 메인서버(130)에 접속하여 저장된 베이스영상(111a 내지 118a)을 수신하면서 VR영상으로 가공편집하는 관리단말(140)로 이루어질 수 있다. 여기서, 메인서버(130)는 촬영된 베이스영상(111a 내지 118a)을 입력받아 저장하는 기능만 수행하고 영상을 정렬하고 스티칭하여 VR영상(VI)을 생성하는 기능은 관리단말(140)에서 수행할 수 있으며, 상기 메인서버(130)에서 영상을 정렬 및 스티칭하여 VR영상(VI)을 생성하고 관리단말(140)이 이에 접속하여 생성된 VR영상(VI)을 입력받는 방식으로도 기능을 수행할 수 있다. 상기 관리단말(140)로는 일반 PC인 jt이 바람직하나 이외에 스마트폰, 테블릿, 노트북 등의 다양한 단말이 이용될 수 있다.3, the image processing apparatus 120 includes a main server 130 for receiving and collecting base images 111a to 118a photographed by the cameras 111 to 118, And a management terminal 140 connected to the server 130 for processing and editing the VR images while receiving the stored base images 111a to 118a. Here, the main server 130 performs a function of receiving and storing the photographed base images 111a to 118a, and the function of creating and VR images (VI) by aligning and stitching images is performed by the management terminal 140 The main server 130 may also arrange and stitch images to generate a VR image VI and a management terminal 140 to receive the generated VR image VI. . The management terminal 140 is preferably a general PC jt, but various terminals such as a smart phone, a tablet, and a notebook can be used.

한편, 본 발명의 바람직한 실시예에 따른 가상현실 영상컨텐츠 제공시스템을 이용하여 이종격투기에 대한 VR영상(VI)을 생성할 수도 있는데, 이를 위해 도 9에 도시된 바와 같이 카메라부(110)에 포함된 각 카메라(111 내지 118)는 이종격투기장의 둘레에 직립설치된 펜스(300)의 둘레를 따라 이격되게 설치될 수 있다.Meanwhile, a VR image (VI) for a mixed martial arts combat can be generated using the virtual reality image contents providing system according to the preferred embodiment of the present invention. For this purpose, as shown in FIG. 9, The cameras 111 to 118 may be installed along the circumference of the fence 300 standing upright around the different martial arts field.

여기서, 각 카메라(111 내지 118)는 펜스(300)의 내부에 매립되도록 설치되어 선수의 부상이나 카메라의 훼손을 방지하는 것이 바람직하며, 도면에는 카메라(111 내지 118)가 펜스300)의 횡바(310)에 설치된 것을 예시하였으나 이에 한정되지 않으며 직립배치되어 각 횡바(310)를 지지하는 지주(320)나 각 지주(320) 사이에 설치된 철망(330)에 설치될 수도 있다.It is preferable that each of the cameras 111 to 118 is installed to be embedded in the fence 300 to prevent injury of a bow or damage to the camera. The present invention is not limited thereto and may be installed in a strut 320 supporting the transverse bars 310 or a wire net 330 installed between the struts 320. [

또한, 상기 영상가공 장치부(120)는 정렬된 베이스영상(111a 내지 118a)을 스티칭하는 경우, 도 10에 도시된 바와 같이 각 베이스영상(117a 내지 118a)에서 중첩된 부분(점선표시 부분)이 겹쳐지도록 편집하여 하나의 영상처럼 일체화시킨다. In addition, when the aligned base images 111a to 118a are stitched, the image processing device unit 120 overlaps portions (dotted line display portions) in the base images 117a to 118a as shown in FIG. 10 Edit to overlap and integrate like a single image.

더불어, 각 베이스영상(117a 내지 118a)을 하나의 화면으로 투사할 때 각 베이스영상(117a 내지 118a)이 이중으로 중첩되는 영역에서 밝기가 증가하여 띠처럼 보여지는 현상이 발생할 수 있는데, 이를 위해 화면에서 중첩되는 부분의 밝기, 명암 및 감마값 등을 조절하는 엣지블렌딩을 통해 단일화된 와이드 화면의 영상으로 편집할 수 있다.In addition, when projecting each of the base images 117a to 118a onto one screen, a phenomenon may occur in which the brightness increases in a region in which the base images 117a to 118a are doubly superimposed to appear as a band. To this end, Edge blending that adjusts the brightness, contrast, and gamma value of the superimposed portions in a single wide-screen image.

그리고, 각 카메라(111 내지 118)가 촬영공간의 외곽위치에 배치되어 공간 중심을 향해 영상을 촬영하기 때문에 객체가 공간 중심에 배치되는 경우 각 베이스영상(111a 내지 118a)마다 피사체가 촬영될 수 있다. 이 경우 각 베이스영상(111a 내지 118a)에서 움직인는 객체와 배경을 분할시켜 객체만을 추출시키고, 각 뷰당 추출된 객체들의 크기를 서로 동일한 크기로 설정한 후 추출된 객체들의 3D 정보를 추출하여 3D 객체를 생성하고 이를 VR영상(VI)에 적용할 수 있다.Since each of the cameras 111 to 118 is disposed at a position outside the photographing space and photographs an image toward the center of the space, when the object is disposed at the center of the space, the subject can be photographed for each of the base images 111a to 118a . In this case, only the object is extracted by dividing the moving object and the background in each of the base images 111a to 118a, and the sizes of the extracted objects per view are set to be equal to each other. Then, 3D information of the extracted objects is extracted, And apply it to the VR image (VI).

다음으로는 상술한 가상현실 영상컨텐츠 제공시스템을 이용한 가상현실 영상컨텐츠 제공방법을 설명하기로 한다.Next, a method of providing virtual reality image contents using the virtual reality image content providing system will be described.

도 11에 도시된 바와 같이 본 발명의 바람직한 실시예에 따른 가상현실 영상컨텐츠 제공방법은 카메라정보 저장 단계(S210), 베이스영상 획득 단계(S220), 베이스영상 정렬 단계(S230), VR영상 생성 단계(S240) 및 영상 출력 단계(S260)를 포함한다.As shown in FIG. 11, a method of providing virtual reality image contents according to a preferred embodiment of the present invention includes storing camera information S210, acquiring a base image S220, aligning a base image S230, (S240) and a video output step (S260).

먼저, 상기 카메라정보 저장 단계(S210)에서는 가상의 관람자 위치(P)를 중심으로 하는 일정반경의 원주(R)를 따라 이격배치되는 복수의 카메라(111 내지 118)들의 위치정보를 저장한다. 저장된 위치정보는 촬영된 각 베이스영상(111a 내지 118a)을 스티칭하는 순서를 정하기 위한 기초데이터로 이용된다.First, in the camera information storage step S210, position information of a plurality of cameras 111 to 118 spaced apart along a circumference R having a predetermined radius around a virtual viewer position P is stored. The stored location information is used as basic data for determining the order of stitching the photographed base images 111a to 118a.

상기 베이스영상 획득 단계(S220)에서는 각 카메라(111 내지 118)들이 상기 관람자 위치(P) 방향으로 영상을 촬영하면서 관람자 위치(P)를 사이에 두고 배치된 위치와 대향하는 방향의 베이스영상(111a 내지 118a)을 획득한다.In the base image acquiring step S220, each of the cameras 111 to 118 picks up an image in the viewer's position P and displays a base image 111a in a direction opposite to a position disposed between the spectators position P, To 118a.

상기 베이스영상 정렬 단계(S230)에서는 각 카메라(111 내지 118)에서 획득된 베이스영상(111a 내지 118a)과 기저장된 각 카메라(111 내지 118)의 위치정보를 이용하여 상기 원주(R)를 따라 순서대로 배치된 각 카메라(111 내지 118)들의 베이스영상(111a 내지 118a)을 정렬한다.In the base image alignment step S230, the base images 111a to 118a obtained by the cameras 111 to 118 and the position information of the cameras 111 to 118, respectively, And aligns the base images 111a to 118a of the respective cameras 111 to 118 arranged as shown in FIG.

상기 VR영상 생성 단계(S240)에서는 정렬된 각 베이스영상(111a 내지 118a)들을 순서대로 스티칭하여 360도 방향으로 연결된 VR영상(VI)을 생성한다. 여기서, 각 베이스영상(111a 내지 118a)의 스티칭 순서가 제1카메라(111)에서 촬영된 제1베이스영상(111a)부터 시작하여 제8카메라(1118)에서 촬영된 제8베이스영상(118a)으로 설정된 경우, 영상가공 장치부(120)는 각 카메라(111 내지 118)의 위치정보로 촬영된 각 베이스영상(111a 내지 118a)들의 순서를 정하여 제1베이스영상(111a)부터 제8베이스영상(118a)순으로 정렬하며 정렬된 순서대로 전후에 배치된 베이스영상(111a 내지 118a)들을 스티칭하여 하나의 VR영상(VI)을 생성한다.In the VR image generation step S240, the aligned base images 111a to 118a are sequentially stitched to generate a VR image VI connected in a 360-degree direction. Here, the stitching order of each of the base images 111a to 118a is changed from the first base image 111a captured by the first camera 111 to the eighth base image 118a captured by the eighth camera 1118 The image processing apparatus 120 determines the order of the base images 111a to 118a photographed with the position information of the cameras 111 to 118 and outputs the first base image 111a to the eighth base image 118a ), And stitches the base images 111a to 118a arranged before and after in the sorted order to generate one VR image (VI).

또한, 상기 VR영상 생성 단계(S240)에서는 각 카메라(111 내지 118)로부터 각각의 피사체(A 내지 H)까지 이격된 카메라기준 피사체거리(D1)와, 관람자 위치(P)로부터 각각의 피사체(A 내지 H)까지의 이격된 가상의 관람자기준 피사체거리(D2)의 차이를 고려하여, 관람자 위치(P)에서 피사체(A 내지 H)를 촬영했을 때의 피사체 크기를 기준으로 각 카메라(111 내지 118)에서 촬영된 베이스영상(111a 내지 118a)의 피사체 크기를 확대하여 상기 VR영상(VI)을 생성함으로써, 관람자 위치(P)에서 영상을 촬영했을 때의 피사체 크기와 동일한 이미지효과를 제공할 수 있다.In the VR image generation step S240, the camera reference object distance D1 spaced from each of the cameras 111 to 118 to the respective objects A to H and the distance from the viewer position P to each of the objects A H) based on the subject size when the subject (A to H) is photographed at the spectator position P, taking into account the difference of the virtual virtual viewer distance D2 from the cameras 111 to 118 The VR image VI can be generated by enlarging the subject size of the base images 111a to 118a photographed at the viewer position P to provide the same image effect as the subject size when the image is photographed at the viewer position P .

더불어, 상기 VR영상 생성 단계(S240) 이후에는 생성된 VR영상(VI)을 관리단말(140)로 출력하여 관리자가 생성된 VR영상(VI)을 열람하거나 관람자가 착용한 VR영상 출력수단(HMD 또는 카드보드)이나 데이터저장매체로 출력하는 영상 출력 단계(S260)를 통해 관람자가 생성된 VR영상(VI)을 열람할 수 있도록 한다.In addition, after the VR image generation step S240, the generated VR image VI is output to the management terminal 140 to read the VR image VI generated by the administrator or the VR image output means (HMD) Or a card board) or a data storage medium (step S260), so that the viewer can view the generated VR image VI.

더불어, 본 발명의 바람직한 실시예에 따른 가상현실 영상컨텐츠 제공방법은 상기 영상가공 장치부(120)를 통해 관람자의 시선방향이나 이동거리 등의 관람위치에 대한 정보를 입력받아 설정하는 관람자정보 설정 단계(S250)를 더 포함할 수 있으며, 영상 출력 단계(S260)에서는 생성된 VR영상(VI)에서 관람자정보와 매칭되는 영상부분을 독출하여 VR영상 출력수단으로 함으로써 관람자 위치변경에 따른 입체적인 VR영상(VI)을 제공할 수 있다.In addition, a method for providing virtual reality image contents according to a preferred embodiment of the present invention includes a spectator information setting step of inputting and setting information on a viewing position, such as a viewing direction and a moving distance of the spectator through the image processing device 120 (S250). In the video output step (S260), an image portion matched with the spectator information is read out from the generated VR image (VI) to generate a three-dimensional VR image VI) < / RTI >

상술한 바와 같은 본 발명의 바람직한 실시예에 따른 가상현실 영상컨텐츠 제공시스템 및 가상현실 영상컨텐츠 제공방법을 통해, 피사체를 촬영하는 카메라(111 내지 118)가 중앙이 아닌 외곽 위치에 배치되어 피사체의 동선이 자유로우며 피사체가 카메라(111 내지 118)에 근접하지 않아 화면의 왜곡이나 굴절이 발생하는 것을 미연에 차단할 수 있다.In the virtual reality image contents providing system and the virtual reality image contents providing method according to the preferred embodiment of the present invention as described above, the cameras 111 to 118 for photographing the object are arranged at the outer positions instead of the center, And the subject is not close to the cameras 111 to 118, so that distortion or refraction of the screen can be prevented from occurring in advance.

이상에서 설명한 본 발명은 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니고, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러가지 치환, 변형 및 변경이 가능함은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명백할 것이다.It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the inventions. It will be clear to those who have knowledge.

100...카메라부 111~118...카메라
120...영상가공 장치부 121...데이터베이스
122...영상입력부 123...영상정렬부
124...영상스티칭부 125...관람자정보 설정부
126...영상출력부
S210...카메라정보 저장 단계 S220...베이스영상 획득 단계
S230...베이스영상 정렬 단계 S240...VR영상 생성 단계
S250...관람자정보 설정 단계 S260...영상 출력 단계
100 ... camera unit 111 ~ 118 ... camera
120 ... image processing device unit 121 ... database
122 ... image input unit 123 ... image sorting unit
124 ... image stitching unit 125 ... spectator information setting unit
126 ... video output unit
S210 ... Camera information storage step S220 ... Base image acquisition step
S230 ... Base image alignment step S240 ... VR image generation step
S250 ... spectator information setting step S260 ... video output step

Claims (3)

가상의 관람자 위치(P)를 중심으로 하는 일정반경의 원주(R)를 따라 이격배치되고 상기 관람자 위치(P) 방향으로 영상을 촬영하면서 관람자 위치(P)를 사이에 두고 배치된 위치와 대향하는 방향의 베이스영상(111a 내지 118a)을 획득하는 복수의 카메라(111 내지 118)로 이루어진 카메라부(110); 및
각 카메라(111 내지 118)에서 획득된 베이스영상(111a 내지 118a)을 수신하며, 기저장된 각 카메라(111 내지 118)의 위치정보를 이용하여 상기 원주(R)를 따라 순서대로 배치된 각 카메라(111 내지 118)들의 베이스영상(111a 내지 118a)을 정렬하고 정렬된 각 베이스영상(111a 내지 118a)들을 순서대로 스티칭(Stitching)하여 360도 방향으로 연결된 VR영상(VI)을 생성하는 영상가공 장치부(120);를 포함하는 가상현실 영상컨텐츠 제공시스템.
(P), which are spaced apart along a circumference (R) of a predetermined radius centering on a virtual viewer's position (P) A camera unit 110 comprising a plurality of cameras 111 to 118 for acquiring base images 111a to 118a in the direction of the camera 110; And
The base cameras 111 to 118 receive the base images 111a to 118a acquired by the cameras 111 to 118 and use the position information of the cameras 111 to 118 to store the base images 111a to 118a, 111 to 118) of the base images 111a to 118a and generating a VR image VI connected in 360 degrees by stitching the aligned base images 111a to 118a in order, (120). ≪ / RTI >
청구항 1에 있어서,
상기 영상가공 장치부(120)는,
각 카메라(111 내지 118)로부터 각각의 피사체(A 내지 H)까지 이격된 카메라기준 피사체거리(D1)와, 상기 관람자 위치(P)로부터 각각의 피사체(A 내지 H)까지 이격된 관람자기준 피사체거리(D2)의 차이를 고려하여,
상기 관람자 위치(P)에서 피사체(A 내지 H)를 촬영했을 때의 피사체 크기를 기준으로 각 카메라(111 내지 118)에서 촬영된 베이스영상(111a 내지 118a)의 피사체 크기를 확대하여 상기 VR영상(VI)을 생성하는 것을 특징으로 하는 가상현실 영상컨텐츠 제공시스템.
The method according to claim 1,
The video image processing apparatus (120)
A camera reference object distance D1 spaced from each of the cameras 111 to 118 to each of the subjects A to H and a distance from the viewer position P to each of the objects A to H, (D2).
The subject sizes of the base images 111a to 118a photographed by the cameras 111 to 118 are enlarged based on the subject size when the subjects A to H are photographed at the spectator position P, VI) of the virtual reality image.
가상의 관람자 위치(P)를 중심으로 하는 일정반경의 원주(R)를 따라 이격배치되는 복수의 카메라(111 내지 118)들의 위치정보를 저장하는 카메라정보 저장 단계(S210);
각 카메라(111 내지 118)들이 상기 관람자 위치(P) 방향으로 영상을 촬영하면서 관람자 위치(P)를 사이에 두고 배치된 위치와 대향하는 방향의 베이스영상(111a 내지 118a)을 획득하는 베이스영상 획득 단계(S220);
각 카메라(111 내지 118)에서 획득된 베이스영상(111a 내지 118a)과 기저장된 각 카메라(111 내지 118)의 위치정보를 이용하여 상기 원주(R)를 따라 순서대로 배치된 각 카메라(111 내지 118)들의 베이스영상(111a 내지 118a)을 정렬하는 베이스영상 정렬 단계(S230); 및
정렬된 각 베이스영상(111a 내지 118a)들을 순서대로 스티칭(Stitching)하여 360도 방향으로 연결된 VR영상(VI)을 생성하는 VR영상 생성 단계(S240);를 포함하는 가상현실 영상컨텐츠 제공방법.
A camera information storage step (S210) for storing position information of a plurality of cameras (111 to 118) spaced apart along a circumference (R) of a predetermined radius centering on a virtual viewer position (P);
The base images 111a to 118a in the direction opposite to the positions arranged with the spectator position P interposed therebetween while the cameras 111 to 118 shoot images in the viewer position P direction Step S220;
The cameras 111 to 118 arranged in order along the circumference R using the base images 111a to 118a obtained by the cameras 111 to 118 and the position information of the cameras 111 to 118 A base image aligning step S230 of aligning the base images 111a to 118a of the base images 111a to 118a; And
And a VR image generation step S240 of generating a VR image VI connected in a 360-degree direction by stitching the aligned base images 111a to 118a in order.
KR1020170077825A 2017-06-20 2017-06-20 Virtual reality image contents providing system and thereof providing method KR20180137916A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170077825A KR20180137916A (en) 2017-06-20 2017-06-20 Virtual reality image contents providing system and thereof providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170077825A KR20180137916A (en) 2017-06-20 2017-06-20 Virtual reality image contents providing system and thereof providing method

Publications (1)

Publication Number Publication Date
KR20180137916A true KR20180137916A (en) 2018-12-28

Family

ID=65008402

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170077825A KR20180137916A (en) 2017-06-20 2017-06-20 Virtual reality image contents providing system and thereof providing method

Country Status (1)

Country Link
KR (1) KR20180137916A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210067155A (en) * 2019-11-29 2021-06-08 주식회사 알파서클 Apparaturs and method for real-time broardcasting of vr video filmed by several camera
KR20230000568A (en) 2021-06-25 2023-01-03 동명대학교산학협력단 Underwater living thing monitoring device and method using Virtual Reality
KR102529170B1 (en) * 2022-10-31 2023-05-03 주식회사 아이비주얼컴퍼니 Art wall system
KR20230166615A (en) 2022-05-31 2023-12-07 동명대학교산학협력단 Virtual Reality image and contents providing method for underwater monitoring

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210067155A (en) * 2019-11-29 2021-06-08 주식회사 알파서클 Apparaturs and method for real-time broardcasting of vr video filmed by several camera
KR20230000568A (en) 2021-06-25 2023-01-03 동명대학교산학협력단 Underwater living thing monitoring device and method using Virtual Reality
KR20230166615A (en) 2022-05-31 2023-12-07 동명대학교산학협력단 Virtual Reality image and contents providing method for underwater monitoring
KR102529170B1 (en) * 2022-10-31 2023-05-03 주식회사 아이비주얼컴퍼니 Art wall system

Similar Documents

Publication Publication Date Title
CN106797460B (en) The reconstruction of 3 D video
CN109064545B (en) Method and device for data acquisition and model generation of house
EP3163535B1 (en) Wide-area image acquisition method and device
CN101689292B (en) Banana codec
US9544498B2 (en) Method for forming images
CN207369210U (en) Multilayer camera apparatus for 3 D visual image capture
EP2328125A1 (en) Image splicing method and device
KR20180111798A (en) Adaptive stitching of frames in the panorama frame creation process
KR20180137916A (en) Virtual reality image contents providing system and thereof providing method
CN106296589B (en) Panoramic image processing method and device
CN107358577B (en) Rapid splicing method of cubic panoramic image
KR20120012201A (en) Method for photographing panorama picture
CN105469387B (en) A kind of quantization method and quantization device of joining quality
CN106572313B (en) Video capture box and video capture method and apparatus
CN111866523B (en) Panoramic video synthesis method and device, electronic equipment and computer storage medium
US10482571B2 (en) Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium
CN108391116B (en) Whole body scanning device and method based on 3D imaging technology
CN106023073A (en) Image splicing system
CN107430498A (en) Extend the visual field of photo
CN109785390A (en) A kind of method and apparatus for image flame detection
KR20150091064A (en) Method and system for capturing a 3d image using single camera
CN113099248A (en) Panoramic video filling method, device, equipment and storage medium
CN109600556B (en) High-quality precise panoramic imaging system and method based on single lens reflex
US11019323B2 (en) Apparatus and method for 3D like camera system in a handheld mobile wireless device
CN104243821A (en) Obtaining method and device of large-view-angle photo

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application