KR101791917B1 - Method for automatically converting normal video to virtual reality video and device using the same - Google Patents

Method for automatically converting normal video to virtual reality video and device using the same Download PDF

Info

Publication number
KR101791917B1
KR101791917B1 KR1020170046076A KR20170046076A KR101791917B1 KR 101791917 B1 KR101791917 B1 KR 101791917B1 KR 1020170046076 A KR1020170046076 A KR 1020170046076A KR 20170046076 A KR20170046076 A KR 20170046076A KR 101791917 B1 KR101791917 B1 KR 101791917B1
Authority
KR
South Korea
Prior art keywords
image
unit
received general
general image
background
Prior art date
Application number
KR1020170046076A
Other languages
Korean (ko)
Inventor
소병택
정승호
Original Assignee
주식회사 오렌지베리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 오렌지베리 filed Critical 주식회사 오렌지베리
Priority to KR1020170046076A priority Critical patent/KR101791917B1/en
Application granted granted Critical
Publication of KR101791917B1 publication Critical patent/KR101791917B1/en

Links

Images

Classifications

    • H04N13/0454
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/356Image reproducers having separate monoscopic and stereoscopic modes
    • H04N13/359Switching between monoscopic and stereoscopic modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring

Abstract

Provided is an apparatus for automatically converting a general image into a virtual reality image. The apparatus comprises: an image source receiving part for receiving a general image other than a virtual reality (VR) image; an image source analysis part for analyzing the received general image; and a VR conversion part for converting the received general image into a VR image based on the analysis result of the image source analysis part. Therefore, simple and natural VR image is generated.

Description

일반 영상을 가상 현실 영상으로 자동 변환하는 방법 및 이를 이용한 장치 {METHOD FOR AUTOMATICALLY CONVERTING NORMAL VIDEO TO VIRTUAL REALITY VIDEO AND DEVICE USING THE SAME}TECHNICAL FIELD [0001] The present invention relates to a method of automatically converting a general image into a virtual reality image, and a device using the same. [0002]

본 발명은 가상 현실(VR, Virtual Reality) 영상이 아닌 일반 영상을 VR 영상으로 자동 변환하는 방법 및 이를 이용한 장치에 관한 것이다. 보다 구체적으로, 일반 영상이나 이미지를 포함하는 콘텐츠를 분석하여 자연스러운 VR 영상으로 자동 변환시키기 위한 방법 및 이를 이용한 장치에 관한 것이다.The present invention relates to a method for automatically converting a general image into a VR image instead of a virtual reality (VR) image, and an apparatus using the same. More particularly, the present invention relates to a method for automatically converting a content including a general image or an image into a natural VR image and a device using the same.

현재 가상 현실(VR) 산업은 높은 VR 콘텐츠 제작 원가로 인하여 양질의 콘텐츠의 양이 부족하여 VR 산업의 대중화가 이루어지지 않고 있다. 현재 대다수를 차지하고 있는 일반 2차원(2D) 영상을 VR 헤드셋 등 가상 현실 디스플레이 장치에서 보여주기 위해 2D 화면을 자연스러운 VR 화면으로 확장하는 기술이 요구되고 있다. Currently, the VR industry is not popularized because of the lack of high quality content due to high VR content production cost. There is a demand for a technique of expanding a 2D image to a natural VR image in order to show a general two-dimensional (2D) image occupying the majority in a virtual reality display device such as a VR headset.

현재 2D 화면을 360도 화면으로 확장하여 변환하는 방법이 존재하나 영상의 위나 아래 부분의 영상은 축소되고, 가운데 확대된 부분은 부자연스럽게 늘어나 보임으로써 화면의 왜곡이 발생하는 문제를 가지고 있다. 또한, 현재의 변환 방법은 클로즈업된 영상을 확대할 경우, 화질 저하와 피사체의 모형의 왜곡이 발생하여 이용자가 시청하기에 적절치 않으며, 또한 저화질 영상의 경우 화질 상태를 고려하지 않아 화면 확대시 화질 저하가 발생하여 사용자 경험의 최적화가 필요한 상황이다. 또한, 현재 제공되는 방법들은 실사 촬영된 2D 영상 이외에 애니메이션, 웹툰 등의 영상이나 사진 등의 이미지를 VR 영상으로 융합하여 변환하는 기능을 제공하고 있지 않다.Currently, there is a method of extending a 2D screen to a 360-degree screen, but there is a problem that the image at the upper or lower part of the image is reduced, and the enlarged part at the center is unnaturally enlarged. Further, in the current conversion method, when the close-up image is enlarged, the image quality deteriorates and the model of the object is distorted, which is not suitable for the user to view. In addition, And it is necessary to optimize the user experience. In addition, currently available methods do not provide a function of converting images such as animations, webtoons, and the like into fused VR images in addition to the 2D images actually shot.

대한민국 등록특허공보 제10-1648673호Korean Registered Patent No. 10-1648673

본 발명은 종래의 일반 영상들을 VR 영상으로 자동 변환함으로써 간편하고 자연스러운 VR 영상을 생성가능한 방법 및 장치를 제공하는 것을 목적으로 한다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a method and apparatus capable of generating a simple and natural VR image by automatically converting conventional conventional images into VR images.

또한, 본 발명은 종래의 2D 영상을 VR 영상으로 변환함에 있어서 제공된 영상 소스의 상태를 분석한 결과에 기초하여 현재 영상 소스의 상태에 적합한 VR 변환 방법을 적응적으로 제공함으로써, 사용자 몰입감이 높은 VR 영상을 제공하는 것을 목적으로 한다.In addition, the present invention adaptively provides a VR conversion method suitable for a state of a current image source based on a result of analyzing a state of a video source provided in converting a conventional 2D image into a VR image, And to provide images.

또한, 본 발명은 2D 동영상뿐만 아니라 정지 화면(still picture)이나 이미지를 함께 융합하여 멀티 앵글 기반의 VR 영상 디스플레이를 제공하는 방법 및 장치를 제공하는 것을 목적으로 한다.It is another object of the present invention to provide a method and apparatus for providing a multi-angle based VR image display by fusing not only a 2D video but also a still picture or an image.

본 발명의 해결 과제들은 이상에서 언급한 내용들로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The present invention has been made in view of the above problems,

본 발명의 일 실시예에서, 일반 영상을 가상 현실(VR) 영상으로 자동 변환하는 장치에 있어서, 가상 현실 영상이 아닌 일반 영상을 수신하기 위한 영상 소스 수신부; 상기 수신된 일반 영상을 분석하기 위한 영상 소스 분석부; 및 상기 영상 소스 분석부의 분석 결과에 기초하여 상기 수신된 일반 영상을 VR 영상으로 변환하기 위한 VR 변환부를 포함하는 영상 자동 변환 장치를 제공할 수 있다.According to an embodiment of the present invention, there is provided an apparatus for automatically converting a general image into a virtual reality (VR) image, the apparatus comprising: an image source receiver for receiving a general image, not a virtual reality image; An image source analyzer for analyzing the received general image; And a VR converting unit for converting the received general image into a VR image based on an analysis result of the image source analyzing unit.

여기서, 상기 영상 소스 분석부는 상기 수신된 일반 영상의 배경 영역을 식별하기 위한 배경 영역 식별부를 포함할 수 있다. 또한, 상기 VR 변환부는 배경 화면을 생성하기 위한 배경 화면 생성부를 포함하고, 상기 배경 화면 생성부는 상기 배경 영역 식별부의 배경 영역의 식별 결과에 기초하여, 상기 배경 영역을 360도로 영상을 확대할 수 있다. 또한, 상기 VR 변환부는 상기 수신된 일반 영상이 확대될 화각을 결정하는 화각 결정부를 포함하고, 상기 화각 결정부는 상기 수신된 일반 영상의 객체 영역이 확대될 화각을 결정할 수 있다.Here, the image source analyzing unit may include a background region identifying unit for identifying a background region of the received general image. In addition, the VR converter may include a background image generator for generating a background image, and the background image generator may enlarge the image of the background area by 360 degrees based on the identification result of the background area of the background area identification part . Also, the VR converter may include an angle-of-view determining unit that determines an angle of view of the received general image, and the angle-of-view determining unit may determine an angle of view of the object image of the received general image.

또한, 상기 영상 소스 분석부는 상기 수신된 일반 영상의 화질 상태, 입체 상태 및 인물 클로즈업(close-up) 상태 중 적어도 하나를 분석할 수 있다. 또한, 상기 VR 변환부는 상기 수신된 일반 영상과 관련된 보조 영상이 상기 수신된 일반 영상의 배경 영역 상에 오버레이되어 디스플레이될 수 있도록 VR 영상을 생성할 수 있다.In addition, the image source analyzing unit may analyze at least one of an image quality state, a stereoscopic state, and a portrait close-up state of the received general image. In addition, the VR converter may generate a VR image so that the auxiliary image associated with the received general image may be overlaid on the background area of the received general image.

본 발명의 다른 실시예에서, 일반 영상을 가상 현실(VR) 영상으로 자동 변환하는 방법에 있어서, 가상 현실 영상이 아닌 일반 영상을 수신하는 영상 소스 수신 단계; 상기 수신된 일반 영상을 분석하는 영상 소스 분석 단계; 및 상기 영상 소스의 분석 결과에 기초하여 상기 수신된 일반 영상을 VR 영상으로 변환하는 VR 변환 단계를 포함하는 영상 자동 변환 방법을 제공할 수 있다.In another embodiment of the present invention, there is provided a method of automatically converting a general image into a virtual reality (VR) image, comprising: receiving an image, not a virtual reality image, Analyzing the received general image; And a VR converting step of converting the received general image into a VR image based on an analysis result of the image source.

여기서, 상기 영상 소스 분석 단계는 상기 수신된 일반 영상의 배경 영역 식별을 수행할 수 있다. 또한, 상기 VR 변환 단계는 배경 화면을 생성하기 위한 배경 화면을 생성하는 단계를 포함하고, 상기 배경 화면의 생성 단계는 상기 배경 영역 식별의 결과에 기초하여, 상기 배경 영역을 360도로 영상을 확대할 수 있다. 또한, 상기 VR 변환 단계는 상기 수신된 일반 영상이 확대될 화각을 결정하는 화각 결정 단계를 포함하고, 상기 화각 결정 단계는 상기 수신된 일반 영상의 객체 영역이 확대될 화각을 결정할 수 있다.Here, the image source analyzing step may perform background region identification of the received general image. In addition, the VR conversion step may include generating a background image for generating a background image, and the generating of the background image may include enlarging the image of the background area by 360 degrees based on the result of the background area identification . In addition, the VR conversion step may include an angle-of-view determination step of determining the angle of view of the received general image, and the angle of view determination step may determine an angle of view of the object image of the received general image.

또한, 상기 영상 소스 단계는 상기 수신된 일반 영상의 화질 상태, 입체 상태 및 인물 클로즈업(close-up) 상태 중 적어도 하나의 분석을 수행할 수 있다. 또한, 상기 VR 변환 단계는 상기 수신된 일반 영상과 관련된 보조 영상이 상기 수신된 일반 영상의 배경 영역 상에 오버레이되어 디스플레이될 수 있도록 VR 영상을 생성할 수 있다.In addition, the image source step may perform analysis of at least one of an image quality state, a stereoscopic state, and a portrait close-up state of the received general image. The VR conversion step may generate the VR image so that the auxiliary image related to the received general image may be overlaid on the background area of the received general image.

또한, 본 발명의 일 실시예에 따르면 전술한 VR 영상으로의 변환 방법에 따른 각 단계별 구성을 수행하는 컴퓨터 프로그램을 기록한 기록매체가 제공될 수 있다.According to an embodiment of the present invention, there is provided a recording medium on which a computer program for performing each step configuration according to the above-described VR image conversion method is recorded.

본 발명에 의하면, 종래의 일반 영상들을 VR 영상으로 자동 변환함으로써 간편하고 자연스러운 VR 영상을 생성가능한 방법 및 장치를 제공할 수 있다.According to the present invention, it is possible to provide a method and apparatus capable of generating a simple and natural VR image by automatically converting conventional general images into VR images.

또한, 본 발명에 의하면, 종래의 2D 영상을 VR 영상으로 변환함에 있어서 제공된 영상 소스의 상태를 분석한 결과에 기초하여 현재 영상 소스의 상태에 적합한 VR 변환 방법을 적응적으로 제공함으로써, 사용자 몰입감이 높은 VR 영상을 제공할 수 있다.According to the present invention, a VR conversion method suitable for a current image source state is adaptively provided based on a result of analyzing a state of a provided image source in converting a conventional 2D image into a VR image, It is possible to provide a high VR image.

또한, 본 발명에 의하면, 2D 동영상뿐만 아니라 정지 화면(still picture)이나 이미지를 함께 융합하여 멀티 앵글 기반의 VR 영상 디스플레이를 제공하는 방법 및 장치를 제공하는 것을 목적으로 한다.It is another object of the present invention to provide a method and apparatus for providing a multi-angle based VR image display by fusing not only a 2D video but also a still picture or an image.

본 발명의 효과들은 이상에서 언급한 내용들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 일 실시예에 따른 일반 영상을 가상 현실(VR) 영상으로 자동 변환하는 장치의 구성을 설명하기 위한 개념도이다.
도 2는 본 발명의 일 실시예에 따른 일반 영상을 가상 현실 영상으로 자동 변환하는 방법을 설명하기 위한 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 영상 소스 분석 단계에서 수행되는 방법을 설명하기 위한 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 VR 영상 변환 단계에서 수행되는 방법을 설명하기 위한 흐름도이다.
도 5는 본 발명의 일 실시예에 따른 멀티 앵글 기반의 VR 디스플레이 화면을 나타낸다.
1 is a conceptual diagram for explaining a configuration of an apparatus for automatically converting a general image into a virtual reality (VR) image according to an embodiment of the present invention.
2 is a flowchart illustrating a method for automatically converting a general image into a virtual reality image according to an exemplary embodiment of the present invention.
3 is a flowchart illustrating a method performed in an image source analyzing step according to an exemplary embodiment of the present invention.
4 is a flowchart illustrating a method performed in the VR image conversion step according to an embodiment of the present invention.
5 illustrates a multi-angle based VR display screen according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Reference will now be made in detail to embodiments of the present invention, examples of which are illustrated in the accompanying drawings, wherein like reference numerals refer to the like elements throughout. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다.The terminology used herein is for the purpose of illustrating embodiments and is not intended to be limiting of the present invention. In the present specification, the singular form includes plural forms unless otherwise specified in the specification.

본 명세서에서 사용되는 "포함한다(comprises)", "포함하는(comprising)"은 언급된 구성 요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성 요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다. The terms " comprises, "" comprising, " " comprising, " or " comprising ", when used in this application, specify the presence or absence of one or more other components, steps, operations and / Do not exclude the addition.

또한, 본 발명에서 사용되는 제1, 제2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 이와 같은 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.Furthermore, terms including ordinals such as first, second, etc. used in the present invention can be used to describe elements, but the elements should not be limited by terms. These terms are used only for the purpose of distinguishing one component from another. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail.

또한, 본 발명의 실시예에 나타나는 구성부들은 서로 다른 특징적인 기능들을 나타내기 위해 독립적으로 도시되는 것으로, 각 구성부들이 분리된 하드웨어나 하나의 소프트웨어 구성단위로 이루어짐을 의미하지 않는다. 즉, 각 구성부는 설명의 편의상 각각의 구성부로 나열하여 기술되고, 각 구성부 중 적어도 두 개의 구성부가 합쳐져 하나의 구성부로 이루어지거나, 하나의 구성부가 복수 개의 구성부로 나뉘어져 기능을 수행할 수 있다. 이러한 각 구성부의 통합된 실시예 및 분리된 실시예도 본 발명의 본질에서 벗어나지 않는 한 본 발명의 권리 범위에 포함된다.In addition, the components shown in the embodiments of the present invention are shown independently to represent different characteristic functions, and do not mean that the components are composed of separate hardware or software constituent units. That is, each constituent unit is described by arranging each constituent unit for convenience of explanation, and at least two constituent units of each constituent unit may be combined to form one constituent unit or one constituent unit may be divided into a plurality of constituent units to perform a function. The integrated embodiments and the separate embodiments of each of these components are also included in the scope of the present invention without departing from the essence of the present invention.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The configuration of the present invention and the operation and effect thereof will be clearly understood through the following detailed description.

도 1은 본 발명의 일 실시예에 따른 일반 영상을 가상 현실(VR) 영상으로 자동 변환하는 장치의 구성을 설명하기 위한 개념도이다. 도 1을 참조하면, 제안되는 장치는 크게 영상 소스 수신부(100), 영상 소스 분석부(200) 및 VR 변환부(300)를 포함한다.1 is a conceptual diagram for explaining a configuration of an apparatus for automatically converting a general image into a virtual reality (VR) image according to an embodiment of the present invention. Referring to FIG. 1, the proposed apparatus includes an image source receiving unit 100, an image source analyzing unit 200, and a VR converting unit 300.

영상 소스 수신부(100)는 VR 영상이 아닌 일반 영상의 형태를 갖는 영상 소스를 수신하며, 영상 소스는 VR 영상으로 변환하기 위한 동영상, 이미지, 관련 데이터 정보 등 다양한 형태의 콘텐츠 소스로 구성될 수 있다. 영상 소스 수신부(100)는 유선 통신이나 무선 통신 중 적어도 하나를 통한 데이터 송수신을 수행 가능하며, 근거리 통신망(LAN; Local Area Network), 도시권 통신망(MAN, Metropolitan Area Network), 광역 통신망(WAN: Wide Area Network)등 다양한 통신망을 지원하도록 구성될 수 있으며, 예컨대 무선 통신 방식의 경우 LTE(long term evolution), LTE-A(LTE-Advanced), WCDMA(wideband code division multiple access), WiFi(wireless fidelity), 블루투스(bluetooth) 및 NFC(near field communications) 중 적어도 하나를 지원하도록 구성될 수 있으며, 이들에 제한되지 않는다.The image source receiving unit 100 may receive an image source having a general image format instead of a VR image, and the image source may be composed of various types of content sources such as a moving image, an image, and related data information for converting the image source into a VR image . The image source receiving unit 100 is capable of transmitting and receiving data through at least one of a wired communication and a wireless communication and is connected to a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN) (LTE-Advanced), wideband code division multiple access (WCDMA), wireless fidelity (WiFi), and the like. , Bluetooth, and near field communications (NFC).

영상 소스 수신부(100)는 영상 소스를 저장하기 위한 영상 소스 저장부(110)를 포함할 수 있으며, 영상 소스 저장부(110)는 수신된 복수의 콘텐츠 및 콘텐츠와 관련된 정보를 저장하는 메모리로 구성될 수 있다. 또한, 영상 소스 저장부(110)는 영상 소스의 VR 영상 변환 처리를 위해 필요한 프로그램 및 데이터 등을 함께 저장할 수 있다.The image source receiving unit 100 may include an image source storage unit 110 for storing an image source, and the image source storage unit 110 may include a memory for storing information related to a plurality of received contents and contents . In addition, the image source storage unit 110 may store programs and data necessary for the VR image conversion process of the image source.

영상 소스 분석부(200)는 영상 소스 수신부(100)를 통해 수신된 일반 영상을 분석하고, 수신된 영상 소스의 상태나 상황을 분석 및 판단하는 역할을 수행한다. 영상 소스 분석부(200)는 수신된 영상 소스가 동영상인지, 아니면 정지 화면(still picture) 또는 이미지인지 구분하거나, 동영상의 경우 화질이 SD, HD, UHD 급 등 어느 레벨의 해상도 화질을 갖고 있는지 구분하거나, 입체감/입체 상태 여부를 판단하기 위해 2D 영상인지 3D 영상인지 구분하거나, 실사 영상인지 애니메이션 영상인지 구분하거나, 인물 등 객체들의 클로즈업(close-up) 여부를 분석 및 판단할 수 있다.The image source analyzing unit 200 analyzes the general image received through the image source receiving unit 100 and analyzes and determines the status and the status of the received image source. The video source analyzing unit 200 classifies whether the received video source is a moving picture, a still picture, or an image, and discriminates which level of resolution quality such as SD, HD, UHD, A 2D image or a 3D image, a real image or an animation image, or a close-up of objects such as a person, in order to judge whether the 3D image is in a stereoscopic / stereoscopic state.

또한, 영상 소스 분석부(200)는 영상 내에서 배경 영역을 객체 영역과 구분하여 식별하기 위한 배경 영역 식별부(210)를 포함할 수 있다. 객체 영역은 영상을 관람하는 사용자가 관심을 갖는 객체가 존재하는 영역으로서, 주로 객체 영역은 움직이는 대상이 존재하는 영역을 의미하며, 배경(background)과 비교하였을 때 전경(foreground) 영역에 해당한다. 반면에 배경 영역은 움직임이 없거나, 매우 작거나, 패턴을 갖는 대상이 존재하는, 즉 객체 영역으로서 처리되지 않는 비객체 영역을 의미할 수 있다. 예컨대, 실내의 경우 배경은 벽, 바닥, 액자, 가구 등이 될 수 있고, 실외의 경우 건물, 주차된 차, 나무, 거리, 산이나 바다와 같은 자연 환경이 될 수 있다.In addition, the image source analyzing unit 200 may include a background region identifying unit 210 for identifying the background region from the object region in the image. The object area is an area where an object interested by a user who views the image exists. The object area mainly refers to the area where the moving object exists, and corresponds to the foreground area when compared with the background. On the other hand, the background region may refer to a non-object region that has no motion, is very small, or has a patterned object, i.e., is not processed as an object region. For example, in the case of an interior, the background may be a wall, a floor, a frame, a furniture, and the like may be a natural environment such as a building, a parked car, a tree, a street, a mountain or the sea.

배경 영역 식별부(210)는 영상 소스를 분석하여 움직임 여부 및 화면의 배치 구도 등을 고려하여 객체 영역과 배경 영역을 판단함으로써, 추후 VR 영상으로 변환 시에 배경 영역을 구분하여 확대할 수 있다. The background region identifying unit 210 may analyze the image source and judge the object region and the background region in consideration of the motion and the layout of the screen, thereby enlarging the background region when converting into the VR image.

또한, 영상 소스 분석부(200)의 해상도, 화질, 입체감, 클로즈업 여부 판단 및 배경 영역의 식별은 인공 지능(AI) 기술을 활용할 수 있으며, 예컨대 컴퓨터 비전 및 영상 처리에서 많이 사용되는 딥 러닝(deep learning) 기술 중 컨볼루션 신경망(convolutional neural network) 또는 순환 신경망(recurrent neural network) 기법을 사용가능하다. 이를 통해, 영상 소스 분석부(200)는 해상도를 자동으로 인식해서 파노라마 영상으로 확대하는 정도를 자동 조절하거나, 영상의 배경과 인물 등을 자동 구분하고, 인물이 클로즈업된 영상의 경우에는 VR 영상으로 전환시 화면의 자연스러움을 위해 확대 정도를 자동 조절할 수 있다.In addition, it is possible to utilize artificial intelligence (AI) technology for determining resolution, image quality, three-dimensional feeling, close-up determination, and background area of the image source analysis unit 200. For example, deep learning learning technique, a convolutional neural network or a recurrent neural network technique can be used. Accordingly, the image source analyzing unit 200 automatically recognizes the resolution and automatically adjusts the degree of enlargement of the panoramic image, automatically distinguishes the background of the image and the character, and if the image is a close-up image of the person, You can automatically adjust the magnification for naturalness of the screen when switching.

VR 변환부(300)는 영상 소스 분석부(200)의 분석 결과에 기초하여 수신된 일반 영상을 VR 영상으로 변환하는 역할을 수행한다.The VR conversion unit 300 converts the received general image into a VR image based on the analysis result of the image source analysis unit 200.

VR 변환부(300)는 수신된 일반 영상이 확대될 화각을 결정하는 화각 결정부(310)를 포함하고, 화각 결정부(310)는 수신된 일반 영상 중에 특히 객체 영역이 확대될 화각을 결정하며, 예컨대 객체 영역이 90도, 120도, 180도, 240도, 300도, 360도 중 어느 화각만큼 확대될지를 결정한다. 예컨대 인물이 클로즈업된 영상의 경우 객체 영상인 인물을 일반 시야각인 80도 내지 120도 이상 확대하면 VR 화면에서 사용자에게 클로즈업된 화면이 부담스럽게 보일 수 있기 때문에, 이 경우에는 확대되는 화각을 약 90도 내지 120도 이내의 값을 최대값으로 하여, 예컨대 30도, 60도, 90도 중 어느 하나의 화각을 결정할 수 있다The VR converting unit 300 includes an angle-of-view determining unit 310 that determines an angle of view at which the received general image is to be enlarged. The angle-of-view determining unit 310 determines an angle of view For example, the object area is enlarged by 90 degrees, 120 degrees, 180 degrees, 240 degrees, 300 degrees, 360 degrees, and so on. For example, in the case of a close-up image of a person, if a person who is an object image is enlarged by 80 to 120 degrees, which is a general viewing angle, a close-up screen may appear burdensome to the user on the VR screen. In this case, The angle of view of any one of 30 degrees, 60 degrees, and 90 degrees can be determined with a maximum value within a range of 120 degrees to 120 degrees

또한, VR 변환부(300)는 배경 화면을 생성하기 위한 배경 화면 생성부(320)를 포함하고, 배경 화면 생성부(320)는 배경 영역 식별부(210)의 배경 영역의 식별 결과에 기초하여, 배경 영역을 360도 시야각 화면으로 영상을 확대할 수 있다. 영상 소스 분석부(200)에서 배경 영역과 객체 영역을 구분하여 배경 영역을 검출하게 되면, 배경 영역을 360도 파노라마 화면으로 확장하여 생성함으로써 실감높은 VR 화면을 생성가능하다. 또한, 배경 화면 생성부(320)에서 배경 영역의 확대 각도는 90도에서 360도까지 가능하며, 일반적으로 객체 영역의 확대 각도보다 크게 결정될 수 있을 것이다.The VR conversion unit 300 includes a background image generation unit 320 for generating a background image and the background image generation unit 320 generates a background image based on the background region identification result of the background region identification unit 210 , And the background area can be enlarged to a 360-degree viewing angle screen. When the background region is detected by dividing the background region and the object region in the image source analysis unit 200, the background region is expanded to a 360-degree panoramic image to generate a realistic VR image. In addition, the enlargement angle of the background area in the background image generator 320 may range from 90 degrees to 360 degrees, and may be generally determined to be larger than the enlargement angle of the object area.

또한, VR 변환부(300)는 멀티 앵글 처리부(330)를 포함할 수 있고, 멀티 앵글 처리부(330)는 수신된 일반 영상과 관련된 보조 영상을 일반 영상의 배경 영역 상에 오버레이되어 디스플레이될 수 있도록 VR 영상을 생성할 수 있다. 예컨대, 수신된 일반 영상이 변환된 VR 화면 상의 배경 영역에 관련된 보조 영상을 디스플레이하기 위한 복수의 보조 화면을 생성하고, 주 화면의 영상들과 연관된 데이터, 이미지 등이 포함된 보조 정보가 포함된 복수의 콘텐츠를 배경 영역 상에 오버레이하여 배치함으로써 멀티 레이어 영상을 생성할 수 있다. 이와 같은 보조 화면들은 주 화면 내에서 주요 인물이나, 주요 행위가 일어나지 않는 배경 영역 내에 배치될 수 있으며, 이에 따라 각각의 보조 화면들은 주 화면과는 상이한 시야각을 갖도록 오버레이되어 멀티 앵글로 배치될 수 있다. 이에 따라 360도 화면 상에 다양한 콘텐츠를 효과적으로 배치함으로써, 사용자 편의성 및 경험을 증대시킬 수 있다.In addition, the VR converting unit 300 may include a multi-angle processing unit 330, and the multi-angle processing unit 330 may be configured to overlay the auxiliary image related to the received general image on the background area of the general image VR images can be generated. For example, a plurality of sub-screens for displaying a sub-image related to a background area on a VR screen on which a received general image is converted are generated, and a plurality of sub-screens including auxiliary information including data, images, Layered image can be generated by overlaying the content of the background image on the background area. Such sub-screens may be arranged in a main character in the main screen or in a background area in which no main action occurs, and thus each sub-screen may be overlaid and arranged in multi-angles so as to have a viewing angle different from that of the main screen . Accordingly, various contents can be effectively arranged on a 360-degree screen, thereby enhancing user convenience and experience.

또한, 멀티 앵글 처리부(330)는 멀티 레이어 영상을 오버레이하여 배치함에 있어서, 복수의 화면을 나란히 병렬적으로 배치 가능하며, 예컨대 주 화면이 90도로 확대되어 디스플레이될 때, 90도로 확대된 보조 화면 3개를 병렬적으로 추가 배치함으로써, 전체 360도의 VR 화면을 꽉 채워 배치가능하다.In addition, the multi-angle processing unit 330 may arrange a plurality of screens in parallel while arranging the multi-layer images in an overlay manner. For example, when the main screen is enlarged and displayed at 90 degrees, By arranging additional pieces in parallel, it is possible to arrange a full 360 degree VR screen to be filled.

도 2는 본 발명의 일 실시예에 따른 일반 영상을 가상 현실(VR) 영상으로 자동 변환하는 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a method of automatically converting a general image into a virtual reality (VR) image according to an exemplary embodiment of the present invention.

VR 영상 변환을 위해 먼저 VR 영상이 아닌 일반 영상의 형태를 갖는 영상 소스를 수신한다.(S210) 여기서, 영상 소스는 동영상, 이미지, 관련 데이터 정보 등 다양한 형태의 콘텐츠 소스로 구성될 수 있으며, VR 영상으로 변환을 원하는 대상이다.In order to convert a VR image, an image source having a general image format other than a VR image is firstly received (S210). Here, the image source may be composed of various types of content sources such as a moving image, an image, It is the target that you want to convert to video.

다음으로, 수신된 영상에 알맞게 자연스러운 VR 영상으로의 변환을 위해 수신된 일반 영상 소스를 분석하는 단계가 수행된다.(S220) 영상 소스의 분석은 영상 소스의 해상도, 화질, 입체감, 클로즈업 여부 판단 및 객체 영역과 배경 영역의 식별 및 구분 등을 포함한다.Next, a step of analyzing the received general video source for conversion into a natural VR image suitable for the received video is performed (S220). The analysis of the video source is performed based on the resolution, image quality, And identification and division of the object area and the background area.

이와 같이 수행된 영상 소스의 분석 결과에 기초하여 수신된 일반 영상을 VR 영상으로 변환하는 VR 영상 변환 단계가 수행된다.(S230) VR 영상 변환 단계에는 수신된 일반 영상이 확대될 화각을 결정하고, 영상 내에서 배경 영역을 객체 영역과 구분하여 식별하고, 수신된 일반 영상과 관련된 보조 영상을 일반 영상의 배경 영역 상에 오버레이함으로써, 보조 영상의 시야각이 상이하게 멀티 앵글로 디스플레이될 수 있도록 VR 영상을 생성하는 단계를 포함할 수 있다.The VR image conversion step of converting the received general image into the VR image is performed based on the analysis result of the image source performed in this manner. (S230) In the VR image conversion step, The background region is distinguished from the object region in the image and the auxiliary image related to the received general image is overlaid on the background region of the general image so that the VR image is displayed so that the viewing angle of the sub- And a step of generating the data.

VR 영상으로 변환된 후에 사용자에게 VR 영상 미리보기 기능을 제공할 수 있다.(S240) 사용자는 VR 영상 미리보기 기능을 통해 VR 영상으로의 변환을 마무리할지 수정 작업을 진행할지 결정할 수 있으며, 최종 VR 영상 변환을 완료할 수 있다.(S250)After converting the VR image into a VR image, the VR image preview function can be provided to the user (S240). The user can determine whether to convert the VR image into a VR image or perform a correction operation through the VR image preview function. The image conversion can be completed (S250)

이와 같이 변환 생성된 VR 영상은 VR 영상 디스플레이를 지원하는 다양한 형태의 디스플레이 장치에서 재생될 수 있으며, 예컨대 VR 헤드셋, 헤드 마운트 디스플레이(Head mounted Display, HMD), 스마트 글래스 등의 웨어러블 장치 또는 스마트폰, 태블릿, 노트북과 같은 모바일 장치 등에서 사용자가 재생할 수 있을 것이다.The converted VR image can be reproduced by various display devices supporting VR image display. For example, a VR headset, a head mounted display (HMD), a wearable device such as a smart glass, a smart phone, Such as mobile devices such as mobile phones, tablets, and notebooks.

도 3은 본 발명의 일 실시예에 따른 영상 소스 분석 단계에서 수행되는 방법을 설명하기 위한 흐름도이다.3 is a flowchart illustrating a method performed in an image source analyzing step according to an exemplary embodiment of the present invention.

도 3을 참조하여, 영상 소스 분석 단계에 대해 좀 더 구체적으로 살펴본다. 먼저, 수신된 영상 소스가 동영상인지 이미지 또는 정지 화면인지 구분하는 동작을 수행한다.(S310)Referring to FIG. 3, the video source analysis step will be described in more detail. First, an operation of discriminating whether a received video source is a video, an image, or a still image is performed (S310)

또한, 영상 소스가 동영상인 경우 화질 또는 해상도의 등급을 결정하며, 예컨대 SD, HD, UHD 화질 중 어디에 속하는지 판별할 수 있고, 또한 영상 소스가 입체감 있는 3D 영상인지, 일반 2D 영상인지 판별할 수 있다.(S320)In addition, if the image source is a moving image, the image quality or the resolution level can be determined. For example, it can be determined whether the image source belongs to the SD, HD, or UHD image quality and whether the image source is a stereoscopic 3D image or a general 2D image (S320)

다음으로, 영상 소스를 분석하여 움직임 여부 및 화면의 배치 구도 등을 고려하여 객체 영역과 배경 영역을 판단할 수 있다.(S330) 이와 같이, 배경 영역을 분리하여 추출함으로써, 추후 VR 영상으로 변환 시에 배경 영역만을 360도로 확대할 수 있다. Next, by analyzing the image source, it is possible to determine the object area and the background area in consideration of the motion and the layout composition of the screen (S330). Thus, by separating and extracting the background area, Only the background area can be enlarged by 360 degrees.

또한, 영상 소스에서 객체 영역의 클로즈업 정도를 조절할 수 있다.(S340) 예컨대, 영상 소스에 나타난 인물의 크기에 따라 클로즈업 여부를 확인하고, 클로즈업 정도를 조절할 수 있으며, 이미 인물이 클로즈업 되어 있어 일반 시야각의 화면에 꽉 차 있는 경우에는 클로즈업을 수행하지 않을 것이다. 또한, 예컨대 인물의 크기가 일반 시야각 화면에서 50% 이하를 차지하는 경우에 클로즈업을 통해 인물의 크기를 적합하게 확대가능할 것이다.In addition, it is possible to adjust the degree of close-up of the object region in the image source (S340). For example, it is possible to check whether the object is close-up according to the size of the person in the image source and adjust the degree of close-up. The close-up operation will not be performed. In addition, for example, when the size of a person occupies 50% or less in the general viewing angle screen, the size of the person can be appropriately enlarged through close-up.

도 3에서는 각 분석 단계를 순서대로 설명하였지만, 각 단계의 순서는 변경될 수 있으며, 각 단계 중 적어도 일부는 동시에 수행되는 것도 가능할 것이다.Although each of the analysis steps has been described in order in FIG. 3, the order of each step may be changed, and at least some of the steps may be performed simultaneously.

도 4는 본 발명의 일 실시예에 따른 VR 영상 변환 단계에서 수행되는 방법을 설명하기 위한 흐름도이다. 도 3에서와 같이 수신된 영상 소스의 분석이 이루어지면, 이와 같은 분석 결과에 기초하여 최적화된 VR 영상으로의 변환이 자동적으로 수행될 수 있다.4 is a flowchart illustrating a method performed in the VR image conversion step according to an embodiment of the present invention. When the received image source is analyzed as shown in FIG. 3, the conversion to the optimized VR image can be automatically performed based on the analysis result.

도 4를 참조하면, 영상 소스 내에서 객체 영역이 확대될 화각을 결정한다.(S410) 360도 VR 영상을 위해 객체 영역의 화각을 늘려 확장된 영상을 얻을 수 있으며, 객체 영역의 크기 및 클로즈업 여부 등에 기초하여 예컨대 90도, 120도, 180도, 240도, 300도, 360도 중 어느 화각만큼 확대될지를 결정할 수 있다.Referring to FIG. 4, an angle of view in which the object region is enlarged in the image source is determined (S410). For the 360 degree VR image, an enlarged image can be obtained by increasing the angle of view of the object region. 120 degrees, 180 degrees, 240 degrees, 300 degrees, and 360 degrees based on the image size of the image.

다음으로 영상 소스 내에서 객체 영역과 구분되는 배경 영역을 검출하고, 검출된 배경 영역을 360도 시야각으로 영상을 확대할 수 있다.(S420) 이와 같이, 검출된 배경 영역을 360도 확장하여 영상을 생성함으로써, 실감성 높은 VR 영상을 생성할 수 있으며, 이와 같이 객체 영역과 배경 영역을 구분하여 처리함으로써 객체 영역은 예컨대 80도 내지 120도의 기본 시야각 내에 존재함으로써 객체 영역이 배경 영역과 함께 무리하게 확대되지 않도록 자연스러운 화면을 제공할 수 있다.Next, it is possible to detect a background area separated from the object area in the image source, and enlarge the detected background area by 360 degrees of viewing angle (S420). Thus, by expanding the detected background area by 360 degrees, The object region and the background region are separated and processed. Thus, the object region is present within the basic viewing angle of, for example, 80 to 120 degrees, so that the object region is unreasonably enlarged It is possible to provide a natural screen.

또한, 수신된 일반 영상과 관련된 보조 영상을 일반 영상의 배경 영역 상에 오버레이함으로써, 보조 영상의 시야각이 상이하게 멀티 앵글로 디스플레이될 수 있도록 멀티 앵글 콘텐츠를 배치할 수 있다.(S430) 예컨대 보조 영상으로 주 화면과 상이한 시야각으로 배치되는 콘텐츠는 예컨대 수신된 일반 영상과 연관된 영상들과 연관된 또 다른 영상, 관련 데이터 또는 이미지 등 다양한 형태로 구성될 수 있다. 멀티 앵글 콘텐츠의 배치에 대해서는 도 5를 참조하여 보다 구체적으로 후술될 것이다.In addition, by overlaying the auxiliary image related to the received general image on the background area of the general image, the multi-angle content can be arranged so that the viewing angles of the auxiliary images can be displayed in multi-angles differently (S430) The content arranged at a viewing angle different from that of the main screen may be configured in various forms, for example, another image associated with the received general image, related data, or an image. The arrangement of the multi-angle content will be described later in more detail with reference to FIG.

마지막으로, 여러 개의 영상을 자연스럽게 연결하는 자동 스티칭 작업 및 필요한 경우 보정 작업을 통해 VR 영상으로의 변환을 완료할 수 있다.(S440)Finally, the conversion into the VR image can be completed through an automatic stitching operation and a correction operation if necessary (S440)

도 4에서는 각 분석 단계를 순서대로 설명하였지만, 각 단계의 순서는 변경될 수 있으며, 각 단계 중 적어도 일부는 동시에 수행되는 것도 가능할 것이다. Although each of the analysis steps is described in order in Fig. 4, the order of each step may be changed, and at least some of the steps may be performed simultaneously.

도 2 내지 도 4에서 설명한 VR 영상으로의 변환 방법들은 컴퓨터, 노트북, 스마트폰, 태블릿 등 다양한 형태의 사용자 단말기에서 이루어지는 흐름을 수행하기 위한 컴퓨터 응용 프로그램으로 구성될 수 있다. 이러한 응용 프로그램은 USB 메모리, DVD, CD, SD 카드 등과 같은 다양한 형태의 컴퓨터로 판독가능한 기록매체에 기록될 수 있다.The VR image conversion methods described with reference to FIGS. 2 to 4 may be configured as a computer application program for performing a flow in various types of user terminals such as a computer, a notebook, a smart phone, and a tablet. Such application programs can be recorded on various types of computer-readable recording media such as USB memory, DVD, CD, SD card, and the like.

도 5는 본 발명의 일 실시예에 따른 멀티 앵글 기반의 VR 디스플레이 화면을 나타낸다.5 illustrates a multi-angle based VR display screen according to an embodiment of the present invention.

도 5은 기본 시야각, 예컨대 80도 내지 120도의 시야각 내에 나타나는 멀티 앵글 기반의 VR 디스플레이 화면의 예시를 나타낸다. VR 디스플레이 화면은 크게 주 화면(510)과 보조 화면(520)으로 구분할 수 있으며, 복수의 콘텐츠를 오버레이하여 디스플레이하며, 또한 보조 화면(520)의 경우 주 화면(510)에서 수술이 이루어지는 중요 영역과 겹치지 않도록 정면이 아닌 측면의 특정 시야각 내에 나타나도록 배치가능하다.5 shows an example of a multi-angle based VR display screen appearing within a basic viewing angle, e.g., a viewing angle of 80 degrees to 120 degrees. The VR display screen can be broadly divided into a main screen 510 and a sub screen 520 and displays a plurality of contents overlaid on the main screen 510. In the case of the sub screen 520, So as not to overlap with each other.

도 5를 참조하면, 주 화면(510)은 수술이 이루어지는 위치를 중심으로 수술실 전경을 보여주고 있으며, 보조 화면(520)은 해당 수술과 연관된 각 장기 데이터 및 수술 관련 의료 정보 등을 각각의 해당 모니터의 영상 소스를 함께 수신하여 멀티 앵글로 보여주고 있다. 여기서, 주 화면(510)에서 수술이 이루어지는, 의사들이 위치하는 중요 위치를 객체 영역으로 판단할 수 있으며, 의사 등 객체가 존재하지 않는 위치를 배경 영역으로 판단하여, 배경 영역 상의 적절한 곳에 보조 화면(520)을 배치가능하다. 이와 같은 객체 영역과 배경 영역의 구분은 영상 처리 기술과 딥 러닝을 통한 이미지 분석을 통해 컴퓨터에서 자동으로 수행될 수 있으며, 배경 영역 상의 적절한 위치에 보조 화면(520)이 자동으로 배치될 수 있을 것이다. 또한, 작업자가 수동으로 진행하여 배경 영역 상의 적절한 곳에 보조 화면(520)을 배치하는 것도 가능할 것이다.Referring to FIG. 5, the main screen 510 shows the front of the operating room around the position where the operation is performed. The auxiliary screen 520 displays each long term data related to the operation, Are received together and displayed as multi-angles. Here, it is possible to determine the important position in which the surgeons are located in the main screen 510 as an object area, determine a position in which no object such as a doctor is present as a background area, 520 can be disposed. The distinction between the object region and the background region can be automatically performed by a computer through image processing technology and image analysis through deep learning, and the sub screen 520 can be automatically arranged at an appropriate position on the background region . In addition, it is also possible that the worker manually proceeds to arrange the sub screen 520 in an appropriate place on the background area.

또한, 사용자는 VR 헤드셋과 같은 장치를 통해 멀티 앵글로 디스플레이되는 다양한 콘텐츠 화면 중에 원하는 화면을 선택할 수 있다. 예컨대, 수술 부위 장면, 수술실 전경 장면, 각 신체 정보 모니터 등의 화면을 선택할 수 있다. 선택된 화면은 전면에 주 화면으로서 대형 화면으로 확대되어 나타날 수 있다. 또한, 사용자가 착용한 VR 헤드셋 내의 디스플레이 인터페이스 기술을 통해 눈 앞에 디스플레이되는 주 화면은 수술 부위의 수술 장면이 나오게 되고, 이 화면은 360도 VR 영상으로 펼쳐지며, 이 화면의 배경 영역 중에 양 옆과 뒤 부분은 다중 디스플레이로 멀티 앵글로서 다양한 콘텐츠들이 메뉴처럼 디스플레이될 수 있다.In addition, the user can select a desired screen among various content screens displayed in multi-angles through a device such as a VR headset. For example, a screen such as a surgical site scene, an operation room foreground scene, each physical information monitor, and the like can be selected. The selected screen may be enlarged to the large screen as the main screen on the front. In addition, the main screen displayed in front of the user through the display interface technology in the VR headset worn by the user is a surgical scene of the surgical site. The screen is displayed as a 360 degree VR image, The part can be displayed as a multi-display as a multi-angle and various contents as a menu.

도 6은 VR 화면의 기본 시야각만을 나타내었지만, 배경 영역을 360도 시야각으로 확장하여 360도 VR 화면으로 제공가능하다. 이때, 360도 VR 화면의 배경 화면 내에 복수의 콘텐츠를 멀티 앵글로 오버레이하여 디스플레이할 수 있을 것이다.Although FIG. 6 shows only the basic viewing angle of the VR screen, the background area can be extended to a 360-degree viewing angle to provide a 360-degree VR screen. At this time, a plurality of contents can be overlaid and displayed on the multi-angle within the background screen of the 360-degree VR screen.

본 발명에 의하면, 현재 VR 촬영의 높은 원가로 VR 콘텐츠가 한정적으로 시장에 나오고 있는 문제점을 해결함으로써, 종래의 일반 영상들이 VR 영상으로 전환됨에 따라 VR 영상 건수가 폭발적으로 증가할 수 있을 것이다. 또한, 사용자들이 VR 헤드셋으로 거의 모든 기존 영상들을 실감나게 볼 수 있는 기회를 제공할 수 있다. 또한, 기존 2D 영상의 VR 버전 영상 유통을 통해 보다 높은 퀄리티를 갖는 몰입감 높은 VR 영상 콘텐츠를 제공함으로써 콘텐츠의 가치를 높이고 종래의 보유 콘텐츠를 활용한 추가 수익화 비즈니스의 제공이 가능해질 것이다.The present invention solves the problem that the VR content is limited to the market due to the high cost of the VR photography at present, so that the number of VR images can be explosively increased as conventional general videos are converted into VR images. It also gives users the opportunity to see virtually every existing video with a VR headset. In addition, by providing VR image contents with high quality and high quality through the VR version image distribution of existing 2D images, it will be possible to increase the value of contents and provide an additional profitable business utilizing conventional contents.

본 발명의 명세서에 개시된 실시예들은 예시에 불과한 것으로서, 본 발명은 이에 한정되지 않는 것이다. 본 발명의 범위는 아래의 특허청구범위에 의해 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술도 본 발명의 범위에 포함되는 것으로 해석해야 할 것이다.The embodiments disclosed in the specification of the present invention are merely illustrative, and the present invention is not limited thereto. The scope of the present invention should be construed according to the following claims, and all the techniques within the scope of equivalents should be construed as being included in the scope of the present invention.

100: 영상 소스 수신부 110: 영상 소스 저장부
200: 영상 소스 분석부 210: 배경 영역 식별부
300: VR 변환부 310: 화각 결정부
320: 배경 화면 생성부 330: 멀티 앵글 처리부
510: 주 화면 520: 보조 화면
100: video source receiving unit 110: video source storage unit
200: image source analysis unit 210: background area identification unit
300: VR conversion unit 310:
320: Background image generating unit 330: Multi-angle processing unit
510: main screen 520: auxiliary screen

Claims (13)

일반 영상을 가상 현실(VR) 영상으로 자동 변환하는 장치에 있어서,
가상 현실 영상이 아닌 2차원(2D) 일반 영상을 수신하기 위한 영상 소스 수신부;
상기 수신된 일반 영상을 분석하기 위한 영상 소스 분석부; 및
상기 영상 소스 분석부의 분석 결과에 기초하여 상기 수신된 일반 영상을 VR 영상으로 변환하기 위한 VR 변환부를 포함하고,
상기 영상 소스 분석부는 상기 수신된 일반 영상의 배경 영역을 식별하기 위한 배경 영역 식별부를 포함하고,
상기 VR 변환부는 상기 수신된 일반 영상으로부터 배경 화면을 생성하기 위한 배경 화면 생성부를 포함하고, 상기 배경 화면 생성부는 상기 배경 영역 식별부의 배경 영역의 식별 결과에 기초하여, 상기 배경 영역만을 360도로 영상을 확대하는 것이며,
상기 VR 변환부는 또한 상기 수신된 일반 영상이 확대될 화각을 결정하는 화각 결정부를 포함하고, 상기 화각 결정부는 상기 수신된 일반 영상의 객체 영역이 확대될 화각을 결정하는 것인, 영상 자동 변환 장치.
An apparatus for automatically converting a general image into a virtual reality (VR) image,
An image source receiving unit for receiving a two-dimensional (2D) general image other than a virtual reality image;
An image source analyzer for analyzing the received general image; And
And a VR converting unit for converting the received general image into a VR image based on an analysis result of the image source analyzing unit,
Wherein the image source analyzing unit includes a background region identifying unit for identifying a background region of the received general image,
Wherein the VR conversion unit includes a background image generation unit for generating a background image from the received general image, and the background image generation unit generates an image based on the identification result of the background area of the background area identification unit, Expanding,
Wherein the VR converting unit further includes an angle-of-view determining unit that determines an angle of view at which the received general image is to be enlarged, and the angle-of-view determining unit determines an angle of view at which the object area of the received general image is to be enlarged.
삭제delete 삭제delete 삭제delete 제1항에 있어서, 상기 영상 소스 분석부는 상기 수신된 일반 영상의 화질 상태, 입체 상태 및 인물 클로즈업(close-up) 상태 중 적어도 하나를 분석하는 것인, 영상 자동 변환 장치.The apparatus of claim 1, wherein the image source analyzing unit analyzes at least one of an image quality state, a stereoscopic state, and a portrait close-up state of the received general image. 제1항에 있어서, 상기 VR 변환부는 상기 수신된 일반 영상과 관련된 보조 영상이 상기 수신된 일반 영상의 배경 영역 상에 오버레이되어 디스플레이될 수 있도록 VR 영상을 생성하는 것인, 영상 자동 변환 장치.The apparatus of claim 1, wherein the VR converter generates a VR image so that the auxiliary image associated with the received general image can be overlaid on the background area of the received general image. 일반 영상을 가상 현실(VR) 영상으로 자동 변환하는 방법에 있어서,
가상 현실 영상이 아닌 2차원(2D) 일반 영상을 수신하는 영상 소스 수신 단계;
상기 수신된 일반 영상을 분석하는 영상 소스 분석 단계; 및
상기 영상 소스의 분석 결과에 기초하여 상기 수신된 일반 영상을 VR 영상으로 변환하는 VR 변환 단계
를 포함하고,
상기 영상 소스 분석 단계는 상기 수신된 일반 영상의 배경 영역 식별을 수행하며,
상기 VR 변환 단계는 상기 수신된 일반 영상으로부터 배경 화면을 생성하기 위한 배경 화면을 생성하는 단계를 포함하고, 상기 배경 화면의 생성 단계는 상기 배경 영역 식별의 결과에 기초하여, 상기 배경 영역만을 360도로 영상을 확대하는 것이며,
상기 VR 변환 단계는 또한 상기 수신된 일반 영상이 확대될 화각을 결정하는 화각 결정 단계를 포함하고, 상기 화각 결정 단계는 상기 수신된 일반 영상의 객체 영역이 확대될 화각을 결정하는 것인, 영상 자동 변환 방법.
A method for automatically converting a general image into a virtual reality (VR)
An image source receiving step of receiving a two-dimensional (2D) general image, not a virtual reality image;
Analyzing the received general image; And
A VR conversion step of converting the received general image into a VR image based on an analysis result of the image source
Lt; / RTI >
Wherein the image source analyzing step performs background region identification of the received general image,
Wherein the step of generating the background screen includes a step of generating only the background area by 360 degrees based on the result of the background area identification, The image is enlarged,
Wherein the VR conversion step further includes an angle-of-view determining step of determining the angle of view at which the received general image is to be enlarged, and the angle-of-view determining step determines an angle of view at which the object area of the received general image is to be enlarged, Conversion method.
삭제delete 삭제delete 삭제delete 제7항에 있어서, 상기 영상 소스 분석 단계는 상기 수신된 일반 영상의 화질 상태, 입체 상태 및 인물 클로즈업(close-up) 상태 중 적어도 하나의 분석을 수행하는 것인, 영상 자동 변환 방법.8. The method according to claim 7, wherein the analyzing of the image source performs analysis of at least one of an image quality state, a stereoscopic state, and a portrait close-up state of the received general image. 제7항에 있어서, 상기 VR 변환 단계는 상기 수신된 일반 영상과 관련된 보조 영상이 상기 수신된 일반 영상의 배경 영역 상에 오버레이되어 디스플레이될 수 있도록 VR 영상을 생성하는 것인, 영상 자동 변환 방법.8. The method of claim 7, wherein the VR conversion step generates a VR image so that the auxiliary image related to the received general image can be overlaid on the background area of the received general image. 제7항, 제11항 및 제12항 중 어느 한 항에 따른 영상 자동 변환 방법을 수행하는 컴퓨터 프로그램을 기록한 기록매체.A recording medium on which a computer program for performing the automatic image conversion method according to any one of claims 7, 11, and 12 is recorded.
KR1020170046076A 2017-04-10 2017-04-10 Method for automatically converting normal video to virtual reality video and device using the same KR101791917B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170046076A KR101791917B1 (en) 2017-04-10 2017-04-10 Method for automatically converting normal video to virtual reality video and device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170046076A KR101791917B1 (en) 2017-04-10 2017-04-10 Method for automatically converting normal video to virtual reality video and device using the same

Publications (1)

Publication Number Publication Date
KR101791917B1 true KR101791917B1 (en) 2017-11-20

Family

ID=60809024

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170046076A KR101791917B1 (en) 2017-04-10 2017-04-10 Method for automatically converting normal video to virtual reality video and device using the same

Country Status (1)

Country Link
KR (1) KR101791917B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210112239A1 (en) * 2018-01-30 2021-04-15 Pimax Technology (Shanghai) Co., Ltd Vr display system based on mobile terminal
US11222478B1 (en) 2020-04-10 2022-01-11 Design Interactive, Inc. System and method for automated transformation of multimedia content into a unitary augmented reality module
US11336943B2 (en) * 2020-02-24 2022-05-17 Realtek Semiconductor Corporation Method and electronic device for detecting resolution
KR20230014336A (en) * 2021-07-21 2023-01-30 네이버 주식회사 Method and system for generating 3d interactive video

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100573983B1 (en) * 2005-08-19 2006-04-26 (주)큐텔소프트 System and method for realizing virtual reality contents of 3-dimension

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100573983B1 (en) * 2005-08-19 2006-04-26 (주)큐텔소프트 System and method for realizing virtual reality contents of 3-dimension

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210112239A1 (en) * 2018-01-30 2021-04-15 Pimax Technology (Shanghai) Co., Ltd Vr display system based on mobile terminal
US11870970B2 (en) * 2018-01-30 2024-01-09 Pimax Technology (Shanghai) Co., Ltd VR display system based on mobile terminal
US11336943B2 (en) * 2020-02-24 2022-05-17 Realtek Semiconductor Corporation Method and electronic device for detecting resolution
US11222478B1 (en) 2020-04-10 2022-01-11 Design Interactive, Inc. System and method for automated transformation of multimedia content into a unitary augmented reality module
KR20230014336A (en) * 2021-07-21 2023-01-30 네이버 주식회사 Method and system for generating 3d interactive video
KR102575771B1 (en) * 2021-07-21 2023-09-06 네이버 주식회사 Method and system for generating 3d interactive video

Similar Documents

Publication Publication Date Title
KR101791917B1 (en) Method for automatically converting normal video to virtual reality video and device using the same
US11750786B2 (en) Providing apparatus, providing method and computer readable storage medium for performing processing relating to a virtual viewpoint image
US8279254B2 (en) Method and system for video conferencing in a virtual environment
KR20170035608A (en) Videotelephony System, Image Display Apparatus, Driving Method of Image Display Apparatus, Method for Generation Realistic Image and Computer Readable Recording Medium
JP2018521593A (en) Composition and scaling of angle-separated subscenes
JP5851625B2 (en) Stereoscopic video processing apparatus, stereoscopic video processing method, and stereoscopic video processing program
KR102546016B1 (en) Systems and methods for providing personalized video
CN111406406B (en) Apparatus and method for dynamic range expansion in virtual reality scenes
JP6126271B1 (en) Method, program, and recording medium for providing virtual space
KR20160057867A (en) Display apparatus and image processing method thereby
JP2014515153A (en) Content conversion apparatus, content conversion method and storage medium therefor
CN114296949A (en) Virtual reality equipment and high-definition screen capturing method
GB2555501A (en) Head mounted display and method
CN115398884A (en) Self-timer settings and inventory video creation
JP6126272B1 (en) Method, program, and recording medium for providing virtual space
US20130063424A1 (en) Image processing device, image processing method, and image processing program
US11846783B2 (en) Information processing apparatus, information processing method, and program
JP2022013427A (en) Information processing apparatus, image generation method, and program
JP2017208808A (en) Method of providing virtual space, program, and recording medium
JP7296735B2 (en) Image processing device, image processing method and program
JP2017143339A (en) Image synthesizing apparatus, operation method of image synthesizing apparatus, and computer program
KR101807813B1 (en) Motion Recognition Service Offering System and Method thereof
JP2017208809A (en) Method, program and recording medium for providing virtual space
KR20190004570A (en) Appratus and method for providing image from search result page displayed by web browser
KR20180089764A (en) Exhibition and Experience typed Motion Recognition Service Offering System and Method thereof

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant