KR20200076234A - System for producing 3 dimension virtual reality content - Google Patents

System for producing 3 dimension virtual reality content Download PDF

Info

Publication number
KR20200076234A
KR20200076234A KR1020180165133A KR20180165133A KR20200076234A KR 20200076234 A KR20200076234 A KR 20200076234A KR 1020180165133 A KR1020180165133 A KR 1020180165133A KR 20180165133 A KR20180165133 A KR 20180165133A KR 20200076234 A KR20200076234 A KR 20200076234A
Authority
KR
South Korea
Prior art keywords
content
stereoscopic
user
degree
panorama
Prior art date
Application number
KR1020180165133A
Other languages
Korean (ko)
Other versions
KR102239877B1 (en
Inventor
김성국
Original Assignee
주식회사 에이투젯
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이투젯 filed Critical 주식회사 에이투젯
Priority to KR1020180165133A priority Critical patent/KR102239877B1/en
Priority to PCT/KR2019/010519 priority patent/WO2020130275A1/en
Publication of KR20200076234A publication Critical patent/KR20200076234A/en
Application granted granted Critical
Publication of KR102239877B1 publication Critical patent/KR102239877B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Tourism & Hospitality (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Architecture (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Strategic Management (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Primary Health Care (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a technology for producing mixed virtual reality (VR) content and a technology for realizing a platform therefor, which can produce VR content immediately operable in an existing commercial hardware device (e.g., PC, smartphone, HMD, etc.) while user interaction is reinforced and merging with a heterogeneous media can be performed by applying a 3D object automatic generating technology, a VR overlay technology, and a responsive 3D sound technology in production of VR content. According to an embodiment of the present invention, VR content can be easily produced, which can be used in various fields such as tour business (e.g., VR promotion, experience, reservation, payment, etc.), shopping (e.g., home shopping, sales and payment of a tour souvenir, etc.), education, real estate, etc. Even small businesses and individuals can produce mixed VR content, which are created by the small businesses and individuals, as an independent application and web to promote and provide the same as a service.

Description

3차원 VR 콘텐츠 제작 시스템{SYSTEM FOR PRODUCING 3 DIMENSION VIRTUAL REALITY CONTENT}3D VR content production system {SYSTEM FOR PRODUCING 3 DIMENSION VIRTUAL REALITY CONTENT}

본 발명은 VR(Virtual Reality) 콘텐츠를 제작함에 있어서 3D 오브젝트 자동 생성 기술, VR 오버레이 기술, 반응형 3D 입체 사운드 기술 등을 적용함으로써 사용자 인터랙션이 강화됨은 물론 이종 미디어와의 병합이 가능하며 기존의 상용 하드웨어 기기(예를 들어, PC, 스마트폰, HMD 등)에서 즉시 작동이 가능한 VR 콘텐츠를 제작할 수 있는 Mixed VR 콘텐츠 제작 기술 및 이를 위한 플랫폼 구현 기술에 관한 것이다.
In the present invention, user interaction is strengthened by applying 3D object automatic generation technology, VR overlay technology, responsive 3D stereoscopic sound technology, etc. in creating VR (Virtual Reality) content, and merging with heterogeneous media is possible. It relates to a mixed VR content production technology capable of producing VR content that can be operated immediately on a hardware device (for example, a PC, a smartphone, a HMD, etc.) and a platform implementation technology for the same.

최근 들어 360도 VR(Virtual Reality) 콘텐츠가 각광받고 있는데, 개인들도 액션캠, 360도 카메라, 드론 등을 이용하여 많은 VR 콘텐츠를 제작하고 있다. 또한 기업과 국가에서도 다양한 형태의 VR 콘텐츠를 제작하고 제공하고 있는데, 지금까지는 개별적인 VR 콘텐츠를 많은 비용을 투자해 제작 업체에 의뢰하는 형태가 대다수였다. 이러한 이유로 수준 높은 VR 콘텐츠가 적고 일반 소비자에게 다가가기 힘든 악순환이 이어지고 있다.Recently, 360-degree VR (Virtual Reality) content has been spotlighted, and individuals are also producing a lot of VR content using action cams, 360-degree cameras, and drones. In addition, companies and countries also produce and provide various types of VR content. Until now, many types of individual VR content were commissioned to production companies by investing a lot of money. For this reason, there is a vicious cycle with few high-quality VR contents and hard to reach the general consumer.

현재 VR 콘텐츠의 경우, 그 비즈니스 모델이 아직 확립되지 않은 초기 시장의 형태로 이를 타파하고 실생활에서 VR 콘텐츠가 활성화 되기 위해서는 더 많은 개인 창작자들이 다양한 VR 콘텐츠를 만들고 이를 활용한 실제 사업이 꾸준히 전개되어야 한다.In the case of current VR contents, in order to overcome this in the form of an initial market whose business model has not yet been established and to activate VR contents in real life, more and more individual creators must make various VR contents and actual business using them must be steadily developed. .

이러한 시장 상황에서 관광 비즈니스 소상공인, 기업, 관공서에 이르기까지 다양한 분야에서 활용이 가능한 개방형 VR 콘텐츠 플랫폼으로서 Mixed VR 플랫폼이 제공되어야 할 필요가 있다. 이러한 Mixed VR 플렛폼이 제공되게 되면, 관광 비즈니스(예를 들면, VR 홍보, 체험, 예약, 결제 등), 쇼핑(예를 들면, 홈쇼핑, 관광기념품 등의 판매, 결제 등), 교육, 부동산 등 다양한 분야로 활용이 가능하다.In this market situation, a mixed VR platform needs to be provided as an open VR content platform that can be used in various fields, from small businesses to businesses, businesses, and government offices. When this Mixed VR platform is provided, it can be used for various tourism business (e.g., VR promotion, experience, reservation, payment, etc.), shopping (e.g., home shopping, sales of tourist souvenirs, payment, etc.), education, real estate, etc. It can be used as a field.

또한 Mixed VR 플랫폼에 의하면, 이미 보편화된 파노라마 이미지(예를 들면, 스마트폰, 디지털 카메라에 의해 생성되는 파노라마 이미지), 360도 카메라(예를 들어, 인스타 360, 삼성Gear 360 등), 액션캠(예를 들어, 360도 액션캠) 등을 활용해 촬영한 이미지와 동영상을 이용하여 VR 관광 비즈니스, VR 쇼핑몰 등을 손쉽게 운영할 수 있게 된다.In addition, according to the Mixed VR platform, a panoramic image (eg, a panoramic image generated by a smartphone or a digital camera), a 360-degree camera (for example, Insta 360, Samsung Gear 360, etc.), an action cam (For example, a 360-degree action cam) can be used to easily operate a VR tourism business, a VR shopping mall, etc. by using images and videos shot using it.

또한 이러한 Mixed VR 플랫폼에 의하면, 유투브로 인해 유투버라 불리는 개인 영상 콘텐츠 창작자 시대가 열린 것과 같이, 개방형 VR 콘텐츠 제작 시대를 열수 있을 것으로 기대된다.
In addition, according to this Mixed VR platform, it is expected that the era of the creation of an open VR content can be opened, as the era of personal video content creator called YouTube is opened due to YouTube.

본 발명은 VR(Virtual Reality) 콘텐츠를 제작함에 있어서 3D 오브젝트 자동 생성 기술, VR 오버레이 기술, 반응형 3D 입체 사운드 기술 등을 적용함으로써 사용자 인터랙션이 강화됨은 물론 이종 미디어와의 병합이 가능하며 기존의 상용 하드웨어 기기(예를 들어, PC, 스마트폰, HMD 등)에서 즉시 작동이 가능한 VR 콘텐츠를 제작할 수 있는 Mixed VR 콘텐츠 제작 기술 및 이를 위한 플랫폼 구현 기술을 제공하고자 한다.
In the present invention, user interaction is strengthened by applying 3D object automatic generation technology, VR overlay technology, responsive 3D stereoscopic sound technology, etc. in creating VR (Virtual Reality) content, and merging with heterogeneous media is possible. It is intended to provide a mixed VR content production technology and a platform implementation technology for producing VR content that can be operated immediately on hardware devices (eg, PC, smartphone, HMD, etc.).

본 발명의 일 측면에 따르면, 3D VR(3-dimension Virtual Reality) 콘텐츠 제작 시스템으로서, 기 제작된 360도 입체 파노라마 VR 내에 실감 콘텐츠를 삽입할 수 있도록 보조하는 소프트웨어 툴(software tool)을 사용자에게 제공하며, 사용자 입력을 수신하는 GUI(Graphical User Interface)부; 상기 GUI부를 통해 사용자가 지정한 실감 콘텐츠를 상기 360도 입체 파노라마 VR 내에 적용하는 실감 콘텐츠 적용부; 사용자 액션에 반응하여 상기 360도 입체 파노라마 VR 내에 적용된 실감 콘텐츠의 실행을 제어하는 인터랙티브 액션 처리부를 포함하는 3D VR 콘텐츠 제작 시스템이 제공된다.
According to an aspect of the present invention, a 3D VR (3-dimension Virtual Reality) content production system, providing a user with a software tool (software tool) to assist in inserting realistic content into a pre-made 360-degree stereoscopic VR And a GUI (Graphical User Interface) unit for receiving user input; A sensory content application unit that applies the user-designated sensory content to the 360-degree panoramic panorama VR through the GUI unit; A 3D VR content production system is provided that includes an interactive action processing unit that controls execution of sensory content applied in the 360-degree stereoscopic VR in response to a user action.

본 발명의 실시예에 의하면, VR(Virtual Reality) 콘텐츠를 제작함에 있어서 3D 오브젝트 자동 생성 기술, VR 오버레이 기술, 반응형 3D 입체 사운드 기술 등을 적용함으로써 사용자 인터랙션이 강화됨은 물론 이종 미디어와의 병합이 가능하며 기존의 상용 하드웨어 기기(예를 들어, PC, 스마트폰, HMD 등)에서 즉시 작동이 가능한 VR 콘텐츠를 제작할 수 있는 Mixed VR 콘텐츠 제작 기술 및 이를 위한 플랫폼 구현 기술을 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, in creating VR (Virtual Reality) content, user interaction is enhanced by applying 3D object automatic generation technology, VR overlay technology, responsive 3D stereoscopic sound technology, etc. It is possible and has the effect of providing mixed VR content creation technology and platform implementation technology for creating VR content that can be operated immediately on existing commercial hardware devices (eg, PC, smartphone, HMD, etc.). .

또한 본 발명의 실시예에 따른 Mixed VR 콘텐츠 제작 및 플랫폼 구현 기술에 의하면, 관광 비즈니스(예를 들면, VR 홍보, 체험, 예약, 결제 등), 쇼핑(예를 들면, 홈쇼핑, 관광기념품 등의 판매, 결제 등), 교육, 부동산 등 다양한 분야로 활용이 가능한 VR 콘텐츠를 손쉽게 제작할 수 있고, 소상공인, 개인들도 자신이 만든 Mixed VR 콘텐츠를 독립된 APP과 WEB으로 만들어 홍보 및 서비스가 가능한 효과가 있다.
In addition, according to the mixed VR content production and platform implementation technology according to an embodiment of the present invention, tourism business (e.g., VR promotion, experience, reservation, payment, etc.), shopping (e.g., home shopping, sales of tourism souvenirs, etc.) , Payment, etc.), education, real estate can easily produce VR content that can be used in various fields, and small businesses and individuals can create their own Mixed VR content as independent APP and WEB to promote and service.

도 1은 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 툴 및 플랫폼을 전반적으로 설명하기 위한 도면.
도 2는 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템에 관한 블록 구성도.
도 3은 360도 입체 파노라마 VR 내에 입체 사운드를 실감 콘텐츠로서 삽입한 예시 도면.
도 4는 실감 콘텐츠로서 입체 사운드의 설정 조건을 설명하기 위한 참조 도면.
도 5는 360도 입체 파노라마 VR 내에서 동영상 비디오를 실감 콘텐츠로서 삽입하기 위한 조작 윈도우를 예시한 참조 도면.
도 6은 360도 입체 파노라마 VR 내의 좌표 영역에 사용자의 뷰 포인트에 상응하는 레인보우 색상 스펙트럼의 응시 강도를 표출한 예를 도시한 참조 도면.
도 7은 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 때의 중간 필터링 과정을 설명하기 위한 도면.
도 8은 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 때의 본 발명의 실시예에 따른 영상 오버레이 알고리즘과 기존 기술과의 성능을 대조 설명하기 위한 비교표.
도 9는 기존 기술에 따른 영상 오버레이 방식과 본 발명의 실시예에 따른 영상 오버레이 방식을 대조 설명하기 위한 참조 도면.
1 is a view for explaining the overall 3D VR content creation tool and platform according to an embodiment of the present invention.
2 is a block diagram of a 3D VR content production system according to an embodiment of the present invention.
Fig. 3 is an exemplary diagram in which stereoscopic sound is inserted into the 360-degree stereoscopic panorama VR as sensory content.
Fig. 4 is a reference diagram for explaining setting conditions of stereoscopic sound as sensory content.
FIG. 5 is a reference diagram illustrating an operation window for inserting a video of a video as a immersive content within a 360-degree stereoscopic panorama VR.
FIG. 6 is a reference diagram illustrating an example in which gaze intensity of a rainbow color spectrum corresponding to a user's view point is expressed in a coordinate region within a 360-degree stereoscopic panorama VR.
7 is a view for explaining an intermediate filtering process when overlaying a specific target image in a 360-degree stereoscopic panorama VR.
8 is a comparison table for contrasting the performance of an image overlay algorithm and an existing technology according to an embodiment of the present invention when overlaying a specific target image in a 360-degree stereoscopic panorama VR.
9 is a reference diagram for contrasting the image overlay scheme according to an embodiment of the present invention with the image overlay scheme according to the prior art.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention can be applied to a variety of transformations and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention.

본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted. In addition, the numbers (for example, first, second, etc.) used in the description process of this specification are only identification symbols for distinguishing one component from other components.

또한, 명세서 전체에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다. 또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하나 이상의 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 조합으로 구현될 수 있음을 의미한다.
Further, in the specification, when one component is referred to as "connected" or "connected" with another component, the one component may be directly connected to the other component, or may be directly connected, but in particular It should be understood that, as long as there is no objection to the contrary, it may or may be connected via another component in the middle. Also, in the specification, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise stated. In addition, terms such as “part” and “module” described in the specification mean a unit that processes at least one function or operation, which means that it can be implemented by one or more hardware or software or a combination of hardware and software. .

도 1은 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 툴 및 플랫폼을 전반적으로 설명하기 위한 도면이고, 도 2는 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템에 관한 블록 구성도이다.1 is a view for generally describing a 3D VR content production tool and platform according to an embodiment of the present invention, and FIG. 2 is a block diagram of a 3D VR content production system according to an embodiment of the present invention.

또한, 도 3은 360도 입체 파노라마 VR 내에 입체 사운드를 실감 콘텐츠로서 삽입한 예시 도면이고, 도 4는 실감 콘텐츠로서 입체 사운드의 설정 조건을 설명하기 위한 참조 도면이며, 도 5는 360도 입체 파노라마 VR 내에서 동영상 비디오를 실감 콘텐츠로서 삽입하기 위한 조작 윈도우를 예시한 참조 도면이고, 도 6은 360도 입체 파노라마 VR 내의 좌표 영역에 사용자의 뷰 포인트에 상응하는 레인보우 색상 스펙트럼의 응시 강도를 표출한 예를 도시한 참조 도면이며, 도 7은 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 때의 중간 필터링 과정을 설명하기 위한 도면이고, 도 8은 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 때의 본 발명의 실시예에 따른 영상 오버레이 알고리즘과 기존 기술과의 성능을 대조 설명하기 위한 비교표이며, 도 9는 기존 기술에 따른 영상 오버레이 방식과 본 발명의 실시예에 따른 영상 오버레이 방식을 대조 설명하기 위한 참조 도면이다. 이하, 도 1 및 도 2를 중심으로 도 3 ~ 도 9를 함께 참조하여 본 발명의 실시예를 상세히 설명한다. In addition, FIG. 3 is an exemplary diagram in which stereoscopic sound is inserted into the 360-degree stereoscopic VR as sensory content, FIG. 4 is a reference diagram for explaining a setting condition of stereoscopic sound as the sensory content, and FIG. 5 is a 360-degree stereoscopic panorama VR A reference diagram illustrating an operation window for inserting a video of a video as immersive content within, and FIG. 6 shows an example in which gaze intensity of a rainbow color spectrum corresponding to a user's view point is expressed in a coordinate region within a 360-degree stereoscopic VR FIG. 7 is a diagram for explaining an intermediate filtering process when overlaying a specific target image in a 360-degree stereoscopic panorama VR, and FIG. 8 is when overlaying a specific target image in a 360-degree stereoscopic panorama VR. A comparison table for contrasting the performance of an image overlay algorithm and an existing technology according to an embodiment of the present invention, and FIG. 9 is a method for contrasting an image overlay system according to an embodiment of the present invention and It is a reference drawing. Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 3 to 9 with reference to FIGS. 1 and 2.

도 1을 참조하면, 본 발명은 VR(Virtual Reality) 콘텐츠를 제작함에 있어서 3D 오브젝트 자동 생성 기술, VR 오버레이 기술, 반응형 3D 입체 사운드 기술 등을 적용함으로써 사용자 인터랙션이 강화됨은 물론 이종 미디어와의 병합이 가능하며 기존의 상용 하드웨어 기기(예를 들어, PC, 스마트폰, HMD 등)에서 즉시 작동이 가능한 VR 콘텐츠를 제작할 수 있는 Mixed VR 콘텐츠 제작 기술 및 이를 위한 플랫폼 구현 기술을 제공한다.Referring to FIG. 1, the present invention is applied to 3D object automatic generation technology, VR overlay technology, responsive 3D stereoscopic sound technology, etc. in creating VR (Virtual Reality) content, and user interaction is strengthened and merged with heterogeneous media. It provides a mixed VR content creation technology and a platform implementation technology for producing VR content that is possible and can be operated immediately on existing commercial hardware devices (eg, PC, smartphone, HMD, etc.).

이를 위해, 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템(100)은, 도 2에 도시된 바와 같이, 기 제작된 360도 입체 파노라마 VR 내에 실감 콘텐츠를 삽입할 수 있도록 보조하는 소프트웨어 툴(software tool)을 사용자에게 제공하며, 사용자 입력을 수신하는 GUI부(110); GUI부(110)를 통해 사용자가 지정한 실감 콘텐츠를 상기 360도 입체 파노라마 VR 내에 적용하는 실감 콘텐츠 적용부(120); 사용자 액션에 반응하여 상기 360도 입체 파노라마 VR 내에 적용된 실감 콘텐츠의 실행을 제어하는 인터랙티브 액션 처리부(130)를 포함한다. 또한, 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템(100)은 뷰 포인트 분석부(140)를 더 포함할 수 있으며, 실감 콘텐츠 적용부(120) 내에는 입체 사운드 적용부(122) 및 영상 오버레이 처리부(124)가 더 포함될 수 있다.To this end, the 3D VR content production system 100 according to an embodiment of the present invention, as shown in FIG. 2, is a software tool that assists in inserting realistic content into a pre-made 360-degree stereoscopic panorama VR (software) tool) to the user, the GUI unit 110 for receiving a user input; A sensory content application unit 120 that applies the user-designated sensory content to the 360-degree panoramic panorama VR through the GUI unit 110; It includes an interactive action processing unit 130 for controlling the execution of the sensory content applied in the 360-degree stereoscopic VR in response to a user action. In addition, the 3D VR content production system 100 according to an embodiment of the present invention may further include a view point analysis unit 140, a stereoscopic sound application unit 122 and an image in the sensory content application unit 120. The overlay processing unit 124 may be further included.

이에 따라 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템(100)은 다음과 같은 3D VR 콘텐츠의 제작을 위한 다양한 기능들이 적용된다.
Accordingly, the 3D VR content production system 100 according to an embodiment of the present invention is applied with various functions for the production of the following 3D VR content.

3D 입체 사운드 삽입 및 재생 기술3D stereoscopic sound insertion and playback technology

본 발명의 실시예에 의할 때, 3D VR 콘텐츠 제작 시스템(100)은 가상의 3D 공간에서 관람자의 시선에 따라 콘텐츠 제작자가 설정한 3D 입체 사운드가 각도/거리에 따라 재생/중단 및 볼륨의 사운드를 자동으로 조정할 수 있는 기술이 적용된다.According to an embodiment of the present invention, the 3D VR content production system 100 plays/stops and volumes sound in a 3D stereoscopic sound set by the content creator according to the angle/distance according to the viewer's gaze in a virtual 3D space Technology that can automatically adjust is applied.

이를 위해, GUI부(110)는 콘텐츠 제작자가 3D 입체 사운드를 360도 입체 파노라마 VR 내에 적용시킬 수 있도록, 3D 입체 사운드의 적용을 위한 툴 화면을 사용자에게 제공할 수 있다. 이때, 3D 입체 사운드의 적용을 위한 툴 화면에는, 아래의 표 1에 제시된 바와 같은 설정 항목에 따른 지정(즉, 상기 360도 입체 파노라마 VR 내에 상기 입체 사운드가 삽입될 수평 및 수직 위치의 지정, 상기 입체 사운드가 출력될 사운드 출력 방향 또는 각도의 지정, 상기 입체 사운드의 오디오 볼륨의 지정, 상기 입체 사운드의 오디오 재생 속도의 지정, 상기 입체 사운드의 반복 재생 여부의 지정, 상기 입체 사운드의 출력이 실행될 기준 근접 거리의 지정 등)을 가능하게 하는 조작 윈도우가 포함될 수 있다.
To this end, the GUI unit 110 may provide a user with a tool screen for application of 3D stereoscopic sound, so that a content creator can apply 3D stereoscopic sound within a 360-degree stereoscopic panorama VR. At this time, on the tool screen for application of 3D stereoscopic sound, designation according to setting items as shown in Table 1 below (i.e., designation of horizontal and vertical positions to which the stereoscopic sound will be inserted in the 360-degree stereoscopic panorama VR, the Designation of a sound output direction or angle in which a stereoscopic sound is output, designation of an audio volume of the stereoscopic sound, designation of an audio playback speed of the stereoscopic sound, designation of whether or not the stereoscopic sound is repeatedly played, and a criterion for outputting the stereoscopic sound An operation window that enables the designation of a proximity distance, etc.) may be included.

Figure pat00001
Figure pat00001

이에 따라 콘텐츠 제작자는 상술한 조작 윈도우를 통해서 3D 공간의 특정 지점에 실감 콘텐츠로서 3D 입체 사운드를 삽입하는 것이 가능하다. 이때, 각도/거리를 세분화(예를 들어, 360 단계)하여 각도/거리에 따라 3D 입체 사운드의 재생 여부/재생 속도/볼륨 등의 조정이 가능하도록 할 수 있다(도 4 참조).Accordingly, the content creator can insert 3D stereoscopic sound as sensory content at a specific point in the 3D space through the above-described operation window. At this time, the angle/distance may be subdivided (for example, in step 360) to enable adjustment of whether to play 3D stereoscopic sound/play speed/volume according to the angle/distance (see FIG. 4).

상술한 바와 같이, 조작 윈도우를 통한 사용자(즉, 콘텐츠 제작자) 설정이 완료되면, 입체 사운드 적용부(122)는 그 설정 내용에 상응하여 해당 3D 입체 사운드를 360도 입체 파노라마 VR 내에 삽입시킨다(도 3 참조). 이에 따라 관람자의 시선에 따라 오디오가 자동 재생/멈춤이 가능하게 된다.
As described above, when the user (that is, the content creator) setting through the operation window is completed, the stereoscopic sound application unit 122 inserts the corresponding 3D stereoscopic sound into the 360-degree stereoscopic panorama VR corresponding to the setting contents (FIG. 3). Accordingly, the audio can be automatically played/paused according to the viewer's gaze.

영상 오버레이 기술Image overlay technology

기존 기술에 의할 때 360 VR 내에 단순 팝업 형태로 2D 이미지 및 비디오 재생이 이루어졌던 반면(도 9의 (a) 참조), 본 발명의 실시예에 의할 때 3D VR 콘텐츠 제작 시스템(100)은 360도 입체 파노라마 VR의 배경과 이질감이 없는 2D 이미지 및 비디오의 오버레이(overlay) 기술 및 오버플레이(overplay) 기술이 적용된다(도 9의 (b) 참조).According to the existing technology, 2D image and video playback was performed in a simple pop-up form in 360 VR (refer to FIG. 9(a)), whereas according to an embodiment of the present invention, the 3D VR content production system 100 The overlay technology and the overplay technology of a 2D image and video without a sense of heterogeneity and a background of a 360-degree stereoscopic panoramic VR are applied (see FIG. 9(b) ).

이를 위해, 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 위치의 지정 및 해당 타겟 영상의 형태 변경 등을 위한 조작이 우선적으로 요구된다. 따라서, 본 발명의 실시예예서, GUI부(110)는 상기 실감 콘텐츠로서 타겟 영상 콘텐츠의 적용을 위한 툴 화면을 사용자에게 제공한다. 이때, 상기 영상 오버레이를 위한 툴 화면에는, 아래의 표 2에 제시된 바와 같은 설정 항목에 따른 지정(즉, 상기 360도 입체 파노라마 VR 내에 상기 영상 콘텐츠가 삽입될 수평 및 수직 위치의 지정, 높이 축의 위치 지정, 삽입될 영상의 사이즈의 지정, 삽입될 영상의 외곽 테두리 형상의 변형의 지정 등)을 가능하게 하는 조작 윈도우가 포함될 수 있다. 영상 오버레이를 위한 조작 윈도우로서 도 5에는 리모콘 형상의 컨트롤러가 예시되고 있다.
To this end, the operation for designating a position to overlay a specific target image in a 360-degree stereoscopic VR and changing the shape of the target image is first required. Accordingly, in an embodiment of the present invention, the GUI unit 110 provides a user with a tool screen for application of target video content as the sensory content. At this time, on the tool screen for the image overlay, designation according to the setting items as shown in Table 2 below (that is, designation of horizontal and vertical positions to which the video content will be inserted in the 360-degree stereoscopic VR, position of the height axis) An operation window for designating, specifying a size of an image to be inserted, designating a deformation of an outer border shape of an image to be inserted, and the like) may be included. As a manipulation window for image overlay, a controller in the form of a remote controller is illustrated in FIG. 5.

Figure pat00002
Figure pat00002

이에 의하면, 3D 환경에서 타겟 영상의 오버레이 위치를 설정함에 있어서, 3D 축인 X, Y, Z 좌표와 상관축 및 각도를 계산하고, 해당 수치들을 조정할 수 있으며, 사용자(콘텐츠 제작자)는 조작 윈도우에 따른 GUI를 조정하여 복잡한 계산 없이 3D 화면상에 원하는 타겟 영상을 병합 가능하게 된다. 이때, 오버레이될 공간 위치와 크기 등의 다양한 설정 항목을 정확한 수치 또는 터치와 커서로 자유롭게 조절할 수 있다.According to this, in setting the overlay position of the target image in the 3D environment, the 3D axes X, Y, and Z coordinates and the correlation axis and angle can be calculated, and the corresponding values can be adjusted, and the user (content creator) can operate according to the operation window. By adjusting the GUI, it is possible to merge desired target images on a 3D screen without complicated calculation. At this time, various setting items such as the position and size of the space to be overlaid can be freely adjusted with an accurate numerical value or a touch and a cursor.

조작 윈도우를 통한 사용자(즉, 콘텐츠 제작자) 설정이 완료되면, 영상 오버레이 처리부(124)는 그 설정 내용에 상응하여 해당 타겟 영상 콘텐츠를 360도 입체 파노라마 VR 내에 오버레이시켜 삽입시킨다(도 9의 (b) 참조).When the user (that is, the content creator) setting through the operation window is completed, the image overlay processing unit 124 inserts the target image content by overlaying it in the 360-degree three-dimensional panoramic VR corresponding to the setting contents (FIG. ) Reference).

또한 본 발명의 실시예에서는 타겟 영상을 몰입감을 높인 360도 입체 파노라마 VR과 하나로 병합하기 위해 SURF(Speeded Up Robust Features)알고리즘과 RANRAC(RANdomSAmple Consensus)알고리즘을 사용하여 호모그래피 매트릭스(Homography Matrix)를 구하고 병합하고자 하는 타겟 영상의 대응점을 구하고 이를 적용해 더 선명하고 정확한 영상 병합 알고리즘이 적용된다. 이때, 병합 좌표 주변 영역의 RGB 값을 사용하여 잘못된 대응점들을 제거하는 중간 필터링 과정을 수행하고, 이미지 병합 처리 속도 향상과 이미지 병합 정확도(즉, 이미지 변별성 및 시안성)을 개선하는 병합 방식이 적용될 수 있다. 이에 대하여 구체적으로 설명하면 다음과 같다.In addition, in the embodiment of the present invention, a homography matrix is obtained by using a Speeded Up Robust Features (SURF) algorithm and a RANRAC (RANdomSAmple Consensus) algorithm to merge the target image into one with a 360-degree stereo panorama VR with increased immersion. The corresponding merging point of the target image to be merged is obtained and a sharper and more accurate image merging algorithm is applied. At this time, an intermediate filtering process is performed to remove incorrect correspondence points using the RGB values in the area around the merged coordinates, and a merge method for improving image merge processing speed and improving image merge accuracy (ie, image discrimination and cyan) can be applied. have. This will be described in detail as follows.

즉, 영상 오버레이 처리부(124)는, 특징정보 추출 알고리즘을 이용하여 상기 실감 콘텐츠로서 삽입될 타겟 영상의 특징정보를 추출하고, RANSAC(Random Sample Consensus) 알고리즘을 이용하여 상기 추출된 특징정보 중 아웃리어(outlier)에 해당하는 특징정보를 제거하는 회귀 계산의 반복을 통해서 오버레이될 영상 간의 대응점 추출을 위한 호모그래피 매트릭스를 구하는 방식으로, 상기 타겟 영상을 상기 360도 입체 파노라마 VR 내의 특정 좌표 영역에 오버레이 병합시킨다.That is, the image overlay processor 124 extracts feature information of a target image to be inserted as the sensory content using a feature information extraction algorithm, and uses the RANSAC (Random Sample Consensus) algorithm to perform an outside of the extracted feature information. By overlaying the target image with a specific coordinate region within the 360-degree panoramic panorama VR in a manner to obtain a homography matrix for extracting a corresponding point between images to be overlaid through repetition of regression calculation to remove feature information corresponding to (outlier) Order.

이때, RANSAC 알고리즘을 적용하기에 앞서, 상기 360도 입체 파노라마 VR 내에서 상기 타겟 영상이 오버레이될 좌표 영역 주변의 RGB 값과 상기 타겟 영상의 RGB 값 간의 차이가 사전 지정된 임계치 내에 있는지 여부를 판단하여, 상기 차이가 상기 임계치를 초과하는 대응점들을 제거하는 중간 필터링 과정을 선 수행함으로써, 이미지 병합의 속도 및 정확성을 더욱 높일 수 있다(도 7 및 도 8 참조).
At this time, prior to applying the RANSAC algorithm, it is determined whether or not the difference between the RGB value around the coordinate area to which the target image is to be overlaid in the 360-degree stereoscopic VR and the RGB value of the target image is within a predetermined threshold, By performing an intermediate filtering process to remove the corresponding points where the difference exceeds the threshold, the speed and accuracy of image merging can be further increased (see FIGS. 7 and 8 ).

인터랙티브Interactive 액션 활성화 기술 Action activation technology

또한 기존 기술에 의할 때, 360도 입체 파노라마 VR 내에 인터랙티브 핫스팟(Interactive hotspot)을 정의하고 터치 등의 액션을 통하여 인터랙티브 액션이 실행되는 방식에 의한다. 이때, 기존 기술에 의하면, 인터랙티브 액션이 실행되는 조건 만족을 위한 인덱스(Index) 정의가 단편 일률적이다. 예를 들어, 특정 포인트를 5초 이상 바라볼 때 또는 특정 포인트를 단순 터치하였을 때 등이 바로 그것이다.Also, according to the existing technology, an interactive hotspot is defined in a 360-degree three-dimensional panoramic VR, and the interactive action is executed through an action such as a touch. At this time, according to the existing technique, the index definition for satisfying the condition that the interactive action is executed is uniform. For example, when looking at a specific point for 5 seconds or more, or simply touching a specific point.

반면 본 발명의 실시예에 의할 때, 사용자(관람자)의 뷰 포인트를 분석하여 특정 조건을 만족시 인터랙티브 액션이 자동으로 실행 또는 중지되도록 한다. 이때의 특정 조건이란 예를 들어 사용자의 뷰 포인트가 시각의 60% 이상 오버레이될 때 등일 수 있다. 이에 따라 본 발명의 실시예에서는 360도 입체 파노라마 VR 이미지의 픽셀과 현재 사용자가 바라보는 뷰 포인트를 분석(예를 들어, Level 5단계)하고, 특정 조건(특정 level) 이상 & 매칭되는 픽셀 수치를 분석하여 인터랙티브 액션의 실행 여부 결정할 수 있다. 이에 대하여 보다 구체적으로 설명하면 다음과 같다.On the other hand, according to an embodiment of the present invention, the view point of the user (viewer) is analyzed to automatically execute or stop the interactive action when a specific condition is satisfied. The specific condition at this time may be, for example, when the user's view point is overlaid by 60% or more of the time. Accordingly, in the embodiment of the present invention, a pixel of a 360-degree stereoscopic panoramic VR image and a viewpoint viewed by the current user are analyzed (for example, Level 5), and a pixel value that is more than & equal to a specific condition (specific level) is matched. By analyzing, it is possible to determine whether to execute the interactive action. This will be described in more detail as follows.

즉, 뷰 포인트 분석부(140)는 사용자가 현재 바라보는 시점(view point)을 트래킹(tracking)하여, 상기 360도 입체 파노라마 VR 내의 좌표 픽셀과 상기 사용자의 시점 간을 매칭 및 분석한다. 이때, 인터랙티브 액션 처리부(130)는 분석된 뷰 포인트에 상응하는 상기 360도 입체 파노라마 VR 내의 좌표 픽셀의 화면 위치에, 응시 시간의 길이에 맞춰 사전 지정된 채도 스펙트럼에 따른 색상을 표출할 수 있다. 도 6의 경우 뷰 포인트를 레인보우 컬러(Rainbow color)로 분리하여 정의하고 있다. 예를 들어, 도 6에서 붉은색(Red)은 Most-stared-at 뷰 포인트 또는 Longgest-attention holding 뷰 포인트에 해당한다. 이와 같이 본 발명의 실시예에서는 색상 스펙트럼으로 뷰 포인트를 분리하여 정의하고 이에 따른 인터랙티브 액션을 결정할 수 있다.That is, the view point analysis unit 140 tracks a view point that the user is currently viewing, and matches and analyzes a coordinate pixel in the 360-degree stereoscopic panorama VR and the user's viewpoint. At this time, the interactive action processor 130 may display a color according to a predetermined saturation spectrum according to the length of the gaze time, on the screen position of the coordinate pixel in the 360-degree stereoscopic panorama VR corresponding to the analyzed view point. In the case of FIG. 6, the view point is defined by separating it into a rainbow color. For example, red in FIG. 6 corresponds to a Most-stared-at view point or Longgest-attention holding view point. As described above, in the embodiment of the present invention, a view point is separately defined by a color spectrum, and an interactive action can be determined accordingly.

이에 따라 인터랙티브 액션 처리부(130)는, 분석된 뷰 포인트에서의 응시 유지 시간이 사전 지정된 기준을 만족하는 경우 해당 좌표 영역에 적용된 실감 콘텐츠를 실행하고, 분석된 뷰 포인트에 따른 좌표 영역이 이전과 다르게 변경되는 경우 실행 중인 실감 콘텐츠를 중지할 수 있다.Accordingly, the interactive action processing unit 130 executes the sensational content applied to the corresponding coordinate area when the gaze retention time at the analyzed view point satisfies a predetermined criterion, and the coordinate area according to the analyzed view point is different from the previous one. If it changes, you can stop running sensory content.

또한 본 발명의 실시예에 의할 때, 분석된 뷰 포인트에 상응하는 좌표 영역에 적용된 실감 콘텐츠의 인터랙티브 액션의 실행 방식으로서, 아래의 표 3에 도시된 바와 같이, 해당 좌표 영역 관련 공간으로의 장소 이동, 오버레이된 동영상의 재생, 입체 사운드의 오디오 출력, 지정된 외부 링크로의 연결 또는 링크 재생, 증강정보의 표출(즉, 정보 박스의 팝업 및 정보 삽입 등), 지정된 전화번호로의 전화 걸기, 물품 구매 및 결제 등이 적용될 수 있다.
In addition, according to an embodiment of the present invention, as an execution method of interactive action of sensory content applied to a coordinate area corresponding to the analyzed view point, as shown in Table 3 below, a place to a space related to the coordinate area Movement, playback of overlaid video, audio output of stereoscopic sound, connection or link playback to a designated external link, display of augmented information (i.e. pop-up of information box and insertion of information, etc.), dialing to a specified phone number, goods Purchase and payment may be applied.

Figure pat00003
Figure pat00003

이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.Although described above with reference to the embodiments of the present invention, those skilled in the art variously modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. And it can be easily understood.

Claims (7)

3D VR(3-dimension Virtual Reality) 콘텐츠 제작 시스템으로서,
기 제작된 360도 입체 파노라마 VR 내에 실감 콘텐츠를 삽입할 수 있도록 보조하는 소프트웨어 툴(software tool)을 사용자에게 제공하며, 사용자 입력을 수신하는 GUI(Graphical User Interface)부;
상기 GUI부를 통해 사용자가 지정한 실감 콘텐츠를 상기 360도 입체 파노라마 VR 내에 적용하는 실감 콘텐츠 적용부;
사용자 액션에 반응하여 상기 360도 입체 파노라마 VR 내에 적용된 실감 콘텐츠의 실행을 제어하는 인터랙티브 액션 처리부
를 포함하는 3D VR 콘텐츠 제작 시스템.
3D VR (3-dimension Virtual Reality) content production system,
A GUI (Graphical User Interface) unit for providing a user with a software tool to assist in inserting sensational content into a pre-made 360-degree panoramic VR, and receiving user input;
A sensory content application unit that applies the user-designated sensory content to the 360-degree panoramic panorama VR through the GUI unit;
Interactive action processing unit that controls the execution of sensational content applied in the 360-degree stereoscopic panorama VR in response to a user action
3D VR content production system comprising a.
제1항에 있어서,
상기 GUI부는, 상기 실감 콘텐츠로서 입체 사운드의 적용을 위한 툴 화면을 사용자에게 제공하되,
상기 툴 화면에는, 상기 360도 입체 파노라마 VR 내에 상기 입체 사운드가 삽입될 수평 및 수직 위치의 지정, 상기 입체 사운드가 출력될 사운드 출력 ??향 또는 각도의 지정, 상기 입체 사운드의 오디오 볼륨의 지정, 상기 입체 사운드의 오디오 재생 속도의 지정, 상기 입체 사운드의 반복 재생 여부의 지정, 상기 입체 사운드의 출력이 실행될 기준 근접 거리의 지정을 가능하게 하는 조작 윈도우가 포함되고,
상기 실감 콘텐츠 적용부는, 상기 조작 윈도우를 통해서 사용자에 의해 지정된 지정 내용에 상응하여 상기 입체 사운드를 상기 360도 입체 파노라마 VR 내에 삽입하는 입체 사운드 적용부를 포함하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.
According to claim 1,
The GUI unit provides a user with a tool screen for applying stereoscopic sound as the sensory content,
On the tool screen, the horizontal and vertical positions to which the stereoscopic sound is to be inserted in the 360-degree stereoscopic panorama VR, the sound output to which the stereoscopic sound is output, the direction or angle, the audio volume of the stereoscopic sound, An operation window is provided that enables designation of an audio reproduction speed of the stereoscopic sound, designation of whether to reproduce the stereoscopic sound repeatedly, and a reference proximity distance to which the stereoscopic sound is to be output.
The sensory content application unit includes a stereoscopic sound application unit that inserts the stereoscopic sound into the 360-degree panoramic panorama VR in correspondence with a designation specified by a user through the manipulation window.
제1항에 있어서,
상기 GUI부는, 상기 실감 콘텐츠로서 영상 콘텐츠의 적용을 위한 툴 화면을 사용자에게 제공하되,
상기 툴 화면에는, 상기 360도 입체 파노라마 VR 내에 상기 영상 콘텐츠가 삽입될 수평 및 수직 위치의 지정, 높이 축의 위치 지정, 삽입될 영상의 사이즈의 지정, 삽입될 영상의 외곽 테두리 형상의 변형의 지정을 가능하게 하는 조작 윈도우가 포함되고,
상기 실감 콘텐츠 적용부는, 상기 조작 윈도우를 통해서 사용자에 의해 지정된 지정 내용에 상응하여 상기 영상 콘텐츠를 상기 360도 입체 파노라마 VR 내에 오버레이(overlay)시켜 삽입하는 영상 오버레이 처리부를 포함하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.
According to claim 1,
The GUI unit provides a user with a tool screen for applying video content as the sensory content,
On the tool screen, the horizontal and vertical positions to which the video content is to be inserted, the position of the height axis, the size of the image to be inserted, and the modification of the shape of the outer border of the image to be inserted are specified in the 360-degree panoramic VR. Includes an operation window to enable,
The sensory content application unit includes a video overlay processing unit for overlaying and inserting the video content into the 360-degree panoramic panorama VR in correspondence with a designation specified by a user through the manipulation window. VR content production system.
제3항에 있어서,
상기 영상 오버레이 처리부는,
특징정보 추출 알고리즘을 이용하여 상기 실감 콘텐츠로서 삽입될 타겟 영상의 특징정보를 추출하고, RANSAC(Random Sample Consensus) 알고리즘을 이용하여 상기 추출된 특징정보 중 아웃리어(outlier)에 해당하는 특징정보를 제거하는 회귀 계산의 반복을 통해서 오버레이될 영상 간의 대응점 추출을 위한 호모그래피 매트릭스(Homography Matrix)를 구하는 방식으로, 상기 타겟 영상을 상기 360도 입체 파노라마 VR 내의 특정 좌표 영역에 오버레이 병합시키되,
상기 RANSAC 알고리즘을 적용하기에 앞서, 상기 360도 입체 파노라마 VR 내에서 상기 타겟 영상이 오버레이될 좌표 영역 주변의 RGB 값과 상기 타겟 영상의 RGB 값 간의 차이가 사전 지정된 임계치 내에 있는지 여부를 판단하여, 상기 차이가 상기 임계치를 초과하는 대응점들을 제거하는 중간 필터링 과정을 수행하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.
According to claim 3,
The image overlay processing unit,
The feature information extraction algorithm is used to extract the feature information of the target image to be inserted as the sensory content, and the feature information corresponding to the outlier is removed from the extracted feature information using the RANSAC (Random Sample Consensus) algorithm. In a manner of obtaining a homography matrix for extracting a corresponding point between images to be overlaid through repetition of the regression calculation, the target image is overlaid and merged to a specific coordinate region in the 360-dimensional stereoscopic panorama VR,
Before applying the RANSAC algorithm, it is determined whether or not the difference between the RGB value around the coordinate region to which the target image will be overlaid within the 360-degree stereoscopic VR and the RGB value of the target image is within a predetermined threshold, and 3D VR content production system, characterized by performing an intermediate filtering process to remove the corresponding points where the difference exceeds the threshold.
제4항에 있어서,
상기 사용자가 현재 바라보는 시점(view point)을 트래킹(tracking)하여, 상기 360도 입체 파노라마 VR 내의 좌표 픽셀과 상기 사용자의 시점 간을 매칭 및 분석하는 뷰 포인트 분석부를 더 포함하되,
상기 인터랙티브 액션 처리부는, 분석된 뷰 포인트에 상응하는 상기 360도 입체 파노라마 VR 내의 좌표 픽셀의 화면 위치에, 응시 시간의 길이에 맞춰 사전 지정된 채도 스펙트럼에 따른 색상을 표출하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.
According to claim 4,
Further comprising a view point analysis unit for tracking and matching the viewpoint between the user's point of view and tracking the user's point of view by tracking the view point currently viewed by the user,
The interactive action processor displays a color according to a predetermined saturation spectrum according to the length of the gaze time at a screen position of a coordinate pixel in the 360-degree stereoscopic panorama VR corresponding to the analyzed view point, 3D VR Content production system.
제5항에 있어서,
상기 인터랙티브 액션 처리부는,
분석된 뷰 포인트에 상응하는 상기 360도 입체 파노라마 VR 내의 좌표 영역에 상기 실감 콘텐츠가 적용되어 있고, 분석된 뷰 포인트에서의 응시 유지 시간이 사전 지정된 기준을 만족하는 경우 해당 좌표 영역에 적용된 실감 콘텐츠를 실행하고, 분석된 뷰 포인트에 따른 좌표 영역이 이전과 다르게 변경되는 경우 실행 중인 실감 콘텐츠를 중지하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.
The method of claim 5,
The interactive action processing unit,
If the sensory content is applied to the coordinate area in the 360-degree stereoscopic panorama VR corresponding to the analyzed view point, and the gaze retention time at the analyzed view point satisfies a predetermined criterion, the sensory content applied to the corresponding coordinate area is displayed. 3D VR content production system, characterized in that, when the coordinate region according to the analyzed view point is changed differently from the previous one, the running sensory content is stopped.
제6항에 있어서,
상기 인터랙티브 액션 처리부는,
분석된 뷰 포인트에 상응하는 좌표 영역에 적용된 실감 콘텐츠의 실행으로서, 해당 좌표 영역 관련 공간으로의 장소 이동, 오버레이된 동영상의 재생, 입체 사운드의 오디오 출력, 지정된 외부 링크로의 연결 또는 링크 재생, 증강정보의 표출, 지정된 전화번호로의 전화 걸기, 물품 구매 및 결제 중 적어도 하나의 인터랙티브 액션을 실행하는, 3D VR 콘텐츠 제작 시스템.
The method of claim 6,
The interactive action processing unit,
Execution of sensational content applied to the coordinate area corresponding to the analyzed view point, moving the place to the space related to the coordinate area, playing the overlayed video, outputting stereoscopic sound, connecting or linking to a specified external link, or augmenting A 3D VR content production system that executes at least one interactive action of displaying information, making a call to a designated phone number, purchasing goods, and making payments.
KR1020180165133A 2018-12-19 2018-12-19 System for producing 3 dimension virtual reality content KR102239877B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180165133A KR102239877B1 (en) 2018-12-19 2018-12-19 System for producing 3 dimension virtual reality content
PCT/KR2019/010519 WO2020130275A1 (en) 2018-12-19 2019-08-19 Three-dimensional vr content production system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180165133A KR102239877B1 (en) 2018-12-19 2018-12-19 System for producing 3 dimension virtual reality content

Publications (2)

Publication Number Publication Date
KR20200076234A true KR20200076234A (en) 2020-06-29
KR102239877B1 KR102239877B1 (en) 2021-04-12

Family

ID=71102249

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180165133A KR102239877B1 (en) 2018-12-19 2018-12-19 System for producing 3 dimension virtual reality content

Country Status (2)

Country Link
KR (1) KR102239877B1 (en)
WO (1) WO2020130275A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136160A (en) * 2015-05-19 2016-11-29 주식회사 드로잉쇼 Virtual Reality Performance System and Performance Method
KR20170130582A (en) * 2015-08-04 2017-11-28 구글 엘엘씨 Hover behavior for gaze interaction in virtual reality
KR20180081274A (en) * 2017-01-06 2018-07-16 한국과학기술원 Method and system for making training program based on virtual reality
KR101908068B1 (en) * 2018-07-24 2018-10-15 주식회사 루씨드드림 System for Authoring and Playing 360° VR Contents

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136160A (en) * 2015-05-19 2016-11-29 주식회사 드로잉쇼 Virtual Reality Performance System and Performance Method
KR20170130582A (en) * 2015-08-04 2017-11-28 구글 엘엘씨 Hover behavior for gaze interaction in virtual reality
KR20180081274A (en) * 2017-01-06 2018-07-16 한국과학기술원 Method and system for making training program based on virtual reality
KR101908068B1 (en) * 2018-07-24 2018-10-15 주식회사 루씨드드림 System for Authoring and Playing 360° VR Contents

Also Published As

Publication number Publication date
KR102239877B1 (en) 2021-04-12
WO2020130275A1 (en) 2020-06-25

Similar Documents

Publication Publication Date Title
WO2022095467A1 (en) Display method and apparatus in augmented reality scene, device, medium and program
US10609332B1 (en) Video conferencing supporting a composite video stream
US8644467B2 (en) Video conferencing system, method, and computer program storage device
US20210264139A1 (en) Creating videos with facial expressions
US20160198097A1 (en) System and method for inserting objects into an image or sequence of images
CN106648098B (en) AR projection method and system for user-defined scene
KR20140082610A (en) Method and apaaratus for augmented exhibition contents in portable terminal
US20210166485A1 (en) Method and apparatus for generating augmented reality images
CN113542624A (en) Method and device for generating commodity object explanation video
CN105791390A (en) Data transmission method, device and system
JP2019527899A (en) System and method for generating a 3D interactive environment using virtual depth
KR101613777B1 (en) Service system and service method for live dance class and live dance music room
KR101773891B1 (en) System and Computer Implemented Method for Playing Compoiste Video through Selection of Environment Object in Real Time Manner
CN111107264A (en) Image processing method, image processing device, storage medium and terminal
Fradet et al. [poster] mr TV mozaik: A new mixed reality interactive TV experience
KR102239877B1 (en) System for producing 3 dimension virtual reality content
US20220207848A1 (en) Method and apparatus for generating three dimensional images
Cha et al. Client system for realistic broadcasting: A first prototype
CN103295023A (en) Method and device for displaying augmented reality information
KR101843024B1 (en) System and Computer Implemented Method for Playing Compoiste Video through Selection of Environment Object in Real Time Manner
US9967546B2 (en) Method and apparatus for converting 2D-images and videos to 3D for consumer, commercial and professional applications
KR20170002921A (en) Apparatus and method for creating digital building instruction
US20230326161A1 (en) Data processing method and apparatus, electronic device, computer-readable storage medium, and computer program product
WO2018018076A1 (en) Creating videos with facial expressions
KR20130081569A (en) Apparatus and method for outputting 3d image

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant