WO2020130275A1 - Three-dimensional vr content production system - Google Patents

Three-dimensional vr content production system Download PDF

Info

Publication number
WO2020130275A1
WO2020130275A1 PCT/KR2019/010519 KR2019010519W WO2020130275A1 WO 2020130275 A1 WO2020130275 A1 WO 2020130275A1 KR 2019010519 W KR2019010519 W KR 2019010519W WO 2020130275 A1 WO2020130275 A1 WO 2020130275A1
Authority
WO
WIPO (PCT)
Prior art keywords
content
stereoscopic
user
degree
panorama
Prior art date
Application number
PCT/KR2019/010519
Other languages
French (fr)
Korean (ko)
Inventor
김성국
Original Assignee
주식회사 에이투젯
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 에이투젯 filed Critical 주식회사 에이투젯
Publication of WO2020130275A1 publication Critical patent/WO2020130275A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Architecture (AREA)
  • General Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Strategic Management (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a mixed virtual reality (VR) content production technology and a platform implementation technology for same, which applies an automatic 3D object generation technology, a VR overlay technology, a responsive 3D stereoscopic sound technology, and the like to production of VR contents so as to enhance user interaction and enable merging with heterogeneous media, and enables production of VR contents which can be immediately operated on an existing commercial hardware device (for example, a PC, a smartphone, an HMD, and the like). According to an embodiment of the present invention relating to a mixed VR content production and platform implementation technology, VR contents which can be used in various fields, such as tourism business (for example, VR promotion, experience, reservation, payment, and the like), shopping (for example, home shopping, sales of tourist souvenirs, etc., payment, and the like), education, and real estate, can be easily produced, and even small business owners and individuals can create independent apps and webs using mixed VR contents that are created thereby, so as to provide promotion and services thereof.

Description

3차원 VR 콘텐츠 제작 시스템3D VR content production system
본 발명은 VR(Virtual Reality) 콘텐츠를 제작함에 있어서 3D 오브젝트 자동 생성 기술, VR 오버레이 기술, 반응형 3D 입체 사운드 기술 등을 적용함으로써 사용자 인터랙션이 강화됨은 물론 이종 미디어와의 병합이 가능하며 기존의 상용 하드웨어 기기(예를 들어, PC, 스마트폰, HMD 등)에서 즉시 작동이 가능한 VR 콘텐츠를 제작할 수 있는 Mixed VR 콘텐츠 제작 기술 및 이를 위한 플랫폼 구현 기술에 관한 것이다.In the present invention, user interaction is strengthened by applying 3D object automatic generation technology, VR overlay technology, responsive 3D stereoscopic sound technology, etc. in creating VR (Virtual Reality) content, and merging with heterogeneous media is possible. It relates to a mixed VR content production technology capable of producing VR content that can be operated immediately on a hardware device (for example, a PC, a smartphone, a HMD, etc.) and a platform implementation technology for the same.
최근 들어 360도 VR(Virtual Reality) 콘텐츠가 각광받고 있는데, 개인들도 액션캠, 360도 카메라, 드론 등을 이용하여 많은 VR 콘텐츠를 제작하고 있다. 또한 기업과 국가에서도 다양한 형태의 VR 콘텐츠를 제작하고 제공하고 있는데, 지금까지는 개별적인 VR 콘텐츠를 많은 비용을 투자해 제작 업체에 의뢰하는 형태가 대다수였다. 이러한 이유로 수준 높은 VR 콘텐츠가 적고 일반 소비자에게 다가가기 힘든 악순환이 이어지고 있다.Recently, 360-degree VR (Virtual Reality) content has been spotlighted, and individuals are also producing a lot of VR content using action cams, 360-degree cameras, and drones. In addition, companies and countries also produce and provide various types of VR content. Until now, many types of individual VR content were commissioned to production companies by investing a lot of money. For this reason, there is a vicious cycle with few high-quality VR contents and hard to reach the general consumer.
현재 VR 콘텐츠의 경우, 그 비즈니스 모델이 아직 확립되지 않은 초기 시장의 형태로 이를 타파하고 실생활에서 VR 콘텐츠가 활성화 되기 위해서는 더 많은 개인 창작자들이 다양한 VR 콘텐츠를 만들고 이를 활용한 실제 사업이 꾸준히 전개되어야 한다.In the case of current VR contents, in order to overcome this in the form of an initial market whose business model has not yet been established and to activate VR contents in real life, more and more individual creators must make various VR contents and actual business using them must be steadily developed. .
이러한 시장 상황에서 관광 비즈니스 소상공인, 기업, 관공서에 이르기까지 다양한 분야에서 활용이 가능한 개방형 VR 콘텐츠 플랫폼으로서 Mixed VR 플랫폼이 제공되어야 할 필요가 있다. 이러한 Mixed VR 플렛폼이 제공되게 되면, 관광 비즈니스(예를 들면, VR 홍보, 체험, 예약, 결제 등), 쇼핑(예를 들면, 홈쇼핑, 관광기념품 등의 판매, 결제 등), 교육, 부동산 등 다양한 분야로 활용이 가능하다.In this market situation, a mixed VR platform needs to be provided as an open VR content platform that can be used in various fields, from small businesses to businesses, businesses, and government offices. When this Mixed VR platform is provided, it can be used for various tourism business (e.g., VR promotion, experience, reservation, payment, etc.), shopping (e.g., home shopping, sales of tourist souvenirs, payment, etc.), education, real estate, etc. It can be used as a field.
또한 Mixed VR 플랫폼에 의하면, 이미 보편화된 파노라마 이미지(예를 들면, 스마트폰, 디지털 카메라에 의해 생성되는 파노라마 이미지), 360도 카메라(예를 들어, 인스타 360, 삼성Gear 360 등), 액션캠(예를 들어, 360도 액션캠) 등을 활용해 촬영한 이미지와 동영상을 이용하여 VR 관광 비즈니스, VR 쇼핑몰 등을 손쉽게 운영할 수 있게 된다.In addition, according to the Mixed VR platform, a panoramic image (eg, a panoramic image generated by a smartphone or a digital camera), a 360-degree camera (for example, Insta 360, Samsung Gear 360, etc.), an action cam (For example, a 360-degree action cam) can be used to easily operate a VR tourism business, a VR shopping mall, etc. by using images and videos shot using it.
또한 이러한 Mixed VR 플랫폼에 의하면, 유투브로 인해 유투버라 불리는 개인 영상 콘텐츠 창작자 시대가 열린 것과 같이, 개방형 VR 콘텐츠 제작 시대를 열수 있을 것으로 기대된다.In addition, according to this Mixed VR platform, it is expected that the era of the creation of an open VR content can be opened, as the era of personal video content creator called YouTube is opened due to YouTube.
본 발명은 VR(Virtual Reality) 콘텐츠를 제작함에 있어서 3D 오브젝트 자동 생성 기술, VR 오버레이 기술, 반응형 3D 입체 사운드 기술 등을 적용함으로써 사용자 인터랙션이 강화됨은 물론 이종 미디어와의 병합이 가능하며 기존의 상용 하드웨어 기기(예를 들어, PC, 스마트폰, HMD 등)에서 즉시 작동이 가능한 VR 콘텐츠를 제작할 수 있는 Mixed VR 콘텐츠 제작 기술 및 이를 위한 플랫폼 구현 기술을 제공하고자 한다.In the present invention, user interaction is strengthened by applying 3D object automatic generation technology, VR overlay technology, responsive 3D stereoscopic sound technology, etc. in creating VR (Virtual Reality) content, and merging with heterogeneous media is possible. It is intended to provide a mixed VR content production technology capable of producing VR content that can be operated immediately on a hardware device (for example, a PC, smartphone, HMD, etc.) and a platform implementation technology for the same.
본 발명의 일 측면에 따르면, 3D VR(3-dimension Virtual Reality) 콘텐츠 제작 시스템으로서, 기 제작된 360도 입체 파노라마 VR 내에 실감 콘텐츠를 삽입할 수 있도록 보조하는 소프트웨어 툴(software tool)을 사용자에게 제공하며, 사용자 입력을 수신하는 GUI(Graphical User Interface)부; 상기 GUI부를 통해 사용자가 지정한 실감 콘텐츠를 상기 360도 입체 파노라마 VR 내에 적용하는 실감 콘텐츠 적용부; 사용자 액션에 반응하여 상기 360도 입체 파노라마 VR 내에 적용된 실감 콘텐츠의 실행을 제어하는 인터랙티브 액션 처리부를 포함하는 3D VR 콘텐츠 제작 시스템이 제공된다.According to an aspect of the present invention, a 3D VR (3-dimension Virtual Reality) content production system, providing a user with a software tool (software tool) to assist in inserting realistic content into a pre-made 360-degree stereoscopic VR And a GUI (Graphical User Interface) unit for receiving user input; A sensory content application unit that applies the user-designated sensory content to the 360-degree panoramic panorama VR through the GUI unit; A 3D VR content production system is provided that includes an interactive action processing unit that controls execution of sensory content applied in the 360-degree panoramic VR in response to a user action.
본 발명의 실시예에 의하면, VR(Virtual Reality) 콘텐츠를 제작함에 있어서 3D 오브젝트 자동 생성 기술, VR 오버레이 기술, 반응형 3D 입체 사운드 기술 등을 적용함으로써 사용자 인터랙션이 강화됨은 물론 이종 미디어와의 병합이 가능하며 기존의 상용 하드웨어 기기(예를 들어, PC, 스마트폰, HMD 등)에서 즉시 작동이 가능한 VR 콘텐츠를 제작할 수 있는 Mixed VR 콘텐츠 제작 기술 및 이를 위한 플랫폼 구현 기술을 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, in creating VR (Virtual Reality) content, user interaction is enhanced by applying 3D object automatic generation technology, VR overlay technology, responsive 3D stereoscopic sound technology, etc. It is possible and has the effect of providing mixed VR content creation technology and platform implementation technology for creating VR content that can be operated immediately on existing commercial hardware devices (eg, PC, smartphone, HMD, etc.). .
또한 본 발명의 실시예에 따른 Mixed VR 콘텐츠 제작 및 플랫폼 구현 기술에 의하면, 관광 비즈니스(예를 들면, VR 홍보, 체험, 예약, 결제 등), 쇼핑(예를 들면, 홈쇼핑, 관광기념품 등의 판매, 결제 등), 교육, 부동산 등 다양한 분야로 활용이 가능한 VR 콘텐츠를 손쉽게 제작할 수 있고, 소상공인, 개인들도 자신이 만든 Mixed VR 콘텐츠를 독립된 APP과 WEB으로 만들어 홍보 및 서비스가 가능한 효과가 있다.In addition, according to the mixed VR content production and platform implementation technology according to an embodiment of the present invention, tourism business (e.g., VR promotion, experience, reservation, payment, etc.), shopping (e.g., home shopping, sales of tourism souvenirs, etc.) , Payment, etc.), education, real estate can easily produce VR content that can be used in various fields, and small businesses and individuals can create their own mixed VR content as independent APP and WEB to promote and service.
도 1은 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 툴 및 플랫폼을 전반적으로 설명하기 위한 도면.1 is a view for explaining the overall 3D VR content creation tool and platform according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템에 관한 블록 구성도.2 is a block diagram of a 3D VR content production system according to an embodiment of the present invention.
도 3은 360도 입체 파노라마 VR 내에 입체 사운드를 실감 콘텐츠로서 삽입한 예시 도면.Fig. 3 is an exemplary diagram in which stereoscopic sound is inserted into the 360-degree stereoscopic panorama VR as sensory content.
도 4는 실감 콘텐츠로서 입체 사운드의 설정 조건을 설명하기 위한 참조 도면.Fig. 4 is a reference diagram for explaining setting conditions of stereoscopic sound as sensory content.
도 5는 360도 입체 파노라마 VR 내에서 동영상 비디오를 실감 콘텐츠로서 삽입하기 위한 조작 윈도우를 예시한 참조 도면.FIG. 5 is a reference diagram illustrating an operation window for inserting a video of a video as a immersive content within a 360-degree stereoscopic panorama VR.
도 6은 360도 입체 파노라마 VR 내의 좌표 영역에 사용자의 뷰 포인트에 상응하는 레인보우 색상 스펙트럼의 응시 강도를 표출한 예를 도시한 참조 도면.FIG. 6 is a reference diagram illustrating an example in which gaze intensity of a rainbow color spectrum corresponding to a user's view point is expressed in a coordinate region within a 360-degree stereoscopic panorama VR.
도 7은 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 때의 중간 필터링 과정을 설명하기 위한 도면.7 is a diagram for explaining an intermediate filtering process when overlaying a specific target image in a 360-degree stereoscopic panorama VR.
도 8은 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 때의 본 발명의 실시예에 따른 영상 오버레이 알고리즘과 기존 기술과의 성능을 대조 설명하기 위한 비교표.8 is a comparison table for contrasting the performance of an image overlay algorithm and an existing technology according to an embodiment of the present invention when overlaying a specific target image in a 360-degree stereoscopic panorama VR.
본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변환, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.The present invention can be applied to a variety of transformations and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail in the detailed description. However, this is not intended to limit the present invention to specific embodiments, and should be understood to include all conversions, equivalents, and substitutes included in the spirit and scope of the present invention.
본 발명을 설명함에 있어서, 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.In describing the present invention, when it is determined that detailed descriptions of related known technologies may unnecessarily obscure the subject matter of the present invention, detailed descriptions thereof will be omitted. In addition, the numbers (for example, first, second, etc.) used in the description process of this specification are only identification symbols for distinguishing one component from other components.
또한, 명세서 전체에서, 일 구성요소가 다른 구성요소와 "연결된다" 거나 "접속된다" 등으로 언급된 때에는, 상기 일 구성요소가 상기 다른 구성요소와 직접 연결되거나 또는 직접 접속될 수도 있지만, 특별히 반대되는 기재가 존재하지 않는 이상, 중간에 또 다른 구성요소를 매개하여 연결되거나 또는 접속될 수도 있다고 이해되어야 할 것이다. 또한, 명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하나 이상의 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 조합으로 구현될 수 있음을 의미한다.Further, in the specification, when one component is referred to as "connected" or "connected" with another component, the one component may be directly connected to the other component, or may be directly connected, but in particular It should be understood that, as long as there is no objection to the contrary, it may or may be connected via another component in the middle. Also, in the specification, when a part “includes” a certain component, it means that the component may further include other components, not to exclude other components, unless otherwise stated. In addition, terms such as “part” and “module” described in the specification mean a unit that processes at least one function or operation, which means that it can be implemented by one or more hardware or software or a combination of hardware and software. .
도 1은 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 툴 및 플랫폼을 전반적으로 설명하기 위한 도면이고, 도 2는 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템에 관한 블록 구성도이다.1 is a view for generally describing a 3D VR content production tool and platform according to an embodiment of the present invention, and FIG. 2 is a block diagram of a 3D VR content production system according to an embodiment of the present invention.
또한, 도 3은 360도 입체 파노라마 VR 내에 입체 사운드를 실감 콘텐츠로서 삽입한 예시 도면이고, 도 4는 실감 콘텐츠로서 입체 사운드의 설정 조건을 설명하기 위한 참조 도면이며, 도 5는 360도 입체 파노라마 VR 내에서 동영상 비디오를 실감 콘텐츠로서 삽입하기 위한 조작 윈도우를 예시한 참조 도면이고, 도 6은 360도 입체 파노라마 VR 내의 좌표 영역에 사용자의 뷰 포인트에 상응하는 레인보우 색상 스펙트럼의 응시 강도를 표출한 예를 도시한 참조 도면이며, 도 7은 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 때의 중간 필터링 과정을 설명하기 위한 도면이고, 도 8은 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 때의 본 발명의 실시예에 따른 영상 오버레이 알고리즘과 기존 기술과의 성능을 대조 설명하기 위한 비교표이다. 이하, 도 1 및 도 2를 중심으로 도 3 ~ 도 8을 함께 참조하여 본 발명의 실시예를 상세히 설명한다. In addition, FIG. 3 is an exemplary diagram in which stereoscopic sound is inserted into the 360-degree stereoscopic VR as sensory content, FIG. 4 is a reference diagram for explaining setting conditions of stereoscopic sound as the sensory content, and FIG. 5 is a 360-degree stereoscopic panorama VR A reference diagram illustrating an operation window for inserting a video of a video as immersive content within, and FIG. 6 shows an example in which gaze intensity of a rainbow color spectrum corresponding to a user's view point is expressed in a coordinate region within a 360-degree stereoscopic VR FIG. 7 is a diagram for explaining an intermediate filtering process when overlaying a specific target image in the 360-degree stereoscopic panorama VR, and FIG. 8 is when overlaying a specific target image in the 360-degree stereoscopic panorama VR. This is a comparison table for contrasting the performance of an image overlay algorithm and an existing technology according to an embodiment of the present invention. Hereinafter, embodiments of the present invention will be described in detail with reference to FIGS. 3 to 8 with reference to FIGS. 1 and 2.
도 1을 참조하면, 본 발명은 VR(Virtual Reality) 콘텐츠를 제작함에 있어서 3D 오브젝트 자동 생성 기술, VR 오버레이 기술, 반응형 3D 입체 사운드 기술 등을 적용함으로써 사용자 인터랙션이 강화됨은 물론 이종 미디어와의 병합이 가능하며 기존의 상용 하드웨어 기기(예를 들어, PC, 스마트폰, HMD 등)에서 즉시 작동이 가능한 VR 콘텐츠를 제작할 수 있는 Mixed VR 콘텐츠 제작 기술 및 이를 위한 플랫폼 구현 기술을 제공한다.Referring to FIG. 1, the present invention applies a 3D object automatic generation technology, a VR overlay technology, and a responsive 3D stereoscopic sound technology to create VR (Virtual Reality) content, so that user interaction is enhanced and merged with disparate media. It provides a mixed VR content production technology and a platform implementation technology for producing VR content that can be operated and can be operated immediately on existing commercial hardware devices (eg, PC, smartphone, HMD, etc.).
이를 위해, 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템(100)은, 도 2에 도시된 바와 같이, 기 제작된 360도 입체 파노라마 VR 내에 실감 콘텐츠를 삽입할 수 있도록 보조하는 소프트웨어 툴(software tool)을 사용자에게 제공하며, 사용자 입력을 수신하는 GUI부(110); GUI부(110)를 통해 사용자가 지정한 실감 콘텐츠를 상기 360도 입체 파노라마 VR 내에 적용하는 실감 콘텐츠 적용부(120); 사용자 액션에 반응하여 상기 360도 입체 파노라마 VR 내에 적용된 실감 콘텐츠의 실행을 제어하는 인터랙티브 액션 처리부(130)를 포함한다. 또한, 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템(100)은 뷰 포인트 분석부(140)를 더 포함할 수 있으며, 실감 콘텐츠 적용부(120) 내에는 입체 사운드 적용부(122) 및 영상 오버레이 처리부(124)가 더 포함될 수 있다.To this end, the 3D VR content production system 100 according to an embodiment of the present invention, as shown in FIG. 2, is a software tool that assists in inserting realistic content into a pre-made 360-degree stereoscopic panorama VR (software) tool) to the user, the GUI unit 110 for receiving a user input; A sensory content application unit 120 that applies the user-designated sensory content to the 360-degree panoramic panorama VR through the GUI unit 110; It includes an interactive action processing unit 130 for controlling the execution of the sensory content applied in the 360-degree stereoscopic VR in response to a user action. In addition, the 3D VR content production system 100 according to an embodiment of the present invention may further include a view point analysis unit 140, a stereoscopic sound application unit 122 and an image in the sensory content application unit 120. The overlay processing unit 124 may be further included.
이에 따라 본 발명의 실시예에 따른 3D VR 콘텐츠 제작 시스템(100)은 다음과 같은 3D VR 콘텐츠의 제작을 위한 다양한 기능들이 적용된다.Accordingly, the 3D VR content production system 100 according to an embodiment of the present invention is applied with various functions for the production of the following 3D VR content.
3D 입체 사운드 삽입 및 재생 기술3D stereoscopic sound insertion and playback technology
본 발명의 실시예에 의할 때, 3D VR 콘텐츠 제작 시스템(100)은 가상의 3D 공간에서 관람자의 시선에 따라 콘텐츠 제작자가 설정한 3D 입체 사운드가 각도/거리에 따라 재생/중단 및 볼륨의 사운드를 자동으로 조정할 수 있는 기술이 적용된다.According to an embodiment of the present invention, the 3D VR content production system 100 plays/stops and volumes sound in a 3D stereoscopic sound set by the content creator according to the angle/distance according to the viewer's gaze in a virtual 3D space Technology that can automatically adjust is applied.
이를 위해, GUI부(110)는 콘텐츠 제작자가 3D 입체 사운드를 360도 입체 파노라마 VR 내에 적용시킬 수 있도록, 3D 입체 사운드의 적용을 위한 툴 화면을 사용자에게 제공할 수 있다. 이때, 3D 입체 사운드의 적용을 위한 툴 화면에는, 아래의 표 1에 제시된 바와 같은 설정 항목에 따른 지정(즉, 상기 360도 입체 파노라마 VR 내에 상기 입체 사운드가 삽입될 수평 및 수직 위치의 지정, 상기 입체 사운드가 출력될 사운드 출력 방향 또는 각도의 지정, 상기 입체 사운드의 오디오 볼륨의 지정, 상기 입체 사운드의 오디오 재생 속도의 지정, 상기 입체 사운드의 반복 재생 여부의 지정, 상기 입체 사운드의 출력이 실행될 기준 근접 거리의 지정 등)을 가능하게 하는 조작 윈도우가 포함될 수 있다.To this end, the GUI unit 110 may provide a user with a tool screen for application of 3D stereoscopic sound, so that a content creator can apply 3D stereoscopic sound within a 360-degree stereoscopic panorama VR. At this time, on the tool screen for application of 3D stereoscopic sound, designation according to setting items as shown in Table 1 below (i.e., designation of horizontal and vertical positions to which the stereoscopic sound will be inserted in the 360-degree stereoscopic panorama VR, the Designation of a sound output direction or angle in which a stereoscopic sound is output, designation of an audio volume of the stereoscopic sound, designation of an audio playback speed of the stereoscopic sound, designation of whether or not the stereoscopic sound is repeatedly played, and a criterion for outputting the stereoscopic sound An operation window that enables the designation of a proximity distance, etc.) may be included.
Figure PCTKR2019010519-appb-T000001
Figure PCTKR2019010519-appb-T000001
이에 따라 콘텐츠 제작자는 상술한 조작 윈도우를 통해서 3D 공간의 특정 지점에 실감 콘텐츠로서 3D 입체 사운드를 삽입하는 것이 가능하다. 이때, 각도/거리를 세분화(예를 들어, 360 단계)하여 각도/거리에 따라 3D 입체 사운드의 재생 여부/재생 속도/볼륨 등의 조정이 가능하도록 할 수 있다(도 4 참조).Accordingly, the content creator can insert 3D stereoscopic sound as sensory content at a specific point in the 3D space through the above-described operation window. At this time, the angle/distance may be subdivided (for example, in step 360) to enable adjustment of whether to play 3D stereoscopic sound/play speed/volume according to the angle/distance (see FIG. 4).
상술한 바와 같이, 조작 윈도우를 통한 사용자(즉, 콘텐츠 제작자) 설정이 완료되면, 입체 사운드 적용부(122)는 그 설정 내용에 상응하여 해당 3D 입체 사운드를 360도 입체 파노라마 VR 내에 삽입시킨다(도 3 참조). 이에 따라 관람자의 시선에 따라 오디오가 자동 재생/멈춤이 가능하게 된다.As described above, when the user (that is, the content creator) setting through the operation window is completed, the stereoscopic sound application unit 122 inserts the corresponding 3D stereoscopic sound into the 360-degree stereoscopic panorama VR corresponding to the setting contents (FIG. 3). Accordingly, the audio can be automatically played/paused according to the viewer's gaze.
영상 오버레이 기술Image overlay technology
기존 기술에 의할 때 360 VR 내에 단순 팝업 형태로 2D 이미지 및 비디오 재생이 이루어졌던 반면, 본 발명의 실시예에 의할 때 3D VR 콘텐츠 제작 시스템(100)은 360도 입체 파노라마 VR의 배경과 이질감이 없는 2D 이미지 및 비디오의 오버레이(overlay) 기술 및 오버플레이(overplay) 기술이 적용된다.According to the existing technology, 2D image and video playback was performed in a simple pop-up form in 360 VR, whereas according to an embodiment of the present invention, the 3D VR content production system 100 has a 360 degree stereoscopic VR background and heterogeneity 2D image and video overlay (overlay) technology and overplay (overplay) technology is applied.
이를 위해, 360도 입체 파노라마 VR 내에 특정 타겟 영상을 오버레이시킬 위치의 지정 및 해당 타겟 영상의 형태 변경 등을 위한 조작이 우선적으로 요구된다. 따라서, 본 발명의 실시예예서, GUI부(110)는 상기 실감 콘텐츠로서 타겟 영상 콘텐츠의 적용을 위한 툴 화면을 사용자에게 제공한다. 이때, 상기 영상 오버레이를 위한 툴 화면에는, 아래의 표 2에 제시된 바와 같은 설정 항목에 따른 지정(즉, 상기 360도 입체 파노라마 VR 내에 상기 영상 콘텐츠가 삽입될 수평 및 수직 위치의 지정, 높이 축의 위치 지정, 삽입될 영상의 사이즈의 지정, 삽입될 영상의 외곽 테두리 형상의 변형의 지정 등)을 가능하게 하는 조작 윈도우가 포함될 수 있다. 영상 오버레이를 위한 조작 윈도우로서 도 5에는 리모콘 형상의 컨트롤러가 예시되고 있다. To this end, the operation for designating a position to overlay a specific target image in a 360-degree stereoscopic VR and changing the shape of the target image is first required. Accordingly, in an embodiment of the present invention, the GUI unit 110 provides a user with a tool screen for application of target video content as the sensory content. At this time, on the tool screen for the image overlay, designation according to the setting items as shown in Table 2 below (that is, designation of horizontal and vertical positions to which the video content will be inserted in the 360-degree stereoscopic VR, position of the height axis) An operation window for designating, specifying a size of an image to be inserted, designating a deformation of an outer border shape of an image to be inserted, and the like) may be included. As a manipulation window for image overlay, a controller in the form of a remote controller is illustrated in FIG. 5.
Figure PCTKR2019010519-appb-T000002
Figure PCTKR2019010519-appb-T000002
이에 의하면, 3D 환경에서 타겟 영상의 오버레이 위치를 설정함에 있어서, 3D 축인 X, Y, Z 좌표와 상관축 및 각도를 계산하고, 해당 수치들을 조정할 수 있으며, 사용자(콘텐츠 제작자)는 조작 윈도우에 따른 GUI를 조정하여 복잡한 계산 없이 3D 화면상에 원하는 타겟 영상을 병합 가능하게 된다. 이때, 오버레이될 공간 위치와 크기 등의 다양한 설정 항목을 정확한 수치 또는 터치와 커서로 자유롭게 조절할 수 있다.According to this, in setting the overlay position of the target image in the 3D environment, the 3D axes X, Y, and Z coordinates and the correlation axis and angle can be calculated, and the corresponding values can be adjusted, and the user (content creator) can operate according to the operation window. By adjusting the GUI, it is possible to merge desired target images on a 3D screen without complicated calculation. At this time, various setting items such as the position and size of the space to be overlaid can be freely adjusted with an accurate numerical value or a touch and a cursor.
조작 윈도우를 통한 사용자(즉, 콘텐츠 제작자) 설정이 완료되면, 영상 오버레이 처리부(124)는 그 설정 내용에 상응하여 해당 타겟 영상 콘텐츠를 360도 입체 파노라마 VR 내에 오버레이시켜 삽입시킨다.When the user (that is, the content creator) setting through the operation window is completed, the image overlay processing unit 124 inserts the target image content overlaid in a 360-degree stereoscopic panorama VR corresponding to the setting contents.
또한 본 발명의 실시예에서는 타겟 영상을 몰입감을 높인 360도 입체 파노라마 VR과 하나로 병합하기 위해 SURF(Speeded Up Robust Features)알고리즘과 RANRAC(RANdomSAmple Consensus)알고리즘을 사용하여 호모그래피 매트릭스(Homography Matrix)를 구하고 병합하고자 하는 타겟 영상의 대응점을 구하고 이를 적용해 더 선명하고 정확한 영상 병합 알고리즘이 적용된다. 이때, 병합 좌표 주변 영역의 RGB 값을 사용하여 잘못된 대응점들을 제거하는 중간 필터링 과정을 수행하고, 이미지 병합 처리 속도 향상과 이미지 병합 정확도(즉, 이미지 변별성 및 시안성)을 개선하는 병합 방식이 적용될 수 있다. 이에 대하여 구체적으로 설명하면 다음과 같다.In addition, in the embodiment of the present invention, a homography matrix is obtained by using a Speeded Up Robust Features (SURF) algorithm and a RANRAC (RANdomSAmple Consensus) algorithm to merge the target image into one with a 360-degree stereo panorama VR with increased immersion. The corresponding merging point of the target image to be merged is obtained and a sharper and more accurate image merging algorithm is applied. At this time, an intermediate filtering process is performed to remove incorrect correspondence points using the RGB values in the area around the merged coordinates, and a merge method for improving image merge processing speed and improving image merge accuracy (ie, image discrimination and cyan) can be applied. have. This will be described in detail as follows.
즉, 영상 오버레이 처리부(124)는, 특징정보 추출 알고리즘을 이용하여 상기 실감 콘텐츠로서 삽입될 타겟 영상의 특징정보를 추출하고, RANSAC(Random Sample Consensus) 알고리즘을 이용하여 상기 추출된 특징정보 중 아웃리어(outlier)에 해당하는 특징정보를 제거하는 회귀 계산의 반복을 통해서 오버레이될 영상 간의 대응점 추출을 위한 호모그래피 매트릭스를 구하는 방식으로, 상기 타겟 영상을 상기 360도 입체 파노라마 VR 내의 특정 좌표 영역에 오버레이 병합시킨다.That is, the image overlay processor 124 extracts feature information of a target image to be inserted as the sensory content using a feature information extraction algorithm, and uses the RANSAC (Random Sample Consensus) algorithm to perform an outside of the extracted feature information. By overlaying the target image with a specific coordinate region within the 360-degree panoramic panorama VR in a manner to obtain a homography matrix for extracting a corresponding point between images to be overlaid through repetition of regression calculation to remove feature information corresponding to (outlier) Order.
이때, RANSAC 알고리즘을 적용하기에 앞서, 상기 360도 입체 파노라마 VR 내에서 상기 타겟 영상이 오버레이될 좌표 영역 주변의 RGB 값과 상기 타겟 영상의 RGB 값 간의 차이가 사전 지정된 임계치 내에 있는지 여부를 판단하여, 상기 차이가 상기 임계치를 초과하는 대응점들을 제거하는 중간 필터링 과정을 선 수행함으로써, 이미지 병합의 속도 및 정확성을 더욱 높일 수 있다(도 7 및 도 8 참조).At this time, prior to applying the RANSAC algorithm, it is determined whether or not the difference between the RGB value around the coordinate area to which the target image is to be overlaid in the 360-degree stereoscopic VR and the RGB value of the target image is within a predetermined threshold, By performing an intermediate filtering process to remove the corresponding points where the difference exceeds the threshold, the speed and accuracy of image merging can be further increased (see FIGS. 7 and 8 ).
인터랙티브Interactive 액션 활성화 기술 Action activation technology
또한 기존 기술에 의할 때, 360도 입체 파노라마 VR 내에 인터랙티브 핫스팟(Interactive hotspot)을 정의하고 터치 등의 액션을 통하여 인터랙티브 액션이 실행되는 방식에 의한다. 이때, 기존 기술에 의하면, 인터랙티브 액션이 실행되는 조건 만족을 위한 인덱스(Index) 정의가 단편 일률적이다. 예를 들어, 특정 포인트를 5초 이상 바라볼 때 또는 특정 포인트를 단순 터치하였을 때 등이 바로 그것이다.Also, according to the existing technology, an interactive hotspot is defined in a 360-degree three-dimensional panoramic VR, and the interactive action is executed through an action such as a touch. At this time, according to the existing technique, the index definition for satisfying the condition that the interactive action is executed is uniform. For example, when looking at a specific point for 5 seconds or more, or simply touching a specific point.
반면 본 발명의 실시예에 의할 때, 사용자(관람자)의 뷰 포인트를 분석하여 특정 조건을 만족시 인터랙티브 액션이 자동으로 실행 또는 중지되도록 한다. 이때의 특정 조건이란 예를 들어 사용자의 뷰 포인트가 시각의 60% 이상 오버레이될 때 등일 수 있다. 이에 따라 본 발명의 실시예에서는 360도 입체 파노라마 VR 이미지의 픽셀과 현재 사용자가 바라보는 뷰 포인트를 분석(예를 들어, Level 5단계)하고, 특정 조건(특정 level) 이상 & 매칭되는 픽셀 수치를 분석하여 인터랙티브 액션의 실행 여부 결정할 수 있다. 이에 대하여 보다 구체적으로 설명하면 다음과 같다.On the other hand, according to an embodiment of the present invention, the view point of the user (viewer) is analyzed to automatically execute or stop the interactive action when a specific condition is satisfied. The specific condition at this time may be, for example, when the user's view point is overlaid by 60% or more of the time. Accordingly, in the embodiment of the present invention, a pixel of a 360-degree stereoscopic panoramic VR image and a viewpoint viewed by the current user are analyzed (for example, Level 5), and a pixel value that is more than & equal to a specific condition (specific level) is matched. By analyzing, it is possible to determine whether to execute the interactive action. This will be described in more detail as follows.
즉, 뷰 포인트 분석부(140)는 사용자가 현재 바라보는 시점(view point)을 트래킹(tracking)하여, 상기 360도 입체 파노라마 VR 내의 좌표 픽셀과 상기 사용자의 시점 간을 매칭 및 분석한다. 이때, 인터랙티브 액션 처리부(130)는 분석된 뷰 포인트에 상응하는 상기 360도 입체 파노라마 VR 내의 좌표 픽셀의 화면 위치에, 응시 시간의 길이에 맞춰 사전 지정된 채도 스펙트럼에 따른 색상을 표출할 수 있다. 도 6의 경우 뷰 포인트를 레인보우 컬러(Rainbow color)로 분리하여 정의하고 있다. 예를 들어, 도 6에서 붉은색(Red)은 Most-stared-at 뷰 포인트 또는 Longgest-attention holding 뷰 포인트에 해당한다. 이와 같이 본 발명의 실시예에서는 색상 스펙트럼으로 뷰 포인트를 분리하여 정의하고 이에 따른 인터랙티브 액션을 결정할 수 있다.That is, the view point analysis unit 140 tracks a view point currently viewed by a user, and matches and analyzes a coordinate pixel in the 360-dimensional stereoscopic panorama VR and the user's viewpoint. At this time, the interactive action processor 130 may display a color according to a predetermined saturation spectrum according to the length of the gaze time, on the screen position of the coordinate pixel in the 360-degree stereoscopic panorama VR corresponding to the analyzed view point. In the case of FIG. 6, the view point is defined by separating it into a rainbow color. For example, red in FIG. 6 corresponds to a Most-stared-at view point or a Longgest-attention holding view point. As described above, in the embodiment of the present invention, a view point is separately defined by a color spectrum, and an interactive action can be determined accordingly.
이에 따라 인터랙티브 액션 처리부(130)는, 분석된 뷰 포인트에서의 응시 유지 시간이 사전 지정된 기준을 만족하는 경우 해당 좌표 영역에 적용된 실감 콘텐츠를 실행하고, 분석된 뷰 포인트에 따른 좌표 영역이 이전과 다르게 변경되는 경우 실행 중인 실감 콘텐츠를 중지할 수 있다.Accordingly, the interactive action processing unit 130 executes the sensational content applied to the corresponding coordinate area when the gaze retention time at the analyzed view point satisfies a predetermined criterion, and the coordinate area according to the analyzed view point is different from the previous one. If it changes, you can stop running sensory content.
또한 본 발명의 실시예에 의할 때, 분석된 뷰 포인트에 상응하는 좌표 영역에 적용된 실감 콘텐츠의 인터랙티브 액션의 실행 방식으로서, 아래의 표 3에 도시된 바와 같이, 해당 좌표 영역 관련 공간으로의 장소 이동, 오버레이된 동영상의 재생, 입체 사운드의 오디오 출력, 지정된 외부 링크로의 연결 또는 링크 재생, 증강정보의 표출(즉, 정보 박스의 팝업 및 정보 삽입 등), 지정된 전화번호로의 전화 걸기, 물품 구매 및 결제 등이 적용될 수 있다.In addition, according to an embodiment of the present invention, as an interactive action execution method of sensory content applied to a coordinate area corresponding to the analyzed view point, as shown in Table 3 below, a place to a space related to the corresponding coordinate area Movement, playback of overlaid video, audio output of stereoscopic sound, connection or link playback to a designated external link, display of augmented information (i.e. pop-up of information box and insertion of information, etc.), dialing to a specified phone number, goods Purchase and payment may be applied.
Figure PCTKR2019010519-appb-T000003
Figure PCTKR2019010519-appb-T000003
상술한 바와 같은 본 발명의 실시예에 따른 3차원 VR 콘텐츠 제작 시스템에 의해 제작된 3차원 VR 콘텐츠(예를 들어, 360도 입체 파노라마 이미지 혹은 동영상 등)는 건설, 토목 등의 영역에서의 공정 관리에도 효과적으로 이용될 수 있다.3D VR content (for example, a 360-degree stereoscopic panoramic image or video, etc.) produced by the 3D VR content production system according to the embodiment of the present invention as described above includes process management in areas such as construction and civil engineering Edo can be effectively used.
기존의 공정 관리 소프트웨어는 바(bar), 순서도 형태로 투입 비용, 자원 관리, 일정 관리 등을 하는 정도에 그쳤다. 또한 종래에는 실제 현장에서 일어나는 공정에 대해서는 현장 담당자의 재량에 의해서 정보가 관리되고 통제되고 있었는데, 이는 원활한 공정 정보 관리와 검증, 정보의 통폐합에 어려움이 많아 효과적인 공정 관리에 지장을 초래하였다. 따라서 기존의 공정 관리 시스템과 공정 관리 인력 등에 대해서는 공정 관리와 현장 관리, 공정 관리 보고서 등의 댜양한 형태의 업무가 과중한 경우가 많아, 기존 방식의 경우 현장과 공정 관리의 효율적 융합이 어려웠다.Existing process management software has been limited to input costs, resource management, and schedule management in the form of bars and flowcharts. In addition, in the prior art, information that was actually managed at the site was managed and controlled at the discretion of the site personnel, which caused difficulties in effective process management due to difficulties in smooth process information management, verification, and consolidation of information. Therefore, various types of tasks such as process management, site management, and process management reports are heavy on the existing process management system and process management personnel, so it is difficult to efficiently converge the site and process management in the conventional method.
이에 반해, 본 발명의 실시예에 따라 제작되는 3차원 VR 콘텐츠가 공정 관리에 도입된 시스템(이하, 3차원 VR 공정 관리 시스템이라 간략히 명명함)의 경우, 현장과 공정 관리의 융합을 통해 직관적이고 통합된 공정 정보를 제공함으로써, 일정 관리, 현장 관리의 효과적인 커뮤니케이션을 제공할 수 있고, 현장 작업자, 공정 관리자 등의 다양한 참여자들의 실증 기반의 복합 관리 체계가 형성되어 일정/품질/효율/시간절약/비용절감의 효과를 얻을 수 있게 된다.On the other hand, in the case of a system in which 3D VR content produced according to an embodiment of the present invention is introduced into process management (hereinafter simply referred to as a 3D VR process management system), it is intuitive through fusion of field and process management. By providing integrated process information, it is possible to provide effective communication of schedule management and on-site management, and a complex management system based on demonstration of various participants, such as field workers and process managers, is formed to save schedule/quality/efficiency/time saving/ The effect of cost reduction can be obtained.
이러한 3차원 VR 공정 관리 시스템은, 관리 기능/ 업무 전달 기능/ 커뮤니케이션 툴 제공 기능/ 데이터 출력 및 보관 기능 등이 포함될 수 있다.Such a 3D VR process management system may include a management function/business transfer function/communication tool provision function/data output and storage function.
여기서, 관리 기능으로는, 1) 현장 담당, 현장 책임자, 하청업체, 공사 관계자, 관리자, 공정 관리자 등 다양한 관련 인력에 대한 직급별, 업무별 권한 설정 기능, 2) 공정 관리를 위한 중요 부분, 문제 부분에 대한 마킹(marking) 기능, 3) 일정표 또는 중요 정보를 3차원 VR 콘텐츠에 고정하고, MS 프로젝트 및 프리메다라 공정 관리 파일의 삽입을 통해 연결 프로그램을 실행하는 기능 등이 포함될 수 있다.Here, the management functions include: 1) site manager, site manager, subcontractor, construction personnel, manager, process manager, etc. for various related personnel such as job title and job authority setting function, 2) important part for process management, problems It may include marking functions for parts, 3) fixing a schedule or important information in 3D VR content, and executing a connection program through insertion of an MS project and a pre-medara process management file.
또한 업무 전달 기능으로는, 1) 3차원 VR 콘텐츠 내부의 특정 영역 설정(예를 들어, 컬러(color) 적용된 박스, 서클 등 도형 지원 또는 라인 설정) 기능, 2) 알람 기능(예를 들어, 공정 관리에 필요한 특정 일자와 시간을 설정하고 해당 일정이 도래되면 캘린더 연동을 통해 알람 또는 관리자 SMS 발송 등), 3) 도면 파일(DWG 파일, 3DS 파일, DXF 파일 등)을 콘텐츠 핫스팟으로 설정하여 핫스팟 클릭시 도면 리스트나 폴더가 나오고 그 안의 도면 아이콘이나 파일명을 클릭하면 도면 파일을 보여주는 기능(또는 대체안으로서 도면 PDF 파일을 보여주거나 외부 프로그램 뷰어 실행) 등이 포함될 수 있다.In addition, the business delivery function includes: 1) setting a specific area inside the 3D VR content (e.g., support for shapes such as colored boxes, circles, or line setting), 2) alarm function (e.g., process Set a specific date and time required for management, and when the event arrives, click the hotspot by setting the drawing file (DWG file, 3DS file, DXF file, etc.) as a content hotspot through calendar interlocking, etc. When a drawing list or folder appears, and clicking a drawing icon or file name therein, it may include a function of displaying a drawing file (or showing a drawing PDF file as an alternative or executing an external program viewer).
또한 커뮤니케이션 툴 제공 기능으로는, 1) 3차원 VR 콘텐츠에 일정, 업무지시, 확인사항 등의 정보를 입력하는 기능, 2) 보고자와 참여자가 360도 VR 콘텐츠 화면을 공유하여 함께 회의하는 회의 기능 등이 포함될 수 있다.Also, as a communication tool providing function, 1) the ability to input information such as schedules, work orders, and confirmation items into 3D VR content, and 2) a meeting function where reporters and participants share a 360-degree VR content screen to meet together. This can be included.
또한 데이터 출력 및 보관 기능으로는, 1) 정보 보안 기능(예를 들어, 총괄 관리자만 업무 보고, 전달 및 입력 정보를 삭제할 수 있고, 삭제 기록과 각 내용 입력 일시 등을 DB로 보관함 등), 2) 공정 이력 관리 기능(예를 들어, 업무 보고, 전달 및 입력 정보, VR 회의 일시 등 전체에 대한 DB를 엑셀 파일로 제공함 등), 3) 관리보고서 출력 기능(예를 들어, 360도 콘텐츠 썸네일 이미지, 작업 내용, 입력 정보 등을 포함한 인쇄, PDF, 엑셀 저장 등), 4) VR 회의록 기능(예를 들어, 채팅방을 통한 정보와 회의주제, 회의일시, 참석자 정보가 담긴 360도 콘텐츠 썸네일의 PDF, 엑셀 저장 등), 공정보고서 저장 기능(예를 들어, 현장 정보, 참여자 명당, 작업 일정, 입력 정보 등의 공정 이력 내역, 해당 3차원 VR 콘텐츠의 장면(scene)들을 저장 및 인쇄하는 등) 등이 포함될 수 있다.In addition, the data output and storage functions are: 1) Information security function (for example, only the general manager can delete business report, delivery and input information, and store the deletion record and the date and time of each content in DB, etc.), 2 ) Process history management function (for example, providing DB for the whole such as business report, delivery and input information, VR meeting date and time, etc.), 3) management report output function (for example, 360-degree content thumbnail image) , Print, PDF, Excel storage, etc. including work contents, input information, etc.) 4) VR minutes function (e.g., a PDF of a 360-degree content thumbnail containing information and meeting topics, meeting date and time, and attendee information through a chat room, Excel storage, etc.), process report storage function (e.g., site information, participant name, work schedule, input information, process history, etc., save and print scenes of the corresponding 3D VR content, etc.) Can be included.
이상에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 쉽게 이해할 수 있을 것이다.Although described above with reference to the embodiments of the present invention, those skilled in the art variously modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. And it can be easily understood.

Claims (7)

  1. 3D VR(3-dimension Virtual Reality) 콘텐츠 제작 시스템으로서,3D VR (3-dimension Virtual Reality) content production system,
    기 제작된 360도 입체 파노라마 VR 내에 실감 콘텐츠를 삽입할 수 있도록 보조하는 소프트웨어 툴(software tool)을 사용자에게 제공하며, 사용자 입력을 수신하는 GUI(Graphical User Interface)부;A GUI (Graphical User Interface) unit for providing a user with a software tool to assist in inserting sensational content into the pre-made 360-degree panoramic VR, and receiving user input;
    상기 GUI부를 통해 사용자가 지정한 실감 콘텐츠를 상기 360도 입체 파노라마 VR 내에 적용하는 실감 콘텐츠 적용부;A sensory content application unit that applies the user-designated sensory content to the 360-degree panoramic panorama VR through the GUI unit;
    사용자 액션에 반응하여 상기 360도 입체 파노라마 VR 내에 적용된 실감 콘텐츠의 실행을 제어하는 인터랙티브 액션 처리부Interactive action processing unit that controls the execution of sensational content applied in the 360-degree stereoscopic panorama VR in response to a user action
    를 포함하는 3D VR 콘텐츠 제작 시스템.3D VR content production system comprising a.
  2. 제1항에 있어서,According to claim 1,
    상기 GUI부는, 상기 실감 콘텐츠로서 입체 사운드의 적용을 위한 툴 화면을 사용자에게 제공하되,The GUI unit provides a user with a tool screen for applying stereoscopic sound as the sensory content,
    상기 툴 화면에는, 상기 360도 입체 파노라마 VR 내에 상기 입체 사운드가 삽입될 수평 및 수직 위치의 지정, 상기 입체 사운드가 출력될 사운드 출력 ??향 또는 각도의 지정, 상기 입체 사운드의 오디오 볼륨의 지정, 상기 입체 사운드의 오디오 재생 속도의 지정, 상기 입체 사운드의 반복 재생 여부의 지정, 상기 입체 사운드의 출력이 실행될 기준 근접 거리의 지정을 가능하게 하는 조작 윈도우가 포함되고,On the tool screen, the horizontal and vertical positions to which the stereoscopic sound is to be inserted in the 360-degree stereoscopic panorama VR, the sound output to which the stereoscopic sound is to be output, the direction or angle, the audio volume of the stereoscopic sound, An operation window is provided that enables designation of an audio reproduction speed of the stereoscopic sound, designation of whether to reproduce the stereoscopic sound repeatedly, and a reference proximity distance to which the stereoscopic sound is to be output.
    상기 실감 콘텐츠 적용부는, 상기 조작 윈도우를 통해서 사용자에 의해 지정된 지정 내용에 상응하여 상기 입체 사운드를 상기 360도 입체 파노라마 VR 내에 삽입하는 입체 사운드 적용부를 포함하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.The sensory content application unit includes a stereoscopic sound application unit that inserts the stereoscopic sound into the 360-degree panoramic panorama VR in correspondence with a designation specified by a user through the manipulation window.
  3. 제1항에 있어서,According to claim 1,
    상기 GUI부는, 상기 실감 콘텐츠로서 영상 콘텐츠의 적용을 위한 툴 화면을 사용자에게 제공하되,The GUI unit provides a user with a tool screen for applying video content as the sensory content,
    상기 툴 화면에는, 상기 360도 입체 파노라마 VR 내에 상기 영상 콘텐츠가 삽입될 수평 및 수직 위치의 지정, 높이 축의 위치 지정, 삽입될 영상의 사이즈의 지정, 삽입될 영상의 외곽 테두리 형상의 변형의 지정을 가능하게 하는 조작 윈도우가 포함되고,On the tool screen, the horizontal and vertical positions to which the video content is to be inserted, the position of the height axis, the size of the image to be inserted, and the modification of the shape of the outer border of the image to be inserted are specified in the 360-degree panorama VR. Includes an operation window to enable,
    상기 실감 콘텐츠 적용부는, 상기 조작 윈도우를 통해서 사용자에 의해 지정된 지정 내용에 상응하여 상기 영상 콘텐츠를 상기 360도 입체 파노라마 VR 내에 오버레이(overlay)시켜 삽입하는 영상 오버레이 처리부를 포함하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.The sensory content application unit includes a video overlay processing unit for overlaying and inserting the video content into the 360-degree panoramic panorama VR in correspondence with a designation specified by a user through the manipulation window. VR content production system.
  4. 제3항에 있어서,According to claim 3,
    상기 영상 오버레이 처리부는,The image overlay processing unit,
    특징정보 추출 알고리즘을 이용하여 상기 실감 콘텐츠로서 삽입될 타겟 영상의 특징정보를 추출하고, RANSAC(Random Sample Consensus) 알고리즘을 이용하여 상기 추출된 특징정보 중 아웃리어(outlier)에 해당하는 특징정보를 제거하는 회귀 계산의 반복을 통해서 오버레이될 영상 간의 대응점 추출을 위한 호모그래피 매트릭스(Homography Matrix)를 구하는 방식으로, 상기 타겟 영상을 상기 360도 입체 파노라마 VR 내의 특정 좌표 영역에 오버레이 병합시키되,The feature information extraction algorithm is used to extract the feature information of the target image to be inserted as the sensory content, and the feature information corresponding to the outlier is removed from the extracted feature information using the RANSAC (Random Sample Consensus) algorithm. In a manner of obtaining a homography matrix for extracting a corresponding point between images to be overlaid through repetition of the regression calculation, the target image is overlaid and merged to a specific coordinate region in the 360-dimensional stereoscopic panorama VR,
    상기 RANSAC 알고리즘을 적용하기에 앞서, 상기 360도 입체 파노라마 VR 내에서 상기 타겟 영상이 오버레이될 좌표 영역 주변의 RGB 값과 상기 타겟 영상의 RGB 값 간의 차이가 사전 지정된 임계치 내에 있는지 여부를 판단하여, 상기 차이가 상기 임계치를 초과하는 대응점들을 제거하는 중간 필터링 과정을 수행하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.Before applying the RANSAC algorithm, it is determined whether or not the difference between the RGB value around the coordinate region to which the target image will be overlaid within the 360-degree stereoscopic VR and the RGB value of the target image is within a predetermined threshold, and 3D VR content production system, characterized by performing an intermediate filtering process to remove the corresponding points where the difference exceeds the threshold.
  5. 제4항에 있어서,According to claim 4,
    상기 사용자가 현재 바라보는 시점(view point)을 트래킹(tracking)하여, 상기 360도 입체 파노라마 VR 내의 좌표 픽셀과 상기 사용자의 시점 간을 매칭 및 분석하는 뷰 포인트 분석부를 더 포함하되,Further comprising a view point analysis unit for tracking and matching the viewpoint between the user's point of view and tracking the user's point of view by tracking the view point currently viewed by the user,
    상기 인터랙티브 액션 처리부는, 분석된 뷰 포인트에 상응하는 상기 360도 입체 파노라마 VR 내의 좌표 픽셀의 화면 위치에, 응시 시간의 길이에 맞춰 사전 지정된 채도 스펙트럼에 따른 색상을 표출하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.The interactive action processor displays a color according to a predetermined saturation spectrum according to the length of the gaze time, on the screen position of the coordinate pixel in the 360-degree stereoscopic panorama VR corresponding to the analyzed view point, 3D VR Content production system.
  6. 제5항에 있어서,The method of claim 5,
    상기 인터랙티브 액션 처리부는,The interactive action processing unit,
    분석된 뷰 포인트에 상응하는 상기 360도 입체 파노라마 VR 내의 좌표 영역에 상기 실감 콘텐츠가 적용되어 있고, 분석된 뷰 포인트에서의 응시 유지 시간이 사전 지정된 기준을 만족하는 경우 해당 좌표 영역에 적용된 실감 콘텐츠를 실행하고, 분석된 뷰 포인트에 따른 좌표 영역이 이전과 다르게 변경되는 경우 실행 중인 실감 콘텐츠를 중지하는 것을 특징으로 하는, 3D VR 콘텐츠 제작 시스템.If the sensory content is applied to the coordinate region within the 360-degree stereoscopic panorama VR corresponding to the analyzed view point, and the gaze retention time at the analyzed view point satisfies a predetermined criterion, the sensory content applied to the corresponding coordinate area is displayed. 3D VR content production system, characterized in that, when the coordinate area according to the analyzed view point is changed differently from the previous one, the running sensory content is stopped.
  7. 제6항에 있어서,The method of claim 6,
    상기 인터랙티브 액션 처리부는,The interactive action processing unit,
    분석된 뷰 포인트에 상응하는 좌표 영역에 적용된 실감 콘텐츠의 실행으로서, 해당 좌표 영역 관련 공간으로의 장소 이동, 오버레이된 동영상의 재생, 입체 사운드의 오디오 출력, 지정된 외부 링크로의 연결 또는 링크 재생, 증강정보의 표출, 지정된 전화번호로의 전화 걸기, 물품 구매 및 결제 중 적어도 하나의 인터랙티브 액션을 실행하는, 3D VR 콘텐츠 제작 시스템.Execution of sensational content applied to the coordinate area corresponding to the analyzed view point, moving the place to the space related to the coordinate area, playing the overlayed video, outputting stereoscopic sound, connecting or linking to a specified external link, or augmenting A 3D VR content production system that executes at least one interactive action of displaying information, making a call to a designated phone number, purchasing goods, and making payments.
PCT/KR2019/010519 2018-12-19 2019-08-19 Three-dimensional vr content production system WO2020130275A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180165133A KR102239877B1 (en) 2018-12-19 2018-12-19 System for producing 3 dimension virtual reality content
KR10-2018-0165133 2018-12-19

Publications (1)

Publication Number Publication Date
WO2020130275A1 true WO2020130275A1 (en) 2020-06-25

Family

ID=71102249

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/010519 WO2020130275A1 (en) 2018-12-19 2019-08-19 Three-dimensional vr content production system

Country Status (2)

Country Link
KR (1) KR102239877B1 (en)
WO (1) WO2020130275A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136160A (en) * 2015-05-19 2016-11-29 주식회사 드로잉쇼 Virtual Reality Performance System and Performance Method
KR20170130582A (en) * 2015-08-04 2017-11-28 구글 엘엘씨 Hover behavior for gaze interaction in virtual reality
KR20180081274A (en) * 2017-01-06 2018-07-16 한국과학기술원 Method and system for making training program based on virtual reality
KR101908068B1 (en) * 2018-07-24 2018-10-15 주식회사 루씨드드림 System for Authoring and Playing 360° VR Contents

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160136160A (en) * 2015-05-19 2016-11-29 주식회사 드로잉쇼 Virtual Reality Performance System and Performance Method
KR20170130582A (en) * 2015-08-04 2017-11-28 구글 엘엘씨 Hover behavior for gaze interaction in virtual reality
KR20180081274A (en) * 2017-01-06 2018-07-16 한국과학기술원 Method and system for making training program based on virtual reality
KR101908068B1 (en) * 2018-07-24 2018-10-15 주식회사 루씨드드림 System for Authoring and Playing 360° VR Contents

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CALAGARI, KIANA ET AL.: "Sports VR Content Generation from Regular Camera Feeds", MM'17 PROCEEDINGS OF THE 25TH ACM INTERNATIONAL CONFERENCE ON MULTIMEDIA, 27 October 2017 (2017-10-27), pages 699 - 707, XP055719901 *

Also Published As

Publication number Publication date
KR102239877B1 (en) 2021-04-12
KR20200076234A (en) 2020-06-29

Similar Documents

Publication Publication Date Title
US10983664B2 (en) Communications interface and a communications method, a corresponding computer program, and a corresponding registration medium
AU2022203001B2 (en) System of Automated Script Generation with Integrated Video Production
US20220319139A1 (en) Multi-endpoint mixed-reality meetings
CN103310099A (en) Method and system for realizing augmented reality by adopting image capture and recognition technology
CN106648098B (en) AR projection method and system for user-defined scene
CN112135158B (en) Live broadcasting method based on mixed reality and related equipment
KR20170059331A (en) Image extraction and sharing system using application program, and the method thereof
CN113766296A (en) Live broadcast picture display method and device
CN111242704A (en) Method and electronic equipment for superposing live character images in real scene
KR20230006580A (en) Image data encoding method and device, display method and device, electronic device
Chantziaras et al. An augmented reality-based remote collaboration platform for worker assistance
US11704756B2 (en) System and method for displaying additional information on 3D tour
CN102236408A (en) Multi-point human-computer interaction system for fusing large screen based on image recognition and multiple projectors
WO2020130275A1 (en) Three-dimensional vr content production system
CN103338143A (en) Method, apparatus and system for realizing image sharing
CN103309444A (en) Kinect-based intelligent panoramic display method
CN103295023A (en) Method and device for displaying augmented reality information
WO2018105762A1 (en) Multilateral collaboration system for content production
US11704757B2 (en) Server and method for displaying additional information on 3D tour
US20230326161A1 (en) Data processing method and apparatus, electronic device, computer-readable storage medium, and computer program product
Lee Phiz: An Accessible, Versatile, Open Source Framework for Facial Motion Capture
Kolli Using video scenarios to present consumer product interfaces
TWI612465B (en) System and method for remote interaction
JP2022106271A (en) Program, method, information processor, and system
EP4331184A1 (en) Systems and methods for managing digital notes for collaboration

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19900737

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 03/11/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19900737

Country of ref document: EP

Kind code of ref document: A1