KR20230010601A - Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It - Google Patents
Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It Download PDFInfo
- Publication number
- KR20230010601A KR20230010601A KR1020220085629A KR20220085629A KR20230010601A KR 20230010601 A KR20230010601 A KR 20230010601A KR 1020220085629 A KR1020220085629 A KR 1020220085629A KR 20220085629 A KR20220085629 A KR 20220085629A KR 20230010601 A KR20230010601 A KR 20230010601A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- message
- content
- terminal
- unit
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 38
- 238000000034 method Methods 0.000 title claims description 28
- 230000004044 response Effects 0.000 claims abstract description 5
- 230000003993 interaction Effects 0.000 claims description 25
- 238000009877 rendering Methods 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 9
- 238000002716 delivery method Methods 0.000 claims 1
- 238000005516 engineering process Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 9
- 230000008901 benefit Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 3
- 210000000746 body region Anatomy 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/01—Social networking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/30—Transportation; Communications
-
- G06Q50/50—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Abstract
Description
본 발명은 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템에 관한 것이다.The present invention relates to a method for providing a message-based XR mobile service using augmented reality and a system supporting the same.
일반적으로 증강현실(AR; Augmented Reality) 기술은 현실 세계에 존재하는 객체에 컴퓨터 그래픽으로 만들어진 가상 객체를 중첩하여 사용자에게 제공하는 기술을 의미하며, 최근 증강현실의 구현이 컴퓨터, 휴대폰(스마트폰), 태블릿, 스마트 글라스 등과 같은 엔드 포인트(end point)에까지 연장됨에 따라, 연구 개발이 집중되고 있는 기술에 해당한다.In general, Augmented Reality (AR) technology refers to a technology that provides users with virtual objects created by computer graphics superimposed on objects existing in the real world, and recently, the implementation of augmented reality has been implemented on computers and mobile phones (smartphones). , As it extends to end points such as tablets and smart glasses, it corresponds to a technology in which research and development are being concentrated.
사용자가 눈으로 보는 현실 세계에 가상의 객체를 겹쳐 보여주는 기술을 '증강현실(Augmented Reality)'이라고 한다. 현실 세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(MR; Mixed Reality, MR)이라고 한다.Augmented Reality is a technology that superimposes virtual objects on the real world that users see. It is called Mixed Reality (MR) because it combines the real world with the virtual world with additional information in real time and shows it as a single image.
현실 세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다.Augmented reality, a concept that complements the real world with the virtual world, uses a virtual environment created by computer graphics, but the main character is the real environment. Computer graphics play a role in providing additional information necessary for the real environment.
이러한 증강현실기술은 가상환경만으로 구성된 가상현실기술과 달리, 실제 환경과 가상의 객체가 혼합된 영상을 제공하므로, 사용자가 실제 환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다.Unlike the virtual reality technology composed of only the virtual environment, this augmented reality technology provides a mixed image of the real environment and virtual objects, so that the user can see the real environment to provide a better sense of reality and additional information.
증강현실기술은 원격의료진단·방송·건축설계·제조공정관리 등에 활용된다. 특히, 최근 스마트폰이 널리 보급 되면서 본격적인 상업화 단계에 들어섰으며, 게임 및 모바일 솔루션 업계·교육 분야 등에서도 다양한 제품을 개발하고 있다.Augmented reality technology is used for remote medical diagnosis, broadcasting, architectural design, and manufacturing process management. In particular, with the recent spread of smart phones, they have entered a full-fledged commercialization stage, and are developing various products in the game and mobile solution industries and education fields.
또한 스마트 글래스를 이용하여 이동 중에 다양한 종류의 증강 현실을 제공하지만 증강 현실의 양이 많은 경우에는 원하지 않는 증강 현실까지 제공되어서 원하는 증강 현실을 용이하게 찾기가 쉽지 않은 문제가 있다.In addition, although various types of augmented reality are provided while moving using smart glasses, when the amount of augmented reality is large, unwanted augmented reality is also provided, making it difficult to easily find the desired augmented reality.
한편, 최근 페이스북(Facebook), 유튜브(YouTube), 위키피디아(Wikipedia) 등 인터넷 서비스의 등장으로 사용자들이 이미 생성된 컨텐츠를 활용하는 것에 그치지 않고 직접 멀티미디어 컨텐츠를 제작하고 자유롭게 게시하고 공유하고 있으며, 시장에서의 급속한 성장에서 알 수 있듯이 점차 가상과 현실 공간의 경계가 사라지는 경향이 뚜렷하다.On the other hand, with the recent emergence of Internet services such as Facebook, YouTube, and Wikipedia, users do not just utilize already created content, but also create, freely post, and share multimedia content themselves, and market As can be seen from the rapid growth in <<, there is a clear tendency that the boundary between virtual and real spaces gradually disappears.
본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a message-based XR mobile service providing method using augmented reality that can solve the conventional problems and a system supporting the same.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템은 XR 컨텐츠가 포함된 메시지를 제작 및 제공하고, 기 설정된 조건에 반응하여 외부에서 제공된 상기 메시지에 포함된 XR 컨텐츠를 실행하는 단말; 및 상기 단말에서 상기 XR 컨텐츠를 제작 및 실행하기 위한 인터페이스를 지원하는 XR 서비스 플랫폼을 포함한다.A system for supporting a message-based XR mobile service using augmented reality according to an embodiment of the present invention for solving the above problems produces and provides a message containing XR content, and responds to a preset condition to provide an externally provided message. a terminal executing the XR content included in the message; and an XR service platform supporting an interface for creating and executing the XR content in the terminal.
일 실시예에서, 상기 단말은 촬영된 실제영상 내의 적어도 하나 이상의 오브젝트를 추출한 후, 추출된 오브젝트 중 사용자가 지정한 오브젝트를 입체 XR 오브젝트로 가공 처리한 후, 실제영상 내에 가공 처리된 입체 XR 오브젝트가 혼합된 XR 영상을 생성하는 것을 특징으로 한다.In one embodiment, the terminal extracts at least one or more objects in the captured real image, processes an object designated by a user among the extracted objects into a 3D XR object, and then mixes the processed 3D XR object in the real image. It is characterized by generating an XR image.
일 실시예에서, 상기 단말은 추출된 영상 오브젝트 중 사용자가 지정한 영상 오브젝트를 XR 컨텐츠로 생성 또는 가공하는 것을 특징으로 한다.In one embodiment, the terminal is characterized in that an image object specified by a user among extracted image objects is created or processed as XR contents.
일 실시예에서, 상기 단말은 3차원 가상 이미지를 생성하거나 또는 UI로부터 지원되는 다양한 XR 컨텐츠 중 어느 하나로 사용자가 지정한 영상 오브젝트를 대체하거나 또는 촬영된 촬영영상 내에 포함시키고자 하는 XR 컨텐츠를 상기 UI로부터 제공받는 것을 특징으로 한다.In one embodiment, the terminal generates a 3D virtual image, replaces an image object specified by the user with one of various XR contents supported by the UI, or provides XR contents to be included in a captured image from the UI. It is characterized by being provided.
일 실시예에서, 상기 단말은 상기 촬영영상과 생성된 입체 XR 영상 오브젝트를 렌더링한 XR 영상을 생성하는 렌더링부를 포함하고, 상기 렌더링부는 인터랙션부와 연동되어, 상기 XR 영상 오브젝트가 단말에서 실행되기 위한 인터랙션 정보가 포함되도록 해당 입체 XR 영상을 생성하는 것을 특징으로 한다.In one embodiment, the terminal includes a rendering unit that generates an XR image obtained by rendering the captured image and the created stereoscopic XR image object, and the rendering unit is interlocked with an interaction unit to execute the XR image object in the terminal. It is characterized in that a corresponding stereoscopic XR image is generated to include interaction information.
일 실시예에서, 상기 단말은 상기 렌더링부에서 렌더링된 XR 영상이 포함된 메시지를 생성하는 것을 특징으로 한다.In one embodiment, the terminal is characterized in that it generates a message containing the XR image rendered by the rendering unit.
일 실시예에서, 상기 단말은 외부로부터 수신한 XR 영상 메시지 내의 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 제어하는 인터랙션부를 포함하고, 상기 인터랙션부는 상기 렌더링부로 상기 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 하기 위한 인터랙션 조건값을 부여하는 것을 특징으로 한다.In one embodiment, the terminal includes an interaction unit for controlling an XR object in an XR video message received from the outside to react or execute under a preset condition, and the interaction unit controls the rendering unit to react or execute the XR object under a preset condition. It is characterized in that an interaction condition value for execution is given.
일 실시예에서, 상기 단말은 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 것을 특징으로 한다.In one embodiment, the terminal detects the XR content in the stereoscopic XR image exposed on the screen under a preset detection condition, for example, when the XR content is located in the user's body (hand) or the user's gesture or motion. It is characterized by doing.
상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 메시지 기반 XR 기술을 이용한 모바일 서비스 제공 방법은 영상 촬영부에서 촬영된 촬영영상을 수신하는 단계; XR 컨텐츠 생성부에서 촬영된 촬영영상 내에 렌더링할 XR 컨텐츠를 UI로부터 제공받아 생성하거나 또는 사용자가 지정한 영상 오브젝트에 유사한 XR 컨텐츠를 생성하는 단계; 렌더링부에서 촬영영상 내에 XR 컨텐츠가 사용자가 지정한 조건값으로 렌더링한 XR 영상을 생성하는 단계; XR 영상 메시지 생성부에서 XR 영상이 포함된 XR 영상 메시지를 생성하는 단계; 및 상기 XR 영상 메시지 생성부에서 XR 컨텐츠가 포함된 XR 영상 메시지를 생성하면, 입/출력부에서 사용자가 지정한 번호 또는 SNS로 해당 XR 영상 메시지를 발송 또는 공유하는 단계를 포함한다.A mobile service providing method using message-based XR technology according to an embodiment of the present invention for solving the above problems includes receiving a captured image captured by an image capturing unit; generating XR contents to be rendered within the photographed image captured by the XR contents creation unit from a UI or generating XR contents similar to an image object specified by a user; generating an XR image in which the XR content in the captured image is rendered by a user-specified condition value in a rendering unit; generating an XR video message including an XR video in an XR video message generating unit; and when the XR video message generating unit generates an XR video message containing XR content, the input/output unit transmits or shares the XR video message to a number or SNS designated by the user.
상기 과제를 해결하기 위한 본 발명의 다른 일 실시예에 따른 메시지 기반 XR 기술을 이용한 모바일 서비스 제공 방법은 입/출력부에서 외부단말로부터 XR 영상 메시지를 수신하는 단계; 인터랙션부에서 상기 XR 영상 메시지 내에 설정된 인터랙션 값에 따라 XR 컨텐츠를 실행하는 단계; XR 컨텐츠 감지부에서 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 단계; 및 효과부에서 XR 컨텐츠에 해당하는 효과(진동, 소리 등)를 출력하는 단계를 포함한다.A mobile service providing method using message-based XR technology according to another embodiment of the present invention for solving the above problems includes receiving an XR video message from an external terminal in an input/output unit; Executing XR content according to the interaction value set in the XR video message in an interaction unit; detecting, by an XR content detector, the XR content in the stereoscopic XR image exposed on the screen under a preset detection condition, for example, when the XR content is located within the user's body (hand) or whether there is a user's gesture or motion; and outputting an effect (vibration, sound, etc.) corresponding to the XR content in the effect unit.
본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템을 이용하면, 종래와 같이 단순하게 선물을 선택하고 메시지로 전달하는 방식의 문제점, 예컨대, 감정을 풍부하게 표현하여 전달하지 못한 문제점을 해결할 수 있다는 이점이 있다.Using the message-based XR mobile service providing method using augmented reality and a system supporting the same according to an embodiment of the present invention, the problem of simply selecting a gift and delivering it as a message as in the prior art, e.g., emotions It has the advantage of being able to solve problems that could not be conveyed through rich expression.
즉, 선물을 오프라인으로 직접 보고 전달하는 것에 비해 그 마음을 전달하는 데 있어 감성전달 부분을 충족시켜 줄 수 있다는 이점이 있다.In other words, there is an advantage in that it can satisfy the emotional delivery part in conveying the heart compared to directly seeing and delivering the gift offline.
기술한 이점을 통해 사용자는 가고 싶던 공간 혹은 선물을 전달하고 싶은 공간(예컨대, 프로포즈 하고 싶은 공간 등)을 실제 촬영된 컨텐츠와 아바타를 통해서 가상 체험이 가능하며, 이로써 상상력을 자극하여 재미요소로 인한 즐거움을 제공하는 장점이 있다.Through the advantages described above, users can experience the space they want to go or the space they want to deliver a gift to (for example, a space where they want to propose) through virtual content and avatars that are actually filmed. It has the advantage of providing pleasure.
또한 모바일 선물받기로 받았을 때의 기분과는 한 차원 다른 실감나는 컨텐츠와 선물로 색다른 경험을 선사할 수 있다.In addition, you can present a different experience with realistic contents and gifts that are one level different from the feeling of receiving a mobile gift.
도 1은 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템의 장치 구성도이다.
도 2는 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법을 설명한 흐름도이다.
도 3은 본 발명의 다른 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법을 설명한 흐름도이다.1 is a device configuration diagram of a system supporting a message-based XR mobile service using augmented reality according to an embodiment of the present invention.
2 is a flowchart illustrating a method for providing a message-based XR mobile service using augmented reality according to an embodiment of the present invention.
3 is a flowchart illustrating a method for providing a message-based XR mobile service using augmented reality according to another embodiment of the present invention.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.
명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".
본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.
본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.
본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is the terminal's identifying data. can be interpreted as
이하, 첨부된 도면을 기초로 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템을 보다 상세하게 설명하도록 한다.Hereinafter, based on the accompanying drawings, a message-based XR mobile service providing method using augmented reality according to an embodiment of the present invention and a system supporting the same will be described in more detail.
도 1은 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템의 장치 구성도이다.1 is a device configuration diagram of a system supporting a message-based XR mobile service using augmented reality according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템(100)은 XR 서비스 플랫폼을 실행하는 단말일 수 있고, 상기 XR 서비스 플랫폼을 이용하여 3차원 XR 컨텐츠가 포함된 메시지를 제작 및 제공하고, 기 설정된 모션에 반응하여 외부에서 제공된 메시지에 포함된 3차원 XR 컨텐츠를 표시 및 획득하는 구성일 수 있다.As shown in FIG. 1, the
또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 촬영된 실제영상 내의 적어도 하나 이상의 오브젝트를 추출한 후, 추출된 오브젝트 중 사용자가 지정한 오브젝트를 입체 XR 오브젝트로 가공 처리한 후, 실제영상 내에 가공 처리된 입체 XR 오브젝트가 혼합된 XR 영상을 생성하는 구성일 수 있다.In addition, the
또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 사용자의 촬영이미지를 기반으로 아바타를 생성하는 구성일 수 있다.In addition, the
또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 외부에서 수신된 XR 컨텐츠가 포함된 메시지를 수신한 후, 메시지에 포함된 입체 XR 컨텐츠를 실행하는 구성일 수 있다.In addition, the terminal 100 may be configured to execute stereoscopic XR contents included in the message after receiving a message including the XR contents received from the outside using the XR service platform.
또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 실행된 입체 XR 컨텐츠가 사용자의 기 설정된 모션 또는 신체 영역 내에 위치하면 해당 XR 컨텐츠를 수집 또는 획득하는 구성일 수 있다.In addition, the terminal 100 may be configured to collect or obtain the corresponding XR content when the stereoscopic XR content executed using the XR service platform is located within a preset motion or body region of the user.
또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 실행된 입체 XR 컨텐츠가 사용자의 기 설정된 모션 또는 신체 영역 내에 위치하면 입체 XR 컨텐츠에 설정된 햅틱정보를 출력하는 구성일 수 있다.In addition, the terminal 100 may be configured to output haptic information set in the stereoscopic XR content when the stereoscopic XR content executed using the XR service platform is located within a preset motion or body region of the user.
한편, 상기 본원에서 언급한 단말(100)은 스마트폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 폴더블 단말기(Foldable Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉서블 단말기(Flexible Terminal), 디지털 사이니지 장치 등과 같은 다양한 단말기에 적용될 수 있다.Meanwhile, the terminal 100 mentioned herein is a smart phone, a portable terminal, a mobile terminal, a foldable terminal, and a personal digital assistant (PDA). ), PMP (Portable Multimedia Player) terminal, telematics terminal, navigation terminal, personal computer, notebook computer, slate PC, tablet PC, ultrabook ), wearable device (including, for example, a watch type terminal (Smartwatch), a glass type terminal (Smart Glass), HMD (Head Mounted Display), etc.), Wibro terminal, IPTV (Internet Protocol Television) terminal It can be applied to various terminals such as smart TVs, digital broadcasting terminals, AVN (Audio Video Navigation) terminals, A/V (Audio/Video) systems, flexible terminals, digital signage devices, and the like.
보다 구체적으로, 상기 단말(100)은 영상 촬영부(110), 영상 오브젝트 추출부(120), 입체 XR 오브젝트 생성부(130), 영상혼합부(140), 입력부(150), 인터랙션부(160), 햅틱반응부(170) 및 XR 컨텐츠 감지부(180)를 포함한다.More specifically, the terminal 100 includes an
상기 영상 촬영부(110)는 사용자의 이미지 및 주변환경을 촬영하는 구성일 수 있다. The
상기 영상 오브젝트 추출부(120)는 촬영영상 내에 적어도 하나 이상의 영상 오브젝트를 추출하는 구성일 수 있다. 여기서, 영상 오브젝트는 손, 발, 얼굴 등의 신체와 주변환경의 객체들일 수 있다.The image
한편, 상기 영상 오브젝트 추출부(120)는 UI(125)를 통해 촬영영상 내에서 원하는 영역(크기)을 선택하고, 선택된 영상 중 추출하고자 하는 영상 오브젝트를 지정할 수 있다.Meanwhile, the
다음으로, XR 컨텐츠 생성부(130)는 추출된 영상 오브젝트 중 사용자가 지정한 영상 오브젝트를 XR 컨텐츠로 생성 또는 가공하는 구성일 수 있다.Next, the
예컨대, 사용자가 지정한 영상 오브젝트가 신체일 경우, 해당 신체와 유사성을 갖는 아바타 등으로 XR 컨텐츠를 생성 또는 XR 컨텐츠로 가공할 수 있다. 상기 아바타는 개인 특징을 부각시킨 3차원 애니메이션일 수 있다.For example, when an image object designated by a user is a body, XR contents may be generated or processed into XR contents using an avatar similar to the corresponding body. The avatar may be a 3D animation emphasizing personal characteristics.
또한, 사용자가 지정한 영상 오브젝트가 공간일 경우, 사용자(메시지 발송자 또는 메시지 수신자)가 가 보고 싶던 공간 또는 체험하고 싶었던 공간 혹은 선물을 전달하고 싶은 공간(예컨대, 프로포즈 하고 싶은 공간 등)에 대한 XR 컨텐츠를 생성 또는 XR 컨텐츠로 가공할 수 있다.In addition, if the video object designated by the user is a space, XR content for a space the user (message sender or message receiver) wants to visit or experience, or a space to deliver a gift to (e.g., a space to propose) can be created or processed into XR content.
또한, XR 컨텐츠 생성부(130)는 대량의 3차원 가상이미지를 미리 저장할 수 있고, 신체 이미지 중 특징을 추출하고, 미리 저장된 각각의 3차원 가상이미지와 매칭시켜 특징이 고도로 매칭되는 3차원 가상이미지를 아바타로 사용할 수 있다.In addition, the XR
또한, 사용자가 지정한 영상 오브젝트가 객체인 선물포장박스일 경우, 해당 객체와 유사성을 갖는 3차원 가상물체를 생성할 수 있다.In addition, when the image object designated by the user is a gift wrapping box, a 3D virtual object similar to the object may be created.
여기서, 상기 XR 컨텐츠 생성부(130)는 3차원 가상 이미지를 생성할 수도 있을 뿐만 아니라, UI(125)로부터 지원되는 다양한 XR 컨텐츠 중 어느 하나로 사용자가 지정한 영상 오브젝트를 대체할 수 있고, 또는 영상 촬영부(110) 촬영된 촬영영상 내에 포함시키고자 하는 XR 컨텐츠를 UI(125)로부터 제공받을 수 있다.Here, the
상기 렌더링부(140)는 촬영영상과 생성된 입체 XR 영상 오브젝트를 렌더링한 입체 XR 영상을 생성하는 구성일 수 있다. The
또한, 렌더링부(140)는 후술하는 인터랙션부(170)와 연동되어, XR 영상 오브젝트가 단말에서 실행되기 위한 인터랙션 정보가 포함되도록 해당 입체 XR 영상을 생성하는 구성일 수 있다.In addition, the
다음으로, 메시지 생성부(150)는 렌더링부(140)에서 믹싱 또는 정합된 입체 XR 영상이 포함된 메시지를 생성하는 구성일 수 있다.Next, the
다음으로, 입/출력부(160)는 기술한 메시지 생성부(150)에서 생성된 입체 XR 영상이 포함된 메시지를 사용자자 지정한 외부단말로 전송하거나 또는 외부단말에서 생성한 입체 XR 영상을 수신하는 구성일 수 있다.Next, the input/
다음으로, 상기 인터랙션부(170)는 상기 입/출력부(160)에서 수신된 입체 XR 영상 내의 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 제어하는 구성일 수 있다. 또한, 렌더링부(140)로 입체 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 하기 위한 인터랙션 조건값을 부여하는 구성일 수 있다.Next, the
다음으로, XR 컨텐츠 감지부(190)는 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 구성일 있다.Next, the XR
다음으로, 효과부(180)는 XR 컨텐츠 감지부(190)의 감지신호에 기초하여 인터랙션 조건값에 따른 효과(진동 강약, 소리 강약 등)를 출력하는 구성일 수 있다.Next, the
도 2는 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법을 설명한 흐름도이고, 도 3은 본 발명의 다른 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법을 설명한 흐름도이다.2 is a flowchart illustrating a method for providing a message-based XR mobile service using augmented reality according to an embodiment of the present invention, and FIG. 3 is a flowchart illustrating a method for providing a message-based XR mobile service using augmented reality according to another embodiment of the present invention. Here is a flow chart explaining the method.
먼저, 도 2를 참조, 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법(S700)은 영상 촬영부에서 촬영된 촬영영상을 수신(S710)한 후, XR 컨텐츠 생성부(130)에서 촬영된 촬영영상 내에 렌더링할 XR 컨텐츠를 UI로부터 제공받아 생성하거나 또는 사용자가 지정한 영상 오브젝트에 유사한 XR 컨텐츠를 생성(S720)한다.First, referring to FIG. 2, in the message-based XR mobile service providing method (S700) using augmented reality according to an embodiment of the present invention, after receiving (S710) a captured image taken by an image capturing unit, XR content is generated. The XR contents to be rendered in the photographed image captured in the
여기서, 상기 S720 과정은 입체 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 하기 위한 인터랙션 조건값을 인터랙션부(170)로부터 제공받는 과정을 포함한다.Here, the process S720 includes a process of receiving, from the
이후, 렌더링부(140)에서 촬영영상 내에 XR 컨텐츠가 사용자가 지정한 조건값으로 렌더링한 XR 영상을 생성(S730)하여 XR 영상 메시지 생성부(150)로 제공한다.Thereafter, the
메시지 생성부(150)에서 XR 컨텐츠가 포함된 XR 영상 메시지를 생성하면, 입/출력부에서 사용자가 지정한 번호 또는 SNS로 해당 XR 영상 메시지를 발송 또는 공유(S740)한다.When the
한편, 도 3을 참조, 본 발명의 다른 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법(S800)은 입/출력부(160)에서 외부단말로부터 XR 영상 메시지를 수신(S810)하면, 인터랙션부(170)에서 XR 영상 메시지 내에 설정된 인터랙션 값에 따라 XR 컨텐츠를 실행(S820)한다. 이후, XR 컨텐츠 감지부(190)에서 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하면, 효과부(180)에서 XR 컨텐츠에 해당하는 효과(진동, 소리 등)를 출력한다.On the other hand, referring to FIG. 3, in the message-based XR mobile service providing method (S800) using augmented reality according to another embodiment of the present invention, the input/
따라서, 본 발명은 종래와 같이 단순하게 선물을 선택하고 메시지로 전달하는 방식의 문제점, 예컨대, 감정을 풍부하게 표현하여 전달하지 못한 문제점을 해결할 수 있다는 이점이 있다.Therefore, the present invention has the advantage of being able to solve the problem of simply selecting a gift and delivering it as a message, such as the problem of not richly expressing and delivering emotions as in the prior art.
즉, 선물을 오프라인으로 직접 보고 전달하는 것에 비해 그 마음을 전달하는 데 있어 감성전달 부분을 충족시켜 줄 수 있다는 이점이 있다.In other words, there is an advantage in that it can satisfy the emotional delivery part in conveying the heart compared to directly seeing and delivering the gift offline.
기술한 이점을 통해 사용자는 가보고 싶던 공간 혹은 선물을 전달하고 싶은 공간(예컨대, 프로포즈 하고 싶은 공간 등)을 실제 촬영된 컨텐츠와 아바타를 통해서 가상 체험이 가능하며, 이로써 상상력을 자극하여 재미요소로 인한 즐거움을 제공하는 장점이 있다.Through the advantages described above, users can experience a space they want to visit or a space they want to deliver a gift to (for example, a space where they want to propose) through virtual content and avatars that are actually filmed. It has the advantage of providing pleasure.
또한 모바일 선물받기로 받았을 때의 기분과는 한 차원 다른 실감나는 컨텐츠와 선물로 색다른 경험을 선사할 수 있다.In addition, you can present a different experience with realistic contents and gifts that are one level different from the feeling of receiving a mobile gift.
본 발명의 일 실시예에서 사용된 “~부”는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.“~ unit” used in one embodiment of the present invention may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.
본 발명의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 기술한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The described hardware devices may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing may be modified and modified by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
100: 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템
110: 영상 촬영부
120: 영상 오브젝트 추출부
125: UI
130: XR 컨텐츠 생성부
140: 렌더링부
150: XR 영상 메시지 생성부
160: 입/출력부
170: 인터랙션부
180: 효과부
190: XR 컨텐츠 감지부100: System supporting message-based XR mobile service using augmented reality
110: video recording unit
120: image object extraction unit
125 UI
130: XR content generation unit
140: rendering unit
150: XR video message generation unit
160: input / output unit
170: interaction unit
180: effect unit
190: XR content detection unit
Claims (10)
상기 단말에서 상기 XR 컨텐츠를 제작 및 실행하기 위한 인터페이스를 지원하는 XR 서비스 플랫폼을 포함하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
A terminal that creates and provides a message containing XR content, and executes the XR content included in the externally provided message in response to a predetermined condition; and
A system for supporting a message-based XR mobile service using augmented reality, including an XR service platform supporting an interface for producing and executing the XR content in the terminal.
상기 단말은
촬영된 실제영상 내의 적어도 하나 이상의 오브젝트를 추출한 후, 추출된 오브젝트 중 사용자가 지정한 오브젝트를 입체 XR 오브젝트로 가공 처리한 후, 실제영상 내에 가공 처리된 입체 XR 오브젝트가 혼합된 XR 영상을 생성하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 1,
The terminal
After extracting at least one object in the captured real image, processing the object designated by the user among the extracted objects into a 3D XR object, and then generating an XR image in which the 3D XR object processed in the real image is mixed. A system that supports message-based XR mobile service using
상기 단말은
추출된 영상 오브젝트 중 사용자가 지정한 영상 오브젝트를 XR 컨텐츠로 생성 또는 가공하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 2,
The terminal
A system for supporting a message-based XR mobile service using augmented reality, characterized in that an image object designated by a user among extracted image objects is created or processed as XR content.
상기 단말은
3차원 가상 이미지를 생성하거나 또는 UI로부터 지원되는 다양한 XR 컨텐츠 중 어느 하나로 사용자가 지정한 영상 오브젝트를 대체하거나 또는 촬영된 촬영영상 내에 포함시키고자 하는 XR 컨텐츠를 상기 UI로부터 제공받는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 3,
The terminal
Augmented reality characterized by generating a three-dimensional virtual image, replacing an image object designated by the user with one of various XR contents supported by the UI, or receiving XR contents to be included in the captured image from the UI A system that supports message-based XR mobile service using
상기 단말은
상기 촬영영상과 생성된 입체 XR 영상 오브젝트를 렌더링한 XR 영상을 생성하는 렌더링부를 포함하고,
상기 렌더링부는 인터랙션부와 연동되어, 상기 XR 영상 오브젝트가 상기 단말에서 실행되기 위한 인터랙션 정보가 포함되도록 해당 입체 XR 영상을 생성하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 4,
The terminal
A rendering unit generating an XR image obtained by rendering the captured image and the generated stereoscopic XR image object;
A system for supporting a message-based XR mobile service using augmented reality, characterized in that the rendering unit generates a stereoscopic XR image in conjunction with the interaction unit to include interaction information for the XR image object to be executed in the terminal. .
상기 단말은
상기 렌더링부에서 렌더링된 XR 영상이 포함된 메시지를 생성하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 5,
The terminal
A system for supporting a message-based XR mobile service using augmented reality, characterized in that for generating a message containing the XR image rendered by the rendering unit.
상기 단말은
외부로부터 수신한 XR 영상 메시지 내의 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 제어하는 인터랙션부를 포함하고,
상기 인터랙션부는
상기 렌더링부로 상기 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 하기 위한 인터랙션 조건값을 부여하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 6,
The terminal
An interaction unit for controlling an XR object in an XR video message received from the outside to react or execute under preset conditions;
The interaction part
A system for supporting a message-based XR mobile service using augmented reality, characterized in that for giving the rendering unit an interaction condition value for reacting or executing the XR object under a preset condition.
상기 단말은
화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 7,
The terminal
Augmented reality characterized in that the XR content in the stereoscopic XR image exposed on the screen detects a preset sensing condition, for example, when the XR content is located in the user's body (hand) or the presence or absence of the user's gesture or motion A system that supports the message-based XR mobile service.
XR 컨텐츠 생성부에서 촬영된 촬영영상 내에 렌더링할 XR 컨텐츠를 UI로부터 제공받아 생성하거나 또는 사용자가 지정한 영상 오브젝트에 유사한 XR 컨텐츠를 생성하는 단계;
렌더링부에서 촬영영상 내에 XR 컨텐츠가 사용자가 지정한 조건값으로 렌더링한 XR 영상을 생성하는 단계;
XR 영상 메시지 생성부에서 XR 영상이 포함된 XR 영상 메시지를 생성하는 단계; 및
상기 XR 영상 메시지 생성부에서 XR 컨텐츠가 포함된 XR 영상 메시지를 생성하면, 입/출력부에서 사용자가 지정한 번호 또는 SNS로 해당 XR 영상 메시지를 발송 또는 공유하는 단계를 포함하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법.
Receiving a photographed image captured by an image photographing unit;
generating XR contents to be rendered within the photographed image captured by the XR contents creation unit from a UI or generating XR contents similar to an image object specified by a user;
generating an XR image in which the XR content in the captured image is rendered by a user-specified condition value in a rendering unit;
generating an XR video message including an XR video in an XR video message generating unit; and
When the XR video message generating unit generates an XR video message containing XR contents, the input/output unit transmits or shares the XR video message to a number designated by the user or to an SNS based on a message using augmented reality. of XR mobile service delivery methods.
인터랙션부에서 상기 XR 영상 메시지 내에 설정된 인터랙션 값에 따라 XR 컨텐츠를 실행하는 단계;
XR 컨텐츠 감지부에서 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 단계; 및
효과부에서 XR 컨텐츠에 해당하는 효과(진동, 소리 등)를 출력하는 단계를 포함하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법.Receiving an XR video message from an external terminal in an input/output unit;
Executing XR content according to the interaction value set in the XR video message in an interaction unit;
detecting, by an XR content detector, the XR content in the stereoscopic XR image exposed on the screen under a preset detection condition, for example, when the XR content is located within the user's body (hand) or whether there is a user's gesture or motion; and
A method for providing a message-based XR mobile service using augmented reality, including outputting an effect (vibration, sound, etc.) corresponding to XR content in an effect unit.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210090737 | 2021-07-12 | ||
KR1020210090737 | 2021-07-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230010601A true KR20230010601A (en) | 2023-01-19 |
Family
ID=85078298
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220085629A KR20230010601A (en) | 2021-07-12 | 2022-07-12 | Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230010601A (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180058880A (en) | 2016-11-24 | 2018-06-04 | (주)케이아이엔엑스 | Load balancing and performance optimizing methods of message queues in the distributed openstack cloud data centers |
KR20210060474A (en) | 2018-09-25 | 2021-05-26 | 바스프 에스이 | Cations as catalysts in the production of alkanesulfonic acids |
-
2022
- 2022-07-12 KR KR1020220085629A patent/KR20230010601A/en unknown
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180058880A (en) | 2016-11-24 | 2018-06-04 | (주)케이아이엔엑스 | Load balancing and performance optimizing methods of message queues in the distributed openstack cloud data centers |
KR20210060474A (en) | 2018-09-25 | 2021-05-26 | 바스프 에스이 | Cations as catalysts in the production of alkanesulfonic acids |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11943486B2 (en) | Live video broadcast method, live broadcast device and storage medium | |
US20210344991A1 (en) | Systems, methods, apparatus for the integration of mobile applications and an interactive content layer on a display | |
US11416066B2 (en) | Methods and systems for generating and providing immersive 3D displays | |
US20210019982A1 (en) | Systems and methods for gesture recognition and interactive video assisted gambling | |
US10127724B2 (en) | System and method for providing augmented reality on mobile devices | |
US9547938B2 (en) | Augmenting a live view | |
US10009299B2 (en) | Method of processing message and electronic device supporting the same | |
CN109905592B (en) | Method and apparatus for providing content controlled or synthesized according to user interaction | |
CN111966275B (en) | Program trial method, system, device, equipment and medium | |
JP5807756B2 (en) | Method and apparatus for video streaming | |
CN111970571B (en) | Video production method, device, equipment and storage medium | |
KR102199735B1 (en) | Method and system for sharing effects for video | |
US11785178B2 (en) | Method, system, and non-transitory computer readable record medium for providing communication using video call bot | |
US20230209125A1 (en) | Method for displaying information and computer device | |
US11343577B2 (en) | Electronic device and method of providing content therefor | |
CN113411537B (en) | Video call method, device, terminal and storage medium | |
CN110431838B (en) | Method and system for providing dynamic content of face recognition camera | |
KR20230010601A (en) | Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It | |
WO2023029237A1 (en) | Video preview method and terminal | |
CN111652986B (en) | Stage effect presentation method and device, electronic equipment and storage medium | |
CN115040866A (en) | Cloud game image processing method, device, equipment and computer readable storage medium | |
US10354176B1 (en) | Fingerprint-based experience generation | |
CN113975804B (en) | Virtual control display method, device, equipment, storage medium and product | |
KR101513339B1 (en) | Terminal device having multi monitor | |
EP3389049B1 (en) | Enabling third parties to add effects to an application |