KR20230010601A - Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It - Google Patents

Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It Download PDF

Info

Publication number
KR20230010601A
KR20230010601A KR1020220085629A KR20220085629A KR20230010601A KR 20230010601 A KR20230010601 A KR 20230010601A KR 1020220085629 A KR1020220085629 A KR 1020220085629A KR 20220085629 A KR20220085629 A KR 20220085629A KR 20230010601 A KR20230010601 A KR 20230010601A
Authority
KR
South Korea
Prior art keywords
image
message
content
terminal
unit
Prior art date
Application number
KR1020220085629A
Other languages
Korean (ko)
Inventor
홍자영
Original Assignee
홍자영
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍자영 filed Critical 홍자영
Publication of KR20230010601A publication Critical patent/KR20230010601A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/50
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Abstract

According to the present invention, a system for supporting message-based XR mobile service using augmented reality includes: a terminal which produces and provides a message containing XR content, and executes XR content included in the message provided from the outside in response to a predetermined condition; and an XR service platform for supporting an interface for producing and executing the XR contents in the terminal.

Description

증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템{Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It}Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It

본 발명은 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템에 관한 것이다.The present invention relates to a method for providing a message-based XR mobile service using augmented reality and a system supporting the same.

일반적으로 증강현실(AR; Augmented Reality) 기술은 현실 세계에 존재하는 객체에 컴퓨터 그래픽으로 만들어진 가상 객체를 중첩하여 사용자에게 제공하는 기술을 의미하며, 최근 증강현실의 구현이 컴퓨터, 휴대폰(스마트폰), 태블릿, 스마트 글라스 등과 같은 엔드 포인트(end point)에까지 연장됨에 따라, 연구 개발이 집중되고 있는 기술에 해당한다.In general, Augmented Reality (AR) technology refers to a technology that provides users with virtual objects created by computer graphics superimposed on objects existing in the real world, and recently, the implementation of augmented reality has been implemented on computers and mobile phones (smartphones). , As it extends to end points such as tablets and smart glasses, it corresponds to a technology in which research and development are being concentrated.

사용자가 눈으로 보는 현실 세계에 가상의 객체를 겹쳐 보여주는 기술을 '증강현실(Augmented Reality)'이라고 한다. 현실 세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(MR; Mixed Reality, MR)이라고 한다.Augmented Reality is a technology that superimposes virtual objects on the real world that users see. It is called Mixed Reality (MR) because it combines the real world with the virtual world with additional information in real time and shows it as a single image.

현실 세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다.Augmented reality, a concept that complements the real world with the virtual world, uses a virtual environment created by computer graphics, but the main character is the real environment. Computer graphics play a role in providing additional information necessary for the real environment.

이러한 증강현실기술은 가상환경만으로 구성된 가상현실기술과 달리, 실제 환경과 가상의 객체가 혼합된 영상을 제공하므로, 사용자가 실제 환경을 볼 수 있게 하여 보다 나은 현실감과 부가 정보를 제공한다.Unlike the virtual reality technology composed of only the virtual environment, this augmented reality technology provides a mixed image of the real environment and virtual objects, so that the user can see the real environment to provide a better sense of reality and additional information.

증강현실기술은 원격의료진단·방송·건축설계·제조공정관리 등에 활용된다. 특히, 최근 스마트폰이 널리 보급 되면서 본격적인 상업화 단계에 들어섰으며, 게임 및 모바일 솔루션 업계·교육 분야 등에서도 다양한 제품을 개발하고 있다.Augmented reality technology is used for remote medical diagnosis, broadcasting, architectural design, and manufacturing process management. In particular, with the recent spread of smart phones, they have entered a full-fledged commercialization stage, and are developing various products in the game and mobile solution industries and education fields.

또한 스마트 글래스를 이용하여 이동 중에 다양한 종류의 증강 현실을 제공하지만 증강 현실의 양이 많은 경우에는 원하지 않는 증강 현실까지 제공되어서 원하는 증강 현실을 용이하게 찾기가 쉽지 않은 문제가 있다.In addition, although various types of augmented reality are provided while moving using smart glasses, when the amount of augmented reality is large, unwanted augmented reality is also provided, making it difficult to easily find the desired augmented reality.

한편, 최근 페이스북(Facebook), 유튜브(YouTube), 위키피디아(Wikipedia) 등 인터넷 서비스의 등장으로 사용자들이 이미 생성된 컨텐츠를 활용하는 것에 그치지 않고 직접 멀티미디어 컨텐츠를 제작하고 자유롭게 게시하고 공유하고 있으며, 시장에서의 급속한 성장에서 알 수 있듯이 점차 가상과 현실 공간의 경계가 사라지는 경향이 뚜렷하다.On the other hand, with the recent emergence of Internet services such as Facebook, YouTube, and Wikipedia, users do not just utilize already created content, but also create, freely post, and share multimedia content themselves, and market As can be seen from the rapid growth in <<, there is a clear tendency that the boundary between virtual and real spaces gradually disappears.

공개특허공보 제10-2021-0060474호 (발명의 명칭 : 증강현실 컨텐츠를 공유하는 시스템 및 그 방법)Publication No. 10-2021-0060474 (Title of Invention: Augmented Reality Content Sharing System and Method) 공개특허공보 제10-2018-0058880호 (발명의 명칭 : 상품 이미지 인식 기반 증강현실 컨텐츠 제공방법)Publication No. 10-2018-0058880 (Title of Invention: Method for Providing Augmented Reality Contents Based on Product Image Recognition)

본 발명이 해결하고자 하는 과제는 종래의 문제점을 해결할 수 있는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템을 제공하는 데 그 목적이 있다.An object of the present invention is to provide a message-based XR mobile service providing method using augmented reality that can solve the conventional problems and a system supporting the same.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템은 XR 컨텐츠가 포함된 메시지를 제작 및 제공하고, 기 설정된 조건에 반응하여 외부에서 제공된 상기 메시지에 포함된 XR 컨텐츠를 실행하는 단말; 및 상기 단말에서 상기 XR 컨텐츠를 제작 및 실행하기 위한 인터페이스를 지원하는 XR 서비스 플랫폼을 포함한다.A system for supporting a message-based XR mobile service using augmented reality according to an embodiment of the present invention for solving the above problems produces and provides a message containing XR content, and responds to a preset condition to provide an externally provided message. a terminal executing the XR content included in the message; and an XR service platform supporting an interface for creating and executing the XR content in the terminal.

일 실시예에서, 상기 단말은 촬영된 실제영상 내의 적어도 하나 이상의 오브젝트를 추출한 후, 추출된 오브젝트 중 사용자가 지정한 오브젝트를 입체 XR 오브젝트로 가공 처리한 후, 실제영상 내에 가공 처리된 입체 XR 오브젝트가 혼합된 XR 영상을 생성하는 것을 특징으로 한다.In one embodiment, the terminal extracts at least one or more objects in the captured real image, processes an object designated by a user among the extracted objects into a 3D XR object, and then mixes the processed 3D XR object in the real image. It is characterized by generating an XR image.

일 실시예에서, 상기 단말은 추출된 영상 오브젝트 중 사용자가 지정한 영상 오브젝트를 XR 컨텐츠로 생성 또는 가공하는 것을 특징으로 한다.In one embodiment, the terminal is characterized in that an image object specified by a user among extracted image objects is created or processed as XR contents.

일 실시예에서, 상기 단말은 3차원 가상 이미지를 생성하거나 또는 UI로부터 지원되는 다양한 XR 컨텐츠 중 어느 하나로 사용자가 지정한 영상 오브젝트를 대체하거나 또는 촬영된 촬영영상 내에 포함시키고자 하는 XR 컨텐츠를 상기 UI로부터 제공받는 것을 특징으로 한다.In one embodiment, the terminal generates a 3D virtual image, replaces an image object specified by the user with one of various XR contents supported by the UI, or provides XR contents to be included in a captured image from the UI. It is characterized by being provided.

일 실시예에서, 상기 단말은 상기 촬영영상과 생성된 입체 XR 영상 오브젝트를 렌더링한 XR 영상을 생성하는 렌더링부를 포함하고, 상기 렌더링부는 인터랙션부와 연동되어, 상기 XR 영상 오브젝트가 단말에서 실행되기 위한 인터랙션 정보가 포함되도록 해당 입체 XR 영상을 생성하는 것을 특징으로 한다.In one embodiment, the terminal includes a rendering unit that generates an XR image obtained by rendering the captured image and the created stereoscopic XR image object, and the rendering unit is interlocked with an interaction unit to execute the XR image object in the terminal. It is characterized in that a corresponding stereoscopic XR image is generated to include interaction information.

일 실시예에서, 상기 단말은 상기 렌더링부에서 렌더링된 XR 영상이 포함된 메시지를 생성하는 것을 특징으로 한다.In one embodiment, the terminal is characterized in that it generates a message containing the XR image rendered by the rendering unit.

일 실시예에서, 상기 단말은 외부로부터 수신한 XR 영상 메시지 내의 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 제어하는 인터랙션부를 포함하고, 상기 인터랙션부는 상기 렌더링부로 상기 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 하기 위한 인터랙션 조건값을 부여하는 것을 특징으로 한다.In one embodiment, the terminal includes an interaction unit for controlling an XR object in an XR video message received from the outside to react or execute under a preset condition, and the interaction unit controls the rendering unit to react or execute the XR object under a preset condition. It is characterized in that an interaction condition value for execution is given.

일 실시예에서, 상기 단말은 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 것을 특징으로 한다.In one embodiment, the terminal detects the XR content in the stereoscopic XR image exposed on the screen under a preset detection condition, for example, when the XR content is located in the user's body (hand) or the user's gesture or motion. It is characterized by doing.

상기 과제를 해결하기 위한 본 발명의 일 실시예에 따른 메시지 기반 XR 기술을 이용한 모바일 서비스 제공 방법은 영상 촬영부에서 촬영된 촬영영상을 수신하는 단계; XR 컨텐츠 생성부에서 촬영된 촬영영상 내에 렌더링할 XR 컨텐츠를 UI로부터 제공받아 생성하거나 또는 사용자가 지정한 영상 오브젝트에 유사한 XR 컨텐츠를 생성하는 단계; 렌더링부에서 촬영영상 내에 XR 컨텐츠가 사용자가 지정한 조건값으로 렌더링한 XR 영상을 생성하는 단계; XR 영상 메시지 생성부에서 XR 영상이 포함된 XR 영상 메시지를 생성하는 단계; 및 상기 XR 영상 메시지 생성부에서 XR 컨텐츠가 포함된 XR 영상 메시지를 생성하면, 입/출력부에서 사용자가 지정한 번호 또는 SNS로 해당 XR 영상 메시지를 발송 또는 공유하는 단계를 포함한다.A mobile service providing method using message-based XR technology according to an embodiment of the present invention for solving the above problems includes receiving a captured image captured by an image capturing unit; generating XR contents to be rendered within the photographed image captured by the XR contents creation unit from a UI or generating XR contents similar to an image object specified by a user; generating an XR image in which the XR content in the captured image is rendered by a user-specified condition value in a rendering unit; generating an XR video message including an XR video in an XR video message generating unit; and when the XR video message generating unit generates an XR video message containing XR content, the input/output unit transmits or shares the XR video message to a number or SNS designated by the user.

상기 과제를 해결하기 위한 본 발명의 다른 일 실시예에 따른 메시지 기반 XR 기술을 이용한 모바일 서비스 제공 방법은 입/출력부에서 외부단말로부터 XR 영상 메시지를 수신하는 단계; 인터랙션부에서 상기 XR 영상 메시지 내에 설정된 인터랙션 값에 따라 XR 컨텐츠를 실행하는 단계; XR 컨텐츠 감지부에서 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 단계; 및 효과부에서 XR 컨텐츠에 해당하는 효과(진동, 소리 등)를 출력하는 단계를 포함한다.A mobile service providing method using message-based XR technology according to another embodiment of the present invention for solving the above problems includes receiving an XR video message from an external terminal in an input/output unit; Executing XR content according to the interaction value set in the XR video message in an interaction unit; detecting, by an XR content detector, the XR content in the stereoscopic XR image exposed on the screen under a preset detection condition, for example, when the XR content is located within the user's body (hand) or whether there is a user's gesture or motion; and outputting an effect (vibration, sound, etc.) corresponding to the XR content in the effect unit.

본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템을 이용하면, 종래와 같이 단순하게 선물을 선택하고 메시지로 전달하는 방식의 문제점, 예컨대, 감정을 풍부하게 표현하여 전달하지 못한 문제점을 해결할 수 있다는 이점이 있다.Using the message-based XR mobile service providing method using augmented reality and a system supporting the same according to an embodiment of the present invention, the problem of simply selecting a gift and delivering it as a message as in the prior art, e.g., emotions It has the advantage of being able to solve problems that could not be conveyed through rich expression.

즉, 선물을 오프라인으로 직접 보고 전달하는 것에 비해 그 마음을 전달하는 데 있어 감성전달 부분을 충족시켜 줄 수 있다는 이점이 있다.In other words, there is an advantage in that it can satisfy the emotional delivery part in conveying the heart compared to directly seeing and delivering the gift offline.

기술한 이점을 통해 사용자는 가고 싶던 공간 혹은 선물을 전달하고 싶은 공간(예컨대, 프로포즈 하고 싶은 공간 등)을 실제 촬영된 컨텐츠와 아바타를 통해서 가상 체험이 가능하며, 이로써 상상력을 자극하여 재미요소로 인한 즐거움을 제공하는 장점이 있다.Through the advantages described above, users can experience the space they want to go or the space they want to deliver a gift to (for example, a space where they want to propose) through virtual content and avatars that are actually filmed. It has the advantage of providing pleasure.

또한 모바일 선물받기로 받았을 때의 기분과는 한 차원 다른 실감나는 컨텐츠와 선물로 색다른 경험을 선사할 수 있다.In addition, you can present a different experience with realistic contents and gifts that are one level different from the feeling of receiving a mobile gift.

도 1은 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템의 장치 구성도이다.
도 2는 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법을 설명한 흐름도이다.
도 3은 본 발명의 다른 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법을 설명한 흐름도이다.
1 is a device configuration diagram of a system supporting a message-based XR mobile service using augmented reality according to an embodiment of the present invention.
2 is a flowchart illustrating a method for providing a message-based XR mobile service using augmented reality according to an embodiment of the present invention.
3 is a flowchart illustrating a method for providing a message-based XR mobile service using augmented reality according to another embodiment of the present invention.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail so that those skilled in the art can easily practice the present invention with reference to the accompanying drawings. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미하며, 하나 또는 그 이상의 다른 특징이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Throughout the specification, when a part is said to be "connected" to another part, this includes not only the case where it is "directly connected" but also the case where it is "electrically connected" with another element interposed therebetween. . In addition, when a part "includes" a certain component, this means that it may further include other components, not excluding other components, unless otherwise stated, and one or more other characteristics. However, it should be understood that it does not preclude the possibility of existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

명세서 전체에서 사용되는 정도의 용어 "약", "실질적으로" 등은 언급된 의미에 고유한 제조 및 물질 허용오차가 제시될 때 그 수치에서 또는 그 수치에 근접한 의미로 사용되고, 본 발명의 이해를 돕기 위해 정확하거나 절대적인 수치가 언급된 개시 내용을 비양심적인 침해자가 부당하게 이용하는 것을 방지하기 위해 사용된다. 본 발명의 명세서 전체에서 사용되는 정도의 용어 "~(하는) 단계" 또는 "~의 단계"는 "~ 를 위한 단계"를 의미하지 않는다. As used throughout the specification, the terms "about", "substantially", etc., are used at or approximating that value when manufacturing and material tolerances inherent in the stated meaning are given, and do not convey an understanding of the present invention. Accurate or absolute figures are used to help prevent exploitation by unscrupulous infringers of the disclosed disclosure. The term "step of (doing)" or "step of" as used throughout the specification of the present invention does not mean "step for".

본 명세서에 있어서 '부(部)'란, 하드웨어에 의해 실현되는 유닛(unit), 소프트웨어에 의해 실현되는 유닛, 양방을 이용하여 실현되는 유닛을 포함한다. 또한, 1 개의 유닛이 2 개 이상의 하드웨어를 이용하여 실현되어도 되고, 2 개 이상의 유닛이 1 개의 하드웨어에 의해 실현되어도 된다. 한편, '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, '~부'는 어드레싱 할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체 지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다.In this specification, a "unit" includes a unit realized by hardware, a unit realized by software, and a unit realized using both. Further, one unit may be realized using two or more hardware, and two or more units may be realized by one hardware. On the other hand, '~ unit' is not limited to software or hardware, and '~ unit' may be configured to be in an addressable storage medium or configured to reproduce one or more processors. Thus, as an example, '~unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays and variables. Functions provided within components and '~units' may be combined into smaller numbers of components and '~units' or further separated into additional components and '~units'. In addition, components and '~units' may be implemented to play one or more CPUs in a device or a secure multimedia card.

본 명세서에 있어서 단말, 장치 또는 디바이스가 수행하는 것으로 기술된 동작이나 기능 중 일부는 해당 단말, 장치 또는 디바이스와 연결된 서버에서 대신 수행될 수도 있다. 이와 마찬가지로, 서버가 수행하는 것으로 기술된 동작이나 기능 중 일부도 해당 서버와 연결된 단말, 장치 또는 디바이스에서 수행될 수도 있다. In this specification, some of the operations or functions described as being performed by a terminal, device, or device may be performed instead by a server connected to the terminal, device, or device. Likewise, some of the operations or functions described as being performed by the server may also be performed by a terminal, apparatus, or device connected to the server.

본 명세서에서 있어서, 단말과 매핑(Mapping) 또는 매칭(Matching)으로 기술된 동작이나 기능 중 일부는, 단말의 식별 정보(Identifying Data)인 단말기의 고유번호나 개인의 식별정보를 매핑 또는 매칭한다는 의미로 해석될 수 있다.In this specification, some of the operations or functions described as mapping or matching with the terminal mean mapping or matching the terminal's unique number or personal identification information, which is the terminal's identifying data. can be interpreted as

이하, 첨부된 도면을 기초로 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법 및 이를 지원하는 시스템을 보다 상세하게 설명하도록 한다.Hereinafter, based on the accompanying drawings, a message-based XR mobile service providing method using augmented reality according to an embodiment of the present invention and a system supporting the same will be described in more detail.

도 1은 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템의 장치 구성도이다.1 is a device configuration diagram of a system supporting a message-based XR mobile service using augmented reality according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템(100)은 XR 서비스 플랫폼을 실행하는 단말일 수 있고, 상기 XR 서비스 플랫폼을 이용하여 3차원 XR 컨텐츠가 포함된 메시지를 제작 및 제공하고, 기 설정된 모션에 반응하여 외부에서 제공된 메시지에 포함된 3차원 XR 컨텐츠를 표시 및 획득하는 구성일 수 있다.As shown in FIG. 1, the system 100 supporting a message-based XR mobile service using augmented reality according to an embodiment of the present invention may be a terminal running an XR service platform, and the XR service platform It may be configured to produce and provide a message including 3D XR content using the 3D XR content, and to display and acquire 3D XR content included in the externally provided message in response to a preset motion.

또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 촬영된 실제영상 내의 적어도 하나 이상의 오브젝트를 추출한 후, 추출된 오브젝트 중 사용자가 지정한 오브젝트를 입체 XR 오브젝트로 가공 처리한 후, 실제영상 내에 가공 처리된 입체 XR 오브젝트가 혼합된 XR 영상을 생성하는 구성일 수 있다.In addition, the terminal 100 extracts at least one or more objects in a real image captured using the XR service platform, processes an object designated by a user among the extracted objects into a stereoscopic XR object, and then processes the object in the real image. It may be configured to generate an XR image in which a stereoscopic XR object is mixed.

또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 사용자의 촬영이미지를 기반으로 아바타를 생성하는 구성일 수 있다.In addition, the terminal 100 may be configured to generate an avatar based on a photographed image of a user using an XR service platform.

또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 외부에서 수신된 XR 컨텐츠가 포함된 메시지를 수신한 후, 메시지에 포함된 입체 XR 컨텐츠를 실행하는 구성일 수 있다.In addition, the terminal 100 may be configured to execute stereoscopic XR contents included in the message after receiving a message including the XR contents received from the outside using the XR service platform.

또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 실행된 입체 XR 컨텐츠가 사용자의 기 설정된 모션 또는 신체 영역 내에 위치하면 해당 XR 컨텐츠를 수집 또는 획득하는 구성일 수 있다.In addition, the terminal 100 may be configured to collect or obtain the corresponding XR content when the stereoscopic XR content executed using the XR service platform is located within a preset motion or body region of the user.

또한, 상기 단말(100)은 XR 서비스 플랫폼을 이용하여 실행된 입체 XR 컨텐츠가 사용자의 기 설정된 모션 또는 신체 영역 내에 위치하면 입체 XR 컨텐츠에 설정된 햅틱정보를 출력하는 구성일 수 있다.In addition, the terminal 100 may be configured to output haptic information set in the stereoscopic XR content when the stereoscopic XR content executed using the XR service platform is located within a preset motion or body region of the user.

한편, 상기 본원에서 언급한 단말(100)은 스마트폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 폴더블 단말기(Foldable Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉서블 단말기(Flexible Terminal), 디지털 사이니지 장치 등과 같은 다양한 단말기에 적용될 수 있다.Meanwhile, the terminal 100 mentioned herein is a smart phone, a portable terminal, a mobile terminal, a foldable terminal, and a personal digital assistant (PDA). ), PMP (Portable Multimedia Player) terminal, telematics terminal, navigation terminal, personal computer, notebook computer, slate PC, tablet PC, ultrabook ), wearable device (including, for example, a watch type terminal (Smartwatch), a glass type terminal (Smart Glass), HMD (Head Mounted Display), etc.), Wibro terminal, IPTV (Internet Protocol Television) terminal It can be applied to various terminals such as smart TVs, digital broadcasting terminals, AVN (Audio Video Navigation) terminals, A/V (Audio/Video) systems, flexible terminals, digital signage devices, and the like.

보다 구체적으로, 상기 단말(100)은 영상 촬영부(110), 영상 오브젝트 추출부(120), 입체 XR 오브젝트 생성부(130), 영상혼합부(140), 입력부(150), 인터랙션부(160), 햅틱반응부(170) 및 XR 컨텐츠 감지부(180)를 포함한다.More specifically, the terminal 100 includes an image capturing unit 110, a video object extracting unit 120, a stereoscopic XR object generating unit 130, an image mixing unit 140, an input unit 150, and an interaction unit 160. ), a haptic response unit 170 and an XR content detection unit 180.

상기 영상 촬영부(110)는 사용자의 이미지 및 주변환경을 촬영하는 구성일 수 있다. The image capture unit 110 may be configured to capture an image of a user and a surrounding environment.

상기 영상 오브젝트 추출부(120)는 촬영영상 내에 적어도 하나 이상의 영상 오브젝트를 추출하는 구성일 수 있다. 여기서, 영상 오브젝트는 손, 발, 얼굴 등의 신체와 주변환경의 객체들일 수 있다.The image object extraction unit 120 may be configured to extract at least one or more image objects from a photographed image. Here, the image object may be objects of the body and the surrounding environment, such as hands, feet, and faces.

한편, 상기 영상 오브젝트 추출부(120)는 UI(125)를 통해 촬영영상 내에서 원하는 영역(크기)을 선택하고, 선택된 영상 중 추출하고자 하는 영상 오브젝트를 지정할 수 있다.Meanwhile, the image object extractor 120 may select a desired area (size) in a captured image through the UI 125 and designate an image object to be extracted from among the selected images.

다음으로, XR 컨텐츠 생성부(130)는 추출된 영상 오브젝트 중 사용자가 지정한 영상 오브젝트를 XR 컨텐츠로 생성 또는 가공하는 구성일 수 있다.Next, the XR content generator 130 may be configured to generate or process an image object specified by a user among the extracted image objects as XR content.

예컨대, 사용자가 지정한 영상 오브젝트가 신체일 경우, 해당 신체와 유사성을 갖는 아바타 등으로 XR 컨텐츠를 생성 또는 XR 컨텐츠로 가공할 수 있다. 상기 아바타는 개인 특징을 부각시킨 3차원 애니메이션일 수 있다.For example, when an image object designated by a user is a body, XR contents may be generated or processed into XR contents using an avatar similar to the corresponding body. The avatar may be a 3D animation emphasizing personal characteristics.

또한, 사용자가 지정한 영상 오브젝트가 공간일 경우, 사용자(메시지 발송자 또는 메시지 수신자)가 가 보고 싶던 공간 또는 체험하고 싶었던 공간 혹은 선물을 전달하고 싶은 공간(예컨대, 프로포즈 하고 싶은 공간 등)에 대한 XR 컨텐츠를 생성 또는 XR 컨텐츠로 가공할 수 있다.In addition, if the video object designated by the user is a space, XR content for a space the user (message sender or message receiver) wants to visit or experience, or a space to deliver a gift to (e.g., a space to propose) can be created or processed into XR content.

또한, XR 컨텐츠 생성부(130)는 대량의 3차원 가상이미지를 미리 저장할 수 있고, 신체 이미지 중 특징을 추출하고, 미리 저장된 각각의 3차원 가상이미지와 매칭시켜 특징이 고도로 매칭되는 3차원 가상이미지를 아바타로 사용할 수 있다.In addition, the XR content generation unit 130 may store a large amount of 3D virtual images in advance, extract features from the body image, and match each pre-stored 3D virtual image with each of the pre-stored 3D virtual images to highly match the features of the 3D virtual images. can be used as an avatar.

또한, 사용자가 지정한 영상 오브젝트가 객체인 선물포장박스일 경우, 해당 객체와 유사성을 갖는 3차원 가상물체를 생성할 수 있다.In addition, when the image object designated by the user is a gift wrapping box, a 3D virtual object similar to the object may be created.

여기서, 상기 XR 컨텐츠 생성부(130)는 3차원 가상 이미지를 생성할 수도 있을 뿐만 아니라, UI(125)로부터 지원되는 다양한 XR 컨텐츠 중 어느 하나로 사용자가 지정한 영상 오브젝트를 대체할 수 있고, 또는 영상 촬영부(110) 촬영된 촬영영상 내에 포함시키고자 하는 XR 컨텐츠를 UI(125)로부터 제공받을 수 있다.Here, the XR content generator 130 may not only generate a 3D virtual image, but also replace an image object designated by the user with one of various XR contents supported by the UI 125, or capture an image. The unit 110 may receive XR content to be included in the captured image from the UI 125 .

상기 렌더링부(140)는 촬영영상과 생성된 입체 XR 영상 오브젝트를 렌더링한 입체 XR 영상을 생성하는 구성일 수 있다. The rendering unit 140 may be configured to generate a stereoscopic XR image by rendering a captured image and a generated stereoscopic XR image object.

또한, 렌더링부(140)는 후술하는 인터랙션부(170)와 연동되어, XR 영상 오브젝트가 단말에서 실행되기 위한 인터랙션 정보가 포함되도록 해당 입체 XR 영상을 생성하는 구성일 수 있다.In addition, the rendering unit 140 may be configured to generate a corresponding stereoscopic XR image so as to include interaction information for an XR image object to be executed in a terminal by interworking with an interaction unit 170 to be described later.

다음으로, 메시지 생성부(150)는 렌더링부(140)에서 믹싱 또는 정합된 입체 XR 영상이 포함된 메시지를 생성하는 구성일 수 있다.Next, the message generating unit 150 may be a component that generates a message including the stereoscopic XR images mixed or matched by the rendering unit 140 .

다음으로, 입/출력부(160)는 기술한 메시지 생성부(150)에서 생성된 입체 XR 영상이 포함된 메시지를 사용자자 지정한 외부단말로 전송하거나 또는 외부단말에서 생성한 입체 XR 영상을 수신하는 구성일 수 있다.Next, the input/output unit 160 transmits the message including the stereoscopic XR image generated by the message generating unit 150 to an external terminal designated by the user or receives the stereoscopic XR image generated by the external terminal. can be a composition.

다음으로, 상기 인터랙션부(170)는 상기 입/출력부(160)에서 수신된 입체 XR 영상 내의 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 제어하는 구성일 수 있다. 또한, 렌더링부(140)로 입체 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 하기 위한 인터랙션 조건값을 부여하는 구성일 수 있다.Next, the interaction unit 170 may be configured to control the reaction or execution of the XR object in the stereoscopic XR image received from the input/output unit 160 under preset conditions. In addition, it may be configured to give an interaction condition value to the rendering unit 140 so that the three-dimensional XR object reacts or is executed under a preset condition.

다음으로, XR 컨텐츠 감지부(190)는 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 구성일 있다.Next, the XR content detecting unit 190 detects the XR content in the stereoscopic XR image exposed on the screen under a preset detection condition, for example, when the XR content is located within the user's body (hand), or the user's gesture or motion. There is a component that detects the presence or absence.

다음으로, 효과부(180)는 XR 컨텐츠 감지부(190)의 감지신호에 기초하여 인터랙션 조건값에 따른 효과(진동 강약, 소리 강약 등)를 출력하는 구성일 수 있다.Next, the effect unit 180 may be configured to output an effect (vibration intensity, sound intensity, etc.) according to the interaction condition value based on the detection signal of the XR content detection unit 190 .

도 2는 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법을 설명한 흐름도이고, 도 3은 본 발명의 다른 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법을 설명한 흐름도이다.2 is a flowchart illustrating a method for providing a message-based XR mobile service using augmented reality according to an embodiment of the present invention, and FIG. 3 is a flowchart illustrating a method for providing a message-based XR mobile service using augmented reality according to another embodiment of the present invention. Here is a flow chart explaining the method.

먼저, 도 2를 참조, 본 발명의 일 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법(S700)은 영상 촬영부에서 촬영된 촬영영상을 수신(S710)한 후, XR 컨텐츠 생성부(130)에서 촬영된 촬영영상 내에 렌더링할 XR 컨텐츠를 UI로부터 제공받아 생성하거나 또는 사용자가 지정한 영상 오브젝트에 유사한 XR 컨텐츠를 생성(S720)한다.First, referring to FIG. 2, in the message-based XR mobile service providing method (S700) using augmented reality according to an embodiment of the present invention, after receiving (S710) a captured image taken by an image capturing unit, XR content is generated. The XR contents to be rendered in the photographed image captured in the unit 130 are received from the UI and generated, or XR contents similar to the image object designated by the user are generated (S720).

여기서, 상기 S720 과정은 입체 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 하기 위한 인터랙션 조건값을 인터랙션부(170)로부터 제공받는 과정을 포함한다.Here, the process S720 includes a process of receiving, from the interaction unit 170, an interaction condition value for reacting or executing the three-dimensional XR object under preset conditions.

이후, 렌더링부(140)에서 촬영영상 내에 XR 컨텐츠가 사용자가 지정한 조건값으로 렌더링한 XR 영상을 생성(S730)하여 XR 영상 메시지 생성부(150)로 제공한다.Thereafter, the rendering unit 140 generates an XR image in which the XR contents in the captured image are rendered with the condition value designated by the user (S730) and provides it to the XR image message generation unit 150.

메시지 생성부(150)에서 XR 컨텐츠가 포함된 XR 영상 메시지를 생성하면, 입/출력부에서 사용자가 지정한 번호 또는 SNS로 해당 XR 영상 메시지를 발송 또는 공유(S740)한다.When the message generation unit 150 generates an XR video message containing XR content, the input/output unit sends or shares the XR video message to a number designated by the user or an SNS (S740).

한편, 도 3을 참조, 본 발명의 다른 실시예에 따른 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법(S800)은 입/출력부(160)에서 외부단말로부터 XR 영상 메시지를 수신(S810)하면, 인터랙션부(170)에서 XR 영상 메시지 내에 설정된 인터랙션 값에 따라 XR 컨텐츠를 실행(S820)한다. 이후, XR 컨텐츠 감지부(190)에서 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하면, 효과부(180)에서 XR 컨텐츠에 해당하는 효과(진동, 소리 등)를 출력한다.On the other hand, referring to FIG. 3, in the message-based XR mobile service providing method (S800) using augmented reality according to another embodiment of the present invention, the input/output unit 160 receives an XR video message from an external terminal (S810) Then, the interaction unit 170 executes the XR content according to the interaction value set in the XR video message (S820). Thereafter, the XR content in the stereoscopic XR image exposed on the screen in the XR content detector 190 is detected under a preset detection condition, for example, when the XR content is located within the user's body (hand) or whether there is a user's gesture or motion. is detected, the effect unit 180 outputs an effect (vibration, sound, etc.) corresponding to the XR content.

따라서, 본 발명은 종래와 같이 단순하게 선물을 선택하고 메시지로 전달하는 방식의 문제점, 예컨대, 감정을 풍부하게 표현하여 전달하지 못한 문제점을 해결할 수 있다는 이점이 있다.Therefore, the present invention has the advantage of being able to solve the problem of simply selecting a gift and delivering it as a message, such as the problem of not richly expressing and delivering emotions as in the prior art.

즉, 선물을 오프라인으로 직접 보고 전달하는 것에 비해 그 마음을 전달하는 데 있어 감성전달 부분을 충족시켜 줄 수 있다는 이점이 있다.In other words, there is an advantage in that it can satisfy the emotional delivery part in conveying the heart compared to directly seeing and delivering the gift offline.

기술한 이점을 통해 사용자는 가보고 싶던 공간 혹은 선물을 전달하고 싶은 공간(예컨대, 프로포즈 하고 싶은 공간 등)을 실제 촬영된 컨텐츠와 아바타를 통해서 가상 체험이 가능하며, 이로써 상상력을 자극하여 재미요소로 인한 즐거움을 제공하는 장점이 있다.Through the advantages described above, users can experience a space they want to visit or a space they want to deliver a gift to (for example, a space where they want to propose) through virtual content and avatars that are actually filmed. It has the advantage of providing pleasure.

또한 모바일 선물받기로 받았을 때의 기분과는 한 차원 다른 실감나는 컨텐츠와 선물로 색다른 경험을 선사할 수 있다.In addition, you can present a different experience with realistic contents and gifts that are one level different from the feeling of receiving a mobile gift.

본 발명의 일 실시예에서 사용된 “~부”는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 컨트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 컨트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.“~ unit” used in one embodiment of the present invention may be implemented as a hardware component, a software component, and/or a combination of hardware components and software components. For example, devices and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA), It may be implemented using one or more general purpose or special purpose computers, such as a programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions. A processing device may run an operating system (OS) and one or more software applications running on the operating system. A processing device may also access, store, manipulate, process, and generate data in response to execution of software. For convenience of understanding, there are cases in which one processing device is used, but those skilled in the art will understand that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it can include. For example, a processing device may include a plurality of processors or a processor and a controller. Other processing configurations are also possible, such as parallel processors.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다Software may include a computer program, code, instructions, or a combination of one or more of the foregoing, which configures a processing device to operate as desired or processes independently or collectively. You can command the device. Software and/or data may be any tangible machine, component, physical device, virtual equipment, computer storage medium or device, intended to be interpreted by or to provide instructions or data to a processing device. , or may be permanently or temporarily embodied in a transmitted signal wave. Software may be distributed on networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer readable media.

본 발명의 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광 기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 기술한 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment of the present invention may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program commands recorded on the medium may be specially designed and configured for the embodiment or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. - includes hardware devices specially configured to store and execute program instructions, such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, as well as machine language codes such as those produced by a compiler. The described hardware devices may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing may be modified and modified by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.

100: 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템
110: 영상 촬영부
120: 영상 오브젝트 추출부
125: UI
130: XR 컨텐츠 생성부
140: 렌더링부
150: XR 영상 메시지 생성부
160: 입/출력부
170: 인터랙션부
180: 효과부
190: XR 컨텐츠 감지부
100: System supporting message-based XR mobile service using augmented reality
110: video recording unit
120: image object extraction unit
125 UI
130: XR content generation unit
140: rendering unit
150: XR video message generation unit
160: input / output unit
170: interaction unit
180: effect unit
190: XR content detection unit

Claims (10)

XR 컨텐츠가 포함된 메시지를 제작 및 제공하고, 기 설정된 조건에 반응하여 외부에서 제공된 상기 메시지에 포함된 XR 컨텐츠를 실행하는 단말; 및
상기 단말에서 상기 XR 컨텐츠를 제작 및 실행하기 위한 인터페이스를 지원하는 XR 서비스 플랫폼을 포함하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
A terminal that creates and provides a message containing XR content, and executes the XR content included in the externally provided message in response to a predetermined condition; and
A system for supporting a message-based XR mobile service using augmented reality, including an XR service platform supporting an interface for producing and executing the XR content in the terminal.
제1항에 있어서,
상기 단말은
촬영된 실제영상 내의 적어도 하나 이상의 오브젝트를 추출한 후, 추출된 오브젝트 중 사용자가 지정한 오브젝트를 입체 XR 오브젝트로 가공 처리한 후, 실제영상 내에 가공 처리된 입체 XR 오브젝트가 혼합된 XR 영상을 생성하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 1,
The terminal
After extracting at least one object in the captured real image, processing the object designated by the user among the extracted objects into a 3D XR object, and then generating an XR image in which the 3D XR object processed in the real image is mixed. A system that supports message-based XR mobile service using
제2항에 있어서,
상기 단말은
추출된 영상 오브젝트 중 사용자가 지정한 영상 오브젝트를 XR 컨텐츠로 생성 또는 가공하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 2,
The terminal
A system for supporting a message-based XR mobile service using augmented reality, characterized in that an image object designated by a user among extracted image objects is created or processed as XR content.
제3항에 있어서,
상기 단말은
3차원 가상 이미지를 생성하거나 또는 UI로부터 지원되는 다양한 XR 컨텐츠 중 어느 하나로 사용자가 지정한 영상 오브젝트를 대체하거나 또는 촬영된 촬영영상 내에 포함시키고자 하는 XR 컨텐츠를 상기 UI로부터 제공받는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 3,
The terminal
Augmented reality characterized by generating a three-dimensional virtual image, replacing an image object designated by the user with one of various XR contents supported by the UI, or receiving XR contents to be included in the captured image from the UI A system that supports message-based XR mobile service using
제4항에 있어서,
상기 단말은
상기 촬영영상과 생성된 입체 XR 영상 오브젝트를 렌더링한 XR 영상을 생성하는 렌더링부를 포함하고,
상기 렌더링부는 인터랙션부와 연동되어, 상기 XR 영상 오브젝트가 상기 단말에서 실행되기 위한 인터랙션 정보가 포함되도록 해당 입체 XR 영상을 생성하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 4,
The terminal
A rendering unit generating an XR image obtained by rendering the captured image and the generated stereoscopic XR image object;
A system for supporting a message-based XR mobile service using augmented reality, characterized in that the rendering unit generates a stereoscopic XR image in conjunction with the interaction unit to include interaction information for the XR image object to be executed in the terminal. .
제5항에 있어서,
상기 단말은
상기 렌더링부에서 렌더링된 XR 영상이 포함된 메시지를 생성하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 5,
The terminal
A system for supporting a message-based XR mobile service using augmented reality, characterized in that for generating a message containing the XR image rendered by the rendering unit.
제6항에 있어서,
상기 단말은
외부로부터 수신한 XR 영상 메시지 내의 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 제어하는 인터랙션부를 포함하고,
상기 인터랙션부는
상기 렌더링부로 상기 XR 오브젝트가 기 설정된 조건에서 반응 또는 실행되도록 하기 위한 인터랙션 조건값을 부여하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 6,
The terminal
An interaction unit for controlling an XR object in an XR video message received from the outside to react or execute under preset conditions;
The interaction part
A system for supporting a message-based XR mobile service using augmented reality, characterized in that for giving the rendering unit an interaction condition value for reacting or executing the XR object under a preset condition.
제7항에 있어서,
상기 단말은
화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 것을 특징으로 하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스를 지원하는 시스템.
According to claim 7,
The terminal
Augmented reality characterized in that the XR content in the stereoscopic XR image exposed on the screen detects a preset sensing condition, for example, when the XR content is located in the user's body (hand) or the presence or absence of the user's gesture or motion A system that supports the message-based XR mobile service.
영상 촬영부에서 촬영된 촬영영상을 수신하는 단계;
XR 컨텐츠 생성부에서 촬영된 촬영영상 내에 렌더링할 XR 컨텐츠를 UI로부터 제공받아 생성하거나 또는 사용자가 지정한 영상 오브젝트에 유사한 XR 컨텐츠를 생성하는 단계;
렌더링부에서 촬영영상 내에 XR 컨텐츠가 사용자가 지정한 조건값으로 렌더링한 XR 영상을 생성하는 단계;
XR 영상 메시지 생성부에서 XR 영상이 포함된 XR 영상 메시지를 생성하는 단계; 및
상기 XR 영상 메시지 생성부에서 XR 컨텐츠가 포함된 XR 영상 메시지를 생성하면, 입/출력부에서 사용자가 지정한 번호 또는 SNS로 해당 XR 영상 메시지를 발송 또는 공유하는 단계를 포함하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법.
Receiving a photographed image captured by an image photographing unit;
generating XR contents to be rendered within the photographed image captured by the XR contents creation unit from a UI or generating XR contents similar to an image object specified by a user;
generating an XR image in which the XR content in the captured image is rendered by a user-specified condition value in a rendering unit;
generating an XR video message including an XR video in an XR video message generating unit; and
When the XR video message generating unit generates an XR video message containing XR contents, the input/output unit transmits or shares the XR video message to a number designated by the user or to an SNS based on a message using augmented reality. of XR mobile service delivery methods.
입/출력부에서 외부단말로부터 XR 영상 메시지를 수신하는 단계;
인터랙션부에서 상기 XR 영상 메시지 내에 설정된 인터랙션 값에 따라 XR 컨텐츠를 실행하는 단계;
XR 컨텐츠 감지부에서 화면상에 노출된 입체 XR 영상 내의 XR 컨텐츠가 기 설정된 감지조건, 예컨대, XR 컨텐츠가 사용자의 신체(손) 내에 위치할 경우, 또는 사용자의 제스쳐 또는 모션 유무를 감지하는 단계; 및
효과부에서 XR 컨텐츠에 해당하는 효과(진동, 소리 등)를 출력하는 단계를 포함하는 증강현실을 이용한 메시지 기반의 XR 모바일 서비스 제공 방법.
Receiving an XR video message from an external terminal in an input/output unit;
Executing XR content according to the interaction value set in the XR video message in an interaction unit;
detecting, by an XR content detector, the XR content in the stereoscopic XR image exposed on the screen under a preset detection condition, for example, when the XR content is located within the user's body (hand) or whether there is a user's gesture or motion; and
A method for providing a message-based XR mobile service using augmented reality, including outputting an effect (vibration, sound, etc.) corresponding to XR content in an effect unit.
KR1020220085629A 2021-07-12 2022-07-12 Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It KR20230010601A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210090737 2021-07-12
KR1020210090737 2021-07-12

Publications (1)

Publication Number Publication Date
KR20230010601A true KR20230010601A (en) 2023-01-19

Family

ID=85078298

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220085629A KR20230010601A (en) 2021-07-12 2022-07-12 Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It

Country Status (1)

Country Link
KR (1) KR20230010601A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058880A (en) 2016-11-24 2018-06-04 (주)케이아이엔엑스 Load balancing and performance optimizing methods of message queues in the distributed openstack cloud data centers
KR20210060474A (en) 2018-09-25 2021-05-26 바스프 에스이 Cations as catalysts in the production of alkanesulfonic acids

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180058880A (en) 2016-11-24 2018-06-04 (주)케이아이엔엑스 Load balancing and performance optimizing methods of message queues in the distributed openstack cloud data centers
KR20210060474A (en) 2018-09-25 2021-05-26 바스프 에스이 Cations as catalysts in the production of alkanesulfonic acids

Similar Documents

Publication Publication Date Title
US11943486B2 (en) Live video broadcast method, live broadcast device and storage medium
US20210344991A1 (en) Systems, methods, apparatus for the integration of mobile applications and an interactive content layer on a display
US11416066B2 (en) Methods and systems for generating and providing immersive 3D displays
US20210019982A1 (en) Systems and methods for gesture recognition and interactive video assisted gambling
US10127724B2 (en) System and method for providing augmented reality on mobile devices
US9547938B2 (en) Augmenting a live view
US10009299B2 (en) Method of processing message and electronic device supporting the same
CN109905592B (en) Method and apparatus for providing content controlled or synthesized according to user interaction
CN111966275B (en) Program trial method, system, device, equipment and medium
JP5807756B2 (en) Method and apparatus for video streaming
CN111970571B (en) Video production method, device, equipment and storage medium
KR102199735B1 (en) Method and system for sharing effects for video
US11785178B2 (en) Method, system, and non-transitory computer readable record medium for providing communication using video call bot
US20230209125A1 (en) Method for displaying information and computer device
US11343577B2 (en) Electronic device and method of providing content therefor
CN113411537B (en) Video call method, device, terminal and storage medium
CN110431838B (en) Method and system for providing dynamic content of face recognition camera
KR20230010601A (en) Method for Providing Message-Based XR Mobile Services Using Augmented Reality and System Supporting It
WO2023029237A1 (en) Video preview method and terminal
CN111652986B (en) Stage effect presentation method and device, electronic equipment and storage medium
CN115040866A (en) Cloud game image processing method, device, equipment and computer readable storage medium
US10354176B1 (en) Fingerprint-based experience generation
CN113975804B (en) Virtual control display method, device, equipment, storage medium and product
KR101513339B1 (en) Terminal device having multi monitor
EP3389049B1 (en) Enabling third parties to add effects to an application