KR102603972B1 - Method and device for providing web ar-based business information - Google Patents

Method and device for providing web ar-based business information Download PDF

Info

Publication number
KR102603972B1
KR102603972B1 KR1020230048586A KR20230048586A KR102603972B1 KR 102603972 B1 KR102603972 B1 KR 102603972B1 KR 1020230048586 A KR1020230048586 A KR 1020230048586A KR 20230048586 A KR20230048586 A KR 20230048586A KR 102603972 B1 KR102603972 B1 KR 102603972B1
Authority
KR
South Korea
Prior art keywords
user
business
information
avatar
image
Prior art date
Application number
KR1020230048586A
Other languages
Korean (ko)
Inventor
강문철
Original Assignee
주식회사 크레아코퍼레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 크레아코퍼레이션 filed Critical 주식회사 크레아코퍼레이션
Priority to KR1020230048586A priority Critical patent/KR102603972B1/en
Application granted granted Critical
Publication of KR102603972B1 publication Critical patent/KR102603972B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • G06F40/186Templates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K19/00Record carriers for use with machines and with at least a part designed to carry digital markings
    • G06K19/06Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code
    • G06K19/06009Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking
    • G06K19/06037Record carriers for use with machines and with at least a part designed to carry digital markings characterised by the kind of the digital marking, e.g. shape, nature, code with optically detectable marking multi-dimensional coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Abstract

WEB AR 기반 비즈니스 정보를 제공하는 방법 및 서버가 개시된다. 본 개시의 일 실시예에 따른, 서버에 의해 수행되는, WEB AR 기반 비즈니스 정보를 제공하는 방법은, 제1 사용자가 이용하는 제1 단말 장치로부터 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI(user interface)와 관련된 정보를 수신하는 단계; 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보에 기초하여 제1 3D(dimensional) 영상을 생성하는 단계; 및 상기 제1 3D 영상이 매핑된 제1 QR(quick response) 코드를 생성하고, 상기 생성된 제1 QR 코드를 상기 제1 단말 장치로 제공하는 단계를 포함하고, 상기 제1 단말 장치를 포함하는 적어도 하나의 단말 장치에 의해 상기 제1 QR 코드가 인식됨에 기반하여, 상기 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 중 상기 제1 QR 코드에 대응되는 위치에 상기 제1 3D 영상이 표시되고, 상기 제1 3D 영상은, 상기 제1 사용자의 식별 정보에 기초한 상기 제1 사용자의 3D 아바타 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(element)를 포함할 수 있다.A method and server for providing WEB AR-based business information are disclosed. According to an embodiment of the present disclosure, a method of providing WEB AR-based business information performed by a server includes identifying information of the first user and information related to the first user from a first terminal device used by the first user. Receiving information related to at least one business user interface (UI); generating a first 3D (dimensional) image based on identification information of the first user and information related to at least one business UI related to the first user; And generating a first quick response (QR) code to which the first 3D image is mapped, and providing the generated first QR code to the first terminal device, comprising the first terminal device. Based on recognition of the first QR code by at least one terminal device, the first 3D image is displayed at a location corresponding to the first QR code in the screen currently being captured by the at least one terminal device, The first 3D image includes a 3D avatar of the first user based on identification information of the first user and at least one UI element that can access at least one business UI related to the first user. can do.

Description

WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치{METHOD AND DEVICE FOR PROVIDING WEB AR-BASED BUSINESS INFORMATION}Method and device for providing WEB AR-based business information {METHOD AND DEVICE FOR PROVIDING WEB AR-BASED BUSINESS INFORMATION}

본 개시는 증강 현실(augmented reality, AR) 기술에 관한 것으로서, 더욱 상세하게는 WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치에 관한 것이다.This disclosure relates to augmented reality (AR) technology, and more specifically, to a method and device for providing WEB AR-based business information.

AR은 가상 현실(virtual reality, VR)의 한 분야로 실제로 존재하는 환경에 가상의 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 의미한다. 즉, AR은 사용자가 눈으로 보는 현실 세계에 가상 객체를 겹쳐 보여주는 기술을 의미한다.AR is a field of virtual reality (VR) and refers to a computer graphics technique that synthesizes virtual objects or information into an actual environment to make them look like objects that exist in the original environment. In other words, AR refers to a technology that superimposes virtual objects on the real world that the user sees.

최근 정보통신 기술 및 인공지능 기술이 기하급수적으로 발전함에 따라 AR 기술은 본격적인 상업화 단계에 들어섰으며, 현실 세계와 융합된 가상 세계인 메타버스(metaverse), 게임, 교육 분야 뿐만 아니라 다양한 분야에 AR 기술이 접목되고 있다.Recently, as information and communication technology and artificial intelligence technology have developed exponentially, AR technology has entered a full-fledged commercialization phase, and AR technology is being used not only in the metaverse, a virtual world fused with the real world, games, and education, but also in various fields. It is being grafted on.

공개특허공보 제10-2023-0016266호, 2023.02.02Public Patent Publication No. 10-2023-0016266, 2023.02.02

본 개시의 목적은 WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치를 제공함에 있다.The purpose of this disclosure is to provide a method and device for providing WEB AR-based business information.

또한, 본 개시의 목적은 QR(quick-response) 코드 등을 통해 비즈니스 정보와 관련된 가상 객체를 증강 현실 상에서 제공하는 방법 및 장치를 제공함에 있다.Additionally, the purpose of the present disclosure is to provide a method and device for providing virtual objects related to business information in augmented reality through a quick-response (QR) code or the like.

본 개시가 해결하고자 하는 과제들은 이상에서 언급된 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present disclosure are not limited to the problems mentioned above, and other problems not mentioned can be clearly understood by those skilled in the art from the description below.

본 개시의 일 실시예에 따른, 서버에 의해 수행되는, WEB AR 기반 비즈니스 정보를 제공하는 방법은, 제1 사용자가 이용하는 제1 단말 장치로부터 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI(user interface)와 관련된 정보를 수신하는 단계; 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보에 기초하여 제1 3D(dimensional) 영상을 생성하는 단계; 및 상기 제1 3D 영상이 매핑된 제1 QR(quick response) 코드를 생성하고, 상기 생성된 제1 QR 코드를 상기 제1 단말 장치로 제공하는 단계를 포함하고, 상기 제1 단말 장치를 포함하는 적어도 하나의 단말 장치에 의해 상기 제1 QR 코드가 인식됨에 기반하여, 상기 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 중 상기 제1 QR 코드에 대응되는 위치에 상기 제1 3D 영상이 표시되고, 상기 제1 3D 영상은, 상기 제1 사용자의 식별 정보에 기초한 상기 제1 사용자의 3D 아바타 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(element)를 포함할 수 있다.According to an embodiment of the present disclosure, a method of providing WEB AR-based business information performed by a server includes identifying information of the first user and information related to the first user from a first terminal device used by the first user. Receiving information related to at least one business user interface (UI); generating a first 3D (dimensional) image based on identification information of the first user and information related to at least one business UI related to the first user; And generating a first quick response (QR) code to which the first 3D image is mapped, and providing the generated first QR code to the first terminal device, comprising the first terminal device. Based on recognition of the first QR code by at least one terminal device, the first 3D image is displayed at a location corresponding to the first QR code in the screen currently being captured by the at least one terminal device, The first 3D image includes a 3D avatar of the first user based on identification information of the first user and at least one UI element that can access at least one business UI related to the first user. can do.

그리고, 상기 제1 사용자의 식별 정보에 상기 제1 사용자의 아바타와 관련된 정보가 포함됨에 기반하여, 상기 제1 사용자의 아바타와 관련된 정보에 기초하여 상기 제1 3D 영상에 상기 제1 사용자의 3D 아바타가 포함되고, 상기 제1 사용자의 식별 정보에 상기 제1 사용자의 사진 및 상기 제1 사용자의 영상이 포함됨에 기반하여: 상기 제1 사용자의 사진 및 상기 제1 사용자의 영상을 미리 학습된 인공지능(artificial intelligence, AI) 모델에 입력하여 상기 제1 사용자의 3D 아바타를 획득하고, 상기 제1 사용자의 3D 아바타를 상기 제1 3D 영상에 포함될 수 있다.And, based on the identification information of the first user including information related to the avatar of the first user, the 3D avatar of the first user is displayed in the first 3D image based on the information related to the avatar of the first user. is included, and based on the identification information of the first user including the photo of the first user and the image of the first user: artificial intelligence that has learned the photo of the first user and the image of the first user in advance The 3D avatar of the first user may be obtained by inputting it into an (artificial intelligence, AI) model, and the 3D avatar of the first user may be included in the first 3D image.

그리고, 상기 식별 정보에 포함된 상기 제1 사용자의 프로필 정보를 제1 템플릿에 입력되어 상기 제1 사용자의 자기 소개 텍스트가 생성되고, 상기 제1 사용자의 자기 소개 텍스트를 TTS(text-to-speech) 모델에 입력되어 상기 자기 소개 텍스트에 대응되는 음성이 생성되고, 상기 제1 사용자의 3D 아바타가 상기 획득된 음성을 발화하는 상기 제1 3D 영상이 생성될 수 있다.Then, the profile information of the first user included in the identification information is entered into a first template to generate a self-introduction text of the first user, and the self-introduction text of the first user is converted into a text-to-speech (TTS) text. ) A voice corresponding to the self-introduction text is input into the model, and the first 3D image in which the 3D avatar of the first user utters the acquired voice may be generated.

그리고, 상기 적어도 하나의 비즈니스 UI와 관련된 정보는, 상기 적어도 하나의 비즈니스 UI의 유형, 상기 적어도 하나의 비즈니스 UI에 대한 개요, 상기 적어도 하나의 비즈니스 UI에 액세스하기 위한 주소 정보, 및 상기 적어도 하나의 비즈니스 UI와 관련된 로고 이미지를 포함하고, 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트의 이미지 각각은 상기 적어도 하나의 비즈니스 UI와 관련된 로고 이미지에 기초하여 결정되고, 상기 적어도 하나의 단말 장치에 의해 상기 적어도 하나의 UI 엘리먼트 중 제1 UI 엘리먼트가 선택됨에 기반하여, 상기 제1 3D 영상 중 특정 영역에 상기 제1 UI 엘리먼트에 대응되는 제1 비즈니스 UI가 표시될 수 있다.And, the information related to the at least one business UI includes a type of the at least one business UI, an overview of the at least one business UI, address information for accessing the at least one business UI, and the at least one business UI. Each image of at least one UI element that includes a logo image associated with a business UI and is accessible to the at least one business UI associated with the first user is determined based on the logo image associated with the at least one business UI; , Based on the selection of the first UI element among the at least one UI element by the at least one terminal device, the first business UI corresponding to the first UI element will be displayed in a specific area of the first 3D image. You can.

그리고, 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보가 제2 템플릿에 입력되어 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트가 생성되고, 상기 생성된 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트를 상기 TTS 모델에 입력하여 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트에 대응되는 음성이 생성되고, 상기 적어도 하나의 비즈니스 UI 중 제2 UI에 대응되는 제2 UI 엘리먼트가 선택되면, 상기 제1 사용자의 3D 아바타가 상기 제2 UI에 유형 및 개요에 대한 정보에 대응되는 음성을 발화하는 상기 제1 3D 영상이 생성될 수 있다.Then, information about the type and outline of the at least one business UI is entered into a second template to generate text describing the information about the type and outline of the at least one business UI, and the generated at least one business UI Text describing information about the type and outline of the UI is input into the TTS model, so that a voice corresponding to the text explaining the information about the type and outline of the at least one business UI is generated, and the at least one business UI When the second UI element corresponding to the second UI is selected, the first 3D image in which the 3D avatar of the first user utters a voice corresponding to the information about the type and outline of the second UI may be generated. there is.

그리고, 상기 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 상에 상기 제1 3D 영상이 표시되는 동안 제2 QR 코드가 추가로 인식됨에 기반하여, 상기 제2 QR 코드에 매핑된 제2 3D 영상이 상기 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 상기 제2 QR 코드에 대응되는 위치에 표시되고, 상기 제2 3D 영상은, 상기 제2 QR 코드와 연관된 제2 사용자의 식별 정보에 기초한 상기 제2 사용자의 3D 아바타 및 상기 제2 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트를 포함하고, 상기 제1 사용자의 3D 아바타 및 상기 제2 사용자의 3D 아바타의 음성은 교번적으로 재생될 수 있다.And, based on the second QR code being additionally recognized while the first 3D image is displayed on the screen currently being captured by the at least one terminal device, the second 3D image mapped to the second QR code is The screen that the at least one terminal device is currently capturing is displayed at a location corresponding to the second QR code, and the second 3D image is the second 3D image based on the identification information of the second user associated with the second QR code. At least one UI element accessible to a 3D avatar of a user and at least one business UI associated with the second user, wherein the voices of the 3D avatar of the first user and the 3D avatar of the second user are alternate. can be played.

본 개시의 다양한 실시예에 의해, WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치가 제공될 수 있다.According to various embodiments of the present disclosure, a method and device for providing WEB AR-based business information can be provided.

또한, 본 개시의 다양한 실시예에 의해, QR 코드 등을 통해 비즈니스 정보와 관련된 가상 객체를 증강 현실 상에서 효율적으로 제공하는 방법 및 장치가 제공될 수 있다.Additionally, according to various embodiments of the present disclosure, a method and device for efficiently providing virtual objects related to business information in augmented reality through a QR code or the like can be provided.

본 개시의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.The effects of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below.

도 1은 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하기 위한 시스템의 개략도이다.
도 2는 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 장치의 구성을 간략히 도시한 블록도이다.
도 3은 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 방법을 설명하기 위한 순서도이다.
도 4는 본 개시의 일 실시예에 따른, 비즈니스 정보가 포함된 3D 영상을 설명하기 위한 도면이다.
1 is a schematic diagram of a system for implementing a method of providing WEB AR-based business information, according to an embodiment of the present disclosure.
Figure 2 is a block diagram briefly illustrating the configuration of a device that provides WEB AR-based business information according to an embodiment of the present disclosure.
Figure 3 is a flowchart for explaining a method of providing WEB AR-based business information according to an embodiment of the present disclosure.
Figure 4 is a diagram for explaining a 3D image including business information according to an embodiment of the present disclosure.

본 개시의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나, 본 개시는 이하에서 개시되는 실시예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 개시의 개시가 완전하도록 하고, 본 개시가 속하는 기술 분야의 통상의 기술자에게 본 개시의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 개시는 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present disclosure and methods for achieving them will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present disclosure is not limited to the embodiments disclosed below and may be implemented in various different forms. The present embodiments are merely provided to ensure that the disclosure is complete and to provide a general understanding of the technical field to which the present disclosure pertains. It is provided to fully inform those skilled in the art of the scope of the present disclosure, and the present disclosure is defined only by the scope of the claims.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 개시를 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for the purpose of describing embodiments and is not intended to limit the disclosure. As used herein, singular forms also include plural forms, unless specifically stated otherwise in the context. As used in the specification, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other elements in addition to the mentioned elements.

명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 개시의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.Like reference numerals refer to like elements throughout the specification, and “and/or” includes each and every combination of one or more of the referenced elements. Although “first”, “second”, etc. are used to describe various components, these components are of course not limited by these terms. These terms are merely used to distinguish one component from another. Therefore, it goes without saying that the first component mentioned below may also be the second component within the technical spirit of the present disclosure.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 개시가 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in this specification may be used with meanings commonly understood by those skilled in the art to which this disclosure pertains. Additionally, terms defined in commonly used dictionaries are not interpreted ideally or excessively unless clearly specifically defined.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다.Spatially relative terms such as “below”, “beneath”, “lower”, “above”, “upper”, etc. are used as a single term as shown in the drawing. It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms that include different directions of components during use or operation in addition to the directions shown in the drawings.

예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓여질 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.For example, if a component shown in a drawing is flipped over, a component described as “below” or “beneath” another component will be placed “above” the other component. You can. Accordingly, the illustrative term “down” may include both downward and upward directions. Components can also be oriented in other directions, so spatially relative terms can be interpreted according to orientation.

이하에서는 도면을 참조하여 WEB AR 기반 비즈니스 정보를 제공하는 방법 및 장치에 대해 설명한다.Below, a method and device for providing WEB AR-based business information will be described with reference to the drawings.

도 1은 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하는 시스템(1000)을 간략히 도시한 도면이다.FIG. 1 is a diagram briefly illustrating a system 1000 that implements a method of providing WEB AR-based business information according to an embodiment of the present disclosure.

도 1에 도시된 바와 같이, WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하는 시스템(1000)은, 서버(100), 제1 사용자가 이용하는 단말 장치(200-1) 및 제2 사용자가 이용하는 단말 장치(200-2)를 포함할 수 있다.As shown in FIG. 1, the system 1000 implementing a method of providing WEB AR-based business information includes a server 100, a terminal device 200-1 used by a first user, and a terminal used by a second user. It may include a device 200-2.

도 1에는 서버(100)에 의해 제어/관리되는 WEB AR 기반 비즈니스 정보를 제공하는 서비스를 두 사용자(즉, 제1 사용자 및 제2 사용자)가 이용하는 경우를 도시하고 있으나 이에 제한되는 것은 아니다. 2명 이상의 복수의 사용자는 서버(100)에 의해 제어/관리되는 WEB AR 기반 비즈니스 정보를 제공받을 수 있다.Figure 1 shows a case where two users (ie, a first user and a second user) use a service that provides WEB AR-based business information controlled/managed by the server 100, but is not limited thereto. Two or more users can receive WEB AR-based business information controlled/managed by the server 100.

도 1에는 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)가 하나의 스마트 폰의 형태로 구현된 경우를 도시하고 있으나 이에 제한되는 것은 아니다.Figure 1 shows a case in which terminal devices 200-1 and 200-2 used by each of the first user and the second user are implemented in the form of a single smart phone, but the present invention is not limited thereto.

제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)는 상술한 바와 같이 다양한 유형의 전자 장치(예로, 스마트폰, 데스크 탑, 노트북, 태블릿 PC, 서버 장치, 웨어러블 디바이스 등) 또는 하나 이상의 유형의 전자 장치가 연결된 장치 군을 의미할 수 있다. 뿐만 아니라 서버(100) 역시 별도의 유형의 전자 장치 또는 하나 이상의 유형의 전자 장치가 연결된 장치 군으로 구현될 수 있다.As described above, the terminal devices 200-1 and 200-2 used by each of the first and second users are various types of electronic devices (e.g., smartphones, desktops, laptops, tablet PCs, server devices, wearable devices). etc.), or it may refer to a group of devices to which one or more types of electronic devices are connected. In addition, the server 100 may also be implemented as a separate type of electronic device or as a device group in which one or more types of electronic devices are connected.

시스템(1000)에 포함된 서버(100) 및 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)는 네트워크(W)를 통해 통신을 수행할 수 있다.The server 100 included in the system 1000 and the terminal devices 200-1 and 200-2 used by the first and second users, respectively, may perform communication through the network (W).

여기서, 네트워크(W)는 유선 네트워크와 무선 네트워크를 포함할 수 있다. 예를 들어, 네트워크는 근거리 네트워크(LAN: Local Area Network), 도시권 네트워크(MAN: Metropolitan Area Network), 광역 네트워크(WAN: Wide Area Network) 등의 다양한 네트워크를 포함할 수 있다.Here, the network W may include a wired network and a wireless network. For example, the network may include various networks such as a local area network (LAN), a metropolitan area network (MAN), and a wide area network (WAN).

또한, 네트워크(W)는 공지의 월드 와이드 웹(WWW: World Wide Web)을 포함할 수도 있다. 그러나, 본 개시의 실시예에 따른 네트워크(W)는 상기 열거된 네트워크에 국한되지 않고, 공지의 무선 데이터 네트워크나 공지의 전화 네트워크, 공지의 유무선 텔레비전 네트워크를 적어도 일부로 포함할 수도 있다.Additionally, the network W may include the known World Wide Web (WWW). However, the network (W) according to an embodiment of the present disclosure is not limited to the networks listed above, and may include at least some of a known wireless data network, a known telephone network, and a known wired and wireless television network.

서버(100)는 WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하는 어플리케이션/웹 페이지를 생성할 수 있다. 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)는 서버(100)에 의해 생성된 WEB AR 기반 비즈니스 정보를 제공하는 방법을 구현하는 어플리케이션/웹 페이지를 이용할 수 있다.The server 100 may create an application/web page that implements a method of providing WEB AR-based business information. The terminal devices 200-1 and 200-2 used by each of the first and second users may use an application/web page that implements a method of providing WEB AR-based business information generated by the server 100. .

서버(100)는 QR(quick response) 코드에 대응되는 3D 영상을 생성할 수 있다. 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)는 QR 코드를 인식함으로써 현재 제1 사용자 및 제2 사용자 각각이 이용하는 단말 장치(200-1, 200-2)가 촬영하는 화면 상에 3D 영상을 표시할 수 있다.The server 100 may generate a 3D image corresponding to a quick response (QR) code. The terminal devices 200-1 and 200-2 used by each of the first and second users recognize the QR code, so that the terminal devices 200-1 and 200-2 currently used by each of the first and second users respectively. 3D images can be displayed on the screen being filmed.

서버(100)가 WEB AR 기반 비즈니스 정보를 제공하는 방법은 도 3 및 도 4를 참조하여 구체적으로 설명하도록 한다.The method by which the server 100 provides WEB AR-based business information will be described in detail with reference to FIGS. 3 and 4.

도 2는 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 장치의 구성을 간략히 도시한 블록도이다.Figure 2 is a block diagram briefly illustrating the configuration of a device that provides WEB AR-based business information according to an embodiment of the present disclosure.

도 2에 도시된 바와 같이, 서버(100)는 메모리(110), 통신 모듈(120), 디스플레이(130), 입력 모듈(140) 및 프로세서(150)를 포함할 수 있다. 다만, 이에 국한되는 것은 아니며, 서버(100)는 필요한 동작에 따라 당업자 관점에서 자명한 범위 내에서 소프트웨어 및 하드웨어 구성이 수정/추가/생략될 수 있다.As shown in FIG. 2, the server 100 may include a memory 110, a communication module 120, a display 130, an input module 140, and a processor 150. However, it is not limited to this, and the software and hardware configuration of the server 100 may be modified/added/omitted depending on the required operation within the range obvious to those skilled in the art.

메모리(110)는 본 장치의 다양한 기능을 지원하는 데이터와, 제어부의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 제1 사용자의 식별 정보, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보 등)을 저장할 있고, 본 장치에서 구동되는 다수의 응용 프로그램(application program 또는 어플리케이션(application)), 본 장치의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다.The memory 110 may store data supporting various functions of the device and a program for the operation of the control unit, and may store input/output data (e.g., identification information of the first user, information related to the first user). Information related to at least one business UI, etc.) can be stored, and a plurality of application programs (application programs or applications) running on the device, data for operation of the device, and commands can be stored. At least some of these applications may be downloaded from an external server via wireless communication.

이러한, 메모리(110)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), SSD 타입(Solid State Disk type), SDD 타입(Silicon Disk Drive type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 또한, 메모리(110)는 본 서버(100)와는 분리되어 있으나, 유선 또는 무선으로 연결된 데이터베이스가 될 수도 있다.The memory 110 is of a flash memory type, hard disk type, solid state disk type, SDD type (Silicon Disk Drive type), and multimedia card micro type. micro type), card type memory (e.g. SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), EEPROM (electrically erasable) It may include at least one type of storage medium among programmable read-only memory (PROM), programmable read-only memory (PROM), magnetic memory, magnetic disk, and optical disk. Additionally, the memory 110 is separate from the main server 100, but may be a database connected by wire or wirelessly.

통신 모듈(120)은 외부 장치와 통신을 가능하게 하는 하나 이상의 구성 요소를 포함할 수 있으며, 예를 들어, 무선통신 모듈 또는 위치정보 모듈 중 적어도 하나를 포함할 수 있다.The communication module 120 may include one or more components that enable communication with an external device, and may include, for example, at least one of a wireless communication module or a location information module.

여기서, 무선 통신 모듈은 와이파이(Wifi) 모듈, 와이브로(Wireless broadband) 모듈 외에도, GSM(global System for Mobile Communication), CDMA(Code Division Multiple Access), WCDMA(Wideband Code Division Multiple Access), UMTS(universal mobile telecommunications system), TDMA(Time Division Multiple Access), LTE(Long Term Evolution), 4G, 5G, 6G 등 다양한 무선 통신 방식을 지원하는 무선 통신 모듈을 포함할 수 있다.Here, the wireless communication module includes, in addition to the Wi-Fi module and WiBro (Wireless broadband) module, GSM (global System for Mobile Communication), CDMA (Code Division Multiple Access), WCDMA (Wideband Code Division Multiple Access), and UMTS (universal mobile). It may include a wireless communication module that supports various wireless communication methods such as telecommunications system, TDMA (Time Division Multiple Access), LTE (Long Term Evolution), 4G, 5G, and 6G.

무선 통신 모듈은 각종 신호(예로, 제 예를 들어, 제1 사용자의 식별 정보, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보 등)를 송신하는 안테나 및 송신기(Transmitter)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 제어부의 제어에 따라 무선 통신 인터페이스를 통해 제어부로부터 출력된 디지털 제어 신호를 아날로그 형태의 무선 신호로 변조하는 신호 변환 모듈을 더 포함할 수 있다.The wireless communication module is a wireless communication module including an antenna and a transmitter that transmits various signals (e.g., identification information of the first user, information related to at least one business UI related to the first user, etc.) May contain interfaces. Additionally, the wireless communication module may further include a signal conversion module that modulates a digital control signal output from the control unit through a wireless communication interface into an analog wireless signal under the control of the control unit.

무선 통신 모듈은 각종 신호를 수신하는 안테나 및 수신기(Receiver)를 포함하는 무선 통신 인터페이스를 포함할 수 있다. 또한, 무선 통신 모듈은 무선 통신 인터페이스를 통하여 수신한 아날로그 형태의 무선 신호를 디지털 제어 신호로 복조하기 위한 신호 변환 모듈을 더 포함할 수 있다.The wireless communication module may include a wireless communication interface including an antenna and a receiver that receives various signals. Additionally, the wireless communication module may further include a signal conversion module for demodulating an analog wireless signal received through a wireless communication interface into a digital control signal.

디스플레이(130)는 본 서버(100)에서 처리되는 정보(예를 들어, 제1 3D 영상, 제2 3D 영상 등)를 표시(출력)한다. 예를 들어, 디스플레이는 본 서버(100)에서 구동되는 응용 프로그램(일 예로, 어플리케이션)의 실행화면 정보, 또는 이러한 실행화면 정보에 따른 UI(User Interface), GUI(Graphic User Interface) 정보를 표시할 수 있다.The display 130 displays (outputs) information processed by the server 100 (eg, a first 3D image, a second 3D image, etc.). For example, the display may display execution screen information of an application (for example, an application) running on this server 100, or UI (User Interface) and GUI (Graphic User Interface) information according to such execution screen information. You can.

입력부(140)는 영상 정보(또는 신호), 오디오 정보(또는 신호), 데이터, 또는 사용자로부터 입력되는 정보의 입력을 위한 것으로서, 사용자 입력부 등을 포함할 수 있다.The input unit 140 is for inputting image information (or signal), audio information (or signal), data, or information input from a user, and may include a user input unit, etc.

구체적으로, 사용자 입력부는 사용자로부터 정보를 입력 받기 위한 것으로서, 사용자 입력부를 통해 정보가 입력되면, 제어부는 입력된 정보에 대응되도록 본 장치의 동작을 제어할 수 있다. 이러한, 사용자 입력부는 하드웨어식 물리 키(예를 들어, 본 장치의 전면, 후면 및 측면 중 적어도 하나에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 소프트웨어식 터치 키를 포함할 수 있다.Specifically, the user input unit is for receiving information from the user, and when information is input through the user input unit, the control unit can control the operation of the device to correspond to the input information. This user input unit uses hardware-type physical keys (e.g., buttons, dome switches, jog wheels, jog switches, etc. located on at least one of the front, back, and sides of the device) and software-type touch keys. It can be included.

일 예로서, 터치 키는, 소프트웨어적인 처리를 통해 터치스크린 타입의 디스플레이부 상에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다.As an example, the touch key consists of a virtual key, soft key, or visual key displayed on a touch screen-type display unit through software processing, or is displayed on the touch screen. It may be composed of touch keys placed in other parts. Meanwhile, the virtual key or visual key can be displayed on the touch screen in various forms, for example, graphic, text, icon, video or these. It can be made up of a combination of .

프로세서(150)는 본 장치 내의 구성요소들의 동작을 제어하기 위한 알고리즘 또는 알고리즘을 재현한 프로그램에 대한 데이터를 저장하는 메모리, 및 메모리에 저장된 데이터를 이용하여 전술한 동작을 수행하는 적어도 하나의 프로세서(미도시)로 구현될 수 있다. 이때, 메모리와 프로세서는 각각 별개의 칩으로 구현될 수 있다. 또는, 메모리와 프로세서는 단일 칩으로 구현될 수도 있다.The processor 150 includes a memory that stores data for an algorithm for controlling the operation of components in the device or a program that reproduces the algorithm, and at least one processor ( (not shown) may be implemented. At this time, the memory and processor may each be implemented as separate chips. Alternatively, the memory and processor may be implemented as a single chip.

또한, 프로세서는 이하의 도 3 및 도 4에서 설명되는 본 개시에 따른 다양한 실시 예들을 본 장치 상에서 구현하기 위하여, 위에서 살펴본 구성요소들을 중 어느 하나 또는 복수를 조합하여 제어할 수 있다.In addition, the processor may control any one or a combination of the above-described components in order to implement various embodiments according to the present disclosure described in FIGS. 3 and 4 below on the device.

도 3은 본 개시의 일 실시예에 따른, WEB AR 기반 비즈니스 정보를 제공하는 방법을 설명하기 위한 순서도이다.Figure 3 is a flowchart for explaining a method of providing WEB AR-based business information according to an embodiment of the present disclosure.

서버는 제1 사용자가 이용하는 제1 단말 장치로부터 제1 사용자의 식별 정보 및 제1 사용자와 관련된 적어도 하나의 비즈니스 UI(user interface)와 관련된 정보를 수신할 수 있다(S310).The server may receive identification information of the first user and information related to at least one business user interface (UI) related to the first user from the first terminal device used by the first user (S310).

여기서, 제1 사용자의 식별 정보는 제1 사용자를 식별할 수 있는 각종 정보를 포함할 수 있다. 예로, 제1 사용자의 식별 정보는, 제1 사용자의 프로필 정보(예로, 제1 사용자의 이름, 전화 번호, 이메일, 사진, 영상 등), 제1 사용자의 3D 아바타와 관련된 정보 등 중의 적어도 하나를 포함할 수 있다.Here, the identification information of the first user may include various types of information that can identify the first user. For example, the identification information of the first user includes at least one of the first user's profile information (e.g., the first user's name, phone number, email, photo, video, etc.), information related to the first user's 3D avatar, etc. It can be included.

또 다른 예로, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보는, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI의 유형(예로, 제1 사용자가 관리하는 홈페이지 UI, 제1 사용자가 운영하는 SNS UI 등), 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 대한 개요, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스하기 위한 주소 정보(예로, URL(uniform resource locator) 등), 및 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 로고 이미지 등을 포함할 수 있다.As another example, information related to at least one business UI related to the first user may include the type of at least one business UI related to the first user (e.g., homepage UI managed by the first user, SNS operated by the first user) UI, etc.), an overview of at least one business UI associated with the first user, address information (e.g., uniform resource locator (URL), etc.) for accessing the at least one business UI associated with the first user, and the first user It may include a logo image related to at least one business UI related to the.

서버는 제1 사용자의 식별 정보 및 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보에 기초하여 제1 3D 영상을 생성할 수 있다(S320).The server may generate the first 3D image based on the identification information of the first user and information related to at least one business UI related to the first user (S320).

여기서, 제1 3D 영상은, 제1 사용자의 식별 정보에 기초한 제1 사용자의 3D 아바타 및 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(element)를 포함할 수 있다.Here, the first 3D image may include a 3D avatar of the first user based on the identification information of the first user and at least one UI element that can access at least one business UI related to the first user. there is.

일 예로, 제1 사용자의 식별 정보에 제1 사용자의 아바타와 관련된 정보(예로, 제1 사용자의 아바타를 생성하기 위한 소스 코드, 제1 사용자의 아바타의 액션 또는 대화 등)가 포함됨에 기반하여, 서버는 제1 사용자의 아바타와 관련된 정보에 기초하여 제1 사용자의 3D 아바타를 생성하고, 제1 3D 영상에 제1 사용자의 3D 아바타를 포함시킬 수 있다.As an example, based on the identification information of the first user including information related to the avatar of the first user (e.g., source code for generating the avatar of the first user, actions or dialogue of the avatar of the first user, etc.), The server may generate a 3D avatar of the first user based on information related to the avatar of the first user and include the 3D avatar of the first user in the first 3D image.

추가적으로 또는 대안적으로, 제1 사용자의 식별 정보에 제1 사용자의 사진 및 제1 사용자의 영상이 포함됨에 기반하여, 서버는 제1 사용자의 사진 및 제1 사용자의 영상을 미리 학습된 인공지능(artificial intelligence, AI) 모델에 입력하여 제1 사용자의 3D 아바타를 획득하고, 제1 사용자의 3D 아바타를 제1 3D 영상에 포함시킬 수 있다.Additionally or alternatively, based on the first user's identification information including the first user's photo and the first user's video, the server uses the first user's photo and the first user's video with a pre-trained artificial intelligence (AI) The 3D avatar of the first user can be obtained by inputting it into an artificial intelligence (AI) model, and the 3D avatar of the first user can be included in the first 3D image.

구체적으로, 서버는 제1 사용자의 영상에서 제1 사용자가 존재하는 영역을 추출할 수 있다. 서버는 추출된 영역에 대한 정보 또는/및 제1 사용자의 사진을 AI 모델에 입력하여 제1 사용자의 3D 아바타(또는/및 제1 사용자의 3D 아바타를 생성하기 위한 소스 코드 등)를 획득할 수 있다. 서버는 AI 모델을 통해 획득된 제1 사용자의 아바타를 3D 영상에 포함시킬 수 있다.Specifically, the server may extract the area where the first user exists from the first user's video. The server may obtain a 3D avatar of the first user (or/and source code for generating a 3D avatar of the first user, etc.) by inputting information about the extracted area or/and a photo of the first user into the AI model. there is. The server may include the avatar of the first user obtained through the AI model in the 3D image.

제1 사용자의 식별 정보에 제1 사용자의 아바타와 관련된 정보, 제1 사용자의 사진, 및 제1 사용자의 영상이 모두 포함된 경우, 서버는 제1 사용자의 아바타와 관련된 정보를 통해 하나의 제1 사용자의 제1 3D 아바타를 생성하고, 1 사용자의 사진 및 제1 사용자의 영상에 기초하여 제1 사용자의 제2 3D 아바타를 생성할 수 있다.If the identification information of the first user includes all information related to the avatar of the first user, a photo of the first user, and an image of the first user, the server identifies one first user through the information related to the avatar of the first user. A first 3D avatar of a user may be created, and a second 3D avatar of the first user may be created based on a photo of a user and an image of the first user.

장치가 제1 사용자의 제1 3D 아바타 및 제2 3D 아바타를 제1 사용자가 이용하는 단말 장치로 제공할 수 있다.The device may provide the first 3D avatar and the second 3D avatar of the first user to the terminal device used by the first user.

일 예로, 제1 사용자는 제1 3D 아바타 중 제2 3D 아바타 중 하나를 선택할 수 있다. 서버는 제1 사용자에 의해 선택된 3D 아바타를 3D 영상에 포함시킬 수 있다.As an example, the first user may select one of the second 3D avatars among the first 3D avatars. The server may include the 3D avatar selected by the first user in the 3D image.

또 다른 예로, 제1 사용자가 이용하는 단말 장치는 제1 3D 아바타 및 제2 3D 아바타의 합성 비율을 장치로 제공할 수 있다. 서버는 제공된 합성 비율에 기초하여 제1 3D 아바타 및 제2 3D 아바타를 합성시킬 수 있다. 일 예로, 2:1이라는 합성 비율이 제1 사용자가 이용하는 단말 장치로부터 수신되면, 서버는 제1 3D 아바타 및 제2 3D 아바타를 2:1 비율로 합성할 수 있다.As another example, the terminal device used by the first user may provide the device with a combination ratio of the first 3D avatar and the second 3D avatar. The server may synthesize the first 3D avatar and the second 3D avatar based on the provided synthesis ratio. For example, if a compositing ratio of 2:1 is received from the terminal device used by the first user, the server may compositing the first 3D avatar and the second 3D avatar at a 2:1 ratio.

또 다른 예로, 서버는 제1 3D 아바타 및 제2 3D 아바타 각각의 구성 요소를 조합할 수 있는 UI를 제1 사용자가 이용하는 단말 장치로 제공할 수 있다. 제1 사용자는 해당 UI 상에서 자신의 3D 아바타를 생성할 수 있다.As another example, the server may provide a UI capable of combining the components of each of the first 3D avatar and the second 3D avatar to the terminal device used by the first user. The first user can create his or her 3D avatar on the UI.

본 개시의 일 예로, 서버는 제1 사용자의 식별 정보에 포함된 제1 사용자의 프로필 정보를 제1 템플릿에 입력하여 제1 사용자의 자기 소개 텍스트를 생성할 수 있다. 제1 템플릿은 자기 소개 텍스트를 생성할 수 있는 템플릿을 의미할 수 있다. 해당 템플릿에 프로필 정보가 입력될 경우, 자기 소개 텍스트가 생성될 수 있다.As an example of the present disclosure, the server may generate a self-introduction text of the first user by inputting the first user's profile information included in the first user's identification information into the first template. The first template may refer to a template that can generate self-introduction text. When profile information is entered into the template, self-introduction text can be created.

서버는 제1 사용자의 자기 소개 텍스트를 TTS(text-to-speech) 모델에 입력하여 자기 소개 텍스트에 대응되는 음성을 생성할 수 있다. 서버는 제1 사용자의 3D 아바타가 TTS 모델을 통해 획득된 음성을 발화하도록 제1 3D 영상을 생성할 수 있다.The server may input the first user's self-introduction text into a text-to-speech (TTS) model and generate a voice corresponding to the self-introduction text. The server may generate a first 3D image so that the 3D avatar of the first user utters the voice obtained through the TTS model.

본 개시의 일 예로, 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트의 이미지 각각은 적어도 하나의 비즈니스 UI와 관련된 로고 이미지에 기초하여 결정될 수 있다.As an example of the present disclosure, each image of at least one UI element that can access at least one business UI associated with the first user may be determined based on a logo image associated with the at least one business UI.

추가적으로 또는 대안적으로, 서버는 적어도 하나의 비즈니스 UI에 액세스할 때 해당 비즈니스 UI에 포함되어 있는 각종 이미지를 획득할 수 있다. 서버는 획득된 각종 이미지를 대응되는 비즈니스 UI에 대응되는 UI 엘리먼트 이미지로 결정할 수 있다.Additionally or alternatively, when accessing at least one business UI, the server may obtain various images included in the business UI. The server may determine various acquired images as UI element images corresponding to the corresponding business UI.

본 개시의 일 예로, 서버는 적어도 하나의 비즈니스 UI의 유형(예로, 제1 사용자가 운영하는 회사의 홈페이지 UI, 제1 사용자가 운영하는 SNS UI 등) 및 개요(즉, 적어도 하나의 비즈니스 UI에 포함되어 있는 정보의 요약)에 대한 정보를 제2 템플릿에 입력하여 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트를 생성할 수 있다.As an example of the present disclosure, the server provides a type and outline of at least one business UI (e.g., a company homepage UI operated by the first user, an SNS UI operated by the first user, etc.) and an outline (i.e., at least one business UI). Information about (summary of included information) can be entered into the second template to generate text explaining information about the type and outline of at least one business UI.

서버는 생성된 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트를 상기 TTS 모델에 입력하여 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트에 대응되는 음성을 생성할 수 있다.The server inputs text describing information about the type and outline of at least one generated business UI into the TTS model to generate a voice corresponding to the text describing information about the type and outline of at least one business UI. You can.

추가적으로 또는 대안적으로, 특정 비즈니스 UI에 대응되는 개요에 대한 정보가 수신되지 않을 경우, 서버는 특정 비즈니스 UI에 액세스한 후 특정 비즈니스 UI에 포함된 적어도 하나의 컨텐츠(예로, 텍스트, 이미지, 동영상 등)을 크롤링(crawling)할 수 있다. 서버는 크롤링된 적어도 하나의 컨텐츠를 별도의 AI 모델에 입력하여 적어도 하나의 컨텐츠에 대한 요약 정보를 획득할 수 있다. 해당 AI는 입력된 컨텐츠의 요약 정보를 출력하도록 학습된 인공지능 모델일 수 있다.Additionally or alternatively, if no information is received about the outline corresponding to a specific business UI, the server may, after accessing the specific business UI, retrieve at least one content (e.g., text, image, video, etc.) included in the specific business UI. ) can be crawled. The server may obtain summary information about at least one content by inputting at least one crawled content into a separate AI model. The AI may be an artificial intelligence model learned to output summary information of the input content.

서버는 획득된 적어도 하나의 컨텐츠에 대한 요약 정보를 특정 비즈니스 UI에 대한 개요로서 활용할 수 있다.The server may utilize summary information about at least one acquired content as an overview of a specific business UI.

서버는 제1 3D 영상이 매핑된 제1 QR(quick response) 코드를 생성하고, 생성된 제1 QR 코드를 제1 단말 장치로 제공할 수 있다(S330). 즉, 서버는 제1 3D 영상을 재생할 수 있는(즉, 제1 3D 영상에 액세스할 수 있는) 제1 QR 코드를 제1 단말 장치로 제공할 수 있다.The server may generate a first quick response (QR) code to which the first 3D image is mapped, and provide the generated first QR code to the first terminal device (S330). That is, the server can provide a first QR code that can play the first 3D image (that is, can access the first 3D image) to the first terminal device.

제1 QR 코드는 제1 사용자의 명함 및/또는 보고서와 같이 실물 자료에 부착되어 있을 수 있으나 이에 제한되는 것은 아니다. 제1 QR 코드는 제1 사용자가 운영하는 각종 웹 사이트/어플리케이션 화면 상에 표시되어 있을 수도 있다.The first QR code may be attached to physical data such as the first user's business card and/or report, but is not limited thereto. The first QR code may be displayed on the screen of various websites/applications operated by the first user.

제1 단말 장치를 포함하는 적어도 하나의 단말 장치에 의해 제1 QR 코드가 인식됨에 기반하여, 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 중 제1 QR 코드에 대응되는 위치에 제1 3D 영상이 표시될 수 있다.Based on the first QR code being recognized by at least one terminal device including the first terminal device, a first 3D image is displayed at a location corresponding to the first QR code in the screen currently being captured by the at least one terminal device. can be displayed.

구체적으로, 제1 단말 장치를 포함하는 적어도 하나의 단말 장치는 제1 QR 코드를 인식하기 위하여 카메라 어플리케이션을 실행할 수 있다. 카메라 어플리케이션을 통해 제1 QR 코드가 인식되면, 제1 단말 장치를 포함하는 적어도 하나의 단말 장치에서 표시되는 화면(즉, 현재 촬영하고 있는 화면) 중 제1 QR 코드에 대응되는 위치(예로, 제1 QR 코드 주변 공간)에 제1 3D 영상이 표시될 수 있다. 즉, 제1 3D 영상이 증강 현실 상에서 제공될 수 있다.Specifically, at least one terminal device including the first terminal device may execute a camera application to recognize the first QR code. When the first QR code is recognized through the camera application, the location corresponding to the first QR code (e.g., the screen currently being captured) displayed on at least one terminal device including the first terminal device. 1 The first 3D image may be displayed in the space surrounding the QR code. That is, the first 3D image may be provided in augmented reality.

본 개시의 일 예로, 적어도 하나의 단말 장치에 의해 제1 3D 영상에 표시되는 적어도 하나의 UI 엘리먼트 중 제1 UI 엘리먼트가 선택됨에 기반하여, 3D 영상 중 특정 영역에 제1 UI 엘리먼트에 대응되는 제1 비즈니스 UI가 표시될 수 있다.As an example of the present disclosure, based on the selection of a first UI element among at least one UI element displayed in the first 3D image by at least one terminal device, a first UI element corresponding to the first UI element is displayed in a specific area of the 3D image. 1 Business UI can be displayed.

본 개시의 또 다른 예로, 적어도 하나의 비즈니스 UI 중 제2 UI에 대응되는 제2 UI 엘리먼트가 선택되면, 제1 사용자의 3D 아바타가 제2 UI에 유형 및 개요에 대한 정보에 대응되는 음성을 발화하는 제1 3D 영상이 재생/생성될 수 있다.As another example of the present disclosure, when a second UI element corresponding to a second UI among at least one business UI is selected, the 3D avatar of the first user utters a voice corresponding to the type and outline information in the second UI. The first 3D image may be played/generated.

본 개시의 일 예로, 도 4에 도시된 바와 같이, 제1 단말 장치가 명함에 존재하는 제1 QR 코드(10)를 인식한 경우, 제1 단말 장치는 현재 촬영하고 있는 화면 상에서 제1 3D 영상을 재생할 수 있다.As an example of the present disclosure, as shown in FIG. 4, when the first terminal device recognizes the first QR code 10 present on a business card, the first terminal device displays the first 3D image on the screen currently being captured. can be played.

제1 3D 영상 상에 제1 사용자의 3D 아바타(20)는 미리 생성된 음성을 출력하거나 미리 정의된 액션을 수행할 수 있다. 또한, 제1 3D 영상 상에는 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(30-1, 30-2, 30-3)을 포함할 수 있다.The first user's 3D avatar 20 on the first 3D image may output a pre-generated voice or perform a pre-defined action. Additionally, the first 3D image may include at least one UI element 30-1, 30-2, and 30-3 that can access at least one business UI.

본 개시의 추가적인 예시로, 적어도 하나의 단말 장치가 현재 촬영하고 있는 화면 상에 제1 3D 영상이 표시되는 동안 제2 QR 코드가 추가로 인식됨에 기반하여, 제2 QR 코드에 매핑된 제2 3D 영상이 제2 QR 코드에 대응되는 위치(예로, 제2 QR 코드 주변 공간)에 표시될 수 있다.As a further example of the present disclosure, based on the second QR code being additionally recognized while the first 3D image is displayed on the screen currently being captured by at least one terminal device, the second 3D mapped to the second QR code The image may be displayed at a location corresponding to the second QR code (eg, a space around the second QR code).

제2 3D 영상은 제2 QR 코드와 연관된 제2 사용자의 식별 정보에 기초한 제2 사용자의 3D 아바타 및 제2 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트를 포함할 수 있다.The second 3D image may include a 3D avatar of the second user based on identification information of the second user associated with the second QR code and at least one UI element accessible to at least one business UI associated with the second user. there is.

이 때, 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타의 음성은 교번적으로 재생될 수 있다. 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타 음성 재생 순서는 적어도 하나의 단말 장치에 의해 결정될 수 있다. 추가적으로 또는 대안적으로, 적어도 하나의 단말 장치에 의해 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타 중 하나는 음성을 발화하지 않도록 제어할 수 있다.At this time, the voices of the first user's 3D avatar and the second user's 3D avatar may be played alternately. The order of voice reproduction of the first user's 3D avatar and the second user's 3D avatar may be determined by at least one terminal device. Additionally or alternatively, one of the first user's 3D avatar and the second user's 3D avatar may be controlled not to utter a voice by at least one terminal device.

추가적으로 또는 대안적으로, 서버는 적어도 하나의 사용자가 이용하는 단말 장치로 메타버스 플랫폼을 제공할 수 있다. 해당 메타버스 플랫폼에는 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타가 포함될 수 있다. 제1 사용자의 3D 아바타 및 제2 사용자의 3D 아바타 중 특정 3D 아바타가 선택되면, 특정 3D 아바타 및 특정 3D 아바타에 연관된 적어도 하나의 비즈니스 UI가 메타버스 플랫폼 상에 제공될 수 있다.Additionally or alternatively, the server may provide the metaverse platform to a terminal device used by at least one user. The metaverse platform may include the first user's 3D avatar and the second user's 3D avatar. When a specific 3D avatar is selected among the first user's 3D avatar and the second user's 3D avatar, the specific 3D avatar and at least one business UI related to the specific 3D avatar may be provided on the metaverse platform.

한편, 개시된 실시예들은 컴퓨터에 의해 실행 가능한 명령어를 저장하는 기록매체의 형태로 구현될 수 있다. 명령어는 프로그램 코드의 형태로 저장될 수 있으며, 프로세서에 의해 실행되었을 때, 프로그램 모듈을 생성하여 개시된 실시예들의 동작을 수행할 수 있다. 기록매체는 컴퓨터로 읽을 수 있는 기록매체로 구현될 수 있다.Meanwhile, the disclosed embodiments may be implemented in the form of a recording medium that stores instructions executable by a computer. Instructions may be stored in the form of program code, and when executed by a processor, may create program modules to perform operations of the disclosed embodiments. The recording medium may be implemented as a computer-readable recording medium.

컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터에 의하여 해독될 수 있는 명령어가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다.Computer-readable recording media include all types of recording media storing instructions that can be decoded by a computer. For example, there may be Read Only Memory (ROM), Random Access Memory (RAM), magnetic tape, magnetic disk, flash memory, optical data storage device, etc.

이상에서와 같이 첨부된 도면을 참조하여 개시된 실시예들을 설명하였다. 본 개시가 속하는 기술분야에서 통상의 지식을 가진 자는 본 개시의 기술적 사상이나 필수적인 특징을 변경하지 않고도, 개시된 실시예들과 다른 형태로 본 개시가 실시될 수 있음을 이해할 것이다. 개시된 실시예들은 예시적인 것이며, 한정적으로 해석되어서는 안 된다.As described above, the disclosed embodiments have been described with reference to the attached drawings. A person skilled in the art to which this disclosure pertains will understand that the present disclosure may be practiced in forms different from the disclosed embodiments without changing the technical idea or essential features of the present disclosure. The disclosed embodiments are illustrative and should not be construed as limiting.

110: 메모리
120: 통신 모듈
130: 디스플레이
140: 입력 모듈
150: 프로세서
110: memory
120: communication module
130: display
140: input module
150: processor

Claims (6)

서버에 의해 수행되는, WEB AR 기반 비즈니스 정보를 제공하는 방법에 있어서, 상기 방법은:
제1 사용자가 이용하는 제1 단말 장치로부터 상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI(user interface)와 관련된 정보를 수신하는 단계;
상기 제1 사용자의 식별 정보 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI와 관련된 정보에 기초하여 제1 3D(dimensional) 영상을 생성하는 단계; 및
상기 제1 3D 영상이 매핑된 제1 QR(quick response) 코드를 생성하고, 상기 생성된 제1 QR 코드를 상기 제1 단말 장치로 제공하는 단계를 포함하고,
상기 제1 QR 코드는, 상기 제1 사용자의 명함 또는 보고서에 부착되거나 상기 제1 사용자가 운영하는 웹 사이트 화면 또는 어플리케이션 화면 상에 표시되고,
적어도 하나의 단말 장치가 카메라 어플리케이션을 통해 상기 명함, 상기 보고서, 상기 제1 사용자가 운영하는 웹 사이트 화면 또는 상기 어플리케이션 화면 상의 상기 제1 QR 코드를 인식한 경우, 상기 적어도 하나의 단말 장치는 상기 제1 QR 코드에 대응되는 제1 3D 영상을 표시하고,
상기 제1 3D 영상은, 상기 제1 사용자의 식별 정보에 기초한 상기 제1 사용자의 3D 아바타 및 상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트(element)를 포함하고,
상기 제1 사용자의 식별 정보에 상기 제1 사용자의 사진 및 상기 제1 사용자의 영상이 포함됨에 기반하여, 상기 제1 사용자의 영상 중 상기 제1 사용자가 존재하는 영역에 대한 정보 및 상기 제1 사용자의 사진이 인공지능(artificial intelligence, AI) 모델에 입력되어 상기 제1 사용자의 제1 3D 아바타가 생성되고,
상기 제1 사용자의 식별 정보에 상기 제1 사용자의 아바타를 생성하기 위한 소스 코드 및 상기 제1 사용자의 아바타와 관련된 액션 및 대화가 포함됨에 기반하여, 상기 제1 사용자의 아바타를 생성하기 위한 소스 코드 및 상기 제1 사용자의 아바타와 관련된 액션 및 대화를 통해 상기 제1 사용자의 제2 3D 아바타가 생성되고,
상기 제1 단말 장치로부터 제공된 합성 비율에 따라 상기 제1 3D 아바타 및 상기 제2 3D 아바타가 합성됨으로써 상기 제1 사용자의 3D 아바타가 생성되는, 방법.
In a method of providing WEB AR-based business information performed by a server, the method includes:
Receiving identification information of the first user and information related to at least one business user interface (UI) related to the first user from a first terminal device used by the first user;
generating a first 3D (dimensional) image based on identification information of the first user and information related to at least one business UI related to the first user; and
Generating a first quick response (QR) code to which the first 3D image is mapped, and providing the generated first QR code to the first terminal device,
The first QR code is attached to the first user's business card or report or displayed on a website screen or application screen operated by the first user,
When at least one terminal device recognizes the first QR code on the business card, the report, the website screen operated by the first user, or the application screen through the camera application, the at least one terminal device recognizes the first QR code 1 Display the first 3D image corresponding to the QR code,
The first 3D image includes a 3D avatar of the first user based on identification information of the first user and at least one UI element that can access at least one business UI related to the first user. do,
Based on the fact that the identification information of the first user includes a photo of the first user and an image of the first user, information about the area where the first user exists among the images of the first user and the first user The photo is input into an artificial intelligence (AI) model to create a first 3D avatar of the first user,
Based on the identification information of the first user including the source code for creating the avatar of the first user and the actions and conversations related to the avatar of the first user, the source code for creating the avatar of the first user And a second 3D avatar of the first user is created through actions and conversations related to the avatar of the first user,
A method in which the 3D avatar of the first user is created by compositing the first 3D avatar and the second 3D avatar according to a compositing ratio provided from the first terminal device.
삭제delete 제1항에 있어서,
상기 식별 정보에 포함된 상기 제1 사용자의 프로필 정보가 제1 템플릿에 입력되어 상기 제1 사용자의 자기 소개 텍스트가 생성되고,
상기 제1 사용자의 자기 소개 텍스트가 TTS(text-to-speech) 모델에 입력되어 상기 자기 소개 텍스트에 대응되는 음성이 생성되고,
상기 제1 사용자의 3D 아바타가 상기 자기 소개 텍스트에 대응되는 음성을 발화하는 상기 제1 3D 영상이 생성되는, 방법.
According to paragraph 1,
The profile information of the first user included in the identification information is entered into a first template to generate a self-introduction text of the first user,
The first user's self-introduction text is input into a text-to-speech (TTS) model to generate a voice corresponding to the self-introduction text,
A method in which the first 3D image is generated in which the 3D avatar of the first user utters a voice corresponding to the self-introduction text.
제3항에 있어서,
상기 적어도 하나의 비즈니스 UI와 관련된 정보는, 상기 적어도 하나의 비즈니스 UI의 유형, 상기 적어도 하나의 비즈니스 UI에 대한 개요, 상기 적어도 하나의 비즈니스 UI에 액세스하기 위한 주소 정보, 및 상기 적어도 하나의 비즈니스 UI와 관련된 로고 이미지를 포함하고,
상기 제1 사용자와 관련된 적어도 하나의 비즈니스 UI에 액세스할 수 있는 적어도 하나의 UI 엘리먼트의 이미지 각각은 상기 적어도 하나의 비즈니스 UI와 관련된 로고 이미지에 기초하여 결정되고,
상기 적어도 하나의 단말 장치에 의해 상기 적어도 하나의 UI 엘리먼트 중 제1 UI 엘리먼트가 선택됨에 기반하여, 상기 제1 3D 영상 중 특정 영역에 상기 제1 UI 엘리먼트에 대응되는 제1 비즈니스 UI가 표시되는, 방법.
According to paragraph 3,
Information related to the at least one business UI includes: a type of the at least one business UI, an overview of the at least one business UI, address information for accessing the at least one business UI, and the at least one business UI. Contains logo images related to,
Each image of at least one UI element accessible to the at least one business UI associated with the first user is determined based on a logo image associated with the at least one business UI,
Based on the selection of a first UI element among the at least one UI element by the at least one terminal device, a first business UI corresponding to the first UI element is displayed in a specific area of the first 3D image, method.
제4항에 있어서,
상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보가 제2 템플릿에 입력되어 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트가 생성되고,
상기 생성된 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트를 상기 TTS 모델에 입력하여 상기 적어도 하나의 비즈니스 UI의 유형 및 개요에 대한 정보를 설명하는 텍스트에 대응되는 음성이 생성되고,
상기 적어도 하나의 비즈니스 UI 중 제2 UI에 대응되는 제2 UI 엘리먼트가 선택되면, 상기 제1 사용자의 3D 아바타가 상기 제2 UI에 유형 및 개요에 대한 정보에 대응되는 음성을 발화하는 상기 제1 3D 영상이 생성되는, 방법.
According to clause 4,
Information about the type and outline of the at least one business UI is entered into a second template to generate text describing the information about the type and outline of the at least one business UI,
By inputting text describing information about the type and outline of the generated at least one business UI into the TTS model, a voice corresponding to the text explaining information about the type and outline of the at least one business UI is generated, ,
When a second UI element corresponding to a second UI among the at least one business UI is selected, the 3D avatar of the first user utters a voice corresponding to information about the type and outline of the second UI. How 3D images are generated.
삭제delete
KR1020230048586A 2023-04-13 2023-04-13 Method and device for providing web ar-based business information KR102603972B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020230048586A KR102603972B1 (en) 2023-04-13 2023-04-13 Method and device for providing web ar-based business information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020230048586A KR102603972B1 (en) 2023-04-13 2023-04-13 Method and device for providing web ar-based business information

Publications (1)

Publication Number Publication Date
KR102603972B1 true KR102603972B1 (en) 2023-11-21

Family

ID=88981777

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230048586A KR102603972B1 (en) 2023-04-13 2023-04-13 Method and device for providing web ar-based business information

Country Status (1)

Country Link
KR (1) KR102603972B1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150093090A (en) * 2014-02-06 2015-08-17 삼성전자주식회사 Apparatus and method for controlling displays
KR20160067373A (en) * 2014-12-04 2016-06-14 김상백 System of giving clothes wearing information with AVATA and operating method thereof
KR20160068186A (en) * 2014-12-05 2016-06-15 주식회사 서머너즈엔터테인먼트 Apparatus and method for providingaugmented reality contentents
KR20170018930A (en) * 2014-06-14 2017-02-20 매직 립, 인코포레이티드 Methods and systems for creating virtual and augmented reality
KR20230016266A (en) 2021-07-26 2023-02-02 한국과학기술원 Method and System of Making and Showing Video Name Card Using Web AR Technique

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150093090A (en) * 2014-02-06 2015-08-17 삼성전자주식회사 Apparatus and method for controlling displays
KR20170018930A (en) * 2014-06-14 2017-02-20 매직 립, 인코포레이티드 Methods and systems for creating virtual and augmented reality
KR20160067373A (en) * 2014-12-04 2016-06-14 김상백 System of giving clothes wearing information with AVATA and operating method thereof
KR20160068186A (en) * 2014-12-05 2016-06-15 주식회사 서머너즈엔터테인먼트 Apparatus and method for providingaugmented reality contentents
KR20230016266A (en) 2021-07-26 2023-02-02 한국과학기술원 Method and System of Making and Showing Video Name Card Using Web AR Technique

Similar Documents

Publication Publication Date Title
CN107770626B (en) Video material processing method, video synthesizing device and storage medium
CN109819313B (en) Video processing method, device and storage medium
CN110827378B (en) Virtual image generation method, device, terminal and storage medium
CN110865708B (en) Interaction method, medium, device and computing equipment of virtual content carrier
JP7084457B2 (en) Image generation methods, generators, electronic devices, computer-readable media and computer programs
CN108924622B (en) Video processing method and device, storage medium and electronic device
CN107291352A (en) Application program is redirected in a kind of word read method and its device
JPWO2018142756A1 (en) Information processing apparatus and information processing method
CN105025378A (en) Subtitle inserting system and method
CN105335036A (en) Input interaction method and input method system
CN110800314B (en) Computer system, remote operation notification method, and recording medium
CN105191328A (en) Display apparatus and method of providing a user interface thereof
CN117193622A (en) Interface display method, device, equipment and medium of application program
CN105225103A (en) Continue payment system and method
CN104657668A (en) Terminal
WO2018135246A1 (en) Information processing system and information processing device
CN111158924A (en) Content sharing method and device, electronic equipment and readable storage medium
CN111651049B (en) Interaction method, device, computer equipment and storage medium
WO2019146466A1 (en) Information processing device, moving-image retrieval method, generation method, and program
CN104657991A (en) Picture processing method
KR102603972B1 (en) Method and device for providing web ar-based business information
CN112843681A (en) Virtual scene control method and device, electronic equipment and storage medium
KR101843355B1 (en) Video processing apparatus using qr code
TWI514319B (en) Methods and systems for editing data using virtual objects, and related computer program products
Basha et al. Augmented Reality Experience for Real-World Objects, Monuments, and Cities

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant