KR20220107362A - System and method for providing augmented reality service - Google Patents

System and method for providing augmented reality service Download PDF

Info

Publication number
KR20220107362A
KR20220107362A KR1020210009904A KR20210009904A KR20220107362A KR 20220107362 A KR20220107362 A KR 20220107362A KR 1020210009904 A KR1020210009904 A KR 1020210009904A KR 20210009904 A KR20210009904 A KR 20210009904A KR 20220107362 A KR20220107362 A KR 20220107362A
Authority
KR
South Korea
Prior art keywords
image
augmented reality
terminal
real world
reality content
Prior art date
Application number
KR1020210009904A
Other languages
Korean (ko)
Inventor
최종명
이영호
김선경
Original Assignee
목포대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 목포대학교산학협력단 filed Critical 목포대학교산학협력단
Priority to KR1020210009904A priority Critical patent/KR20220107362A/en
Publication of KR20220107362A publication Critical patent/KR20220107362A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a system for providing an augmented reality service. The system comprises: a communication server for mediating remote collaboration between terminals located in a remote location; a first terminal for capturing images of a real world and transmitting the images to the communication server in real time; a second terminal for generating augmented reality content for the image of the real world received through the communication server and transmitting the augmented reality content to the first terminal in real time through the communication server; and a storage server for storing remote collaboration data including remote collaboration content based on the image of the real world and the augmented reality content received through the communication server.

Description

증강 현실 서비스 제공 시스템 및 방법{System and method for providing augmented reality service}Augmented reality service providing system and method {System and method for providing augmented reality service}

본 발명은 증강 현실 서비스 제공 시스템 및 방법으로, 보다 구체적으로 증강 현실을 이용하여 원격 협업을 수행하는 동안 원격 협업 내용을 데이터로 저장하고 제공하는 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for providing an augmented reality service, and more particularly, to a system and method for storing and providing remote collaboration contents as data while performing remote collaboration using augmented reality.

최근 3차원 영상 처리 기술이 급속도로 발전하면서, 영화, 게임, 인테리어 등 다양한 분야에 가상 현실(Virtual Reality; VR) 또는 증강 현실(Augmented Reality; AR)을 이용한 가상 환경 서비스가 제공되고 있다. 이 중에서 증강 현실은 현실의 영상과 가상의 증강 현실 콘텐츠를 합성하여 표시함으로써, 사용자에게 현실과 가상 세계의 경계가 없는 영상을 제공하는 기술이다. Recently, with the rapid development of 3D image processing technology, virtual environment services using virtual reality (VR) or augmented reality (AR) are being provided in various fields such as movies, games, and interiors. Among them, augmented reality is a technology for providing a user with an image without a boundary between the real world and the virtual world by synthesizing and displaying a real image and virtual augmented reality content.

이러한 가상 환경 서비스는 원격 의료 진단, 건축 설계, 제조 공정 관리 등 다양한 분야에서 활용하고 있다. 예를 들어, 사용자가 의료 장비를 카메라로 촬영하면, 해당 의료 장비에 대응하는 증강 현실 콘텐츠가 의료 장비 영상에 합성되어 표시될 수 있다. 이러한 가상 환경 서비스를 통해 사용자는 의료 장비를 올바르고 적합하게 사용할 수 있다.These virtual environment services are being used in various fields such as remote medical diagnosis, architectural design, and manufacturing process management. For example, when a user takes a picture of a medical device with a camera, augmented reality content corresponding to the corresponding medical device may be synthesized and displayed on the medical device image. These virtual environment services enable users to use medical equipment correctly and appropriately.

한편, 최근에는 원격지의 사용자들이 온라인 플랫폼을 통해 가상 환경 영상을 실시간으로 공유하고 협업할 수 있도록 하는 서비스(이하, 원격 협업 서비스)가 개발되고 있다. Meanwhile, recently, a service (hereinafter referred to as a remote collaboration service) that enables remote users to share and collaborate on virtual environment images in real time through an online platform is being developed.

본 발명은 원격지의 사용자들이 증강 현실 서비스를 통해 실시간으로 증강 현실 영상을 공유하고 원격에서 협업할 수 있도록 하는 증강 현실 서비스 제공 시스템 및 방법을 제공한다.The present invention provides a system and method for providing an augmented reality service that enables remote users to share an augmented reality image in real time through an augmented reality service and to collaborate remotely.

또한, 본 발명은 증강 현실을 이용하여 원격 협업을 수행하는 경우에, 원격 협업 내용을 저장하고 관리하는 증강 현실 서비스 제공 시스템 및 방법을 제공한다. In addition, the present invention provides an augmented reality service providing system and method for storing and managing remote collaboration contents when performing remote collaboration using augmented reality.

상술한 과제를 해결하기 위한 일 실시 예에 따른 증강 현실 서비스 제공 시스템은, 원격지에 위치한 단말들 사이의 원격 협업을 중개하는 통신 서버, 현실 세계의 영상을 촬영하여 상기 통신 서버로 실시간 전송하는 제1 단말, 상기 통신 서버를 통하여 수신되는 상기 현실 세계의 영상에 대한 증강 현실 콘텐츠를 생성하여 상기 통신 서버를 통해 상기 제1 단말로 실시간 전송하는 제2 단말, 상기 통신 서버를 통해 수신되는 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 기초로, 상기 원격 협업의 내용을 포함하는 원격 협업 데이터를 저장하는 저장 서버를 포함하되, 상기 제1 단말은, 상기 증강 현실 콘텐츠를 상기 현실 세계의 영상에 합성하여 증강 현실 영상으로 표시할 수 있다. Augmented reality service providing system according to an embodiment for solving the above-described problems, a communication server that mediates remote collaboration between terminals located in remote places, a first image of the real world is captured and transmitted in real time to the communication server A terminal, a second terminal that generates augmented reality content for the image of the real world received through the communication server and transmits it in real time to the first terminal through the communication server, the real world received through the communication server On the basis of the image and the augmented reality content, including a storage server for storing remote collaboration data including the content of the remote collaboration, wherein the first terminal is augmented by synthesizing the augmented reality content with the image of the real world It can be displayed as a real image.

상기 저장 서버는, 상기 현실 세계의 영상에 상기 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하고, 상기 생성된 영상을 상기 원격 협업 데이터로 저장할 수 있다.The storage server may generate one image by synthesizing the augmented reality content with the image of the real world, and store the generated image as the remote collaboration data.

상기 저장 서버는, 상기 현실 세계의 영상과 상기 증강 현실 콘텐츠를 별개의 저장소에 분리하여 저장할 수 있다.The storage server may store the image of the real world and the augmented reality content separately in separate storages.

상기 증강 현실 콘텐츠는, 그래픽 객체와 파일 객체를 포함하고, 상기 저장 서버는, 상기 그래픽 객체와 상기 파일 객체를 별개의 저장소에 분리하여 저장할 수 있다.The augmented reality content may include a graphic object and a file object, and the storage server may store the graphic object and the file object separately in separate storages.

상기 저장 서버는, 상기 증강 현실 콘텐츠가 합성될 상기 현실 세계의 영상에 대한 시간 정보 및 위치 정보를 포함하는 매핑 정보를 생성하여, 상기 원격 협업 데이터로 더 저장할 수 있다.The storage server may generate mapping information including time information and location information on the image of the real world in which the augmented reality content is to be synthesized, and may further store it as the remote collaboration data.

상기 시간 정보는, 상기 현실 세계의 영상에 대한 재생 시간 구간 값 또는 프레임 값으로 설정될 수 있다.The time information may be set as a reproduction time interval value or a frame value for the image of the real world.

상기 위치 정보는, 상기 현실 세계의 영상 내의 임의의 기준점에 대한 좌표값 또는 상기 현실 세계의 영상 내에서 식별되는 앵커에 대한 정보로 설정될 수 있다.The location information may be set as a coordinate value for an arbitrary reference point in the image of the real world or information on an anchor identified in the image of the real world.

상기 앵커는, 상기 현실 세계의 영상 내에서 영상 분석을 통해 식별되는 임의의 객체일 수 있다.The anchor may be any object identified through image analysis in the image of the real world.

상기 저장 서버는, 상기 제1 단말 및 상기 제2 단말을 포함하는 임의의 단말로 상기 원격 협업 데이터를 전송할 수 있다. The storage server may transmit the remote collaboration data to any terminal including the first terminal and the second terminal.

상기 임의의 단말은, 상기 원격 협업 데이터에 포함된 현실 세계의 영상에 매핑 정보를 이용하여 상기 원격 협업 데이터에 포함된 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 표시함으로써, 상기 원격 협업의 내용을 공유할 수 있다. The arbitrary terminal displays the augmented reality image by synthesizing the augmented reality content included in the remote collaboration data using mapping information to the real world image included in the remote collaboration data, thereby sharing the content of the remote collaboration can do.

상기 현실 세계의 영상은, 적어도 하나의 의료 장비에 관한 영상을 포함하고, 상기 증강 현실 콘텐츠는, 상기 적어도 하나의 의료 장비의 사용법을 안내하기 위한 정보를 포함할 수 있다. The image of the real world may include an image of at least one medical device, and the augmented reality content may include information for guiding a usage of the at least one medical device.

일 실시 예에 따른 증강 현실 서비스의 제공 방법은, 제1 단말이 현실 세계의 영상을 촬영하여 통신 서버로 전송하는 단계, 상기 통신 서버가 상기 제1 단말과 원격지에 위치한 제2 단말로 상기 현실 세계의 영상을 전송하는 단계, 상기 제2 단말이 상기 현실 세계의 영상에 대한 증강 현실 콘텐츠를 생성하여 상기 통신 서버로 전송하는 단계, 상기 통신 서버가 상기 제1 단말로 상기 증강 현실 콘텐츠를 전송하는 단계, 상기 제1 단말이 상기 증강 현실 콘텐츠를 상기 현실 세계의 영상에 합성하여 증강 현실 영상으로 표시하는 단계, 상기 통신 서버가 저장 서버로 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 저장 서버로 전송하는 단계 및 상기 저장 서버가 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 기초로 원격 협업 데이터를 저장하는 단계를 포함할 수 있다. A method of providing an augmented reality service according to an embodiment includes the steps of: by a first terminal, capturing an image of the real world and transmitting the image to a communication server; Transmitting an image of, the second terminal generating the augmented reality content for the image of the real world and transmitting it to the communication server, the communication server transmitting the augmented reality content to the first terminal , the step of the first terminal synthesizing the augmented reality content with the image of the real world and displaying it as an augmented reality image, the communication server transmitting the image of the real world and the augmented reality content to the storage server to the storage server and storing, by the storage server, the remote collaboration data based on the image of the real world and the augmented reality content.

상기 원격 협업 데이터를 저장하는 단계는, 상기 현실 세계의 영상에 상기 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하는 단계 및 상기 생성된 영상을 상기 원격 협업 데이터로 저장하는 단계를 포함할 수 있다. The storing of the remote collaboration data may include generating one image by synthesizing the augmented reality content with the image of the real world, and storing the generated image as the remote collaboration data.

상기 원격 협업 데이터를 저장하는 단계는, 상기 증강 현실 콘텐츠의 타입에 따라 그래픽 객체 또는 파일 객체를 생성하는 단계 및 상기 현실 세계의 영상, 상기 그래픽 객체 및 상기 파일 객체를 별개의 저장소에 분리하여 저장하는 단계를 포함할 수 있다. The storing of the remote collaboration data may include generating a graphic object or a file object according to the type of the augmented reality content, and separately storing the image of the real world, the graphic object, and the file object in a separate storage. may include steps.

상기 원격 협업 데이터를 저장하는 단계는, 상기 증강 현실 콘텐츠가 합성될 상기 현실 세계의 영상에 대한 시간 정보 및 위치 정보를 포함하는 매핑 정보를 생성하는 단계 및 상기 매핑 정보를 상기 현실 세계의 영상에 대응하여 별개의 저장소에 저장할 수 있다. The storing of the remote collaboration data may include generating mapping information including time information and location information on the image of the real world to which the augmented reality content is to be synthesized, and matching the mapping information to the image of the real world. can be stored in a separate storage.

상기 시간 정보는, 상기 현실 세계의 영상에 대한 재생 시간 구간 값 또는 프레임 값으로 설정될 수 있다.The time information may be set as a reproduction time interval value or a frame value for the image of the real world.

상기 매핑 정보를 생성하는 단계는, 상기 현실 세계의 영상 내에서 상기 증강 현실 콘텐츠가 합성될 위치에 대하여, 상기 현실 세계의 영상 내에서 앵커를 식별하는 단계 및 상기 앵커에 관한 정보를 상기 위치 정보로 설정하는 단계를 포함할 수 있다. The generating of the mapping information may include: identifying an anchor in the image of the real world with respect to a position where the augmented reality content is to be synthesized in the image of the real world; and converting the information about the anchor into the position information. It may include a setting step.

상기 방법은, 상기 저장 서버가 상기 제1 단말 및 상기 제2 단말을 포함하는 임의의 단말로 상기 원격 협업 데이터를 전송하는 단계를 더 포함할 수 있다. The method may further include, by the storage server, transmitting the remote collaboration data to any terminal including the first terminal and the second terminal.

상기 방법은, 상기 임의의 단말이 상기 원격 협업 데이터에 포함된 현실 세계의 영상에 매핑 정보를 이용하여 상기 원격 협업 데이터에 포함된 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 표시하는 단계를 더 포함할 수 있다. The method may further include the step of displaying an augmented reality image by synthesizing the augmented reality content included in the remote collaboration data by using the mapping information to the real world image included in the remote collaboration data, by the arbitrary terminal can

본 발명에 따른 증강 현실 서비스 제공 시스템 및 방법은, 원격의 사용자들이 실시간으로 증강 현실 영상을 공유함으로써, 보다 효율적인 원격 협업이 가능하게 한다.The augmented reality service providing system and method according to the present invention enables more efficient remote collaboration by allowing remote users to share augmented reality images in real time.

또한, 본 발명에 따른 증강 현실 서비스 제공 시스템 및 방법은, 원격 협업 내용을 데이터로 저장하되, 현실 영상과 증강 현실 콘텐츠를 분리하거나 결합하여 저장함으로써 데이터의 활용 가능성을 높일 수 있다. In addition, the augmented reality service providing system and method according to the present invention stores remote collaboration contents as data, but by separating or combining the real image and the augmented reality content and storing the data, it is possible to increase the possibility of data utilization.

또한, 본 발명에 따른 증강 현실 서비스 제공 시스템 및 방법은, 데이터로 저장된 원격 협업 내용을 해당 원격 협업의 참여자 또는 제3자에게 제공함으로써, 원격 협업 내용이 용이하고 효율적으로 공유될 수 있게 한다. In addition, the augmented reality service providing system and method according to the present invention provides the remote collaboration contents stored as data to a participant or a third party of the remote collaboration, so that the remote collaboration contents can be easily and efficiently shared.

도 1은 일 실시 예에 따른 증강 현실 서비스 제공 시스템의 구조를 나타낸 도면이다.
도 2는 일 실시 예에 따른 증강 현실 서비스 제공 방법을 나타낸 흐름도이다.
도 3은 일 실시 예에 따른 원격 협업 데이터의 데이터 구조를 나타낸 도면이다.
도 4는 일 실시 예에 따른 원격 협업 데이터의 필드 구성을 나타낸 도면이다.
도 5는 다른 실시 예에 따른 원격 협업 데이터의 필드 구성을 나타낸 도면이다.
도 6은 영상 내의 마커를 이용하여 증강 현실 콘텐츠를 영상에 합성하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 서버의 구조를 나타낸 블록도이다.
도 8은 일 실시 예에 따른 단말의 구조를 나타낸 블록도이다.
1 is a diagram showing the structure of an augmented reality service providing system according to an embodiment.
2 is a flowchart illustrating a method of providing an augmented reality service according to an embodiment.
3 is a diagram illustrating a data structure of remote collaboration data according to an embodiment.
4 is a diagram illustrating a field configuration of remote collaboration data according to an embodiment.
5 is a diagram illustrating a field configuration of remote collaboration data according to another embodiment.
6 is a diagram for explaining a method of synthesizing augmented reality content into an image by using a marker in the image.
7 is a block diagram illustrating the structure of a server according to an embodiment.
8 is a block diagram illustrating the structure of a terminal according to an embodiment.

본 명세서의 실시 예를 설명함에 있어 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명은 생략될 수 있다. In describing the embodiments of the present specification, if it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present specification, the detailed description may be omitted.

본 명세서에서 사용되는 "포함한다," "포함할 수 있다." 등의 표현은 개시된 해당 기능, 동작, 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작, 구성요소 등을 제한하지 않는다. 또한, 본 명세서에서, "포함하다." 또는 "가지다." 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.  As used herein, "comprises," "may include." The expression such as indicates the existence of the disclosed corresponding function, operation, component, etc., and does not limit one or more additional functions, operations, components, and the like. Also, in this specification, "includes." Or "have." The term such as is intended to designate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, but one or more other features or number, step, action, component, part or It should be understood that it does not preclude the possibility of the existence or addition of combinations thereof.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise.

이하, 첨부된 도면을 참조하여 본 발명을 설명한다. Hereinafter, the present invention will be described with reference to the accompanying drawings.

도 1은 일 실시 예에 따른 증강 현실 서비스 제공 시스템의 구조를 나타낸 도면이다.1 is a diagram showing the structure of an augmented reality service providing system according to an embodiment.

도 1을 참조하면, 본 발명에 따른 시스템(1)은 가상 환경을 이용한 원격 협업 서비스를 제공하는 통신 서버(10), 원격 협업 서비스를 제공받는 복수의 단말들(20, 30) 및 원격 협업 내용을 데이터로 저장하는 저장 서버(40)를 포함할 수 있다. Referring to FIG. 1 , a system 1 according to the present invention includes a communication server 10 providing a remote collaboration service using a virtual environment, a plurality of terminals 20 and 30 receiving the remote collaboration service, and remote collaboration contents. It may include a storage server 40 for storing the data.

통신 서버(10)는 본 발명에 따른 가상 환경을 이용한 원격 협업 서비스를 제공하기 위해 마련된다. 통신 서버(10)는 증강 현실 서비스의 제공자에 의해 운영되는 네트워크 서버, 애플리케이션 서버, 도메인 서버 등일 수 있다. The communication server 10 is provided to provide a remote collaboration service using a virtual environment according to the present invention. The communication server 10 may be a network server, an application server, a domain server, etc. operated by a provider of an augmented reality service.

통신 서버(10)는 복수의 단말들(20, 30) 사이에서 원격 협업을 중개할 수 있다. 예를 들어, 통신 서버(10)는 단말들(20, 30)로부터 증강 현실 서비스의 제공 요청이 수신되면, 단말들(20, 30)의 원격 협업을 진행시킬 수 있다. 통신 서버(10)는 원격 협업이 수행되는 동안 제1 단말(20)에서 촬영되는 현실 영상을 실시간으로 제2 단말(30)로 전달하고, 제2 단말(30)에서 생성되는 증강 현실 콘텐츠를 실시간으로 제1 단말(20)에 전달할 수 있다. 제1 단말(20)로 전달된 증강 현실 콘텐츠는 제1 단말(20)에서 촬영되는 현실 영상에 합성되어 증강 현실 영상으로 표시될 수 있다. The communication server 10 may mediate remote collaboration between the plurality of terminals 20 and 30 . For example, when a request for providing an augmented reality service is received from the terminals 20 and 30 , the communication server 10 may proceed with remote collaboration between the terminals 20 and 30 . The communication server 10 transmits the real image captured by the first terminal 20 to the second terminal 30 in real time while remote collaboration is performed, and the augmented reality content generated by the second terminal 30 in real time can be transmitted to the first terminal 20 . The augmented reality content delivered to the first terminal 20 may be synthesized with a real image captured by the first terminal 20 and displayed as an augmented reality image.

단말들(20, 30)은 통신 서버(10)와 데이터 통신을 수행하여 증강 현실 서비스를 제공받을 수 있다. 단말들(20, 30)은 휴대폰, 스마트 폰, PDA(personal digital assistants), 태블릿, 컴퓨터, 노트북과 같은 전자 장치 또는 헤드 마운트 디스플레이(Head Mounted Display; HMD), 와치, 스마트 글래스 등과 같은 웨어러블 장치일 수 있다. The terminals 20 and 30 may receive an augmented reality service by performing data communication with the communication server 10 . The terminals 20 and 30 may be electronic devices such as mobile phones, smart phones, personal digital assistants (PDAs), tablets, computers, laptops, or wearable devices such as head mounted displays (HMDs), watches, and smart glasses. can

단말들(20, 30)은 통신 서버(10)를 통해 증강 현실 영상을 생성하기 위한 데이터를 공유할 수 있다. 예를 들어, 제1 단말(20)이 현실의 영상을 촬영하고 통신 서버(10)를 통해 촬영된 영상을 제2 단말(30)로 전송하면, 제2 단말(30)은 수신된 영상에 대응하는 증강 현실 콘텐츠를 생성하여 제1 단말(20)로 전송할 수 있다. 제1 단말(20)은 제2 단말(30)로부터 수신된 증강 현실 콘텐츠를 촬영되는 영상에 실시간으로 합성하여 표시할 수 있다. The terminals 20 and 30 may share data for generating an augmented reality image through the communication server 10 . For example, when the first terminal 20 shoots a real image and transmits the captured image to the second terminal 30 through the communication server 10, the second terminal 30 responds to the received image. may generate augmented reality content to be transmitted to the first terminal 20 . The first terminal 20 may display the augmented reality content received from the second terminal 30 by synthesizing it with the captured image in real time.

일 실시 예에서, 제1 단말(20)과 제2 단말(30) 사이의 원격 협업 내용은 의료 장비, 가전 기기, 운동 기기 등 다양한 장치들의 사용법에 관한 것일 수 있다. 예를 들어, 제1 단말(20)과 제2 단말(30)은, 전기적 임피던스 단층촬영장치(Electrical Impedance Tomography), X-Ray 장치, 초음파 검사장치, CT 검사기, MRI 검사기, 내시경 장치, 심전도 측정기, 혈압 측정기, 산소 포화도 측정기, 체온 측정기, 호흡계, 혈액 분석기, 뇨 분석기, 체액 성분 분석기 등 다양한 의료 장비의 사용법에 관한 원격 협업을 수행할 수 있다. In an embodiment, the content of remote collaboration between the first terminal 20 and the second terminal 30 may relate to usage of various devices such as medical equipment, home appliances, and exercise equipment. For example, the first terminal 20 and the second terminal 30 may include an electrical impedance tomography apparatus, an X-ray apparatus, an ultrasound examination apparatus, a CT examination apparatus, an MRI examination apparatus, an endoscope apparatus, and an electrocardiogram apparatus. , blood pressure monitor, oximeter, body temperature monitor, respiratory system, blood analyzer, urine analyzer, body fluid composition analyzer, etc.

이러한 실시 예에서, 단말들(20, 30) 중 어느 하나(예를 들어, 제1 단말(20))는 해당 의료 장비의 사용자(또는, 구매자)의 단말이고, 다른 하나(예를 들어, 제2 단말(30))는 해당 의료 장비의 관리자(또는, 제조자, 판매자)의 단말 일 수 있다. 사용자가 단말을 이용하여 의료 장비를 촬영하고 촬영된 의료 장비의 영상을 관리자의 단말로 전송하면, 관리자는 수신된 영상에 대응하여 의료 장비의 사용법에 관한 정보를 단말에 입력할 수 있다. 관리자가 입력한 정보는 단말에서 증강 현실 콘텐츠로 생성되어 사용자의 단말로 전송될 수 있다. 사용자의 단말은 수신된 증강 현실 콘텐츠를 의료 장비의 영상에 실시간으로 합성하여 표시할 수 있다. 그러면 사용자는 관리자의 감독 및 지시에 따라 올바르게 의료 장비를 사용할 수 있게 된다. In this embodiment, any one of the terminals 20 and 30 (eg, the first terminal 20) is a terminal of a user (or purchaser) of the corresponding medical equipment, and the other (eg, the first terminal 20) The second terminal 30 ) may be a terminal of a manager (or a manufacturer or a seller) of the corresponding medical equipment. When a user photographs medical equipment by using a terminal and transmits an image of the photographed medical equipment to the terminal of the manager, the manager may input information on how to use the medical equipment to the terminal in response to the received image. The information input by the administrator may be generated as augmented reality content in the terminal and transmitted to the user's terminal. The user's terminal may synthesize and display the received augmented reality content on the image of the medical equipment in real time. The user can then use the medical equipment correctly under the supervision and direction of the administrator.

그러나 본 실시 예가 상술한 것으로 한정되지 않으며, 이하의 실시 예들은 다양한 증강 현실 서비스에 대하여 적용될 수 있다. However, the present embodiment is not limited to the above, and the following embodiments may be applied to various augmented reality services.

저장 서버(40)는 단말들(20, 30) 사이에서 수행되는 원격 협업의 내용을 데이터로 저장하고 관리하기 위해 마련된다. 저장 서버(40)는 통신 서버(10)로부터 제1 단말(20)에서 촬영된 현실 세계의 영상 및 제2 단말(30)에서 생성된 증강 현실 콘텐츠를 수신하고, 이들을 데이터로 저장할 수 있다. 구현하기에 따라, 저장 서버(40)는 단말들(20, 30)과 직접 통신하여 단말들(20, 30)로부터 현실 세계의 영상 및 증강 현실 콘텐츠 등을 직접 수신할 수도 있다. 또한, 저장 서버(40)는 해당 원격 협업을 수행한 단말들(20, 30)을 포함한 다양한 단말들에 대하여 저장된 데이터를 공유할 수 있다. The storage server 40 is provided to store and manage the contents of remote collaboration performed between the terminals 20 and 30 as data. The storage server 40 may receive the image of the real world captured by the first terminal 20 and the augmented reality content generated by the second terminal 30 from the communication server 10 , and store them as data. According to implementation, the storage server 40 may directly communicate with the terminals 20 and 30 to directly receive images of the real world and augmented reality content from the terminals 20 and 30 . In addition, the storage server 40 may share data stored with respect to various terminals including the terminals 20 and 30 that have performed the corresponding remote collaboration.

저장 서버(40)는 단말들(20, 30)의 원격 협업이 수행되는 동안, 통신 서버(10)로부터 실시간으로 현실 세계의 영상 및 증강 현실 콘텐츠를 수신하거나, 원격 협업이 종료된 이후에 통신 서버(10)로부터 현실 세계의 영상 및 증강 현실 콘텐츠를 수신할 수 있다. The storage server 40 receives images and augmented reality content of the real world from the communication server 10 in real time from the communication server 10 while remote collaboration of the terminals 20 and 30 is performed, or after the remote collaboration ends, the communication server It is possible to receive an image and augmented reality content of the real world from (10).

한편, 도 1에서는 통신 서버(10)와 저장 서버(40)가 별개의 구성 요소로 도시되지만, 본 실시 예가 이로써 한정되지 않는다. 즉, 다른 실시 예들에서, 통신 서버(10)와 저장 서버(40)는 하나의 중개 서버로 구성될 수 있고, 이러한 실시 예에서 중개 서버는 단말들(20, 30) 사이의 원격 협업을 중개하고 또한 원격 협업의 내용을 데이터로 저장할 수 있다. Meanwhile, although the communication server 10 and the storage server 40 are illustrated as separate components in FIG. 1 , the present embodiment is not limited thereto. That is, in other embodiments, the communication server 10 and the storage server 40 may be configured as one mediation server, and in this embodiment, the mediation server mediates remote collaboration between the terminals 20 and 30 and In addition, the contents of remote collaboration can be saved as data.

도 2는 일 실시 예에 따른 증강 현실 서비스 제공 방법을 나타낸 흐름도이다. 도 2의 흐름도는 단말들(20, 30)의 요청에 의해 통신 서버(10)가 단말들(20, 30) 사이의 통신을 중개하기 위한 통신 서비스를 수립한 이후의 동작을 도시한다. 단말들(20, 30)은 통신 서버(10)를 통해 제공되는 증강 현실 서비스를 이용하여 원격 협업을 수행한다.2 is a flowchart illustrating a method of providing an augmented reality service according to an embodiment. The flowchart of FIG. 2 shows an operation after the communication server 10 establishes a communication service for mediating communication between the terminals 20 and 30 at the request of the terminals 20 and 30 . The terminals 20 and 30 perform remote collaboration using an augmented reality service provided through the communication server 10 .

먼저, 제1 단말(20)은 현실 세계의 영상을 촬영하고, 촬영된 영상을 통신 서버(10)에 실시간으로 전송할 수 있다(101). 일 실시 예에서, 현실 세계의 영상은 의료 장비를 포함할 수 있다. First, the first terminal 20 may capture an image of the real world and transmit the captured image to the communication server 10 in real time ( 101 ). In an embodiment, the image of the real world may include medical equipment.

통신 서버(10)는 제1 단말(20)로부터 수신되는 현실 세계의 영상을 제2 단말(30)에 실시간으로 전달한다(102).The communication server 10 transmits the image of the real world received from the first terminal 20 to the second terminal 30 in real time (102).

제2 단말(30)에서는 수신된 영상이 표시될 수 있다. 일 실시 예에서, 제2 단말(30)은 표시되는 영상에 대응하여 증강 현실 콘텐츠를 생성하기 위한 사용자 입력을 수신할 수 있다. 사용자 입력은 마우스, 키보드 등과 같은 입력 인터페이스를 이용한 입력 또는 인체 또는 스타일러스 펜 등을 이용한 터치 입력일 수 있다. 사용자 입력은 텍스트, 그림, 이모티콘, 파일 등을 포함할 수 있다. 사용자 입력은 제2 단말(30)에서 영상이 재생되는 동안 영상에 대하여 실시간으로 입력될 수 있고, 영상 내의 임의의 위치에 대하여 입력될 수 있다. The received image may be displayed in the second terminal 30 . In an embodiment, the second terminal 30 may receive a user input for generating augmented reality content in response to a displayed image. The user input may be an input using an input interface such as a mouse or a keyboard, or a touch input using a human body or a stylus pen. The user input may include text, a picture, an emoticon, a file, and the like. The user input may be input to an image in real time while the image is being reproduced in the second terminal 30 , or may be input to an arbitrary position in the image.

증강 현실 콘텐츠를 생성하기 위한 사용자 입력은, 현실 세계의 영상에 포함된 의료 장비 등에 대한 사용법에 관한 것일 수 있다. 예를 들어, 사용자 입력은, 구성 요소의 이동 방향, 입력 인터페이스의 조작 방법, 조작 타이밍 등에 관한 정보일 수 있다.A user input for generating augmented reality content may relate to usage of medical equipment included in an image of the real world. For example, the user input may be information about a moving direction of a component, a manipulation method of an input interface, manipulation timing, and the like.

사용자 입력이 수신되면, 제2 단말(30)은 영상에 대한 증강 현실 콘텐츠를 생성할 수 있다(103). 예를 들어, 제2 단말(30)은 사용자 입력을 통해 수신된 텍스트, 그림, 이모티콘 등을 그래픽 객체로 생성할 수 있다. 사용자가 사용자 입력을 통해 임의의 파일(예를 들어, pdf, jpg, gif 등의 확장자를 갖는 파일 데이터 및/또는 워드, 엑셀, 파워포인트 등에서 작성된 파일 데이터)을 입력한 경우, 제2 단말(30)은 사용자 입력을 통해 수신된 파일을 파일 객체로 생성할 수 있다. 그래픽 객체와 파일 객체는 별개의 저장소에 분리하여 저장될 수 있다. When the user input is received, the second terminal 30 may generate augmented reality content for the image ( 103 ). For example, the second terminal 30 may generate a text, a picture, an emoticon, etc. received through a user input as a graphic object. When the user inputs an arbitrary file (eg, file data having an extension such as pdf, jpg, gif and/or file data written in Word, Excel, PowerPoint, etc.) through user input, the second terminal 30 ) can create a file object received through user input. The graphic object and the file object may be stored separately in separate storages.

제2 단말(30)은 생성된 증강 현실 콘텐츠를 통신 서버(10)로 전송할 수 있다(104). 통신 서버(10)는 제2 단말(30)로부터 수신되는 증강 현실 콘텐츠를 제1 단말(20)에 실시간으로 전달한다(105). The second terminal 30 may transmit the generated augmented reality content to the communication server 10 ( 104 ). The communication server 10 transmits the augmented reality content received from the second terminal 30 to the first terminal 20 in real time ( 105 ).

제1 단말(20)은 통신 서버(10)로부터 수신된 증강 현실 콘텐츠를 제1 단말(20)에서 촬영되는 현실 세계의 영상에 실시간으로 합성하여 증강 현실 영상을 생성하고, 이를 표시할 수 있다. 이와 같은 방법을 통해, 제1 단말(20)의 사용자와 제2 단말(30)의 사용자는 원격에서도 증강 현실 영상을 공유함으로써 협업을 수행할 수 있다. The first terminal 20 may generate an augmented reality image by synthesizing the augmented reality content received from the communication server 10 with an image of the real world captured by the first terminal 20 in real time, and display it. Through this method, the user of the first terminal 20 and the user of the second terminal 30 may perform collaboration by sharing the augmented reality image remotely.

다양한 실시 예에서, 통신 서버(10)는 원격 협업이 수행되는 동안 제1 단말(20)로부터 수신되는 현실 세계의 영상 및 제2 단말(30)로부터 수신되는 그래픽 이미지를 저장 서버(40)로 전달한다(106). 일 실시 예에서, 통신 서버(10)는 원격 협업이 수행되는 동안 실시간으로 영상과 증강 현실 콘텐츠를 저장 서버(40)에 전달할 수 있다. 다른 실시 예에서, 통신 서버(10)는 원격 협업이 수행되는 동안 영상과 증강 현실 콘텐츠를 임시로 저장하였다가, 원격 협업이 종료된 이후에 저장 서버(40)로 임시 저장된 영상과 증강 현실 콘텐츠를 전달할 수 있다. In various embodiments, the communication server 10 transmits the image of the real world received from the first terminal 20 and the graphic image received from the second terminal 30 to the storage server 40 while remote collaboration is performed. do (106). In an embodiment, the communication server 10 may deliver images and augmented reality content to the storage server 40 in real time while remote collaboration is being performed. In another embodiment, the communication server 10 temporarily stores the image and augmented reality content while remote collaboration is performed, and then temporarily stores the image and augmented reality content to the storage server 40 after the remote collaboration is terminated. can transmit

저장 서버(40)는 통신 서버(10)로부터 수신된 영상과 증강 현실 콘텐츠를 이용하여 원격 협업 데이터를 생성하고, 저장하여 관리할 수 있다. 일 실시 예에서, 원격 협업에 참여한 단말들(20, 30) 또는 다른 제3의 단말로부터 요청이 있는 경우, 저장 서버(40)는 저장된 원격 협업 데이터를 제공할 수 있다. 원격 협업 데이터를 제공받은 단말은 수신된 원격 협업 데이터를 재생하여 원격 협업 내용을 확인할 수 있다. The storage server 40 may generate, store, and manage remote collaboration data using the image and augmented reality content received from the communication server 10 . In an embodiment, when there is a request from the terminals 20 and 30 or other third terminals participating in remote collaboration, the storage server 40 may provide the stored remote collaboration data. The terminal receiving the remote collaboration data can check the remote collaboration contents by playing the received remote collaboration data.

이하에서는, 저장 서버(40)에서 원격 협업 데이터를 저장하는 방법을 보다 구체적으로 설명한다. Hereinafter, a method of storing remote collaboration data in the storage server 40 will be described in more detail.

도 3은 일 실시 예에 따른 원격 협업 데이터의 데이터 구조를 나타낸 도면이다.3 is a diagram illustrating a data structure of remote collaboration data according to an embodiment.

일 실시 예에서, 저장 서버(40)는 영상에 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하고, 생성된 영상을 원격 협업 데이터로 저장할 수 있다. 다른 실시 예에서, 저장 서버(40)는, 도 3에 도시된 것과 같이 영상과 증강 현실 콘텐츠를 분리하여 저장할 수 있다. In an embodiment, the storage server 40 may generate one image by synthesizing the augmented reality content with the image, and store the generated image as remote collaboration data. In another embodiment, the storage server 40 may store the image and the augmented reality content separately as shown in FIG. 3 .

도 3을 참조하면, 저장 서버(40)는 영상과 해당 영상에 대응하는 증강 현실 콘텐츠를 각각 별도로 저장할 수 있다. 또한, 일 실시 예에서, 증강 현실 콘텐츠는 파일 객체와 그래픽 객체로 분류되어 저장될 수 있다. Referring to FIG. 3 , the storage server 40 may separately store an image and augmented reality content corresponding to the image. Also, according to an embodiment, the augmented reality content may be classified into a file object and a graphic object and stored.

이러한 실시 예에서, 저장 서버(40)는 각각의 영상과 증강 현실 콘텐츠를 식별할 수 있는 식별자를 각각의 영상과 증강 현실 콘텐츠에 할당할 수 있다. 저장 서버(40)는 할당된 식별자를 이용하여 임의의 영상 및 그에 대응하는 증강 현실 콘텐츠를 매핑할 수 있다. In this embodiment, the storage server 40 may assign an identifier for identifying each image and the augmented reality content to each image and the augmented reality content. The storage server 40 may map an arbitrary image and augmented reality content corresponding thereto using the assigned identifier.

또한, 저장 서버(40)는 증강 현실 콘텐츠가 영상에 합성되어야 할 시간을 지시하는 시간 정보 및 위치를 지시하는 위치 정보를 함께 저장할 수 있다. 시간 정보 및 위치 정보는 증강 현실 콘텐츠의 매핑 정보로써, 도 3에 도시된 것과 같이, 영상 및 증강 현실 콘텐츠와 별개로 분류되어 저장될 수 있다. 저장된 매핑 정보는 해당 증강 현실 콘텐츠를 영상에 합성할 때, 올바른 재생 시간대(프레임)에 올바른 위치에 증강 현실 콘텐츠를 합성하기 위해 사용될 수 있다. 매핑 정보를 이용하여 증강 현실 콘텐츠를 영상에 합성하는 방법은, 이하에서 도 6을 참조하여 보다 구체적으로 설명한다.Also, the storage server 40 may store time information indicating a time at which augmented reality content should be synthesized into an image and location information indicating a location together. Time information and location information are mapping information of augmented reality content, and as shown in FIG. 3 , may be classified and stored separately from images and augmented reality content. The stored mapping information may be used to synthesize the augmented reality content at the correct position in the correct playback time period (frame) when synthesizing the corresponding augmented reality content into an image. A method of synthesizing augmented reality content into an image using mapping information will be described in more detail below with reference to FIG. 6 .

일 실시 예에서, 시간 정보는 영상 내의 재생 시간 구간 값으로 설정될 수 있다. 또는, 시간 정보는 프레임 값으로 설정될 수도 있다.In an embodiment, the time information may be set as a value of a playback time section in an image. Alternatively, the time information may be set as a frame value.

일 실시 예에서, 위치 정보는 영상 내 임의의 기준점에 대한 좌표값 또는 앵커에 관한 정보 중 적어도 하나를 포함할 수 있다. 앵커를 이용하여 위치 정보를 생성하는 경우, 해당 증강 현실 콘텐츠가 합성될 위치에서 식별되는 적어도 하나의 객체가 앵커로 사용될 수 있다. In an embodiment, the location information may include at least one of a coordinate value for an arbitrary reference point in an image or information about an anchor. When generating location information using an anchor, at least one object identified at a location where the corresponding augmented reality content is to be synthesized may be used as the anchor.

앵커는, 예를 들어 영상 분석을 통해 식별되는 의료 장비의 적어도 일부분, QR 코드, 이미지, 텍스트, 패턴 또는 인체의 일부(예를 들어, 손가락 등) 등일 수 있다. 앵커로 사용되는 객체는 캐니 엣지 검출(Canny edge detector) 알고리즘, 해리스 코너(Harris corner) 검출 알고리즘, 하르 기반 특징 알고리즘(Haar-like feature), HOG(Histogram of Oriented Gradient) 알고리즘 또는 딥러닝에 기반한 알고리즘 등과 같은 다양한 객체 검출 알고리즘을 통해 검출될 수 있다. The anchor may be, for example, at least a portion of a medical device identified through image analysis, a QR code, an image, text, a pattern, or a part of a human body (eg, a finger, etc.). An object used as an anchor is a Canny edge detector algorithm, a Harris corner detection algorithm, a Haar-like feature algorithm, a HOG (Histogram of Oriented Gradient) algorithm, or an algorithm based on deep learning. It can be detected through various object detection algorithms, such as

이러한 앵커의 식별은 저장 서버(40)에서 원격 협업 데이터를 생성할 때 수행될 수 있지만, 이로써 한정되지 않는다. 예를 들어, 제2 단말(30)에서 증강 현실 콘텐츠가 생성될 때 및/또는 통신 서버(10)가 원격 협업을 중개하는 동안 제2 단말(30) 및/또는 통신 서버(10)에서 앵커가 식별될 수 있다. 이러한 실시 예에서, 제2 단말(30) 및 통신 서버(10)는 영상 및/또는 디지털 데이터를 다른 장치로 전송할 때, 식별된 앵커에 관한 정보를 함께 전달할 수 있다.Identification of such an anchor may be performed when generating remote collaboration data in the storage server 40 , but is not limited thereto. For example, when augmented reality content is generated in the second terminal 30 and/or while the communication server 10 mediates remote collaboration, an anchor in the second terminal 30 and/or the communication server 10 is can be identified. In this embodiment, the second terminal 30 and the communication server 10 may transmit information about the identified anchor together when transmitting the image and/or digital data to another device.

도 4는 일 실시 예에 따른 원격 협업 데이터의 필드 구성을 나타낸 도면이고, 도 5는 다른 실시 예에 따른 원격 협업 데이터의 필드 구성을 나타낸 도면이다. 4 is a diagram illustrating a field configuration of remote collaboration data according to an embodiment, and FIG. 5 is a diagram illustrating a field configuration of remote collaboration data according to another embodiment.

도 4 및 도 5에는 상기에 따라 생성되는 원격 협업 데이터의 필드 구성이 도시된다. 도 4 및 도 5를 참조하면, 원격 협업 데이터는 각각의 영상에 대하여, 해당 영상의 식별 정보(ID), 해당 영상에 대응되는 증강 현실 콘텐츠의 식별 정보(GID), 해당 증강 현실 콘텐츠의 객체 타입, 해당 증강 현실 콘텐츠가 합성되어야 할 시간 정보 및 위치 정보를 포함할 수 있다. 도 4의 실시 예에서, 위치 정보는 영상 내 임의의 기준점에 대한 좌표값으로 구성되고, 도 5의 실시 예에서, 위치 정보는 해당 그래픽 객체가 결합되어야 할 지점에 대한 마커의 정보로 구성된다.4 and 5 show the field configuration of the remote collaboration data generated according to the above. 4 and 5 , the remote collaboration data includes, for each image, identification information (ID) of a corresponding image, identification information (GID) of augmented reality content corresponding to the image, and object type of the corresponding augmented reality content. , the augmented reality content may include time information and location information to be synthesized. In the embodiment of FIG. 4 , the position information is composed of coordinate values for an arbitrary reference point in the image, and in the embodiment of FIG. 5 , the position information is composed of information of a marker on a point to which a corresponding graphic object is to be combined.

이와 같이 저장된 원격 협업 데이터는 필요에 따라 당사자들 또는 제3자에게 제공되어 적절하게 사용될 수 있다. 예를 들어, 원격 협업 데이터는 단순히 자료 보관의 용도뿐만 아니라 의료 장비 등의 사용에 있어서 향후에 발생할 수 있는 법적 문제에 대한 증거 등으로 활용될 수도 있다. The stored remote collaboration data may be provided to the parties or a third party as needed and used appropriately. For example, remote collaboration data may be used not only for data storage, but also as evidence for legal problems that may arise in the future in the use of medical equipment.

도 6은 영상 내의 마커를 이용하여 증강 현실 콘텐츠를 영상에 합성하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of synthesizing augmented reality content into an image by using a marker in the image.

일 실시 예에서, 저장 서버(40)가 영상에 증강 현실 콘텐츠를 합성하여 하나의 영상으로 원격 협업 데이터를 생성하는 경우, 저장 서버(40)는 요청된 영상을 단말로 전송할 수 있다. 원격 협업 데이터를 제공받은 단말은 수신된 영상을 단순히 재생할 수 있다. In an embodiment, when the storage server 40 generates remote collaboration data as one image by synthesizing the augmented reality content with the image, the storage server 40 may transmit the requested image to the terminal. The terminal receiving the remote collaboration data may simply play the received image.

반면, 저장 서버(40)가 영상과 증강 현실 콘텐츠를 분리하여 저장하는 경우, 저장 서버(40)는 요청된 영상의 식별자를 이용하여 대응하는 증강 현실 콘텐츠 및 매핑 정보를 식별하고, 증강 현실 콘텐츠의 타입을 판단하여 저장된 증강 현실 콘텐츠 및 매핑 정보를 로딩할 수 있다. 저장 서버(40)는 로딩된 데이터들을 통합하여 원격 협업 데이터로 단말에 제공할 수 있다. On the other hand, when the storage server 40 separates and stores the image and the augmented reality content, the storage server 40 identifies the corresponding augmented reality content and mapping information using the identifier of the requested image, and By determining the type, the stored augmented reality content and mapping information may be loaded. The storage server 40 may integrate the loaded data and provide it to the terminal as remote collaboration data.

원격 협업 데이터를 제공받은 단말은, 원격 협업 데이터에 포함된 매핑 정보를 이용하여 증강 현실 콘텐츠를 영상에 합성할 수 있다. 구체적으로, 단말은, 도 6에 도시된 것과 같이, 임의의 증강 현실 콘텐츠(G1, G2, G3)에 대하여 지시된 시간(프레임)에 현실 세계의 영상(IM) 내에서 지시된 앵커(A1, A2, A3)를 식별할 수 있다. 단말은 식별된 앵커(A1, A2, A3)의 위치에 대응되는 증강 현실 콘텐츠(G1, G2, G3)를 합성할 수 있다. The terminal receiving the remote collaboration data may synthesize augmented reality content into an image by using mapping information included in the remote collaboration data. Specifically, the terminal, as shown in FIG. 6 , the anchor A1 indicated in the image IM of the real world at the indicated time (frame) for any augmented reality content G1, G2, G3, A2, A3) can be identified. The terminal may synthesize augmented reality contents G1, G2, and G3 corresponding to the identified anchor positions A1, A2, and A3.

영상이 재생되는 동안 단말은 실시간 영상 분석을 통해 앵커를 트랙킹하여 지시된 시간 동안 앵커의 위치에 증강 현실 콘텐츠를 합성하여 표시할 수 있다. While the video is being played, the terminal can track the anchor through real-time video analysis, and display the augmented reality content by synthesizing the anchor at the location of the anchor for a designated time.

도 7은 일 실시 예에 따른 서버의 구조를 나타낸 블록도이다. 도 7에 도시된 서버(50)는, 상술하여 설명한 통신 서버(10) 또는 저장 서버(40)일 수 있다. 또는, 도 7에 도시된 서버(50)는 통신 서버(10)와 저장 서버(40)의 기능을 통합하여 수행하는 하나의 중개 서버일 수 있다. 7 is a block diagram illustrating the structure of a server according to an embodiment. The server 50 shown in FIG. 7 may be the communication server 10 or the storage server 40 described above. Alternatively, the server 50 shown in FIG. 7 may be a single intermediary server that integrates the functions of the communication server 10 and the storage server 40 .

도 7을 참조하면, 서버(50)는 통신부(51), 제어부(52) 및 저장부(53)를 포함하여 구성될 수 있다. Referring to FIG. 7 , the server 50 may include a communication unit 51 , a control unit 52 , and a storage unit 53 .

통신부(51)는 네트워크를 통해 외부의 다른 장치, 예를 들어 도 1을 참조하여 설명한 단말들(20, 30) 또는 다른 서버와 통신을 수행할 수 있다. 예를 들어, 통신부(51)는 유선 통신 방식 또는 Wibro, HSDPA, GSM, CDMA, Wi-Fi, 3G 4G LTE, 5G 등과 같은 무선 통신 방식을 이용하여 외부와 통신할 수 있다. The communication unit 51 may communicate with other external devices through a network, for example, the terminals 20 and 30 described with reference to FIG. 1 or other servers. For example, the communication unit 51 may communicate with the outside using a wired communication method or a wireless communication method such as Wibro, HSDPA, GSM, CDMA, Wi-Fi, 3G 4G LTE, 5G, or the like.

통신부(51)는 제어부(52)를 통하여 전송 지시된 데이터를 전송 가능한 형태의 아날로그 신호로 변환하여 외부로 전송하고, 외부로부터 수신된 데이터를 디지털 형태로 처리하여 제어부(52)로 전달할 수 있다. The communication unit 51 may convert the transmitted data through the control unit 52 into an analog signal of a transmittable form and transmit it to the outside, process the data received from the outside in a digital form, and transmit it to the control unit 52 .

제어부(52)는 서버(50)의 전반적인 동작을 제어할 수 있다. 일 실시 예에서, 제어부(52)는 통신부(51)를 통하여 수신되는 영상 및 증강 현실 콘텐츠를 처리하여 외부 장치로 전송하거나, 저장부(53)에 저장할 수 있다. The controller 52 may control the overall operation of the server 50 . In an embodiment, the control unit 52 may process the image and augmented reality content received through the communication unit 51 and transmit it to an external device or store it in the storage unit 53 .

일 실시 예에서, 제어부(52)는 통신부(51)를 통해 수신되는 영상 및 증강 현실 콘텐츠를 처리하여 원격 협업 데이터를 생성할 수 있다. 일 예로, 제어부(52)는 수신된 영상에 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하고, 생성된 영상을 원격 협업 데이터로 저장부(53)에 저장할 수 있다. 다른 실시 예에서, 제어부(52)는 저장부(53)에 영상 및 증강 현실 콘텐츠를 위한 저장소를 각각 할당하고, 영상과 증강 현실 콘텐츠를 분리하여 저장할 수 있다. In an embodiment, the controller 52 may generate remote collaboration data by processing an image and augmented reality content received through the communication unit 51 . For example, the controller 52 may generate one image by synthesizing the augmented reality content with the received image, and store the generated image in the storage unit 53 as remote collaboration data. In another embodiment, the controller 52 may allocate storage for the image and the augmented reality content to the storage unit 53 , respectively, and store the image and the augmented reality content separately.

이러한 실시 예에서, 제어부(52)는 각각의 영상과 증강 현실 콘텐츠를 식별할 수 있는 식별자(ID)를 각각의 영상과 증강 현실 콘텐츠에 할당할 수 있다. 또한, 저장 제어부(52)는 증강 현실 콘텐츠가 영상에 합성되어야 할 시간을 지시하는 시간 정보 및 위치를 지시하는 위치 정보를 생성하고, 영상 및 증강 현실 콘텐츠의 식별자에 매핑하여 저장부(53)에 저장할 수 있다. In this embodiment, the controller 52 may assign an identifier (ID) for identifying each image and the augmented reality content to each image and the augmented reality content. In addition, the storage control unit 52 generates time information indicating the time at which the augmented reality content should be synthesized in the image and location information indicating the location, and maps the image and the augmented reality content identifier to the storage unit 53 . can be saved

일 실시 예에서, 위치 정보는 영상 내 임의의 기준점에 대한 좌표값 또는 앵커에 관한 정보 중 적어도 하나를 포함할 수 있다. 앵커를 이용하여 위치 정보를 생성하는 경우, 제어부(52)는 영상 분석을 통해 증강 현실 콘텐츠가 합성될 위치의 임의의 객체를 식별하고, 식별된 객체를 앵커로 설정할 수 있다. In an embodiment, the location information may include at least one of a coordinate value for an arbitrary reference point in an image or information about an anchor. When generating location information using an anchor, the controller 52 may identify an arbitrary object at a location where augmented reality content is to be synthesized through image analysis, and set the identified object as an anchor.

저장부(53)는 제어부(52)의 제어에 따라 데이터를 저장할 수 있다. 저장부(53)는 서버(50)를 구동하기 위해 필요한 운영 체제, 프로그램, 소프트웨어 등을 저장할 수 있다. 또한, 저장부(53)는 제어부(52)에서 생성되는 원격 협업 데이터를 저장할 수 있다. 이를 위해, 저장부(53)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The storage unit 53 may store data under the control of the control unit 52 . The storage unit 53 may store an operating system, a program, software, etc. necessary for driving the server 50 . Also, the storage unit 53 may store the remote collaboration data generated by the control unit 52 . To this end, the storage unit 53 includes a flash memory type, a hard disk type, a multimedia card micro type, and a card type memory (eg, SD or XD memory). etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), It may include a storage medium of at least one type of a magnetic memory, a magnetic disk, and an optical disk.

도 8은 일 실시 예에 따른 단말의 구조를 나타낸 블록도이다. 도 8에 도시된 단말(60)은, 상술하여 설명한 단말들(20, 30)일 수 있다. 8 is a block diagram illustrating the structure of a terminal according to an embodiment. The terminal 60 illustrated in FIG. 8 may be the terminals 20 and 30 described above.

도 8을 참조하면, 단말(60)은 카메라부(61), 입력부(62), 표시부(63), 통신부(64), 제어부(65) 및 저장부(66)를 포함하여 구성될 수 있다. Referring to FIG. 8 , the terminal 60 may include a camera unit 61 , an input unit 62 , a display unit 63 , a communication unit 64 , a control unit 65 , and a storage unit 66 .

카메라부(61)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 본 발명의 다양한 실시 예에서, 카메라부(61)는 사용자의 현실 공간(피사체)의 형태와 깊이감을 식별할 수 있는 깊이 카메라(depth camera)를 포함하여 구성될 수 있다. 또한, 카메라부(61)는 사용자의 핸드 제스처 등을 촬영하기 위한 적외선 카메라 등을 포함하여 구성될 수 있다. 처리된 화상 프레임은 표시부(63)에 표시되거나 저장부(66)에 저장될 수 있다. The camera unit 61 processes image frames such as still images or moving images obtained by the image sensor in the shooting mode. In various embodiments of the present disclosure, the camera unit 61 may include a depth camera capable of identifying the shape and depth of the user's real space (subject). In addition, the camera unit 61 may be configured to include an infrared camera for photographing a user's hand gesture and the like. The processed image frame may be displayed on the display unit 63 or stored in the storage unit 66 .

일 실시 예에서, 카메라부(61)는 사용자의 요청에 따라 현실 세계의 영상을 촬영한다. 촬영된 영상 내에는 의료 장비, 가전 기기, 운동 기기와 같은 적어도 하나의 객체가 포함될 수 있다. In an embodiment, the camera unit 61 captures an image of the real world according to a user's request. At least one object such as medical equipment, home appliances, and exercise equipment may be included in the captured image.

입력부(62)는 사용자의 다양한 입력을 수신한다. 입력부(62)는 마우스, 키보드, 터치 패드, 키 패드, 조그 다이얼, 돔 스위치, 버튼 등의 기계식 입력 수단 또는 표시부(63) 상에 표시되는 가상 입력 수단을 포함할 수 있다. 가상 입력 수단은 예를 들어, 그래픽, 텍스트, 아이콘, 비디오 또는 이들의 조합으로 이루어질 수 있다. The input unit 62 receives various inputs from the user. The input unit 62 may include a mechanical input unit such as a mouse, a keyboard, a touch pad, a key pad, a jog dial, a dome switch, a button, or a virtual input unit displayed on the display unit 63 . The virtual input means may consist of, for example, graphics, text, icons, video, or a combination thereof.

일 실시 예에서, 입력부(62)는 표시부(63)를 통해 재생 중인 영상에 대한 증강 현실 콘텐츠를 생성하기 위해 사용자 입력을 수신할 수 있다. 사용자 입력은 표시부(63)에서 영상이 재생되는 동안 영상에 대하여 실시간으로 입력될 수 있고, 영상 내의 임의의 위치에 대하여 입력될 수 있다. In an embodiment, the input unit 62 may receive a user input to generate augmented reality content for the image being reproduced through the display unit 63 . The user input may be input to the image in real time while the image is being reproduced on the display unit 63 , or may be input to an arbitrary position in the image.

표시부(63)는 단말(60)에서 처리되는 다양한 정보들을 시각적으로 표시할 수 있다. 표시부(63)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED) 디스플레이, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The display unit 63 may visually display various pieces of information processed by the terminal 60 . The display unit 63 includes a liquid crystal display (LCD), a thin film transistor-liquid crystal display (TFT LCD), an organic light-emitting diode (OLED) display, and a flexible display. display) and at least one of a three-dimensional display (3D display).

통신부(64)는 네트워크를 통해 외부의 다른 장치, 예를 들어 도 1을 참조하여 설명한 통신 서버(10)와 통신을 수행할 수 있다. 예를 들어, 통신부(64)는 유선 통신 방식 또는 Wibro, HSDPA, GSM, CDMA, Wi-Fi, 3G 4G LTE, 5G 등과 같은 무선 통신 방식을 이용하여 외부와 통신할 수 있다. The communication unit 64 may communicate with another external device, for example, the communication server 10 described with reference to FIG. 1 through a network. For example, the communication unit 64 may communicate with the outside using a wired communication method or a wireless communication method such as Wibro, HSDPA, GSM, CDMA, Wi-Fi, 3G 4G LTE, 5G, or the like.

통신부(64)는 제어부(65)를 통하여 전송 지시된 데이터를 전송 가능한 형태의 아날로그 신호로 변환하여 외부로 전송하고, 외부로부터 수신된 데이터를 디지털 형태로 처리하여 제어부(65)로 전달할 수 있다. The communication unit 64 converts the data transmitted through the control unit 65 into an analog signal in a transmittable form and transmits it to the outside, and processes the data received from the outside in a digital form and transmits the data to the control unit 65 .

제어부(65)는 본 발명에 따른 증강 현실 서비스를 제공받고, 외부 단말과 원격 협업을 수행하기 위하여, 단말(60)의 각 구성 요소들을 제어하도록 구성된다.The controller 65 is configured to control each component of the terminal 60 in order to receive the augmented reality service according to the present invention and perform remote collaboration with an external terminal.

일 실시 예에서, 제어부(65)는 단말(60)에서 생성되거나 통신부(64)를 통해 외부로부터 수신되는 현실 세계의 영상과 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 생성할 수 있다. 제어부(65)는 증강 현실 콘텐츠에 대한 시간 정보 및 위치 정보를 이용하여 영상의 지시된 시간에 지시된 위치에 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 생성할 수 있다. 일 실시 예에서, 위치 정보는 영상 내 임의의 기준점에 대한 좌표값 또는 앵커에 대한 정보일 수 있다. 위치 정보가 앵커에 대한 정보로 구성되는 경우, 제어부(65)는 영상 내에서 앵커를 식별하고, 식별된 앵커의 위치에 증강 현실 콘텐츠를 합성할 수 있다. In an embodiment, the controller 65 may generate an augmented reality image by synthesizing an image of the real world generated by the terminal 60 or received from the outside through the communication unit 64 and the augmented reality content. The controller 65 may generate the augmented reality image by synthesizing the augmented reality content at the indicated position at the indicated time of the image by using the time information and the location information on the augmented reality content. In an embodiment, the location information may be information about a coordinate value or an anchor for an arbitrary reference point in an image. When the location information consists of information on the anchor, the controller 65 may identify the anchor in the image and synthesize augmented reality content at the identified anchor location.

저장부(66)는 제어부(65)의 제어에 따라 데이터를 저장할 수 있다. 저장부(66)는 단말(60)을 구동하기 위해 필요한 운영 체제, 프로그램, 소프트웨어 등을 저장할 수 있다. 저장부(66)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The storage unit 66 may store data under the control of the control unit 65 . The storage unit 66 may store an operating system, a program, software, etc. necessary for driving the terminal 60 . Storage unit 66 is a flash memory type (flash memory type), hard disk type (hard disk type), multimedia card micro type (multimedia card micro type), card type memory (for example, SD or XD memory, etc.), random access memory (RAM), static random access memory (SRAM), read-only memory (ROM), electrically erasable programmable read-only memory (EEPROM), programmable read-only memory (PROM), magnetic memory, It may include a storage medium of at least one type of a magnetic disk and an optical disk.

본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 그리고 본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. Those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. In addition, the embodiments disclosed in the present specification and drawings are merely provided for specific examples to easily explain the contents of the present invention and help understanding, and are not intended to limit the scope of the present invention. Therefore, the scope of the present invention should be construed as including all changes or modifications derived based on the technical spirit of the present invention in addition to the embodiments disclosed herein are included in the scope of the present invention.

1: 판매 시스템
10: 통신 서버
20, 30: 단말
40: 저장 서버
1: Sales system
10: communication server
20, 30: terminal
40: storage server

Claims (19)

증강 현실 서비스 제공 시스템으로,
원격지에 위치한 단말들 사이의 원격 협업을 중개하는 통신 서버;
현실 세계의 영상을 촬영하여 상기 통신 서버로 실시간 전송하는 제1 단말;
상기 통신 서버를 통하여 수신되는 상기 현실 세계의 영상에 대한 증강 현실 콘텐츠를 생성하여 상기 통신 서버를 통해 상기 제1 단말로 실시간 전송하는 제2 단말;
상기 통신 서버를 통해 수신되는 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 기초로, 상기 원격 협업의 내용을 포함하는 원격 협업 데이터를 저장하는 저장 서버를 포함하되,
상기 제1 단말은,
상기 증강 현실 콘텐츠를 상기 현실 세계의 영상에 합성하여 증강 현실 영상으로 표시하는, 시스템.
As an augmented reality service providing system,
a communication server that mediates remote collaboration between terminals located in remote locations;
a first terminal for capturing an image of the real world and transmitting it to the communication server in real time;
a second terminal that generates augmented reality content for the image of the real world received through the communication server and transmits it in real time to the first terminal through the communication server;
On the basis of the image of the real world and the augmented reality content received through the communication server, comprising a storage server for storing remote collaboration data including the content of the remote collaboration,
The first terminal,
A system for synthesizing the augmented reality content with the image of the real world and displaying it as an augmented reality image.
제1항에 있어서, 상기 저장 서버는,
상기 현실 세계의 영상에 상기 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하고, 상기 생성된 영상을 상기 원격 협업 데이터로 저장하는, 시스템.
According to claim 1, wherein the storage server,
A system for generating a single image by synthesizing the augmented reality content with the image of the real world, and storing the generated image as the remote collaboration data.
제1항에 있어서, 상기 저장 서버는,
상기 현실 세계의 영상과 상기 증강 현실 콘텐츠를 별개의 저장소에 분리하여 저장하는, 시스템.
According to claim 1, wherein the storage server,
A system that separates and stores the image of the real world and the augmented reality content in separate storages.
제2항에 있어서, 상기 증강 현실 콘텐츠는,
그래픽 객체와 파일 객체를 포함하고,
상기 저장 서버는,
상기 그래픽 객체와 상기 파일 객체를 별개의 저장소에 분리하여 저장하는, 시스템.
According to claim 2, wherein the augmented reality content,
contains graphic objects and file objects;
The storage server,
Separately storing the graphic object and the file object in separate storage, the system.
제3항에 있어서, 상기 저장 서버는,
상기 증강 현실 콘텐츠가 합성될 상기 현실 세계의 영상에 대한 시간 정보 및 위치 정보를 포함하는 매핑 정보를 생성하여, 상기 원격 협업 데이터로 더 저장하는, 시스템.
According to claim 3, The storage server,
The system further stores as the remote collaboration data by generating mapping information including time information and location information about the image of the real world in which the augmented reality content is to be synthesized.
제5항에 있어서, 상기 시간 정보는,
상기 현실 세계의 영상에 대한 재생 시간 구간 값 또는 프레임 값으로 설정되는, 시스템.
According to claim 5, wherein the time information,
The system is set as a playback time interval value or a frame value for the real-world image.
제5항에 있어서, 상기 위치 정보는,
상기 현실 세계의 영상 내의 임의의 기준점에 대한 좌표값 또는 상기 현실 세계의 영상 내에서 식별되는 앵커에 대한 정보로 설정되는, 시스템.
According to claim 5, wherein the location information,
The system is set as a coordinate value for an arbitrary reference point in the image of the real world or information about an anchor identified in the image of the real world.
제7항에 있어서, 상기 앵커는,
상기 현실 세계의 영상 내에서 영상 분석을 통해 식별되는 임의의 객체인, 시스템.
The method of claim 7, wherein the anchor,
any object identified through image analysis within the real-world image.
제1항에 있어서, 상기 저장 서버는,
상기 제1 단말 및 상기 제2 단말을 포함하는 임의의 단말로 상기 원격 협업 데이터를 전송하는, 시스템.
According to claim 1, wherein the storage server,
A system for transmitting the remote collaboration data to any terminal including the first terminal and the second terminal.
제9항에 있어서, 상기 임의의 단말은,
상기 원격 협업 데이터에 포함된 현실 세계의 영상에 매핑 정보를 이용하여 상기 원격 협업 데이터에 포함된 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 표시함으로써, 상기 원격 협업의 내용을 공유하는, 시스템.
10. The method of claim 9, wherein the arbitrary terminal,
A system for sharing the contents of the remote collaboration by displaying the augmented reality image by synthesizing the augmented reality content included in the remote collaboration data using mapping information to the real world image included in the remote collaboration data.
제1항에 있어서, 상기 현실 세계의 영상은,
적어도 하나의 의료 장비에 관한 영상을 포함하고,
상기 증강 현실 콘텐츠는,
상기 적어도 하나의 의료 장비의 사용법을 안내하기 위한 정보를 포함하는, 시스템.
According to claim 1, wherein the image of the real world,
At least one medical device comprising an image,
The augmented reality content is
and information for guiding the use of the at least one medical device.
증강 현실 서비스의 제공 방법으로,
제1 단말이 현실 세계의 영상을 촬영하여 통신 서버로 전송하는 단계;
상기 통신 서버가 상기 제1 단말과 원격지에 위치한 제2 단말로 상기 현실 세계의 영상을 전송하는 단계;
상기 제2 단말이 상기 현실 세계의 영상에 대한 증강 현실 콘텐츠를 생성하여 상기 통신 서버로 전송하는 단계;
상기 통신 서버가 상기 제1 단말로 상기 증강 현실 콘텐츠를 전송하는 단계;
상기 제1 단말이 상기 증강 현실 콘텐츠를 상기 현실 세계의 영상에 합성하여 증강 현실 영상으로 표시하는 단계;
상기 통신 서버가 저장 서버로 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 저장 서버로 전송하는 단계; 및
상기 저장 서버가 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 기초로 원격 협업 데이터를 저장하는 단계를 포함하는, 방법.
As a method of providing an augmented reality service,
The first terminal capturing the image of the real world and transmitting it to a communication server;
transmitting, by the communication server, the image of the real world to a second terminal located at a remote location from the first terminal;
generating, by the second terminal, augmented reality content for the image of the real world and transmitting it to the communication server;
transmitting, by the communication server, the augmented reality content to the first terminal;
displaying, by the first terminal, as an augmented reality image by synthesizing the augmented reality content with the image of the real world;
transmitting, by the communication server, the image of the real world and the augmented reality content to the storage server to the storage server; and
and storing, by the storage server, remote collaboration data based on the image of the real world and the augmented reality content.
제12항에 있어서, 상기 원격 협업 데이터를 저장하는 단계는,
상기 현실 세계의 영상에 상기 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하는 단계; 및
상기 생성된 영상을 상기 원격 협업 데이터로 저장하는 단계를 포함하는, 방법.
The method of claim 12, wherein the storing of the remote collaboration data comprises:
generating one image by synthesizing the augmented reality content with the image of the real world; and
and storing the generated image as the remote collaboration data.
제12항에 있어서, 상기 원격 협업 데이터를 저장하는 단계는,
상기 증강 현실 콘텐츠의 타입에 따라 그래픽 객체 또는 파일 객체를 생성하는 단계; 및
상기 현실 세계의 영상, 상기 그래픽 객체 및 상기 파일 객체를 별개의 저장소에 분리하여 저장하는 단계를 포함하는, 방법.
The method of claim 12, wherein the storing of the remote collaboration data comprises:
generating a graphic object or a file object according to the type of the augmented reality content; and
and separately storing the image of the real world, the graphic object, and the file object in separate storages.
제14항에 있어서, 상기 원격 협업 데이터를 저장하는 단계는,
상기 증강 현실 콘텐츠가 합성될 상기 현실 세계의 영상에 대한 시간 정보 및 위치 정보를 포함하는 매핑 정보를 생성하는 단계; 및
상기 매핑 정보를 상기 현실 세계의 영상에 대응하여 별개의 저장소에 저장하는, 방법.
The method of claim 14, wherein the storing of the remote collaboration data comprises:
generating mapping information including time information and location information on the image of the real world in which the augmented reality content is to be synthesized; and
The method of storing the mapping information in a separate storage corresponding to the image of the real world.
제15항에 있어서, 상기 시간 정보는,
상기 현실 세계의 영상에 대한 재생 시간 구간 값 또는 프레임 값으로 설정되는, 방법.
The method of claim 15, wherein the time information,
The method is set as a playback time interval value or a frame value for the image in the real world.
제15항에 있어서, 상기 매핑 정보를 생성하는 단계는,
상기 현실 세계의 영상 내에서 상기 증강 현실 콘텐츠가 합성될 위치에 대하여, 상기 현실 세계의 영상 내에서 앵커를 식별하는 단계; 및
상기 앵커에 관한 정보를 상기 위치 정보로 설정하는 단계를 포함하는, 방법.
The method of claim 15, wherein the generating of the mapping information comprises:
identifying an anchor in the image of the real world with respect to a position where the augmented reality content is to be synthesized in the image of the real world; and
and setting information about the anchor as the location information.
제12항에 있어서,
상기 저장 서버가 상기 제1 단말 및 상기 제2 단말을 포함하는 임의의 단말로 상기 원격 협업 데이터를 전송하는 단계를 더 포함하는, 방법.
13. The method of claim 12,
The method further comprising the step of the storage server transmitting the remote collaboration data to any terminal including the first terminal and the second terminal.
제18항에 있어서,
상기 임의의 단말이 상기 원격 협업 데이터에 포함된 현실 세계의 영상에 매핑 정보를 이용하여 상기 원격 협업 데이터에 포함된 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 표시하는 단계를 더 포함하는, 방법.
19. The method of claim 18,
The method further comprising the step of displaying the augmented reality image by synthesizing the augmented reality content included in the remote collaboration data by using the mapping information to the real world image included in the remote collaboration data, by the arbitrary terminal.
KR1020210009904A 2021-01-25 2021-01-25 System and method for providing augmented reality service KR20220107362A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210009904A KR20220107362A (en) 2021-01-25 2021-01-25 System and method for providing augmented reality service

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210009904A KR20220107362A (en) 2021-01-25 2021-01-25 System and method for providing augmented reality service

Publications (1)

Publication Number Publication Date
KR20220107362A true KR20220107362A (en) 2022-08-02

Family

ID=82845597

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210009904A KR20220107362A (en) 2021-01-25 2021-01-25 System and method for providing augmented reality service

Country Status (1)

Country Link
KR (1) KR20220107362A (en)

Similar Documents

Publication Publication Date Title
CN109074441B (en) Gaze-based authentication
EP3466070B1 (en) Method and device for obtaining image, and recording medium thereof
CN109416580A (en) Selection to the object in three-dimensional space
US10937249B2 (en) Systems and methods for anchoring virtual objects to physical locations
US9355452B2 (en) Camera and sensor augmented reality techniques
CN109154861A (en) Mood/cognitive state is presented
EP3062214A1 (en) Apparatus and method for providing screen mirroring service
KR101945082B1 (en) Method for transmitting media contents, apparatus for transmitting media contents, method for receiving media contents, apparatus for receiving media contents
KR20190032084A (en) Apparatus and method for providing mixed reality content
US20130174213A1 (en) Implicit sharing and privacy control through physical behaviors using sensor-rich devices
CN109313812A (en) Sharing experience with context enhancing
CN109219955A (en) Video is pressed into
CN103248810A (en) Image processing device, image processing method, and program
CN116457829A (en) Personalized avatar real-time motion capture
KR20180013277A (en) Electronic apparatus for displaying graphic object and computer readable recording medium
CN109887077B (en) Method and apparatus for generating three-dimensional model
EP3358531A1 (en) Electronic device for providing vr image based on polyhedron and image providing method thereof
KR20230062857A (en) augmented reality messenger system
JP2017120650A (en) Information processing system, control method thereof, program, information processor, control method thereof, and program
EP4315001A1 (en) Virtual reality interface with haptic feedback response
Golomingi et al. Augmented reality in forensics and forensic medicine-Current status and future prospects
KR20180082273A (en) Computer readable recording medium and electronic apparatus for performing video call
KR20180046032A (en) Electronic device and method for operating the same
CN112818733B (en) Information processing method, device, storage medium and terminal
CN111523408B (en) Motion capturing method and device

Legal Events

Date Code Title Description
E601 Decision to refuse application