KR20220107362A - System and method for providing augmented reality service - Google Patents
System and method for providing augmented reality service Download PDFInfo
- Publication number
- KR20220107362A KR20220107362A KR1020210009904A KR20210009904A KR20220107362A KR 20220107362 A KR20220107362 A KR 20220107362A KR 1020210009904 A KR1020210009904 A KR 1020210009904A KR 20210009904 A KR20210009904 A KR 20210009904A KR 20220107362 A KR20220107362 A KR 20220107362A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- augmented reality
- terminal
- real world
- reality content
- Prior art date
Links
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 150
- 238000000034 method Methods 0.000 title claims description 41
- 238000003860 storage Methods 0.000 claims abstract description 77
- 238000004891 communication Methods 0.000 claims abstract description 75
- 230000002194 synthesizing effect Effects 0.000 claims description 25
- 238000013507 mapping Methods 0.000 claims description 18
- 230000014759 maintenance of location Effects 0.000 claims description 5
- 238000010191 image analysis Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 239000003550 marker Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 239000008280 blood Substances 0.000 description 1
- 210000004369 blood Anatomy 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 210000001124 body fluid Anatomy 0.000 description 1
- 239000010839 body fluid Substances 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000002593 electrical impedance tomography Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 210000002345 respiratory system Anatomy 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000002700 urine Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Economics (AREA)
- Health & Medical Sciences (AREA)
- Architecture (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
본 발명은 증강 현실 서비스 제공 시스템 및 방법으로, 보다 구체적으로 증강 현실을 이용하여 원격 협업을 수행하는 동안 원격 협업 내용을 데이터로 저장하고 제공하는 시스템 및 방법에 관한 것이다. The present invention relates to a system and method for providing an augmented reality service, and more particularly, to a system and method for storing and providing remote collaboration contents as data while performing remote collaboration using augmented reality.
최근 3차원 영상 처리 기술이 급속도로 발전하면서, 영화, 게임, 인테리어 등 다양한 분야에 가상 현실(Virtual Reality; VR) 또는 증강 현실(Augmented Reality; AR)을 이용한 가상 환경 서비스가 제공되고 있다. 이 중에서 증강 현실은 현실의 영상과 가상의 증강 현실 콘텐츠를 합성하여 표시함으로써, 사용자에게 현실과 가상 세계의 경계가 없는 영상을 제공하는 기술이다. Recently, with the rapid development of 3D image processing technology, virtual environment services using virtual reality (VR) or augmented reality (AR) are being provided in various fields such as movies, games, and interiors. Among them, augmented reality is a technology for providing a user with an image without a boundary between the real world and the virtual world by synthesizing and displaying a real image and virtual augmented reality content.
이러한 가상 환경 서비스는 원격 의료 진단, 건축 설계, 제조 공정 관리 등 다양한 분야에서 활용하고 있다. 예를 들어, 사용자가 의료 장비를 카메라로 촬영하면, 해당 의료 장비에 대응하는 증강 현실 콘텐츠가 의료 장비 영상에 합성되어 표시될 수 있다. 이러한 가상 환경 서비스를 통해 사용자는 의료 장비를 올바르고 적합하게 사용할 수 있다.These virtual environment services are being used in various fields such as remote medical diagnosis, architectural design, and manufacturing process management. For example, when a user takes a picture of a medical device with a camera, augmented reality content corresponding to the corresponding medical device may be synthesized and displayed on the medical device image. These virtual environment services enable users to use medical equipment correctly and appropriately.
한편, 최근에는 원격지의 사용자들이 온라인 플랫폼을 통해 가상 환경 영상을 실시간으로 공유하고 협업할 수 있도록 하는 서비스(이하, 원격 협업 서비스)가 개발되고 있다. Meanwhile, recently, a service (hereinafter referred to as a remote collaboration service) that enables remote users to share and collaborate on virtual environment images in real time through an online platform is being developed.
본 발명은 원격지의 사용자들이 증강 현실 서비스를 통해 실시간으로 증강 현실 영상을 공유하고 원격에서 협업할 수 있도록 하는 증강 현실 서비스 제공 시스템 및 방법을 제공한다.The present invention provides a system and method for providing an augmented reality service that enables remote users to share an augmented reality image in real time through an augmented reality service and to collaborate remotely.
또한, 본 발명은 증강 현실을 이용하여 원격 협업을 수행하는 경우에, 원격 협업 내용을 저장하고 관리하는 증강 현실 서비스 제공 시스템 및 방법을 제공한다. In addition, the present invention provides an augmented reality service providing system and method for storing and managing remote collaboration contents when performing remote collaboration using augmented reality.
상술한 과제를 해결하기 위한 일 실시 예에 따른 증강 현실 서비스 제공 시스템은, 원격지에 위치한 단말들 사이의 원격 협업을 중개하는 통신 서버, 현실 세계의 영상을 촬영하여 상기 통신 서버로 실시간 전송하는 제1 단말, 상기 통신 서버를 통하여 수신되는 상기 현실 세계의 영상에 대한 증강 현실 콘텐츠를 생성하여 상기 통신 서버를 통해 상기 제1 단말로 실시간 전송하는 제2 단말, 상기 통신 서버를 통해 수신되는 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 기초로, 상기 원격 협업의 내용을 포함하는 원격 협업 데이터를 저장하는 저장 서버를 포함하되, 상기 제1 단말은, 상기 증강 현실 콘텐츠를 상기 현실 세계의 영상에 합성하여 증강 현실 영상으로 표시할 수 있다. Augmented reality service providing system according to an embodiment for solving the above-described problems, a communication server that mediates remote collaboration between terminals located in remote places, a first image of the real world is captured and transmitted in real time to the communication server A terminal, a second terminal that generates augmented reality content for the image of the real world received through the communication server and transmits it in real time to the first terminal through the communication server, the real world received through the communication server On the basis of the image and the augmented reality content, including a storage server for storing remote collaboration data including the content of the remote collaboration, wherein the first terminal is augmented by synthesizing the augmented reality content with the image of the real world It can be displayed as a real image.
상기 저장 서버는, 상기 현실 세계의 영상에 상기 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하고, 상기 생성된 영상을 상기 원격 협업 데이터로 저장할 수 있다.The storage server may generate one image by synthesizing the augmented reality content with the image of the real world, and store the generated image as the remote collaboration data.
상기 저장 서버는, 상기 현실 세계의 영상과 상기 증강 현실 콘텐츠를 별개의 저장소에 분리하여 저장할 수 있다.The storage server may store the image of the real world and the augmented reality content separately in separate storages.
상기 증강 현실 콘텐츠는, 그래픽 객체와 파일 객체를 포함하고, 상기 저장 서버는, 상기 그래픽 객체와 상기 파일 객체를 별개의 저장소에 분리하여 저장할 수 있다.The augmented reality content may include a graphic object and a file object, and the storage server may store the graphic object and the file object separately in separate storages.
상기 저장 서버는, 상기 증강 현실 콘텐츠가 합성될 상기 현실 세계의 영상에 대한 시간 정보 및 위치 정보를 포함하는 매핑 정보를 생성하여, 상기 원격 협업 데이터로 더 저장할 수 있다.The storage server may generate mapping information including time information and location information on the image of the real world in which the augmented reality content is to be synthesized, and may further store it as the remote collaboration data.
상기 시간 정보는, 상기 현실 세계의 영상에 대한 재생 시간 구간 값 또는 프레임 값으로 설정될 수 있다.The time information may be set as a reproduction time interval value or a frame value for the image of the real world.
상기 위치 정보는, 상기 현실 세계의 영상 내의 임의의 기준점에 대한 좌표값 또는 상기 현실 세계의 영상 내에서 식별되는 앵커에 대한 정보로 설정될 수 있다.The location information may be set as a coordinate value for an arbitrary reference point in the image of the real world or information on an anchor identified in the image of the real world.
상기 앵커는, 상기 현실 세계의 영상 내에서 영상 분석을 통해 식별되는 임의의 객체일 수 있다.The anchor may be any object identified through image analysis in the image of the real world.
상기 저장 서버는, 상기 제1 단말 및 상기 제2 단말을 포함하는 임의의 단말로 상기 원격 협업 데이터를 전송할 수 있다. The storage server may transmit the remote collaboration data to any terminal including the first terminal and the second terminal.
상기 임의의 단말은, 상기 원격 협업 데이터에 포함된 현실 세계의 영상에 매핑 정보를 이용하여 상기 원격 협업 데이터에 포함된 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 표시함으로써, 상기 원격 협업의 내용을 공유할 수 있다. The arbitrary terminal displays the augmented reality image by synthesizing the augmented reality content included in the remote collaboration data using mapping information to the real world image included in the remote collaboration data, thereby sharing the content of the remote collaboration can do.
상기 현실 세계의 영상은, 적어도 하나의 의료 장비에 관한 영상을 포함하고, 상기 증강 현실 콘텐츠는, 상기 적어도 하나의 의료 장비의 사용법을 안내하기 위한 정보를 포함할 수 있다. The image of the real world may include an image of at least one medical device, and the augmented reality content may include information for guiding a usage of the at least one medical device.
일 실시 예에 따른 증강 현실 서비스의 제공 방법은, 제1 단말이 현실 세계의 영상을 촬영하여 통신 서버로 전송하는 단계, 상기 통신 서버가 상기 제1 단말과 원격지에 위치한 제2 단말로 상기 현실 세계의 영상을 전송하는 단계, 상기 제2 단말이 상기 현실 세계의 영상에 대한 증강 현실 콘텐츠를 생성하여 상기 통신 서버로 전송하는 단계, 상기 통신 서버가 상기 제1 단말로 상기 증강 현실 콘텐츠를 전송하는 단계, 상기 제1 단말이 상기 증강 현실 콘텐츠를 상기 현실 세계의 영상에 합성하여 증강 현실 영상으로 표시하는 단계, 상기 통신 서버가 저장 서버로 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 저장 서버로 전송하는 단계 및 상기 저장 서버가 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 기초로 원격 협업 데이터를 저장하는 단계를 포함할 수 있다. A method of providing an augmented reality service according to an embodiment includes the steps of: by a first terminal, capturing an image of the real world and transmitting the image to a communication server; Transmitting an image of, the second terminal generating the augmented reality content for the image of the real world and transmitting it to the communication server, the communication server transmitting the augmented reality content to the first terminal , the step of the first terminal synthesizing the augmented reality content with the image of the real world and displaying it as an augmented reality image, the communication server transmitting the image of the real world and the augmented reality content to the storage server to the storage server and storing, by the storage server, the remote collaboration data based on the image of the real world and the augmented reality content.
상기 원격 협업 데이터를 저장하는 단계는, 상기 현실 세계의 영상에 상기 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하는 단계 및 상기 생성된 영상을 상기 원격 협업 데이터로 저장하는 단계를 포함할 수 있다. The storing of the remote collaboration data may include generating one image by synthesizing the augmented reality content with the image of the real world, and storing the generated image as the remote collaboration data.
상기 원격 협업 데이터를 저장하는 단계는, 상기 증강 현실 콘텐츠의 타입에 따라 그래픽 객체 또는 파일 객체를 생성하는 단계 및 상기 현실 세계의 영상, 상기 그래픽 객체 및 상기 파일 객체를 별개의 저장소에 분리하여 저장하는 단계를 포함할 수 있다. The storing of the remote collaboration data may include generating a graphic object or a file object according to the type of the augmented reality content, and separately storing the image of the real world, the graphic object, and the file object in a separate storage. may include steps.
상기 원격 협업 데이터를 저장하는 단계는, 상기 증강 현실 콘텐츠가 합성될 상기 현실 세계의 영상에 대한 시간 정보 및 위치 정보를 포함하는 매핑 정보를 생성하는 단계 및 상기 매핑 정보를 상기 현실 세계의 영상에 대응하여 별개의 저장소에 저장할 수 있다. The storing of the remote collaboration data may include generating mapping information including time information and location information on the image of the real world to which the augmented reality content is to be synthesized, and matching the mapping information to the image of the real world. can be stored in a separate storage.
상기 시간 정보는, 상기 현실 세계의 영상에 대한 재생 시간 구간 값 또는 프레임 값으로 설정될 수 있다.The time information may be set as a reproduction time interval value or a frame value for the image of the real world.
상기 매핑 정보를 생성하는 단계는, 상기 현실 세계의 영상 내에서 상기 증강 현실 콘텐츠가 합성될 위치에 대하여, 상기 현실 세계의 영상 내에서 앵커를 식별하는 단계 및 상기 앵커에 관한 정보를 상기 위치 정보로 설정하는 단계를 포함할 수 있다. The generating of the mapping information may include: identifying an anchor in the image of the real world with respect to a position where the augmented reality content is to be synthesized in the image of the real world; and converting the information about the anchor into the position information. It may include a setting step.
상기 방법은, 상기 저장 서버가 상기 제1 단말 및 상기 제2 단말을 포함하는 임의의 단말로 상기 원격 협업 데이터를 전송하는 단계를 더 포함할 수 있다. The method may further include, by the storage server, transmitting the remote collaboration data to any terminal including the first terminal and the second terminal.
상기 방법은, 상기 임의의 단말이 상기 원격 협업 데이터에 포함된 현실 세계의 영상에 매핑 정보를 이용하여 상기 원격 협업 데이터에 포함된 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 표시하는 단계를 더 포함할 수 있다. The method may further include the step of displaying an augmented reality image by synthesizing the augmented reality content included in the remote collaboration data by using the mapping information to the real world image included in the remote collaboration data, by the arbitrary terminal can
본 발명에 따른 증강 현실 서비스 제공 시스템 및 방법은, 원격의 사용자들이 실시간으로 증강 현실 영상을 공유함으로써, 보다 효율적인 원격 협업이 가능하게 한다.The augmented reality service providing system and method according to the present invention enables more efficient remote collaboration by allowing remote users to share augmented reality images in real time.
또한, 본 발명에 따른 증강 현실 서비스 제공 시스템 및 방법은, 원격 협업 내용을 데이터로 저장하되, 현실 영상과 증강 현실 콘텐츠를 분리하거나 결합하여 저장함으로써 데이터의 활용 가능성을 높일 수 있다. In addition, the augmented reality service providing system and method according to the present invention stores remote collaboration contents as data, but by separating or combining the real image and the augmented reality content and storing the data, it is possible to increase the possibility of data utilization.
또한, 본 발명에 따른 증강 현실 서비스 제공 시스템 및 방법은, 데이터로 저장된 원격 협업 내용을 해당 원격 협업의 참여자 또는 제3자에게 제공함으로써, 원격 협업 내용이 용이하고 효율적으로 공유될 수 있게 한다. In addition, the augmented reality service providing system and method according to the present invention provides the remote collaboration contents stored as data to a participant or a third party of the remote collaboration, so that the remote collaboration contents can be easily and efficiently shared.
도 1은 일 실시 예에 따른 증강 현실 서비스 제공 시스템의 구조를 나타낸 도면이다.
도 2는 일 실시 예에 따른 증강 현실 서비스 제공 방법을 나타낸 흐름도이다.
도 3은 일 실시 예에 따른 원격 협업 데이터의 데이터 구조를 나타낸 도면이다.
도 4는 일 실시 예에 따른 원격 협업 데이터의 필드 구성을 나타낸 도면이다.
도 5는 다른 실시 예에 따른 원격 협업 데이터의 필드 구성을 나타낸 도면이다.
도 6은 영상 내의 마커를 이용하여 증강 현실 콘텐츠를 영상에 합성하는 방법을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 서버의 구조를 나타낸 블록도이다.
도 8은 일 실시 예에 따른 단말의 구조를 나타낸 블록도이다.1 is a diagram showing the structure of an augmented reality service providing system according to an embodiment.
2 is a flowchart illustrating a method of providing an augmented reality service according to an embodiment.
3 is a diagram illustrating a data structure of remote collaboration data according to an embodiment.
4 is a diagram illustrating a field configuration of remote collaboration data according to an embodiment.
5 is a diagram illustrating a field configuration of remote collaboration data according to another embodiment.
6 is a diagram for explaining a method of synthesizing augmented reality content into an image by using a marker in the image.
7 is a block diagram illustrating the structure of a server according to an embodiment.
8 is a block diagram illustrating the structure of a terminal according to an embodiment.
본 명세서의 실시 예를 설명함에 있어 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 명세서의 요지를 흐릴 수 있다고 판단되는 경우, 그 상세한 설명은 생략될 수 있다. In describing the embodiments of the present specification, if it is determined that a detailed description of a related well-known configuration or function may obscure the gist of the present specification, the detailed description may be omitted.
본 명세서에서 사용되는 "포함한다," "포함할 수 있다." 등의 표현은 개시된 해당 기능, 동작, 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작, 구성요소 등을 제한하지 않는다. 또한, 본 명세서에서, "포함하다." 또는 "가지다." 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다. As used herein, "comprises," "may include." The expression such as indicates the existence of the disclosed corresponding function, operation, component, etc., and does not limit one or more additional functions, operations, components, and the like. Also, in this specification, "includes." Or "have." The term such as is intended to designate that there is a feature, number, step, action, component, part, or combination thereof described in the specification, but one or more other features or number, step, action, component, part or It should be understood that it does not preclude the possibility of the existence or addition of combinations thereof.
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise.
이하, 첨부된 도면을 참조하여 본 발명을 설명한다. Hereinafter, the present invention will be described with reference to the accompanying drawings.
도 1은 일 실시 예에 따른 증강 현실 서비스 제공 시스템의 구조를 나타낸 도면이다.1 is a diagram showing the structure of an augmented reality service providing system according to an embodiment.
도 1을 참조하면, 본 발명에 따른 시스템(1)은 가상 환경을 이용한 원격 협업 서비스를 제공하는 통신 서버(10), 원격 협업 서비스를 제공받는 복수의 단말들(20, 30) 및 원격 협업 내용을 데이터로 저장하는 저장 서버(40)를 포함할 수 있다. Referring to FIG. 1 , a
통신 서버(10)는 본 발명에 따른 가상 환경을 이용한 원격 협업 서비스를 제공하기 위해 마련된다. 통신 서버(10)는 증강 현실 서비스의 제공자에 의해 운영되는 네트워크 서버, 애플리케이션 서버, 도메인 서버 등일 수 있다. The
통신 서버(10)는 복수의 단말들(20, 30) 사이에서 원격 협업을 중개할 수 있다. 예를 들어, 통신 서버(10)는 단말들(20, 30)로부터 증강 현실 서비스의 제공 요청이 수신되면, 단말들(20, 30)의 원격 협업을 진행시킬 수 있다. 통신 서버(10)는 원격 협업이 수행되는 동안 제1 단말(20)에서 촬영되는 현실 영상을 실시간으로 제2 단말(30)로 전달하고, 제2 단말(30)에서 생성되는 증강 현실 콘텐츠를 실시간으로 제1 단말(20)에 전달할 수 있다. 제1 단말(20)로 전달된 증강 현실 콘텐츠는 제1 단말(20)에서 촬영되는 현실 영상에 합성되어 증강 현실 영상으로 표시될 수 있다. The
단말들(20, 30)은 통신 서버(10)와 데이터 통신을 수행하여 증강 현실 서비스를 제공받을 수 있다. 단말들(20, 30)은 휴대폰, 스마트 폰, PDA(personal digital assistants), 태블릿, 컴퓨터, 노트북과 같은 전자 장치 또는 헤드 마운트 디스플레이(Head Mounted Display; HMD), 와치, 스마트 글래스 등과 같은 웨어러블 장치일 수 있다. The
단말들(20, 30)은 통신 서버(10)를 통해 증강 현실 영상을 생성하기 위한 데이터를 공유할 수 있다. 예를 들어, 제1 단말(20)이 현실의 영상을 촬영하고 통신 서버(10)를 통해 촬영된 영상을 제2 단말(30)로 전송하면, 제2 단말(30)은 수신된 영상에 대응하는 증강 현실 콘텐츠를 생성하여 제1 단말(20)로 전송할 수 있다. 제1 단말(20)은 제2 단말(30)로부터 수신된 증강 현실 콘텐츠를 촬영되는 영상에 실시간으로 합성하여 표시할 수 있다. The
일 실시 예에서, 제1 단말(20)과 제2 단말(30) 사이의 원격 협업 내용은 의료 장비, 가전 기기, 운동 기기 등 다양한 장치들의 사용법에 관한 것일 수 있다. 예를 들어, 제1 단말(20)과 제2 단말(30)은, 전기적 임피던스 단층촬영장치(Electrical Impedance Tomography), X-Ray 장치, 초음파 검사장치, CT 검사기, MRI 검사기, 내시경 장치, 심전도 측정기, 혈압 측정기, 산소 포화도 측정기, 체온 측정기, 호흡계, 혈액 분석기, 뇨 분석기, 체액 성분 분석기 등 다양한 의료 장비의 사용법에 관한 원격 협업을 수행할 수 있다. In an embodiment, the content of remote collaboration between the
이러한 실시 예에서, 단말들(20, 30) 중 어느 하나(예를 들어, 제1 단말(20))는 해당 의료 장비의 사용자(또는, 구매자)의 단말이고, 다른 하나(예를 들어, 제2 단말(30))는 해당 의료 장비의 관리자(또는, 제조자, 판매자)의 단말 일 수 있다. 사용자가 단말을 이용하여 의료 장비를 촬영하고 촬영된 의료 장비의 영상을 관리자의 단말로 전송하면, 관리자는 수신된 영상에 대응하여 의료 장비의 사용법에 관한 정보를 단말에 입력할 수 있다. 관리자가 입력한 정보는 단말에서 증강 현실 콘텐츠로 생성되어 사용자의 단말로 전송될 수 있다. 사용자의 단말은 수신된 증강 현실 콘텐츠를 의료 장비의 영상에 실시간으로 합성하여 표시할 수 있다. 그러면 사용자는 관리자의 감독 및 지시에 따라 올바르게 의료 장비를 사용할 수 있게 된다. In this embodiment, any one of the
그러나 본 실시 예가 상술한 것으로 한정되지 않으며, 이하의 실시 예들은 다양한 증강 현실 서비스에 대하여 적용될 수 있다. However, the present embodiment is not limited to the above, and the following embodiments may be applied to various augmented reality services.
저장 서버(40)는 단말들(20, 30) 사이에서 수행되는 원격 협업의 내용을 데이터로 저장하고 관리하기 위해 마련된다. 저장 서버(40)는 통신 서버(10)로부터 제1 단말(20)에서 촬영된 현실 세계의 영상 및 제2 단말(30)에서 생성된 증강 현실 콘텐츠를 수신하고, 이들을 데이터로 저장할 수 있다. 구현하기에 따라, 저장 서버(40)는 단말들(20, 30)과 직접 통신하여 단말들(20, 30)로부터 현실 세계의 영상 및 증강 현실 콘텐츠 등을 직접 수신할 수도 있다. 또한, 저장 서버(40)는 해당 원격 협업을 수행한 단말들(20, 30)을 포함한 다양한 단말들에 대하여 저장된 데이터를 공유할 수 있다. The
저장 서버(40)는 단말들(20, 30)의 원격 협업이 수행되는 동안, 통신 서버(10)로부터 실시간으로 현실 세계의 영상 및 증강 현실 콘텐츠를 수신하거나, 원격 협업이 종료된 이후에 통신 서버(10)로부터 현실 세계의 영상 및 증강 현실 콘텐츠를 수신할 수 있다. The
한편, 도 1에서는 통신 서버(10)와 저장 서버(40)가 별개의 구성 요소로 도시되지만, 본 실시 예가 이로써 한정되지 않는다. 즉, 다른 실시 예들에서, 통신 서버(10)와 저장 서버(40)는 하나의 중개 서버로 구성될 수 있고, 이러한 실시 예에서 중개 서버는 단말들(20, 30) 사이의 원격 협업을 중개하고 또한 원격 협업의 내용을 데이터로 저장할 수 있다. Meanwhile, although the
도 2는 일 실시 예에 따른 증강 현실 서비스 제공 방법을 나타낸 흐름도이다. 도 2의 흐름도는 단말들(20, 30)의 요청에 의해 통신 서버(10)가 단말들(20, 30) 사이의 통신을 중개하기 위한 통신 서비스를 수립한 이후의 동작을 도시한다. 단말들(20, 30)은 통신 서버(10)를 통해 제공되는 증강 현실 서비스를 이용하여 원격 협업을 수행한다.2 is a flowchart illustrating a method of providing an augmented reality service according to an embodiment. The flowchart of FIG. 2 shows an operation after the
먼저, 제1 단말(20)은 현실 세계의 영상을 촬영하고, 촬영된 영상을 통신 서버(10)에 실시간으로 전송할 수 있다(101). 일 실시 예에서, 현실 세계의 영상은 의료 장비를 포함할 수 있다. First, the
통신 서버(10)는 제1 단말(20)로부터 수신되는 현실 세계의 영상을 제2 단말(30)에 실시간으로 전달한다(102).The
제2 단말(30)에서는 수신된 영상이 표시될 수 있다. 일 실시 예에서, 제2 단말(30)은 표시되는 영상에 대응하여 증강 현실 콘텐츠를 생성하기 위한 사용자 입력을 수신할 수 있다. 사용자 입력은 마우스, 키보드 등과 같은 입력 인터페이스를 이용한 입력 또는 인체 또는 스타일러스 펜 등을 이용한 터치 입력일 수 있다. 사용자 입력은 텍스트, 그림, 이모티콘, 파일 등을 포함할 수 있다. 사용자 입력은 제2 단말(30)에서 영상이 재생되는 동안 영상에 대하여 실시간으로 입력될 수 있고, 영상 내의 임의의 위치에 대하여 입력될 수 있다. The received image may be displayed in the
증강 현실 콘텐츠를 생성하기 위한 사용자 입력은, 현실 세계의 영상에 포함된 의료 장비 등에 대한 사용법에 관한 것일 수 있다. 예를 들어, 사용자 입력은, 구성 요소의 이동 방향, 입력 인터페이스의 조작 방법, 조작 타이밍 등에 관한 정보일 수 있다.A user input for generating augmented reality content may relate to usage of medical equipment included in an image of the real world. For example, the user input may be information about a moving direction of a component, a manipulation method of an input interface, manipulation timing, and the like.
사용자 입력이 수신되면, 제2 단말(30)은 영상에 대한 증강 현실 콘텐츠를 생성할 수 있다(103). 예를 들어, 제2 단말(30)은 사용자 입력을 통해 수신된 텍스트, 그림, 이모티콘 등을 그래픽 객체로 생성할 수 있다. 사용자가 사용자 입력을 통해 임의의 파일(예를 들어, pdf, jpg, gif 등의 확장자를 갖는 파일 데이터 및/또는 워드, 엑셀, 파워포인트 등에서 작성된 파일 데이터)을 입력한 경우, 제2 단말(30)은 사용자 입력을 통해 수신된 파일을 파일 객체로 생성할 수 있다. 그래픽 객체와 파일 객체는 별개의 저장소에 분리하여 저장될 수 있다. When the user input is received, the
제2 단말(30)은 생성된 증강 현실 콘텐츠를 통신 서버(10)로 전송할 수 있다(104). 통신 서버(10)는 제2 단말(30)로부터 수신되는 증강 현실 콘텐츠를 제1 단말(20)에 실시간으로 전달한다(105). The
제1 단말(20)은 통신 서버(10)로부터 수신된 증강 현실 콘텐츠를 제1 단말(20)에서 촬영되는 현실 세계의 영상에 실시간으로 합성하여 증강 현실 영상을 생성하고, 이를 표시할 수 있다. 이와 같은 방법을 통해, 제1 단말(20)의 사용자와 제2 단말(30)의 사용자는 원격에서도 증강 현실 영상을 공유함으로써 협업을 수행할 수 있다. The
다양한 실시 예에서, 통신 서버(10)는 원격 협업이 수행되는 동안 제1 단말(20)로부터 수신되는 현실 세계의 영상 및 제2 단말(30)로부터 수신되는 그래픽 이미지를 저장 서버(40)로 전달한다(106). 일 실시 예에서, 통신 서버(10)는 원격 협업이 수행되는 동안 실시간으로 영상과 증강 현실 콘텐츠를 저장 서버(40)에 전달할 수 있다. 다른 실시 예에서, 통신 서버(10)는 원격 협업이 수행되는 동안 영상과 증강 현실 콘텐츠를 임시로 저장하였다가, 원격 협업이 종료된 이후에 저장 서버(40)로 임시 저장된 영상과 증강 현실 콘텐츠를 전달할 수 있다. In various embodiments, the
저장 서버(40)는 통신 서버(10)로부터 수신된 영상과 증강 현실 콘텐츠를 이용하여 원격 협업 데이터를 생성하고, 저장하여 관리할 수 있다. 일 실시 예에서, 원격 협업에 참여한 단말들(20, 30) 또는 다른 제3의 단말로부터 요청이 있는 경우, 저장 서버(40)는 저장된 원격 협업 데이터를 제공할 수 있다. 원격 협업 데이터를 제공받은 단말은 수신된 원격 협업 데이터를 재생하여 원격 협업 내용을 확인할 수 있다. The
이하에서는, 저장 서버(40)에서 원격 협업 데이터를 저장하는 방법을 보다 구체적으로 설명한다. Hereinafter, a method of storing remote collaboration data in the
도 3은 일 실시 예에 따른 원격 협업 데이터의 데이터 구조를 나타낸 도면이다.3 is a diagram illustrating a data structure of remote collaboration data according to an embodiment.
일 실시 예에서, 저장 서버(40)는 영상에 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하고, 생성된 영상을 원격 협업 데이터로 저장할 수 있다. 다른 실시 예에서, 저장 서버(40)는, 도 3에 도시된 것과 같이 영상과 증강 현실 콘텐츠를 분리하여 저장할 수 있다. In an embodiment, the
도 3을 참조하면, 저장 서버(40)는 영상과 해당 영상에 대응하는 증강 현실 콘텐츠를 각각 별도로 저장할 수 있다. 또한, 일 실시 예에서, 증강 현실 콘텐츠는 파일 객체와 그래픽 객체로 분류되어 저장될 수 있다. Referring to FIG. 3 , the
이러한 실시 예에서, 저장 서버(40)는 각각의 영상과 증강 현실 콘텐츠를 식별할 수 있는 식별자를 각각의 영상과 증강 현실 콘텐츠에 할당할 수 있다. 저장 서버(40)는 할당된 식별자를 이용하여 임의의 영상 및 그에 대응하는 증강 현실 콘텐츠를 매핑할 수 있다. In this embodiment, the
또한, 저장 서버(40)는 증강 현실 콘텐츠가 영상에 합성되어야 할 시간을 지시하는 시간 정보 및 위치를 지시하는 위치 정보를 함께 저장할 수 있다. 시간 정보 및 위치 정보는 증강 현실 콘텐츠의 매핑 정보로써, 도 3에 도시된 것과 같이, 영상 및 증강 현실 콘텐츠와 별개로 분류되어 저장될 수 있다. 저장된 매핑 정보는 해당 증강 현실 콘텐츠를 영상에 합성할 때, 올바른 재생 시간대(프레임)에 올바른 위치에 증강 현실 콘텐츠를 합성하기 위해 사용될 수 있다. 매핑 정보를 이용하여 증강 현실 콘텐츠를 영상에 합성하는 방법은, 이하에서 도 6을 참조하여 보다 구체적으로 설명한다.Also, the
일 실시 예에서, 시간 정보는 영상 내의 재생 시간 구간 값으로 설정될 수 있다. 또는, 시간 정보는 프레임 값으로 설정될 수도 있다.In an embodiment, the time information may be set as a value of a playback time section in an image. Alternatively, the time information may be set as a frame value.
일 실시 예에서, 위치 정보는 영상 내 임의의 기준점에 대한 좌표값 또는 앵커에 관한 정보 중 적어도 하나를 포함할 수 있다. 앵커를 이용하여 위치 정보를 생성하는 경우, 해당 증강 현실 콘텐츠가 합성될 위치에서 식별되는 적어도 하나의 객체가 앵커로 사용될 수 있다. In an embodiment, the location information may include at least one of a coordinate value for an arbitrary reference point in an image or information about an anchor. When generating location information using an anchor, at least one object identified at a location where the corresponding augmented reality content is to be synthesized may be used as the anchor.
앵커는, 예를 들어 영상 분석을 통해 식별되는 의료 장비의 적어도 일부분, QR 코드, 이미지, 텍스트, 패턴 또는 인체의 일부(예를 들어, 손가락 등) 등일 수 있다. 앵커로 사용되는 객체는 캐니 엣지 검출(Canny edge detector) 알고리즘, 해리스 코너(Harris corner) 검출 알고리즘, 하르 기반 특징 알고리즘(Haar-like feature), HOG(Histogram of Oriented Gradient) 알고리즘 또는 딥러닝에 기반한 알고리즘 등과 같은 다양한 객체 검출 알고리즘을 통해 검출될 수 있다. The anchor may be, for example, at least a portion of a medical device identified through image analysis, a QR code, an image, text, a pattern, or a part of a human body (eg, a finger, etc.). An object used as an anchor is a Canny edge detector algorithm, a Harris corner detection algorithm, a Haar-like feature algorithm, a HOG (Histogram of Oriented Gradient) algorithm, or an algorithm based on deep learning. It can be detected through various object detection algorithms, such as
이러한 앵커의 식별은 저장 서버(40)에서 원격 협업 데이터를 생성할 때 수행될 수 있지만, 이로써 한정되지 않는다. 예를 들어, 제2 단말(30)에서 증강 현실 콘텐츠가 생성될 때 및/또는 통신 서버(10)가 원격 협업을 중개하는 동안 제2 단말(30) 및/또는 통신 서버(10)에서 앵커가 식별될 수 있다. 이러한 실시 예에서, 제2 단말(30) 및 통신 서버(10)는 영상 및/또는 디지털 데이터를 다른 장치로 전송할 때, 식별된 앵커에 관한 정보를 함께 전달할 수 있다.Identification of such an anchor may be performed when generating remote collaboration data in the
도 4는 일 실시 예에 따른 원격 협업 데이터의 필드 구성을 나타낸 도면이고, 도 5는 다른 실시 예에 따른 원격 협업 데이터의 필드 구성을 나타낸 도면이다. 4 is a diagram illustrating a field configuration of remote collaboration data according to an embodiment, and FIG. 5 is a diagram illustrating a field configuration of remote collaboration data according to another embodiment.
도 4 및 도 5에는 상기에 따라 생성되는 원격 협업 데이터의 필드 구성이 도시된다. 도 4 및 도 5를 참조하면, 원격 협업 데이터는 각각의 영상에 대하여, 해당 영상의 식별 정보(ID), 해당 영상에 대응되는 증강 현실 콘텐츠의 식별 정보(GID), 해당 증강 현실 콘텐츠의 객체 타입, 해당 증강 현실 콘텐츠가 합성되어야 할 시간 정보 및 위치 정보를 포함할 수 있다. 도 4의 실시 예에서, 위치 정보는 영상 내 임의의 기준점에 대한 좌표값으로 구성되고, 도 5의 실시 예에서, 위치 정보는 해당 그래픽 객체가 결합되어야 할 지점에 대한 마커의 정보로 구성된다.4 and 5 show the field configuration of the remote collaboration data generated according to the above. 4 and 5 , the remote collaboration data includes, for each image, identification information (ID) of a corresponding image, identification information (GID) of augmented reality content corresponding to the image, and object type of the corresponding augmented reality content. , the augmented reality content may include time information and location information to be synthesized. In the embodiment of FIG. 4 , the position information is composed of coordinate values for an arbitrary reference point in the image, and in the embodiment of FIG. 5 , the position information is composed of information of a marker on a point to which a corresponding graphic object is to be combined.
이와 같이 저장된 원격 협업 데이터는 필요에 따라 당사자들 또는 제3자에게 제공되어 적절하게 사용될 수 있다. 예를 들어, 원격 협업 데이터는 단순히 자료 보관의 용도뿐만 아니라 의료 장비 등의 사용에 있어서 향후에 발생할 수 있는 법적 문제에 대한 증거 등으로 활용될 수도 있다. The stored remote collaboration data may be provided to the parties or a third party as needed and used appropriately. For example, remote collaboration data may be used not only for data storage, but also as evidence for legal problems that may arise in the future in the use of medical equipment.
도 6은 영상 내의 마커를 이용하여 증강 현실 콘텐츠를 영상에 합성하는 방법을 설명하기 위한 도면이다.6 is a diagram for explaining a method of synthesizing augmented reality content into an image by using a marker in the image.
일 실시 예에서, 저장 서버(40)가 영상에 증강 현실 콘텐츠를 합성하여 하나의 영상으로 원격 협업 데이터를 생성하는 경우, 저장 서버(40)는 요청된 영상을 단말로 전송할 수 있다. 원격 협업 데이터를 제공받은 단말은 수신된 영상을 단순히 재생할 수 있다. In an embodiment, when the
반면, 저장 서버(40)가 영상과 증강 현실 콘텐츠를 분리하여 저장하는 경우, 저장 서버(40)는 요청된 영상의 식별자를 이용하여 대응하는 증강 현실 콘텐츠 및 매핑 정보를 식별하고, 증강 현실 콘텐츠의 타입을 판단하여 저장된 증강 현실 콘텐츠 및 매핑 정보를 로딩할 수 있다. 저장 서버(40)는 로딩된 데이터들을 통합하여 원격 협업 데이터로 단말에 제공할 수 있다. On the other hand, when the
원격 협업 데이터를 제공받은 단말은, 원격 협업 데이터에 포함된 매핑 정보를 이용하여 증강 현실 콘텐츠를 영상에 합성할 수 있다. 구체적으로, 단말은, 도 6에 도시된 것과 같이, 임의의 증강 현실 콘텐츠(G1, G2, G3)에 대하여 지시된 시간(프레임)에 현실 세계의 영상(IM) 내에서 지시된 앵커(A1, A2, A3)를 식별할 수 있다. 단말은 식별된 앵커(A1, A2, A3)의 위치에 대응되는 증강 현실 콘텐츠(G1, G2, G3)를 합성할 수 있다. The terminal receiving the remote collaboration data may synthesize augmented reality content into an image by using mapping information included in the remote collaboration data. Specifically, the terminal, as shown in FIG. 6 , the anchor A1 indicated in the image IM of the real world at the indicated time (frame) for any augmented reality content G1, G2, G3, A2, A3) can be identified. The terminal may synthesize augmented reality contents G1, G2, and G3 corresponding to the identified anchor positions A1, A2, and A3.
영상이 재생되는 동안 단말은 실시간 영상 분석을 통해 앵커를 트랙킹하여 지시된 시간 동안 앵커의 위치에 증강 현실 콘텐츠를 합성하여 표시할 수 있다. While the video is being played, the terminal can track the anchor through real-time video analysis, and display the augmented reality content by synthesizing the anchor at the location of the anchor for a designated time.
도 7은 일 실시 예에 따른 서버의 구조를 나타낸 블록도이다. 도 7에 도시된 서버(50)는, 상술하여 설명한 통신 서버(10) 또는 저장 서버(40)일 수 있다. 또는, 도 7에 도시된 서버(50)는 통신 서버(10)와 저장 서버(40)의 기능을 통합하여 수행하는 하나의 중개 서버일 수 있다. 7 is a block diagram illustrating the structure of a server according to an embodiment. The
도 7을 참조하면, 서버(50)는 통신부(51), 제어부(52) 및 저장부(53)를 포함하여 구성될 수 있다. Referring to FIG. 7 , the
통신부(51)는 네트워크를 통해 외부의 다른 장치, 예를 들어 도 1을 참조하여 설명한 단말들(20, 30) 또는 다른 서버와 통신을 수행할 수 있다. 예를 들어, 통신부(51)는 유선 통신 방식 또는 Wibro, HSDPA, GSM, CDMA, Wi-Fi, 3G 4G LTE, 5G 등과 같은 무선 통신 방식을 이용하여 외부와 통신할 수 있다. The
통신부(51)는 제어부(52)를 통하여 전송 지시된 데이터를 전송 가능한 형태의 아날로그 신호로 변환하여 외부로 전송하고, 외부로부터 수신된 데이터를 디지털 형태로 처리하여 제어부(52)로 전달할 수 있다. The
제어부(52)는 서버(50)의 전반적인 동작을 제어할 수 있다. 일 실시 예에서, 제어부(52)는 통신부(51)를 통하여 수신되는 영상 및 증강 현실 콘텐츠를 처리하여 외부 장치로 전송하거나, 저장부(53)에 저장할 수 있다. The
일 실시 예에서, 제어부(52)는 통신부(51)를 통해 수신되는 영상 및 증강 현실 콘텐츠를 처리하여 원격 협업 데이터를 생성할 수 있다. 일 예로, 제어부(52)는 수신된 영상에 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하고, 생성된 영상을 원격 협업 데이터로 저장부(53)에 저장할 수 있다. 다른 실시 예에서, 제어부(52)는 저장부(53)에 영상 및 증강 현실 콘텐츠를 위한 저장소를 각각 할당하고, 영상과 증강 현실 콘텐츠를 분리하여 저장할 수 있다. In an embodiment, the
이러한 실시 예에서, 제어부(52)는 각각의 영상과 증강 현실 콘텐츠를 식별할 수 있는 식별자(ID)를 각각의 영상과 증강 현실 콘텐츠에 할당할 수 있다. 또한, 저장 제어부(52)는 증강 현실 콘텐츠가 영상에 합성되어야 할 시간을 지시하는 시간 정보 및 위치를 지시하는 위치 정보를 생성하고, 영상 및 증강 현실 콘텐츠의 식별자에 매핑하여 저장부(53)에 저장할 수 있다. In this embodiment, the
일 실시 예에서, 위치 정보는 영상 내 임의의 기준점에 대한 좌표값 또는 앵커에 관한 정보 중 적어도 하나를 포함할 수 있다. 앵커를 이용하여 위치 정보를 생성하는 경우, 제어부(52)는 영상 분석을 통해 증강 현실 콘텐츠가 합성될 위치의 임의의 객체를 식별하고, 식별된 객체를 앵커로 설정할 수 있다. In an embodiment, the location information may include at least one of a coordinate value for an arbitrary reference point in an image or information about an anchor. When generating location information using an anchor, the
저장부(53)는 제어부(52)의 제어에 따라 데이터를 저장할 수 있다. 저장부(53)는 서버(50)를 구동하기 위해 필요한 운영 체제, 프로그램, 소프트웨어 등을 저장할 수 있다. 또한, 저장부(53)는 제어부(52)에서 생성되는 원격 협업 데이터를 저장할 수 있다. 이를 위해, 저장부(53)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The
도 8은 일 실시 예에 따른 단말의 구조를 나타낸 블록도이다. 도 8에 도시된 단말(60)은, 상술하여 설명한 단말들(20, 30)일 수 있다. 8 is a block diagram illustrating the structure of a terminal according to an embodiment. The terminal 60 illustrated in FIG. 8 may be the
도 8을 참조하면, 단말(60)은 카메라부(61), 입력부(62), 표시부(63), 통신부(64), 제어부(65) 및 저장부(66)를 포함하여 구성될 수 있다. Referring to FIG. 8 , the terminal 60 may include a
카메라부(61)는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 본 발명의 다양한 실시 예에서, 카메라부(61)는 사용자의 현실 공간(피사체)의 형태와 깊이감을 식별할 수 있는 깊이 카메라(depth camera)를 포함하여 구성될 수 있다. 또한, 카메라부(61)는 사용자의 핸드 제스처 등을 촬영하기 위한 적외선 카메라 등을 포함하여 구성될 수 있다. 처리된 화상 프레임은 표시부(63)에 표시되거나 저장부(66)에 저장될 수 있다. The
일 실시 예에서, 카메라부(61)는 사용자의 요청에 따라 현실 세계의 영상을 촬영한다. 촬영된 영상 내에는 의료 장비, 가전 기기, 운동 기기와 같은 적어도 하나의 객체가 포함될 수 있다. In an embodiment, the
입력부(62)는 사용자의 다양한 입력을 수신한다. 입력부(62)는 마우스, 키보드, 터치 패드, 키 패드, 조그 다이얼, 돔 스위치, 버튼 등의 기계식 입력 수단 또는 표시부(63) 상에 표시되는 가상 입력 수단을 포함할 수 있다. 가상 입력 수단은 예를 들어, 그래픽, 텍스트, 아이콘, 비디오 또는 이들의 조합으로 이루어질 수 있다. The
일 실시 예에서, 입력부(62)는 표시부(63)를 통해 재생 중인 영상에 대한 증강 현실 콘텐츠를 생성하기 위해 사용자 입력을 수신할 수 있다. 사용자 입력은 표시부(63)에서 영상이 재생되는 동안 영상에 대하여 실시간으로 입력될 수 있고, 영상 내의 임의의 위치에 대하여 입력될 수 있다. In an embodiment, the
표시부(63)는 단말(60)에서 처리되는 다양한 정보들을 시각적으로 표시할 수 있다. 표시부(63)는 액정 디스플레이(liquid crystal display, LCD), 박막 트랜지스터 액정 디스플레이(thin film transistor-liquid crystal display, TFT LCD), 유기 발광 다이오드(organic light-emitting diode, OLED) 디스플레이, 플렉시블 디스플레이(flexible display), 3차원 디스플레이(3D display) 중에서 적어도 하나를 포함할 수 있다. The
통신부(64)는 네트워크를 통해 외부의 다른 장치, 예를 들어 도 1을 참조하여 설명한 통신 서버(10)와 통신을 수행할 수 있다. 예를 들어, 통신부(64)는 유선 통신 방식 또는 Wibro, HSDPA, GSM, CDMA, Wi-Fi, 3G 4G LTE, 5G 등과 같은 무선 통신 방식을 이용하여 외부와 통신할 수 있다. The
통신부(64)는 제어부(65)를 통하여 전송 지시된 데이터를 전송 가능한 형태의 아날로그 신호로 변환하여 외부로 전송하고, 외부로부터 수신된 데이터를 디지털 형태로 처리하여 제어부(65)로 전달할 수 있다. The
제어부(65)는 본 발명에 따른 증강 현실 서비스를 제공받고, 외부 단말과 원격 협업을 수행하기 위하여, 단말(60)의 각 구성 요소들을 제어하도록 구성된다.The
일 실시 예에서, 제어부(65)는 단말(60)에서 생성되거나 통신부(64)를 통해 외부로부터 수신되는 현실 세계의 영상과 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 생성할 수 있다. 제어부(65)는 증강 현실 콘텐츠에 대한 시간 정보 및 위치 정보를 이용하여 영상의 지시된 시간에 지시된 위치에 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 생성할 수 있다. 일 실시 예에서, 위치 정보는 영상 내 임의의 기준점에 대한 좌표값 또는 앵커에 대한 정보일 수 있다. 위치 정보가 앵커에 대한 정보로 구성되는 경우, 제어부(65)는 영상 내에서 앵커를 식별하고, 식별된 앵커의 위치에 증강 현실 콘텐츠를 합성할 수 있다. In an embodiment, the
저장부(66)는 제어부(65)의 제어에 따라 데이터를 저장할 수 있다. 저장부(66)는 단말(60)을 구동하기 위해 필요한 운영 체제, 프로그램, 소프트웨어 등을 저장할 수 있다. 저장부(66)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(random access memory; RAM), SRAM(static random access memory), 롬(read-only memory; ROM), EEPROM(electrically erasable programmable read-only memory), PROM(programmable read-only memory), 자기 메모리, 자기 디스크 및 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The
본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 그리고 본 명세서와 도면에 개시된 실시 예들은 본 발명의 내용을 쉽게 설명하고, 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. Those of ordinary skill in the art to which the present invention pertains will be able to make various modifications and variations without departing from the essential characteristics of the present invention. In addition, the embodiments disclosed in the present specification and drawings are merely provided for specific examples to easily explain the contents of the present invention and help understanding, and are not intended to limit the scope of the present invention. Therefore, the scope of the present invention should be construed as including all changes or modifications derived based on the technical spirit of the present invention in addition to the embodiments disclosed herein are included in the scope of the present invention.
1: 판매 시스템
10: 통신 서버
20, 30: 단말
40: 저장 서버1: Sales system
10: communication server
20, 30: terminal
40: storage server
Claims (19)
원격지에 위치한 단말들 사이의 원격 협업을 중개하는 통신 서버;
현실 세계의 영상을 촬영하여 상기 통신 서버로 실시간 전송하는 제1 단말;
상기 통신 서버를 통하여 수신되는 상기 현실 세계의 영상에 대한 증강 현실 콘텐츠를 생성하여 상기 통신 서버를 통해 상기 제1 단말로 실시간 전송하는 제2 단말;
상기 통신 서버를 통해 수신되는 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 기초로, 상기 원격 협업의 내용을 포함하는 원격 협업 데이터를 저장하는 저장 서버를 포함하되,
상기 제1 단말은,
상기 증강 현실 콘텐츠를 상기 현실 세계의 영상에 합성하여 증강 현실 영상으로 표시하는, 시스템. As an augmented reality service providing system,
a communication server that mediates remote collaboration between terminals located in remote locations;
a first terminal for capturing an image of the real world and transmitting it to the communication server in real time;
a second terminal that generates augmented reality content for the image of the real world received through the communication server and transmits it in real time to the first terminal through the communication server;
On the basis of the image of the real world and the augmented reality content received through the communication server, comprising a storage server for storing remote collaboration data including the content of the remote collaboration,
The first terminal,
A system for synthesizing the augmented reality content with the image of the real world and displaying it as an augmented reality image.
상기 현실 세계의 영상에 상기 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하고, 상기 생성된 영상을 상기 원격 협업 데이터로 저장하는, 시스템.According to claim 1, wherein the storage server,
A system for generating a single image by synthesizing the augmented reality content with the image of the real world, and storing the generated image as the remote collaboration data.
상기 현실 세계의 영상과 상기 증강 현실 콘텐츠를 별개의 저장소에 분리하여 저장하는, 시스템.According to claim 1, wherein the storage server,
A system that separates and stores the image of the real world and the augmented reality content in separate storages.
그래픽 객체와 파일 객체를 포함하고,
상기 저장 서버는,
상기 그래픽 객체와 상기 파일 객체를 별개의 저장소에 분리하여 저장하는, 시스템.According to claim 2, wherein the augmented reality content,
contains graphic objects and file objects;
The storage server,
Separately storing the graphic object and the file object in separate storage, the system.
상기 증강 현실 콘텐츠가 합성될 상기 현실 세계의 영상에 대한 시간 정보 및 위치 정보를 포함하는 매핑 정보를 생성하여, 상기 원격 협업 데이터로 더 저장하는, 시스템.According to claim 3, The storage server,
The system further stores as the remote collaboration data by generating mapping information including time information and location information about the image of the real world in which the augmented reality content is to be synthesized.
상기 현실 세계의 영상에 대한 재생 시간 구간 값 또는 프레임 값으로 설정되는, 시스템.According to claim 5, wherein the time information,
The system is set as a playback time interval value or a frame value for the real-world image.
상기 현실 세계의 영상 내의 임의의 기준점에 대한 좌표값 또는 상기 현실 세계의 영상 내에서 식별되는 앵커에 대한 정보로 설정되는, 시스템.According to claim 5, wherein the location information,
The system is set as a coordinate value for an arbitrary reference point in the image of the real world or information about an anchor identified in the image of the real world.
상기 현실 세계의 영상 내에서 영상 분석을 통해 식별되는 임의의 객체인, 시스템.The method of claim 7, wherein the anchor,
any object identified through image analysis within the real-world image.
상기 제1 단말 및 상기 제2 단말을 포함하는 임의의 단말로 상기 원격 협업 데이터를 전송하는, 시스템. According to claim 1, wherein the storage server,
A system for transmitting the remote collaboration data to any terminal including the first terminal and the second terminal.
상기 원격 협업 데이터에 포함된 현실 세계의 영상에 매핑 정보를 이용하여 상기 원격 협업 데이터에 포함된 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 표시함으로써, 상기 원격 협업의 내용을 공유하는, 시스템. 10. The method of claim 9, wherein the arbitrary terminal,
A system for sharing the contents of the remote collaboration by displaying the augmented reality image by synthesizing the augmented reality content included in the remote collaboration data using mapping information to the real world image included in the remote collaboration data.
적어도 하나의 의료 장비에 관한 영상을 포함하고,
상기 증강 현실 콘텐츠는,
상기 적어도 하나의 의료 장비의 사용법을 안내하기 위한 정보를 포함하는, 시스템. According to claim 1, wherein the image of the real world,
At least one medical device comprising an image,
The augmented reality content is
and information for guiding the use of the at least one medical device.
제1 단말이 현실 세계의 영상을 촬영하여 통신 서버로 전송하는 단계;
상기 통신 서버가 상기 제1 단말과 원격지에 위치한 제2 단말로 상기 현실 세계의 영상을 전송하는 단계;
상기 제2 단말이 상기 현실 세계의 영상에 대한 증강 현실 콘텐츠를 생성하여 상기 통신 서버로 전송하는 단계;
상기 통신 서버가 상기 제1 단말로 상기 증강 현실 콘텐츠를 전송하는 단계;
상기 제1 단말이 상기 증강 현실 콘텐츠를 상기 현실 세계의 영상에 합성하여 증강 현실 영상으로 표시하는 단계;
상기 통신 서버가 저장 서버로 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 저장 서버로 전송하는 단계; 및
상기 저장 서버가 상기 현실 세계의 영상 및 상기 증강 현실 콘텐츠를 기초로 원격 협업 데이터를 저장하는 단계를 포함하는, 방법. As a method of providing an augmented reality service,
The first terminal capturing the image of the real world and transmitting it to a communication server;
transmitting, by the communication server, the image of the real world to a second terminal located at a remote location from the first terminal;
generating, by the second terminal, augmented reality content for the image of the real world and transmitting it to the communication server;
transmitting, by the communication server, the augmented reality content to the first terminal;
displaying, by the first terminal, as an augmented reality image by synthesizing the augmented reality content with the image of the real world;
transmitting, by the communication server, the image of the real world and the augmented reality content to the storage server to the storage server; and
and storing, by the storage server, remote collaboration data based on the image of the real world and the augmented reality content.
상기 현실 세계의 영상에 상기 증강 현실 콘텐츠를 합성하여 하나의 영상을 생성하는 단계; 및
상기 생성된 영상을 상기 원격 협업 데이터로 저장하는 단계를 포함하는, 방법. The method of claim 12, wherein the storing of the remote collaboration data comprises:
generating one image by synthesizing the augmented reality content with the image of the real world; and
and storing the generated image as the remote collaboration data.
상기 증강 현실 콘텐츠의 타입에 따라 그래픽 객체 또는 파일 객체를 생성하는 단계; 및
상기 현실 세계의 영상, 상기 그래픽 객체 및 상기 파일 객체를 별개의 저장소에 분리하여 저장하는 단계를 포함하는, 방법. The method of claim 12, wherein the storing of the remote collaboration data comprises:
generating a graphic object or a file object according to the type of the augmented reality content; and
and separately storing the image of the real world, the graphic object, and the file object in separate storages.
상기 증강 현실 콘텐츠가 합성될 상기 현실 세계의 영상에 대한 시간 정보 및 위치 정보를 포함하는 매핑 정보를 생성하는 단계; 및
상기 매핑 정보를 상기 현실 세계의 영상에 대응하여 별개의 저장소에 저장하는, 방법. The method of claim 14, wherein the storing of the remote collaboration data comprises:
generating mapping information including time information and location information on the image of the real world in which the augmented reality content is to be synthesized; and
The method of storing the mapping information in a separate storage corresponding to the image of the real world.
상기 현실 세계의 영상에 대한 재생 시간 구간 값 또는 프레임 값으로 설정되는, 방법.The method of claim 15, wherein the time information,
The method is set as a playback time interval value or a frame value for the image in the real world.
상기 현실 세계의 영상 내에서 상기 증강 현실 콘텐츠가 합성될 위치에 대하여, 상기 현실 세계의 영상 내에서 앵커를 식별하는 단계; 및
상기 앵커에 관한 정보를 상기 위치 정보로 설정하는 단계를 포함하는, 방법. The method of claim 15, wherein the generating of the mapping information comprises:
identifying an anchor in the image of the real world with respect to a position where the augmented reality content is to be synthesized in the image of the real world; and
and setting information about the anchor as the location information.
상기 저장 서버가 상기 제1 단말 및 상기 제2 단말을 포함하는 임의의 단말로 상기 원격 협업 데이터를 전송하는 단계를 더 포함하는, 방법. 13. The method of claim 12,
The method further comprising the step of the storage server transmitting the remote collaboration data to any terminal including the first terminal and the second terminal.
상기 임의의 단말이 상기 원격 협업 데이터에 포함된 현실 세계의 영상에 매핑 정보를 이용하여 상기 원격 협업 데이터에 포함된 증강 현실 콘텐츠를 합성하여 증강 현실 영상을 표시하는 단계를 더 포함하는, 방법. 19. The method of claim 18,
The method further comprising the step of displaying the augmented reality image by synthesizing the augmented reality content included in the remote collaboration data by using the mapping information to the real world image included in the remote collaboration data, by the arbitrary terminal.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210009904A KR20220107362A (en) | 2021-01-25 | 2021-01-25 | System and method for providing augmented reality service |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210009904A KR20220107362A (en) | 2021-01-25 | 2021-01-25 | System and method for providing augmented reality service |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20220107362A true KR20220107362A (en) | 2022-08-02 |
Family
ID=82845597
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210009904A KR20220107362A (en) | 2021-01-25 | 2021-01-25 | System and method for providing augmented reality service |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20220107362A (en) |
-
2021
- 2021-01-25 KR KR1020210009904A patent/KR20220107362A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109074441B (en) | Gaze-based authentication | |
EP3466070B1 (en) | Method and device for obtaining image, and recording medium thereof | |
CN109416580A (en) | Selection to the object in three-dimensional space | |
US10937249B2 (en) | Systems and methods for anchoring virtual objects to physical locations | |
US9355452B2 (en) | Camera and sensor augmented reality techniques | |
CN109154861A (en) | Mood/cognitive state is presented | |
EP3062214A1 (en) | Apparatus and method for providing screen mirroring service | |
KR101945082B1 (en) | Method for transmitting media contents, apparatus for transmitting media contents, method for receiving media contents, apparatus for receiving media contents | |
KR20190032084A (en) | Apparatus and method for providing mixed reality content | |
US20130174213A1 (en) | Implicit sharing and privacy control through physical behaviors using sensor-rich devices | |
CN109313812A (en) | Sharing experience with context enhancing | |
CN109219955A (en) | Video is pressed into | |
CN103248810A (en) | Image processing device, image processing method, and program | |
CN116457829A (en) | Personalized avatar real-time motion capture | |
KR20180013277A (en) | Electronic apparatus for displaying graphic object and computer readable recording medium | |
CN109887077B (en) | Method and apparatus for generating three-dimensional model | |
EP3358531A1 (en) | Electronic device for providing vr image based on polyhedron and image providing method thereof | |
KR20230062857A (en) | augmented reality messenger system | |
JP2017120650A (en) | Information processing system, control method thereof, program, information processor, control method thereof, and program | |
EP4315001A1 (en) | Virtual reality interface with haptic feedback response | |
Golomingi et al. | Augmented reality in forensics and forensic medicine-Current status and future prospects | |
KR20180082273A (en) | Computer readable recording medium and electronic apparatus for performing video call | |
KR20180046032A (en) | Electronic device and method for operating the same | |
CN112818733B (en) | Information processing method, device, storage medium and terminal | |
CN111523408B (en) | Motion capturing method and device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E601 | Decision to refuse application |