WO2020101197A1 - Method and system for sharing augmented reality content - Google Patents

Method and system for sharing augmented reality content Download PDF

Info

Publication number
WO2020101197A1
WO2020101197A1 PCT/KR2019/013848 KR2019013848W WO2020101197A1 WO 2020101197 A1 WO2020101197 A1 WO 2020101197A1 KR 2019013848 W KR2019013848 W KR 2019013848W WO 2020101197 A1 WO2020101197 A1 WO 2020101197A1
Authority
WO
WIPO (PCT)
Prior art keywords
user terminal
coordinates
shared
coordinate system
augmented reality
Prior art date
Application number
PCT/KR2019/013848
Other languages
French (fr)
Korean (ko)
Inventor
서석은
정연운
최필균
Original Assignee
유엔젤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유엔젤주식회사 filed Critical 유엔젤주식회사
Publication of WO2020101197A1 publication Critical patent/WO2020101197A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Definitions

  • the present invention relates to an augmented reality content sharing method and system.
  • Augmented Reality is a field of virtual reality that is a computer graphic technique that synthesizes virtual objects or information in a real environment to look like objects existing in the original environment. It is also referred to as Mixed Reality (MR) because it shows the virtual world with additional information in real time in one image.
  • MR Mixed Reality
  • Korean Registered Patent No. 1,788,248 when a large number of users gather in a real space that reproduces augmented reality content and share the augmented reality content using their own user terminal, the world coordinate system in that space is shared. When each of the augmented reality content was applied in a non-existing state, there was a problem that the augmented reality content could be seen at different locations.
  • the present invention has been devised in consideration of the above situation, and the technical problem of the present invention is to augmented reality that allows a shared object, which is augmented reality content, to be placed in the same location in a real space, and can be synchronized to a direction in which the object to be shared is directed. It is to provide a content sharing method and system.
  • the method for sharing augmented reality content according to the present invention for solving the above technical problem is a step in which a first user terminal and a second user terminal recognize a reference object located in a real space reproducing augmented reality content, and the first user terminal Obtaining a first reference coordinate corresponding to a location of the reference object from a reference point of the local coordinate system, obtaining a second reference coordinate corresponding to a location of the reference object from a reference point of the local coordinate system of the second user terminal, the Obtaining coordinates for sharing the coordinates of the object to be shared in the local coordinate system of the first user terminal based on the first reference coordinate, and the second user terminal is configured to share coordinates transmitted from the first user terminal. And disposing the shared target object at coordinates obtained by applying the second reference coordinates.
  • the method includes obtaining a first reference rotation value corresponding to the direction of the reference object in the local coordinate system of the first user terminal, and a second corresponding to the direction of the reference object in the local coordinate system of the second user terminal.
  • the method may further include obtaining a reference rotation value.
  • the step of obtaining the coordinates for sharing may include obtaining coordinates to which the first reference rotation value is applied to coordinates of an object to be shared in the local coordinate system of the first user terminal, and to coordinates to which the first reference rotation value is applied. And obtaining the shared coordinates by subtracting the first reference coordinates.
  • the step of arranging the object to be shared may include obtaining coordinates to which the second reference rotation value is applied to the shared coordinates in the local coordinate system of the second user terminal, and to coordinates to which the second reference rotation value is applied. And disposing the shared object at coordinates obtained by adding second reference coordinates.
  • the first user terminal and the second user terminal recognizing the reference object located in the real space reproducing the augmented reality content may include recognizing an object of a predetermined shape, and indicating an object of the recognized predetermined shape.
  • the method may include displaying on the screen, and confirming that the recognized object of the predetermined type is a reference object from the user.
  • the augmented reality content sharing system for solving the above technical problem, a first user terminal recognizing a reference object located in a real space reproducing augmented reality content, and a second user terminal recognizing the reference object It includes.
  • the first user terminal obtains first reference coordinates corresponding to the location of the reference object at a reference point of the local coordinate system of the first user terminal, and obtains coordinates of an object to be shared in the local coordinate system of the first user terminal.
  • the shared coordinates converted based on the 1 reference coordinate are obtained, and the second user terminal obtains a second reference coordinate corresponding to the location of the reference object at a reference point of the local coordinate system of the second user terminal, and the first The object to be shared is disposed at coordinates obtained by applying the second reference coordinates to the sharing coordinates transmitted from the user terminal.
  • a computer-readable recording medium containing a program for performing augmented reality content sharing method.
  • the program corresponds to a command set recognized by a first user terminal and a second user terminal in a reference object located in a real space reproducing augmented reality content, and corresponds to the location of the reference object at a reference point of the local coordinate system of the first user terminal
  • a command set for obtaining coordinates for sharing obtained by converting the coordinates of the first reference coordinates based on the first reference coordinates, and the second user terminal is obtained by applying the second reference coordinates to the shared coordinates transmitted from the first user terminal
  • a set of instructions for arranging the object to be shared may be included in the coordinates.
  • it is to provide a method and system for sharing augmented reality content that allows an object to be shared, which is augmented reality content, to be placed in the same location in a real space, and can be synchronized in a direction toward the object to be shared.
  • FIG. 1 is a block diagram showing the configuration of an augmented reality content sharing system according to an embodiment of the present invention.
  • FIG. 2 illustrates that a target object, which is augmented reality content, is displayed at different locations for each user terminal.
  • FIG. 3 is a flowchart provided to describe the operation of the augmented reality content sharing system according to an embodiment of the present invention.
  • FIG. 4 illustrates that an object to be shared, which is augmented reality content, is displayed at the same location for each user terminal in the augmented reality content sharing system according to an embodiment of the present invention.
  • FIG. 5 is a view provided to explain matters to be considered for the direction of a reference object according to another embodiment of the present invention.
  • FIG. 6 is a flowchart provided to describe the operation of the augmented reality content sharing system according to another embodiment of the present invention.
  • FIG. 1 is a block diagram showing the configuration of an augmented reality content sharing system according to an embodiment of the present invention.
  • the augmented reality content sharing system may include a plurality of user terminals 100a, 100b, ..., 100n capable of sharing augmented reality content. And it may include a server 200 capable of providing augmented reality content to a plurality of user terminals (100a, 100b, ..., 100n).
  • the plurality of user terminals 100a, 100b, ..., 100n and the server 200 may exchange various information and data through the communication network 10.
  • the communication network 10 does not cover a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), the Internet, etc. It doesn't matter which communication method you use.
  • a plurality of user terminals such as a smart phone, tablet PC, HMD (Head mounted Display) terminal, such as by synthesizing things or information in the real space to look like objects existing in the original environment It may be implemented as an information communication terminal supporting computer graphics technology.
  • the server 200 provides contents based on virtual reality and augmented reality, and at the same time, accepts each user's motion based on the scenario and changes the state of the content accordingly to provide a service using augmented reality and virtual reality.
  • an object image to be shared corresponding to augmented reality content may be provided according to a request from the user terminals 100a, 100b, ..., 100n.
  • FIG. 2 illustrates that a target object, which is augmented reality content, is displayed at different locations for each user terminal.
  • Augmented reality content When a plurality of user terminals 100a, 100b, ..., and 100n arrange augmented reality content based on each local coordinate system without sharing the world coordinate system in the real space, in the real space as illustrated in FIG. Augmented reality content will be shown in different locations.
  • the local coordinate system 1 reference point of the user terminal 100a and the local coordinate system 2 reference point of the user terminal 100b have the same coordinates (0,0,0), but different positions in the real space. Therefore, if the user object 100a and the user terminal 100b are respectively applied in their local coordinate system by applying the object coordinates to be shared as (10,0,0), the user of the user terminal 100a (hereinafter referred to as 'user 1') To the user of the user terminal 100b (hereinafter referred to as 'user 2'), the objects to be shared (S1, S2) appear to be arranged at different locations in the actual space.
  • FIG. 3 is a flowchart provided to describe the operation of the augmented reality content sharing system according to an embodiment of the present invention
  • FIG. 4 is augmented reality content sharing target in the augmented reality content sharing system according to an embodiment of the present invention It shows that objects are displayed at the same location for each user terminal.
  • the user terminal 100a and the user terminal 100b may recognize a reference object R located in a real space that reproduces augmented reality content (S305).
  • 4 shows a case where the trash can is a reference object (R).
  • the reference object R may be determined by selecting one of objects located in an actual space between users of the user terminal 100a and the user terminal 100b.
  • a method in which a reference object R is displayed on the screens of the user terminal 100a and the user terminal 100b is set as a reference object.
  • the shape of the reference object may be determined in advance according to an embodiment.
  • the user terminal 100a and the user terminal 100b recognize a predetermined type of object and display an indication on the screen, so that the user can check whether the object is the reference object.
  • the user terminal 100a may obtain a first reference coordinate corresponding to the position of the reference object R at a reference point of its local coordinate system (hereinafter referred to as local coordinate system 1) (S310). 3 shows that (10, -10,10) is obtained as the first reference coordinate.
  • the user terminal 100b may obtain a second reference coordinate corresponding to the position of the reference object R at a reference point of its local coordinate system (hereinafter referred to as local coordinate system 2) (S315).
  • 3 shows that (10, -10, -10) is obtained as the second reference coordinate.
  • the user terminal 100a may obtain the coordinates for sharing by converting the coordinates of the object S to be shared in the local coordinate system 1 by applying Equation 1 based on the first reference coordinate (S320).
  • Shared coordinates object coordinates to be shared in the local coordinate system 1-first reference coordinate
  • the coordinate for sharing is (10,0,0) Can be obtained.
  • the user terminal 100a may transmit the sharing coordinates obtained for the object to be shared S to the user terminal 100b (S325).
  • the transmission of the coordinates for sharing may be directly transmitted through short-range communication between the user terminal 100a and the user terminal 100b, or may be transmitted through the server 200.
  • graphic image information for rendering the object S to be shared on the screen of the user terminal may also be transmitted together with the coordinates for sharing.
  • the coordinates for sharing may be directly shared between user terminals, and graphic image information may be shared through the server 200.
  • the user terminal 100b may apply the second reference coordinate to the sharing coordinates transmitted from the user terminal 100a to place the object to be shared in the coordinates obtained by Equation 2 (S330).
  • Object coordinates to be shared in local coordinate system 2 coordinates for sharing + second reference coordinates
  • the coordinates for sharing are (10,0,0) and the second reference coordinates are (10, -10, -10)
  • the coordinates of the object S to be shared in the local coordinate system 2 are (20, -10,-) 10).
  • the location in the real space of the shared object S viewed by the user 1 and the location in the real space of the shared object S viewed by the user 2 are the same.
  • FIG. 5 is a view provided to explain consideration of a direction of a reference object according to another embodiment of the present invention
  • FIG. 6 is provided to describe the operation of the augmented reality content sharing system according to another embodiment of the present invention It is a flow chart.
  • the reference object not only exists in different locations, but also lies in different directions based on each user.
  • the reference object R is on the right side in the direction that user 1 is looking at, and the vertex RP is pointing at the 12 o'clock direction.
  • the reference object R is located on the left side, and the vertex RP faces the middle direction between 12 o'clock and 3 o'clock.
  • the user terminal 100a and the user terminal 100b may recognize a reference object R located in a real space that reproduces augmented reality content (S605).
  • the first user terminal is a user terminal 100a
  • the second user terminal is a user terminal 100b.
  • the user terminal 100a may obtain first reference coordinates corresponding to the position of the reference object R at a reference point of its local coordinate system (hereinafter referred to as 'local coordinate system 1') (S610).
  • the user terminal 100b may obtain a second reference coordinate corresponding to the position of the reference object R at a reference point of its local coordinate system (hereinafter referred to as 'local coordinate system 2') (S615).
  • 'local coordinate system 2' a reference point of its local coordinate system
  • the user terminal 100a may obtain a first reference rotation value corresponding to the direction of the reference object R in the local coordinate system 1 (S620).
  • Step S620 may be performed simultaneously with step S610.
  • the direction of the vertex RP in the local coordinate system 1 may be obtained as a first reference rotation value.
  • the user terminal 100b may obtain a second reference rotation value corresponding to the direction of the reference object R in the local coordinate system 2 (S625).
  • Step S625 may be performed simultaneously with step S615.
  • the direction of the vertex RP in the local coordinate system 2 can be obtained as the second reference rotation value.
  • the user terminal 100a obtains the coordinates to which the first reference rotation value is applied to the coordinates of the object to be shared in the local coordinate system 1 (S630), and subtracts the first reference coordinate to the coordinates obtained in step S630 for sharing. Coordinates can be obtained (S635). Steps S630 and S635 may be performed by Equation (3).
  • Shared coordinates (first reference rotation value * coordinates of the object to be shared in the local coordinate system 1)-first reference coordinate
  • Converting the object coordinates to be shared to the coordinates for sharing in the local coordinate system 1 by Equation 3 is as follows.
  • the shared object is rotated as much as the reference object R is rotated so that the vertex RP is directed in the z-axis direction.
  • the shared object is moved as much as the reference object R is moved to the reference point.
  • the coordinates for sharing can be obtained.
  • the user terminal 100a may transmit or transmit the shared coordinates obtained for the object to be shared to the user terminal 100b (S640).
  • the user terminal 100b obtains the coordinates to which the second reference rotation value is applied in the local coordinate system 2 to the shared coordinates transmitted from the user terminal 100a (S645), and the second reference coordinates to the coordinates to which the second reference rotation value is applied.
  • the object to be shared can be arranged at the coordinates obtained by adding (S650). Steps S645 and S650 may be performed by Equation (4).
  • Object coordinate to be shared in local coordinate system 2 (-2nd reference rotation value * sharing coordinate) + 2nd reference coordinate
  • the user 1 and the user 2 may not only appear that the object to be shared is in the same position in the real space, but also reflect the direction in which the object to be shared is facing.
  • the embodiments described above may be implemented by hardware components, software components, and / or combinations of hardware components and software components.
  • the devices, methods, and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, and field programmable gates (FPGAs). It can be implemented using one or more general purpose computers or special purpose computers, such as arrays, programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions.
  • the processing device may run an operating system (OS) and one or more software applications running on the operating system.
  • the processing device may access, store, manipulate, process, and generate data in response to the execution of the software.
  • OS operating system
  • the processing device may access, store, manipulate, process, and generate data in response to the execution of the software.
  • a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include.
  • the processing device may include a plurality of processors or a processor and a controller.
  • other processing configurations such as parallel processors, are possible.
  • the software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device.
  • Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave.
  • the software may be distributed over networked computer systems, and stored or executed in a distributed manner.
  • Software and data may be stored in one or more computer-readable recording media.
  • the method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium.
  • the computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination.
  • the program instructions recorded in the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software.
  • Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks.
  • -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like.
  • program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a method and a system for sharing augmented reality content. The method according to the present invention comprises: a step in which a first user terminal and a second user terminal recognize a reference object positioned in an actual space in which augmented reality content is reproduced; a step of obtaining, at a reference point of a local coordinate system of the first user terminal, a first reference coordinate corresponding to the position of the reference object; a step of obtaining, at a reference point of a local coordinate system of the second user terminal, a second reference coordinate corresponding to the position of the reference object; a step of obtaining a coordinate for sharing which is made by converting the coordinate of an object to be shared with respect to the first reference coordinate, in the local coordinate system of the first user terminal; and a step in which the second user terminal places the object to be shared at a coordinate which is obtained by applying the second reference coordinate to the coordinate for sharing transmitted from the first user terminal.

Description

증강현실 콘텐츠 공유 방법 및 시스템Augmented reality content sharing method and system
본 발명은 증강현실 콘텐츠 공유 방법 및 시스템에 관한 것이다.The present invention relates to an augmented reality content sharing method and system.
증강 현실(Augmented Reality, AR)은 가상 현실(Virtual Reality)의 한 분야로 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법이다. 현실세계에 실시간으로 부가정보를 갖는 가상세계를 합쳐 하나의 영상으로 보여주므로 혼합현실(Mixed Reality, MR)이라고도 한다.Augmented Reality (AR) is a field of virtual reality that is a computer graphic technique that synthesizes virtual objects or information in a real environment to look like objects existing in the original environment. It is also referred to as Mixed Reality (MR) because it shows the virtual world with additional information in real time in one image.
그런데 한국등록특허 제1,788,248호에 개시된 것과 같이 다수의 사용자가 증강현실 콘텐츠를 재현하는 실제 공간에 모여서 각각의 자신의 사용자 단말을 이용하여 증강현실 콘텐츠를 공유할 때, 해당 공간에서의 월드좌표계가 공유되지 않은 상태로 증강현실 콘텐츠를 각각 적용하면, 서로 다른 위치에 증강현실 콘텐츠가 보이게 되는 문제점이 있었다.However, as disclosed in Korean Registered Patent No. 1,788,248, when a large number of users gather in a real space that reproduces augmented reality content and share the augmented reality content using their own user terminal, the world coordinate system in that space is shared. When each of the augmented reality content was applied in a non-existing state, there was a problem that the augmented reality content could be seen at different locations.
본 발명은 상기와 같은 상황을 고려하여 창안된 것으로서, 본 발명의 기술적 과제는 실제 공간에서 증강현실 콘텐츠인 공유대상 물체를 동일한 위치에 놓이게 하고, 공유대상 물체가 향하는 방향까지 동기화시킬 수 있는 증강현실 콘텐츠 공유 방법 및 시스템을 제공하는 것이다.The present invention has been devised in consideration of the above situation, and the technical problem of the present invention is to augmented reality that allows a shared object, which is augmented reality content, to be placed in the same location in a real space, and can be synchronized to a direction in which the object to be shared is directed. It is to provide a content sharing method and system.
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 증강현실 콘텐츠 공유 방법은 증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체를 제1 사용자 단말과 제2 사용자 단말이 인식하는 단계, 상기 제1 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제1 기준 좌표를 구하는 단계, 상기 제2 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제2 기준 좌표를 구하는 단계, 상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표를 상기 제1 기준 좌표를 기준으로 변환한 공유용 좌표를 구하는 단계, 그리고 상기 제2 사용자 단말은 상기 제1 사용자 단말로부터 전송된 공유용 좌표에 상기 제2 기준 좌표를 적용하여 구해지는 좌표에 상기 공유대상 물체를 배치하는 단계를 포함한다.The method for sharing augmented reality content according to the present invention for solving the above technical problem is a step in which a first user terminal and a second user terminal recognize a reference object located in a real space reproducing augmented reality content, and the first user terminal Obtaining a first reference coordinate corresponding to a location of the reference object from a reference point of the local coordinate system, obtaining a second reference coordinate corresponding to a location of the reference object from a reference point of the local coordinate system of the second user terminal, the Obtaining coordinates for sharing the coordinates of the object to be shared in the local coordinate system of the first user terminal based on the first reference coordinate, and the second user terminal is configured to share coordinates transmitted from the first user terminal. And disposing the shared target object at coordinates obtained by applying the second reference coordinates.
상기 방법은, 상기 제1 사용자 단말의 로컬 좌표계에서 상기 기준 객체의 방향에 대응하는 제1 기준 회전값을 구하는 단계, 그리고 상기 제2 사용자 단말의 로컬 좌표계에서 상기 기준 객체의 방향에 대응하는 제2 기준 회전값을 구하는 단계를 더 포함할 수 있다.The method includes obtaining a first reference rotation value corresponding to the direction of the reference object in the local coordinate system of the first user terminal, and a second corresponding to the direction of the reference object in the local coordinate system of the second user terminal. The method may further include obtaining a reference rotation value.
상기 공유용 좌표를 구하는 단계는, 상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표에 대해 상기 제1 기준 회전값을 적용한 좌표를 구하는 단계, 그리고 상기 제1 기준 회전값을 적용한 좌표에 상기 제1 기준 좌표를 감산하여 상기 공유용 좌표를 구하는 단계를 포함할 수 있다.The step of obtaining the coordinates for sharing may include obtaining coordinates to which the first reference rotation value is applied to coordinates of an object to be shared in the local coordinate system of the first user terminal, and to coordinates to which the first reference rotation value is applied. And obtaining the shared coordinates by subtracting the first reference coordinates.
상기 공유대상 물체를 배치하는 단계는, 상기 제2 사용자 단말의 로컬 좌표계에서 상기 공유용 좌표에 대해 상기 제2 기준 회전값을 적용한 좌표를 구하는 단계, 그리고 상기 제2 기준 회전값을 적용한 좌표에 상기 제2 기준 좌표를 가산하여 구해진 좌표에 상기 공유대상 물체를 배치하는 단계를 포함할 수 있다..The step of arranging the object to be shared may include obtaining coordinates to which the second reference rotation value is applied to the shared coordinates in the local coordinate system of the second user terminal, and to coordinates to which the second reference rotation value is applied. And disposing the shared object at coordinates obtained by adding second reference coordinates.
증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체를 제1 사용자 단말과 제2 사용자 단말이 인식하는 단계는, 미리 정해진 형태의 물체를 인식하는 단계, 상기 인식된 미리 정해진 형태의 물체를 지시하는 표시를 화면에 표출하는 단계, 그리고 사용자로부터 상기 인식된 미리 정해진 형태의 물체가 기준 객체임을 확인받는 단계를 포함할 수 있다.The first user terminal and the second user terminal recognizing the reference object located in the real space reproducing the augmented reality content may include recognizing an object of a predetermined shape, and indicating an object of the recognized predetermined shape. The method may include displaying on the screen, and confirming that the recognized object of the predetermined type is a reference object from the user.
상기한 기술적 과제를 해결하기 위한 본 발명에 따른 증강현실 콘텐츠 공유 시스템은, 증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체를 인식하는 제1 사용자 단말, 그리고 상기 기준 객체를 인식하는 제2 사용자 단말을 포함한다.The augmented reality content sharing system according to the present invention for solving the above technical problem, a first user terminal recognizing a reference object located in a real space reproducing augmented reality content, and a second user terminal recognizing the reference object It includes.
상기 제1 사용자 단말은, 상기 제1 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제1 기준 좌표를 구하고, 상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표를 상기 제1 기준 좌표를 기준으로 변환한 공유용 좌표를 구하며, 상기 제2 사용자 단말은, 상기 제2 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제2 기준 좌표를 구하고, 상기 제1 사용자 단말로부터 전송된 공유용 좌표에 상기 제2 기준 좌표를 적용하여 구해지는 좌표에 상기 공유대상 물체를 배치한다.The first user terminal obtains first reference coordinates corresponding to the location of the reference object at a reference point of the local coordinate system of the first user terminal, and obtains coordinates of an object to be shared in the local coordinate system of the first user terminal. The shared coordinates converted based on the 1 reference coordinate are obtained, and the second user terminal obtains a second reference coordinate corresponding to the location of the reference object at a reference point of the local coordinate system of the second user terminal, and the first The object to be shared is disposed at coordinates obtained by applying the second reference coordinates to the sharing coordinates transmitted from the user terminal.
본 발명의 다른 실시예에 의하면, 증강현실 콘텐츠 공유 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능한 기록 매체가 제공된다.According to another embodiment of the present invention, there is provided a computer-readable recording medium containing a program for performing augmented reality content sharing method.
상기 프로그램은, 증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체를 제1 사용자 단말과 제2 사용자 단말이 인식하는 명령어 세트, 상기 제1 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제1 기준 좌표를 구하는 명령어 세트, 상기 제2 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제2 기준 좌표를 구하는 명령어 세트, 상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표를 상기 제1 기준 좌표를 기준으로 변환한 공유용 좌표를 구하는 명령어 세트, 그리고 상기 제2 사용자 단말은 상기 제1 사용자 단말로부터 전송된 공유용 좌표에 상기 제2 기준 좌표를 적용하여 구해지는 좌표에 상기 공유대상 물체를 배치하는 명령어 세트를 포함할 수 있다.The program corresponds to a command set recognized by a first user terminal and a second user terminal in a reference object located in a real space reproducing augmented reality content, and corresponds to the location of the reference object at a reference point of the local coordinate system of the first user terminal A set of instructions for obtaining a first reference coordinate, a set of instructions for obtaining a second reference coordinate corresponding to the location of the reference object at a reference point of the local coordinate system of the second user terminal, an object to be shared in the local coordinate system of the first user terminal A command set for obtaining coordinates for sharing obtained by converting the coordinates of the first reference coordinates based on the first reference coordinates, and the second user terminal is obtained by applying the second reference coordinates to the shared coordinates transmitted from the first user terminal A set of instructions for arranging the object to be shared may be included in the coordinates.
본 발명에 의하면 실제 공간에서 증강현실 콘텐츠인 공유대상 물체를 동일한 위치에 놓이게 하고, 공유대상 물체가 향하는 방향까지 동기화시킬 수 있는 증강현실 콘텐츠 공유 방법 및 시스템을 제공하는 것이다.According to the present invention, it is to provide a method and system for sharing augmented reality content that allows an object to be shared, which is augmented reality content, to be placed in the same location in a real space, and can be synchronized in a direction toward the object to be shared.
도 1은 본 발명의 일 실시예에 따른 증강현실 콘텐츠 공유 시스템의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an augmented reality content sharing system according to an embodiment of the present invention.
도 2는 증강현실 콘텐츠인 공유대상 물체가 사용자 단말별로 다른 위치에 표시되는 것을 나타낸 것이다.2 illustrates that a target object, which is augmented reality content, is displayed at different locations for each user terminal.
도 3은 본 발명의 일 실시예에 따른 증강현실 콘텐츠 공유 시스템의 동작을 설명하기 위해 제공되는 흐름도이다.3 is a flowchart provided to describe the operation of the augmented reality content sharing system according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 증강현실 콘텐츠 공유 시스템에서 증강현실 콘텐츠인 공유대상 물체가 사용자 단말별로 동일 위치에 표시되는 것을 나타낸 것이다.FIG. 4 illustrates that an object to be shared, which is augmented reality content, is displayed at the same location for each user terminal in the augmented reality content sharing system according to an embodiment of the present invention.
도 5는 본 발명의 다른 실시예에 따른 기준 객체의 방향에 대해 고려할 사항을 설명하기 위해 제공되는 도면이다.5 is a view provided to explain matters to be considered for the direction of a reference object according to another embodiment of the present invention.
도 6은 본 발명의 다른 실시예에 따른 증강현실 콘텐츠 공유 시스템의 동작을 설명하기 위해 제공되는 흐름도이다.6 is a flowchart provided to describe the operation of the augmented reality content sharing system according to another embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명에 따른 실시 예를 상세하게 설명한다. 본 발명의 구성 및 그에 따른 작용 효과는 이하의 상세한 설명을 통해 명확하게 이해될 것이다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The configuration of the present invention and the effect of the action will be clearly understood through the following detailed description.
도 1은 본 발명의 일 실시예에 따른 증강현실 콘텐츠 공유 시스템의 구성을 나타낸 블록도이다.1 is a block diagram showing the configuration of an augmented reality content sharing system according to an embodiment of the present invention.
도 1을 참고하면, 본 발명에 따른 증강현실 콘텐츠 공유 시스템은, 증강현실 콘텐츠를 공유할 수 있는 복수의 사용자 단말(100a, 100b, …, 100n)을 포함할 수 있다. 그리고 복수의 사용자 단말(100a, 100b, …, 100n)에 증강현실 콘텐츠를 제공할 수 있는 서버(200)를 포함할 수 있다.Referring to FIG. 1, the augmented reality content sharing system according to the present invention may include a plurality of user terminals 100a, 100b, ..., 100n capable of sharing augmented reality content. And it may include a server 200 capable of providing augmented reality content to a plurality of user terminals (100a, 100b, ..., 100n).
복수의 사용자 단말(100a, 100b, …, 100n)과 서버(200)는 통신망(10)을 통해 각종 정보 및 데이터를 교환할 수 있다.The plurality of user terminals 100a, 100b, ..., 100n and the server 200 may exchange various information and data through the communication network 10.
통신망(10)은 구내 정보 통신망(local area network:LAN), 도시권 통신망(metropolitan area network:MAN), 광역 통신망(wide area network:WAN), 인터넷 등을 가리지 않고, 통신 방식도 유선, 무선을 가리지 않으며 어떠한 통신 방식이라도 상관없다.The communication network 10 does not cover a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), the Internet, etc. It doesn't matter which communication method you use.
복수의 사용자 단말(100a, 100b, …, 100n)은 스마트폰, 태블릿 PC, HMD(Head mounted Display) 단말 등과 같이, 실제 공간에 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기술을 지원하는 정보통신단말로 구현될 수 있다.A plurality of user terminals (100a, 100b, ..., 100n), such as a smart phone, tablet PC, HMD (Head mounted Display) terminal, such as by synthesizing things or information in the real space to look like objects existing in the original environment It may be implemented as an information communication terminal supporting computer graphics technology.
서버(200)는 가상현실과 증강현실을 기반으로 한 콘텐츠를 제공함과 동시에 시나리오에 기반하여 사용자 개개인의 모션을 수용하고, 그에 따라 콘텐츠의 상태를 변화시킴으로써 증강 현실과 가상 현실을 이용한 서비스를 제공할 수 있다. 특히 사용자 단말(100a, 100b, …, 100n)에서의 요청에 따라 증강현실 콘텐츠에 해당하는 공유대상 물체 이미지를 제공할 수 있다.The server 200 provides contents based on virtual reality and augmented reality, and at the same time, accepts each user's motion based on the scenario and changes the state of the content accordingly to provide a service using augmented reality and virtual reality. Can be. In particular, an object image to be shared corresponding to augmented reality content may be provided according to a request from the user terminals 100a, 100b, ..., 100n.
도 2는 증강현실 콘텐츠인 공유대상 물체가 사용자 단말별로 다른 위치에 표시되는 것을 나타낸 것이다.2 illustrates that a target object, which is augmented reality content, is displayed at different locations for each user terminal.
복수의 사용자 단말(100a, 100b, …, 100n)이 실제 공간에서의 월드좌표계를 공유하지 않은 상태로 증강현실 콘텐츠를 각각의 로컬좌표계를 기준으로 배치하면, 도 2에 예시한 것과 같이 실제 공간에서 서로 다른 위치에 증강현실 콘텐츠가 보이게 된다.When a plurality of user terminals 100a, 100b, ..., and 100n arrange augmented reality content based on each local coordinate system without sharing the world coordinate system in the real space, in the real space as illustrated in FIG. Augmented reality content will be shown in different locations.
예컨대 실제 공간에서 사용자 단말(100a)의 로컬좌표계1 기준점과 사용자 단말(100b)의 로컬좌표계2 기준점은 좌표(0,0,0)는 동일하나 실제 공간에서 위치는 다르다. 따라서 공유대상 물체 좌표를 (10,0,0)으로 적용하여 사용자 단말(100a)과 사용자 단말(100b)이 각각 자신의 로컬좌표계에서 적용하면, 사용자 단말(100a)의 사용자(이하 '사용자 1'이라 함)와 사용자 단말(100b)의 사용자(이하 '사용자 2'라 함)에게 공유대상 물체(S1, S2)는 실제 공간에서 서로 다른 위치에 배치된 것으로 보인다.For example, in the real space, the local coordinate system 1 reference point of the user terminal 100a and the local coordinate system 2 reference point of the user terminal 100b have the same coordinates (0,0,0), but different positions in the real space. Therefore, if the user object 100a and the user terminal 100b are respectively applied in their local coordinate system by applying the object coordinates to be shared as (10,0,0), the user of the user terminal 100a (hereinafter referred to as 'user 1') To the user of the user terminal 100b (hereinafter referred to as 'user 2'), the objects to be shared (S1, S2) appear to be arranged at different locations in the actual space.
이하에서는 복수의 사용자 단말(100a, 100b, …, 100n)이 공유대상 물체의 좌표를 전달할 때 월드좌표계를 사용하지 않고, 공유대상 물체의 좌표를 동기화시키는 방법에 대해 자세히 설명한다.Hereinafter, a method of synchronizing coordinates of an object to be shared without using a world coordinate system when a plurality of user terminals 100a, 100b, ..., 100n transmit coordinates of an object to be shared.
도 3은 본 발명의 일 실시예에 따른 증강현실 콘텐츠 공유 시스템의 동작을 설명하기 위해 제공되는 흐름도이고, 도 4는 본 발명의 일 실시예에 따른 증강현실 콘텐츠 공유 시스템에서 증강현실 콘텐츠인 공유대상 물체가 사용자 단말별로 동일 위치에 표시되는 것을 나타낸 것이다.3 is a flowchart provided to describe the operation of the augmented reality content sharing system according to an embodiment of the present invention, and FIG. 4 is augmented reality content sharing target in the augmented reality content sharing system according to an embodiment of the present invention It shows that objects are displayed at the same location for each user terminal.
도 1, 도 3 및 도 4를 참고하면, 먼저 사용자 단말(100a)과 사용자 단말(100b)은 증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체(R)를 인식할 수 있다(S305). 도 4에서는 쓰레기통이 기준 객체(R)인 경우를 나타내었다. 기준 객체(R)는 사용자 단말(100a)과 사용자 단말(100b)의 사용자끼리 실제 공간에 위치한 물체 중 하나를 선택하여 정할 수 있다. 그리고 사용자 단말(100a)과 사용자 단말(100b)의 화면에 기준 객체(R)가 표시된 상태에서 기준 객체로 설정받는 방식이 가능하다. 또는 실시예에 따라 미리 기준 객체의 형태를 정해놓을 수도 있다. 이 경우 사용자 단말(100a)과 사용자 단말(100b)이 미리 정해진 형태의 물체를 인식하여 지시하는 표시를 화면에 표출하여, 사용자로부터 해당 물체가 기준 객체가 맞는지 확인받는 방식도 가능하다.1, 3 and 4, first, the user terminal 100a and the user terminal 100b may recognize a reference object R located in a real space that reproduces augmented reality content (S305). 4 shows a case where the trash can is a reference object (R). The reference object R may be determined by selecting one of objects located in an actual space between users of the user terminal 100a and the user terminal 100b. In addition, a method in which a reference object R is displayed on the screens of the user terminal 100a and the user terminal 100b is set as a reference object. Alternatively, the shape of the reference object may be determined in advance according to an embodiment. In this case, the user terminal 100a and the user terminal 100b recognize a predetermined type of object and display an indication on the screen, so that the user can check whether the object is the reference object.
다음으로 사용자 단말(100a)은 자신의 로컬 좌표계(이하 로컬좌표계1 이라 함)의 기준점에서 기준 객체(R)의 위치에 대응하는 제1 기준 좌표를 구할 수 있다(S310). 도 3에서는 (10,-10,10)이 제1 기준 좌표로 구해진 것을 나타내고 있다.Next, the user terminal 100a may obtain a first reference coordinate corresponding to the position of the reference object R at a reference point of its local coordinate system (hereinafter referred to as local coordinate system 1) (S310). 3 shows that (10, -10,10) is obtained as the first reference coordinate.
마찬가지로 사용자 단말(100b)은 자신의 로컬 좌표계(이하 로컬좌표계2 라 함)의 기준점에서 기준 객체(R)의 위치에 대응하는 제2 기준 좌표를 구할 수 있다(S315). 도 3에서는 (10,-10,-10)이 제2 기준 좌표로 구해진 것을 나타내고 있다.Similarly, the user terminal 100b may obtain a second reference coordinate corresponding to the position of the reference object R at a reference point of its local coordinate system (hereinafter referred to as local coordinate system 2) (S315). 3 shows that (10, -10, -10) is obtained as the second reference coordinate.
그리고 사용자 단말(100a)은 로컬좌표계1에서 공유대상 물체(S)의 좌표를 제1 기준 좌표를 기준으로 수학식 1을 적용하여 변환한 공유용 좌표를 구할 수 있다(S320). In addition, the user terminal 100a may obtain the coordinates for sharing by converting the coordinates of the object S to be shared in the local coordinate system 1 by applying Equation 1 based on the first reference coordinate (S320).
[수학식 1][Equation 1]
공유용 좌표 = 로컬좌표계1에서 공유대상 물체 좌표 - 제1 기준 좌표Shared coordinates = object coordinates to be shared in the local coordinate system 1-first reference coordinate
따라서 로컬좌표계1에서 공유대상 물체(S)의 좌표가 (20,-10,10)이고, 제1 기준 좌표가 (10,-10,10)이면, 공유용 좌표는 (10,0,0)으로 구해질 수 있다.Therefore, in the local coordinate system 1, if the coordinate of the object to be shared (S) is (20, -10,10), and the first reference coordinate is (10, -10,10), the coordinate for sharing is (10,0,0) Can be obtained.
다음으로 사용자 단말(100a)은 공유대상 물체(S)에 대해서 구해진 공유용 좌표를 사용자 단말(100b)에 전송할 수 있다(S325). 단계(S325)에서 공유용 좌표의 전송은 사용자 단말(100a)과 사용자 단말(100b) 사이에 근거리 통신 등을 통해 직접 전송되거나, 서버(200)를 통해 전송될 수 있다. 한편 공유대상 물체(S)를 사용자 단말의 화면에 렌더링하기 위한 그래픽 이미지 정보도 공유용 좌표와 함께 전송될 수 있다. 또는 공유용 좌표는 사용자 단말끼리 직접 공유되고, 그래픽 이미지 정보는 서버(200)를 통해 공유되도록 하는 것도 가능하다.Next, the user terminal 100a may transmit the sharing coordinates obtained for the object to be shared S to the user terminal 100b (S325). In step S325, the transmission of the coordinates for sharing may be directly transmitted through short-range communication between the user terminal 100a and the user terminal 100b, or may be transmitted through the server 200. Meanwhile, graphic image information for rendering the object S to be shared on the screen of the user terminal may also be transmitted together with the coordinates for sharing. Alternatively, the coordinates for sharing may be directly shared between user terminals, and graphic image information may be shared through the server 200.
이후 사용자 단말(100b)은 사용자 단말(100a)로부터 전송된 공유용 좌표에 제2 기준 좌표를 적용하여 수학식 2에 의해 구해지는 좌표에 공유대상 물체를 배치할 수 있다(S330).Thereafter, the user terminal 100b may apply the second reference coordinate to the sharing coordinates transmitted from the user terminal 100a to place the object to be shared in the coordinates obtained by Equation 2 (S330).
[수학식 2][Equation 2]
로컬좌표계2에서 공유대상 물체 좌표 = 공유용 좌표 + 제2 기준 좌표Object coordinates to be shared in local coordinate system 2 = coordinates for sharing + second reference coordinates
따라서 공유용 좌표가 (10,0,0)이고, 제2 기준 좌표가 (10,-10,-10)이면, 로컬좌표계2에서 공유대상 물체(S)의 좌표는 (20,-10,-10)으로 구해질 수 있다.Therefore, if the coordinates for sharing are (10,0,0) and the second reference coordinates are (10, -10, -10), the coordinates of the object S to be shared in the local coordinate system 2 are (20, -10,-) 10).
이와 같이 처리하면 도 4에 예시한 것과 같이 사용자 1이 보는 공유대상 물체(S)의 실제 공간에서의 위치와, 사용자 2가 보는 공유대상 물체(S)의 실제 공간에서의 위치가 동일하게 된다.In this way, as illustrated in FIG. 4, the location in the real space of the shared object S viewed by the user 1 and the location in the real space of the shared object S viewed by the user 2 are the same.
도 5는 본 발명의 다른 실시예에 따른 기준 객체의 방향에 대한 고려를 설명하기 위해 제공되는 도면이고, 도 6은 본 발명의 다른 실시예에 따른 증강현실 콘텐츠 공유 시스템의 동작을 설명하기 위해 제공되는 흐름도이다.5 is a view provided to explain consideration of a direction of a reference object according to another embodiment of the present invention, and FIG. 6 is provided to describe the operation of the augmented reality content sharing system according to another embodiment of the present invention It is a flow chart.
도 5에 예시한 것과 같이 각 사용자들을 기준으로 기준 객체는 다른 위치에 존재할뿐만 아니라 다른 방향으로 놓여 있는 것으로 보여진다. 예컨대 도 5에서 기준 객체(R)는 사용자 1이 바라보는 방향의 우측에 있고, 꼭지점(RP)이 12시 방향을 향하고 있다. 반면에 사용자 2가 바라보는 방향에 대해서는 좌측에 기준 객체(R)가 위치하고, 꼭지점(RP)은 12시와 3시 중간 방향을 향하고 있다.As illustrated in FIG. 5, it is shown that the reference object not only exists in different locations, but also lies in different directions based on each user. For example, in FIG. 5, the reference object R is on the right side in the direction that user 1 is looking at, and the vertex RP is pointing at the 12 o'clock direction. On the other hand, with respect to the direction viewed by the user 2, the reference object R is located on the left side, and the vertex RP faces the middle direction between 12 o'clock and 3 o'clock.
따라서 공유대상 물체를 사용자 1과 사용자 2가 실제 공간에서 동일한 위치에 놓이도록 하는 것뿐만 아니라, 바라보는 방향에 따른 물체의 회전까지 고려하는 것이 바람직하다.Therefore, it is desirable not only to allow the user 1 and the user 2 to be placed in the same position in the real space, but also to consider the rotation of the object according to the viewing direction.
도 1 및 도 6을 참고하면, 먼저 사용자 단말(100a)과 사용자 단말(100b)은 증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체(R)를 인식할 수 있다(S605). 도 6에서 제1 사용자 단말은 사용자 단말(100a)이고, 제2 사용자 단말은 사용자 단말(100b)을 나타낸 것이다.1 and 6, first, the user terminal 100a and the user terminal 100b may recognize a reference object R located in a real space that reproduces augmented reality content (S605). In FIG. 6, the first user terminal is a user terminal 100a, and the second user terminal is a user terminal 100b.
다음으로 사용자 단말(100a)은 자신의 로컬 좌표계(이하 '로컬좌표계1' 이라 함)의 기준점에서 기준 객체(R)의 위치에 대응하는 제1 기준 좌표를 구할 수 있다(S610). Next, the user terminal 100a may obtain first reference coordinates corresponding to the position of the reference object R at a reference point of its local coordinate system (hereinafter referred to as 'local coordinate system 1') (S610).
마찬가지로 사용자 단말(100b)은 자신의 로컬 좌표계(이하 '로컬좌표계2' 라 함)의 기준점에서 기준 객체(R)의 위치에 대응하는 제2 기준 좌표를 구할 수 있다(S615).Similarly, the user terminal 100b may obtain a second reference coordinate corresponding to the position of the reference object R at a reference point of its local coordinate system (hereinafter referred to as 'local coordinate system 2') (S615).
한편 사용자 단말(100a)은 로컬좌표계1에서 기준 객체(R)의 방향에 대응하는 제1 기준 회전값을 구할 수 있다(S620). 단계(S620)는 단계(S610)와 동시에 이루어질 수도 있다. 구체적으로 로컬좌표계1에서 꼭지점(RP)의 방향을 제1 기준 회전값으로 구할 수 있다.Meanwhile, the user terminal 100a may obtain a first reference rotation value corresponding to the direction of the reference object R in the local coordinate system 1 (S620). Step S620 may be performed simultaneously with step S610. Specifically, the direction of the vertex RP in the local coordinate system 1 may be obtained as a first reference rotation value.
마찬가지로 사용자 단말(100b)은 로컬좌표계2에서 기준 객체(R)의 방향에 대응하는 제2 기준 회전값을 구할 수 있다(S625). 단계(S625)는 단계(S615)와 동시에 이루어질 수도 있다. 구체적으로 로컬좌표계2에서 꼭지점(RP)의 방향을 제2 기준 회전값으로 구할 수 있다.Similarly, the user terminal 100b may obtain a second reference rotation value corresponding to the direction of the reference object R in the local coordinate system 2 (S625). Step S625 may be performed simultaneously with step S615. Specifically, the direction of the vertex RP in the local coordinate system 2 can be obtained as the second reference rotation value.
다음으로 사용자 단말(100a)은 로컬좌표계1에서 공유대상 물체의 좌표에 대해 제1 기준 회전값을 적용한 좌표를 구하고(S630), 단계(S630)에서 구해진 좌표에 제1 기준 좌표를 감산하여 공유용 좌표를 구할 수 있다(S635). 단계(S630) 및 단계(S635)는 수학식 3에 의해 이루어질 수 있다.Next, the user terminal 100a obtains the coordinates to which the first reference rotation value is applied to the coordinates of the object to be shared in the local coordinate system 1 (S630), and subtracts the first reference coordinate to the coordinates obtained in step S630 for sharing. Coordinates can be obtained (S635). Steps S630 and S635 may be performed by Equation (3).
[수학식 3][Equation 3]
공유용 좌표 = (제1 기준 회전값*로컬좌표계1에서 공유대상 물체 좌표) - 제1 기준 좌표Shared coordinates = (first reference rotation value * coordinates of the object to be shared in the local coordinate system 1)-first reference coordinate
수학식 3에 의해 로컬좌표계1에서 공유대상 물체 좌표를 공유용 좌표로 변환하는 것은 다음과 같다. 로컬좌표계1에서 꼭지점(RP)을 z축 방향으로 향하도록 기준 객체(R)를 회전시킨만큼 공유대상 물체를 회전시키고, 다음으로 기준 객체(R)를 기준점으로 이동시킨만큼 공유대상 물체를 이동시키는 과정을 통해 공유용 좌표를 구할 수 있다.Converting the object coordinates to be shared to the coordinates for sharing in the local coordinate system 1 by Equation 3 is as follows. In the local coordinate system 1, the shared object is rotated as much as the reference object R is rotated so that the vertex RP is directed in the z-axis direction. Next, the shared object is moved as much as the reference object R is moved to the reference point. Through the process, the coordinates for sharing can be obtained.
다음으로 사용자 단말(100a)은 공유대상 물체에 대해서 구해진 공유용 좌표를 사용자 단말(100b)에 전송하거나 전송되게 할 수 있다(S640).Next, the user terminal 100a may transmit or transmit the shared coordinates obtained for the object to be shared to the user terminal 100b (S640).
이후 사용자 단말(100b)은 사용자 단말(100a)로부터 전송된 공유용 좌표에 로컬좌표계2에서 제2 기준 회전값을 적용한 좌표를 구하고(S645), 제2 기준 회전값을 적용한 좌표에 제2 기준 좌표를 가산하여 구해진 좌표에 공유대상 물체를 배치할 수 있다(S650). 단계(S645) 및 단계(S650)는 수학식 4에 의해 이루어질 수 있다.Subsequently, the user terminal 100b obtains the coordinates to which the second reference rotation value is applied in the local coordinate system 2 to the shared coordinates transmitted from the user terminal 100a (S645), and the second reference coordinates to the coordinates to which the second reference rotation value is applied. The object to be shared can be arranged at the coordinates obtained by adding (S650). Steps S645 and S650 may be performed by Equation (4).
[수학식 4][Equation 4]
로컬좌표계2에서 공유대상 물체 좌표 = (-제2 기준 회전값*공유용 좌표) + 제2 기준 좌표Object coordinate to be shared in local coordinate system 2 = (-2nd reference rotation value * sharing coordinate) + 2nd reference coordinate
수학식 4에 의해 로컬좌표계2에서 공유용 좌표를 처리하여 로컬좌표계2에서 공유대상 물체 좌표를 구하는 것은 다음과 같다. 로컬좌표계2에서 꼭지점(RP)을 z축 방향으로 향하도록 기준 객체(R)를 회전시킨만큼 공유대상 물체를 반대로 회전시키고, 다음으로 기준 객체(R)를 기준점으로 이동시킨 만큼 공유대상 물체를 반대로 이동시키는 과정을 통해 로컬좌표계2에서의 공유대상 물체의 배치 위치를 구할 수 있다.It is as follows to obtain the coordinates of the object to be shared in the local coordinate system 2 by processing the coordinates for sharing in the local coordinate system 2 by Equation 4. In the local coordinate system 2, the object to be shared is rotated as much as the reference object R is rotated so that the vertex RP is directed in the z-axis direction. Next, the object to be shared is reversed as much as the reference object R is moved to the reference point. Through the process of moving, it is possible to obtain the location of the shared object in the local coordinate system 2.
이와 같이 처리하면 사용자 1과 사용자 2가 공유대상 물체가 실제 공간에서 동일한 위치에 놓인 것으로 보일 뿐 아니라, 공유대상 물체가 향하는 방향까지 반영시킬 수 있다.In this way, the user 1 and the user 2 may not only appear that the object to be shared is in the same position in the real space, but also reflect the direction in which the object to be shared is facing.
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by hardware components, software components, and / or combinations of hardware components and software components. For example, the devices, methods, and components described in the embodiments include, for example, processors, controllers, arithmetic logic units (ALUs), digital signal processors (micro signal processors), microcomputers, and field programmable gates (FPGAs). It can be implemented using one or more general purpose computers or special purpose computers, such as arrays, programmable logic units (PLUs), microprocessors, or any other device capable of executing and responding to instructions. The processing device may run an operating system (OS) and one or more software applications running on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of the software. For convenience of understanding, a processing device may be described as one being used, but a person having ordinary skill in the art, the processing device may include a plurality of processing elements and / or a plurality of types of processing elements. It can be seen that may include. For example, the processing device may include a plurality of processors or a processor and a controller. In addition, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instruction, or a combination of one or more of these, and configure the processing device to operate as desired, or process independently or collectively You can command the device. Software and / or data may be interpreted by a processing device, or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodied in the transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, or the like alone or in combination. The program instructions recorded in the medium may be specially designed and configured for the embodiments or may be known and usable by those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs, DVDs, and magnetic media such as floptical disks. -Hardware devices specifically configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include high-level language codes that can be executed by a computer using an interpreter, etc., as well as machine language codes produced by a compiler. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and / or the components of the described system, structure, device, circuit, etc. are combined or combined in a different form from the described method, or other components Alternatively, even if substituted or substituted by equivalents, appropriate results can be achieved.

Claims (11)

  1. 증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체를 제1 사용자 단말과 제2 사용자 단말이 인식하는 단계,The first user terminal and the second user terminal recognize the reference object located in the real space to reproduce the augmented reality content,
    상기 제1 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제1 기준 좌표를 구하는 단계,Obtaining a first reference coordinate corresponding to the location of the reference object from a reference point of the local coordinate system of the first user terminal,
    상기 제2 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제2 기준 좌표를 구하는 단계,Obtaining a second reference coordinate corresponding to the location of the reference object from a reference point of the local coordinate system of the second user terminal,
    상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표를 상기 제1 기준 좌표를 기준으로 변환한 공유용 좌표를 구하는 단계, 그리고Obtaining coordinates for sharing the coordinates of an object to be shared in the local coordinate system of the first user terminal based on the first reference coordinates, and
    상기 제2 사용자 단말은 상기 제1 사용자 단말로부터 전송된 공유용 좌표에 상기 제2 기준 좌표를 적용하여 구해지는 좌표에 상기 공유대상 물체를 배치하는 단계The second user terminal disposing the sharing target object in coordinates obtained by applying the second reference coordinates to the sharing coordinates transmitted from the first user terminal.
    를 포함하는 증강현실 콘텐츠 공유 방법.Augmented reality content sharing method comprising a.
  2. 제 1 항에서,In claim 1,
    상기 제1 사용자 단말의 로컬 좌표계에서 상기 기준 객체의 방향에 대응하는 제1 기준 회전값을 구하는 단계, 그리고Obtaining a first reference rotation value corresponding to the direction of the reference object in the local coordinate system of the first user terminal, and
    상기 제2 사용자 단말의 로컬 좌표계에서 상기 기준 객체의 방향에 대응하는 제2 기준 회전값을 구하는 단계Obtaining a second reference rotation value corresponding to the direction of the reference object in the local coordinate system of the second user terminal
    를 더 포함하는 증강현실 콘텐츠 공유 방법.Augmented reality content sharing method further comprising.
  3. 제 2 항에서,In claim 2,
    상기 공유용 좌표를 구하는 단계는,The step of obtaining the coordinates for sharing,
    상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표에 대해 상기 제1 기준 회전값을 적용한 좌표를 구하는 단계, 그리고Obtaining coordinates to which the first reference rotation value is applied to coordinates of an object to be shared in the local coordinate system of the first user terminal, and
    상기 제1 기준 회전값을 적용한 좌표에 상기 제1 기준 좌표를 감산하여 상기 공유용 좌표를 구하는 단계Obtaining the shared coordinates by subtracting the first reference coordinates to coordinates to which the first reference rotation value is applied.
    를 포함하는 증강현실 콘텐츠 공유 방법.Augmented reality content sharing method comprising a.
  4. 제 3 항에서,In claim 3,
    상기 공유대상 물체를 배치하는 단계는,The step of arranging the object to be shared,
    상기 제2 사용자 단말의 로컬 좌표계에서 상기 공유용 좌표에 대해 상기 제2 기준 회전값을 적용한 좌표를 구하는 단계, 그리고Obtaining coordinates to which the second reference rotation value is applied to the shared coordinates in the local coordinate system of the second user terminal, and
    상기 제2 기준 회전값을 적용한 좌표에 상기 제2 기준 좌표를 가산하여 구해진 좌표에 상기 공유대상 물체를 배치하는 단계Disposing the shared target object in coordinates obtained by adding the second reference coordinates to coordinates to which the second reference rotation value is applied.
    를 포함하는 증강현실 콘텐츠 공유 방법.Augmented reality content sharing method comprising a.
  5. 제 1 항에서,In claim 1,
    증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체를 제1 사용자 단말과 제2 사용자 단말이 인식하는 단계는,The first user terminal and the second user terminal recognize the reference object located in the real space to reproduce the augmented reality content,
    미리 정해진 형태의 물체를 인식하는 단계,Recognizing a predetermined type of object,
    상기 인식된 미리 정해진 형태의 물체를 지시하는 표시를 화면에 표출하는 단계, 그리고Displaying an indication indicating the recognized predetermined type of object on a screen, and
    사용자로부터 상기 인식된 미리 정해진 형태의 물체가 기준 객체임을 확인받는 단계Receiving a confirmation from the user that the recognized predetermined object is a reference object
    를 포함하는 증강현실 콘텐츠 공유 방법.Augmented reality content sharing method comprising a.
  6. 증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체를 인식하는 제1 사용자 단말, 그리고A first user terminal that recognizes a reference object located in a real space that reproduces augmented reality content, and
    상기 기준 객체를 인식하는 제2 사용자 단말A second user terminal recognizing the reference object
    을 포함하고,Including,
    상기 제1 사용자 단말은, 상기 제1 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제1 기준 좌표를 구하고, 상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표를 상기 제1 기준 좌표를 기준으로 변환한 공유용 좌표를 구하며,The first user terminal obtains first reference coordinates corresponding to the location of the reference object at a reference point of the local coordinate system of the first user terminal, and obtains coordinates of an object to be shared in the local coordinate system of the first user terminal. 1 Calculate the shared coordinates converted based on the reference coordinates,
    상기 제2 사용자 단말은, 상기 제2 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제2 기준 좌표를 구하고, 상기 제1 사용자 단말로부터 전송된 공유용 좌표에 상기 제2 기준 좌표를 적용하여 구해지는 좌표에 상기 공유대상 물체를 배치하는 증강현실 콘텐츠 공유 시스템.The second user terminal obtains second reference coordinates corresponding to the location of the reference object from a reference point of the local coordinate system of the second user terminal, and the second reference coordinates to shared coordinates transmitted from the first user terminal. Augmented reality content sharing system to place the object to be shared at the coordinates obtained by applying.
  7. 제 6 항에서,In claim 6,
    상기 제1 사용자 단말은, 상기 제1 사용자 단말의 로컬 좌표계에서 상기 기준 객체의 방향에 대응하는 제1 기준 회전값을 구하고,The first user terminal obtains a first reference rotation value corresponding to the direction of the reference object in the local coordinate system of the first user terminal,
    상기 제2 사용자 단말은, 상기 제2 사용자 단말의 로컬 좌표계에서 상기 기준 객체의 방향에 대응하는 제2 기준 회전값을 구하는 증강현실 콘텐츠 공유 시스템.The second user terminal, augmented reality content sharing system for obtaining a second reference rotation value corresponding to the direction of the reference object in the local coordinate system of the second user terminal.
  8. 제 7 항에서,In claim 7,
    상기 제1 사용자 단말은, 상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표에 대해 상기 제1 기준 회전값을 적용한 좌표를 구하고, 상기 제1 기준 회전값을 적용한 좌표에 상기 제1 기준 좌표를 감산하여 상기 공유용 좌표를 구하는 증강현실 콘텐츠 공유 시스템.The first user terminal obtains coordinates to which the first reference rotation value is applied to coordinates of an object to be shared in the local coordinate system of the first user terminal, and the first reference coordinates to coordinates to which the first reference rotation value is applied. Augmented reality content sharing system to obtain the coordinates for sharing by subtracting.
  9. 제 8 항에서,In claim 8,
    상기 제2 사용자 단말은, 상기 제2 사용자 단말의 로컬 좌표계에서 상기 공유용 좌표에 대해 상기 제2 기준 회전값을 적용한 좌표를 구하고, 상기 제2 기준 회전값을 적용한 좌표에 상기 제2 기준 좌표를 가산하여 구해진 좌표에 상기 공유대상 물체를 배치하는 증강현실 콘텐츠 공유 시스템.The second user terminal obtains coordinates to which the second reference rotation value is applied to the shared coordinates in the local coordinate system of the second user terminal, and applies the second reference coordinates to coordinates to which the second reference rotation value is applied. Augmented reality content sharing system for placing the object to be shared in the coordinates obtained by adding.
  10. 제 6 항에서,In claim 6,
    상기 제1 사용자 단말과 상기 제2 사용자 단말은,The first user terminal and the second user terminal,
    각각 미리 정해진 형태의 물체를 인식하고, 상기 인식된 미리 정해진 형태의 물체를 지시하는 표시를 화면에 표출하며, 사용자로부터 상기 인식된 미리 정해진 형태의 물체가 기준 객체임을 확인받는 증강현실 콘텐츠 공유 시스템.An augmented reality content sharing system, each of which recognizes a predetermined type of object, displays an indication indicating the recognized predetermined type of object on a screen, and is confirmed by the user that the recognized predetermined type of object is a reference object.
  11. 증강현실 콘텐츠 공유 방법을 수행하는 프로그램을 수록한 컴퓨터 판독 가능한 기록 매체에 있어서,In a computer-readable recording medium containing a program for performing augmented reality content sharing method,
    상기 프로그램은,The above program,
    증강현실 콘텐츠를 재현하는 실제 공간에 위치한 기준 객체를 제1 사용자 단말과 제2 사용자 단말이 인식하는 명령어 세트,A set of instructions that the first user terminal and the second user terminal recognize a reference object located in a real space that reproduces augmented reality content,
    상기 제1 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제1 기준 좌표를 구하는 명령어 세트,A set of instructions for obtaining a first reference coordinate corresponding to the location of the reference object from a reference point of the local coordinate system of the first user terminal,
    상기 제2 사용자 단말의 로컬 좌표계의 기준점에서 상기 기준 객체의 위치에 대응하는 제2 기준 좌표를 구하는 명령어 세트,A set of instructions for obtaining a second reference coordinate corresponding to the location of the reference object at a reference point of the local coordinate system of the second user terminal,
    상기 제1 사용자 단말의 로컬 좌표계에서 공유대상 물체의 좌표를 상기 제1 기준 좌표를 기준으로 변환한 공유용 좌표를 구하는 명령어 세트, 그리고In the local coordinate system of the first user terminal, a set of commands for obtaining coordinates for sharing obtained by converting coordinates of an object to be shared based on the first reference coordinates, and
    상기 제2 사용자 단말은 상기 제1 사용자 단말로부터 전송된 공유용 좌표에 상기 제2 기준 좌표를 적용하여 구해지는 좌표에 상기 공유대상 물체를 배치하는 명령어 세트를 포함하는 컴퓨터 판독 가능한 기록 매체.The second user terminal is a computer-readable recording medium including a set of instructions for placing the object to be shared at coordinates obtained by applying the second reference coordinates to the shared coordinates transmitted from the first user terminal.
PCT/KR2019/013848 2018-11-15 2019-10-22 Method and system for sharing augmented reality content WO2020101197A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0140587 2018-11-15
KR20180140587 2018-11-15

Publications (1)

Publication Number Publication Date
WO2020101197A1 true WO2020101197A1 (en) 2020-05-22

Family

ID=70730849

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/013848 WO2020101197A1 (en) 2018-11-15 2019-10-22 Method and system for sharing augmented reality content

Country Status (1)

Country Link
WO (1) WO2020101197A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045819A1 (en) * 2020-08-27 2022-03-03 Samsung Electronics Co., Ltd. Electronic device for providing augmented-reality content and operation method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101292463B1 (en) * 2011-01-27 2013-07-31 주식회사 팬택 Augmented reality system and method that share augmented reality service to remote
KR101720132B1 (en) * 2016-03-17 2017-03-27 주식회사 엔토소프트 Method and system for sharing same augmented reality among multiple users based on positioning information
KR20170036704A (en) * 2014-07-25 2017-04-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Multi-user gaze projection using head mounted display devices
WO2017054421A1 (en) * 2015-09-30 2017-04-06 深圳多新哆技术有限责任公司 Method and device for tweaking virtual reality image
US20180286122A1 (en) * 2017-01-30 2018-10-04 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101292463B1 (en) * 2011-01-27 2013-07-31 주식회사 팬택 Augmented reality system and method that share augmented reality service to remote
KR20170036704A (en) * 2014-07-25 2017-04-03 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Multi-user gaze projection using head mounted display devices
WO2017054421A1 (en) * 2015-09-30 2017-04-06 深圳多新哆技术有限责任公司 Method and device for tweaking virtual reality image
KR101720132B1 (en) * 2016-03-17 2017-03-27 주식회사 엔토소프트 Method and system for sharing same augmented reality among multiple users based on positioning information
US20180286122A1 (en) * 2017-01-30 2018-10-04 Colopl, Inc. Information processing method and apparatus, and program for executing the information processing method on computer

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022045819A1 (en) * 2020-08-27 2022-03-03 Samsung Electronics Co., Ltd. Electronic device for providing augmented-reality content and operation method thereof
US11475587B2 (en) 2020-08-27 2022-10-18 Samsung Electronics Co., Ltd. Electronic device for providing augmented-reality content and operation method thereof

Similar Documents

Publication Publication Date Title
US6710753B2 (en) Multi-screen session mobility between terminal groups
WO2015174729A1 (en) Augmented reality providing method and system for providing spatial information, and recording medium and file distribution system
WO2018004154A1 (en) Mixed reality display device
CN111652946B (en) Display calibration method and device, equipment and storage medium
WO2017026738A1 (en) System and method for protecting codes for application
WO2013176342A1 (en) System and method for interconnecting user terminal and external device
WO2016186236A1 (en) Color processing system and method for three-dimensional object
US10733689B2 (en) Data processing
WO2023059087A1 (en) Augmented reality interaction method and apparatus
WO2020101197A1 (en) Method and system for sharing augmented reality content
CN111324376B (en) Function configuration method, device, electronic equipment and computer readable medium
WO2016027910A1 (en) Ray tracing method, ray tracing device for performing same, and recording medium for storing same
WO2022004978A1 (en) System and method for design task of architectural decoration
WO2013183877A1 (en) System for providing three-dimensional digital animation viewer and method thereof
WO2019045128A1 (en) Image quality enhancement of video call
WO2020060123A1 (en) Device for supporting optimum assembly of materials by using mixed reality technology, and method therefor
WO2016204412A1 (en) Terminal device and method for displaying image by same, and web server and method for providing webpage by same
CN114398018A (en) Picture display method, device, storage medium and electronic equipment
CN114090817A (en) Dynamic construction method and device of face feature database and storage medium
WO2019124802A1 (en) Apparatus and method for providing mapping pseudo-hologram by using individual image signal output
EP2700018A2 (en) Control method for providing storage space of application and terminal and server threrfor
WO2018124678A1 (en) Electronic device and operation method thereof
WO2019164036A1 (en) Web-based application development method
WO2024128598A1 (en) Low-latency hybrid service provision server and 3d image service provision mehtod thereof
WO2019107637A1 (en) System and method for applying digital hologram

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19884658

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19884658

Country of ref document: EP

Kind code of ref document: A1