KR20230127669A - Method, apparatus and sysyem for providing group experiential extended reality using user characteristics - Google Patents
Method, apparatus and sysyem for providing group experiential extended reality using user characteristics Download PDFInfo
- Publication number
- KR20230127669A KR20230127669A KR1020220025227A KR20220025227A KR20230127669A KR 20230127669 A KR20230127669 A KR 20230127669A KR 1020220025227 A KR1020220025227 A KR 1020220025227A KR 20220025227 A KR20220025227 A KR 20220025227A KR 20230127669 A KR20230127669 A KR 20230127669A
- Authority
- KR
- South Korea
- Prior art keywords
- information
- users
- user
- sensing units
- providing
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 32
- 238000004891 communication Methods 0.000 claims abstract description 21
- 230000003190 augmentative effect Effects 0.000 claims description 50
- 230000033001 locomotion Effects 0.000 claims description 16
- 230000006399 behavior Effects 0.000 claims description 9
- 230000003542 behavioural effect Effects 0.000 abstract description 2
- 230000001815 facial effect Effects 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 10
- 238000005516 engineering process Methods 0.000 description 3
- 230000004886 head movement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Optics & Photonics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 발명은 사용자 특징을 활용한 집단 체험형 확장 현실 제공 방법, 장치 및 시스템에 관한 것으로, 보다 상세하게는, 사용자의 특징을 기초로 사용자를 인식하고, 인식된 사용자의 위치 정보를 획득하고, 수집된 위치 정보와 매칭되는 확장 현실 컨텐츠를 사용자에게 제공하는 방법, 장치 및 시스템에 관한 것이다.The present invention relates to a method, apparatus, and system for providing collective experiential augmented reality using user characteristics, and more particularly, to recognizing a user based on a user's characteristic, obtaining location information of the recognized user, and collecting A method, apparatus, and system for providing a user with augmented reality content that is matched with obtained location information.
최근 들어 가상현실, 증강현실 및 혼합현실 등의 확장 현실 컨텐츠를 제공하는 장치의 수요가 증가함에 따라 확장 현실 컨텐츠를 제공하기 위한 다양한 형태의 기술이 개발되고 있다.Recently, as demand for devices providing extended reality content such as virtual reality, augmented reality, and mixed reality increases, various types of technologies for providing extended reality content are being developed.
종래의 확장 현실 콘텐츠 제공 시스템에서는, 각 유저 장비가 독립된 호스트로 작동하기 때문에 집단체험이 불가능하거나, 가능하더라도 공간 인식에 필요한 리소스가 크기 때문에 컨텐츠 구현 영역이 좁게 만들어지는 한계가 존재하였다. 이에 따라, 같은 공간에 존재하는 복수의 사용자들의 집단에게 확장 현실 컨텐츠를 제공하는 경우, 해당 확장 현실 콘텐츠를 동시에 체험할 수 있는 사용자의 수가 매우 제한적인 문제가 있었다. In the conventional augmented reality content providing system, since each user equipment operates as an independent host, a group experience is impossible, or even if possible, the content implementation area is narrowed because the resources required for spatial recognition are large. Accordingly, when providing extended reality content to a group of a plurality of users existing in the same space, there is a problem in that the number of users who can simultaneously experience the corresponding extended reality content is very limited.
또한, 복수의 사용자들이 겹쳐질 수 있는 정도의 비교적 좁은 공간에서 단일 센서를 이용한 종래의 확장 현실 콘텐츠 제공 시스템을 적용할 경우, 사용자들을 센싱하는 과정에서 겹쳐져 있는 일부 사용자를 인식하지 못하는 오클루션 현상이 발생하는 문제가 존재하였다. In addition, when a conventional augmented reality content providing system using a single sensor is applied in a relatively narrow space where a plurality of users can overlap, an occlusion phenomenon in which some overlapping users are not recognized in the process of sensing the users occurs. There were issues that arose.
따라서, 상술한 오클루션 문제를 극복하고, 복수의 사용자들을 대상으로 확장 현실 콘텐츠를 제공할 수 있는 집단 체험형 확장 현실 콘텐츠 제공 방법이 필요한 실정이다. Accordingly, there is a need for a method of providing group experiential extended reality content that can overcome the aforementioned occlusion problem and provide extended reality content to a plurality of users.
본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 사용자의 특징을 기초로 사용자들 각각을 인식하고, 인식된 사용자들 각각의 위치 정보를 획득하고, 수집된 위치 정보와 매칭되는 확장 현실 컨텐츠를 각 사용자에게 제공하는 방법, 장치 및 시스템을 제공하는 것을 일 기술적 과제로 한다. The present invention is to solve the problems of the prior art described above, and recognizes each user based on the user's characteristics, obtains location information of each of the recognized users, and expands reality content that matches the collected location information. It is a technical task to provide a method, device, and system for providing each user.
본 발명이 이루고자 하는 기술적 과제들은 상기한 기술적 과제로 제한되지 않으며, 이하의 설명으로부터 본 발명의 또 다른 기술적 과제들이 도출될 수 있다.The technical problems to be achieved by the present invention are not limited to the above technical problems, and other technical problems of the present invention can be derived from the following description.
상술한 기술적 과제를 해결하기 위한 기술적 수단으로서, 본 발명의 제1 측면에 따른 실시예는, 소정의 공간 상의 복수의 사용자들을 대상으로 집단 체험형 확장 현실 콘텐츠를 제공하는 장치를 제공한다. 본 장치는, 복수의 사용자 단말들 및 복수의 센싱부들과의 정보 송수신을 수행하는 통신 모듈, 콘텐츠 제공 프로그램을 저장하는 메모리, 및 상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하며, 상기 프로세서는, 상기 프로그램을 실행하여, 상기 복수의 센싱부들로부터 수신한 영상 및 스캔 데이터를 기초로 복수의 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보 및 위치 정보를 획득하고, 각각의 특징 정보에 대응되는 사용자의 사용자 단말로 상기 사용자의 위치 정보에 매칭되는 확장 현실 콘텐츠를 제공한다. 상기 확장 현실 콘텐츠는 상기 사용자 단말들과 연동된 상기 사용자들이 착탈 가능하도록 구성된 체험 단말들로 전송된다.As a technical means for solving the above-mentioned technical problem, an embodiment according to the first aspect of the present invention provides an apparatus for providing group experience-type augmented reality content to a plurality of users in a predetermined space. The apparatus includes a communication module for transmitting and receiving information with a plurality of user terminals and a plurality of sensing units, a memory for storing a content providing program, and a processor for executing the program stored in the memory, the processor comprising: By executing the program, feature information and location information including at least one of costume information, face information, body information, and behavior information of each of a plurality of users based on the image and scan data received from the plurality of sensing units. is obtained, and extended reality content matching the user's location information is provided to the user's terminal corresponding to each characteristic information. The augmented reality content is transmitted to experience terminals configured to be attachable or detachable by the users linked to the user terminals.
또한, 본 발명의 제2 측면에 따른 실시예는, 복수의 사용자 단말들 및 복수의 센싱부들과 통신 연결되는 장치의 프로세서에 의해 수행되는 소정의 공간 상의 복수의 사용자들을 대상으로 집단 체험형 확장 현실 콘텐츠를 제공하는 방법을 제공한다. 본 방법은, 상기 복수의 센싱부들로부터 영상 및 스캔 데이터를 수신하는 단계, 상기 영상 및 스캔 데이터를 기초로 상기 복수의 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보 및 위치 정보를 수집하는 단계 및 각각의 특징 정보에 대응되는 사용자의 사용자 단말로 상기 사용자의 위치 정보에 매칭되는 확장 현실 콘텐츠를 제공하는 단계를 포함한다. 상기 확장 현실 콘텐츠는 상기 사용자 단말들과 연동된 상기 사용자들이 착탈 가능하도록 구성된 체험 단말들로 전송된다.In addition, the embodiment according to the second aspect of the present invention is a collective experience-type extended reality for a plurality of users in a predetermined space performed by a processor of a device communicatively connected to a plurality of user terminals and a plurality of sensing units. Provides a way to present content. The method includes receiving image and scan data from the plurality of sensing units, and at least one or more of costume information, face information, body information, and behavior information of each of the plurality of users based on the image and scan data. Collecting feature information and location information, and providing augmented reality content matching the user's location information to a user's terminal corresponding to each feature information. The augmented reality content is transmitted to experience terminals configured to be attachable or detachable by the users linked to the user terminals.
또한, 본 발명의 제3 측면에 따른 실시예는, 소정의 공간 상의 복수의 사용자들을 대상으로 집단 체험형 확장 현실 컨텐츠를 제공하는 시스템을 제공한다. 본 시스템은, 서버, 상기 서버와 통신 연결되는 복수의 사용자 단말들, 상기 소정의 공간에 대한 영상 및 스캔 데이터를 획득하는 복수의 센싱부들, 그리고, 상기 사용자 단말들로부터 수신되는 확장 현실 콘텐츠를 출력하고 상기 사용자들이 착탈 가능하도록 구성되는 복수의 체험 단말들을 포함한다. 상기 서버는, 상기 센싱부들로부터 수신한 상기 영상 및 스캔 데이터를 기초로 상기 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보와 상기 사용자들 각각의 위치 정보를 획득하고, 그리고, 각각의 특징 정보에 대응되는 사용자의 사용자 단말로 해당 사용자의 위치 정보에 매칭되는 확장 현실 콘텐츠를 제공한다. In addition, an embodiment according to a third aspect of the present invention provides a system for providing group experience-type extended reality content to a plurality of users in a predetermined space. The present system includes a server, a plurality of user terminals communicatively connected to the server, a plurality of sensing units that acquire images and scan data for the predetermined space, and outputs extended reality content received from the user terminals. and a plurality of experience terminals configured to be detachable by the users. The server may include characteristic information including at least one of costume information, face information, body information, and behavior information of each of the users and location of each of the users based on the image and scan data received from the sensing units. The information is obtained, and extended reality content matching the location information of the corresponding user is provided to the user terminal of the user corresponding to each characteristic information.
또한, 본 발명의 제4 측면에 따른 실시예는, 서버에 의해 수행되는 소정의 공간 상의 복수의 사용자들을 대상으로 집단 체험형 확장 현실 컨텐츠를 제공하는 방법을 제공한다. 본 방법은, 상기 소정의 공간 상에 배치된 복수의 센싱부들을 통해 상기 소정의 공간에 대한 영상 및 스캔 데이터를 수신하는 단계, 상기 영상 및 상기 스캔 데이터로부터 상기 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보 와 상기 사용자들 각각의 위치 정보를 수집하는 단계, 그리고, 각각의 특징 정보에 대응되는 사용자의 사용자 단말로 해당 사용자의 위치 정보가 매칭된 확장 현실 컨텐츠를 송신하는 단계를 포함한다.In addition, an embodiment according to a fourth aspect of the present invention provides a method of providing group experience-type augmented reality content to a plurality of users in a predetermined space performed by a server. The method includes the steps of receiving image and scan data of the predetermined space through a plurality of sensing units disposed on the predetermined space, and clothing information and face information of each of the users from the image and the scan data. , collecting characteristic information including at least one of body information and behavioral information and location information of each of the users, and matching the user's location information to the user terminal corresponding to each characteristic information. Transmitting the augmented reality content.
전술한 본 발명의 과제 해결 수단에 따르면, 소정의 공간 상에서 사용자의 특징을 통해 각 사용자들을 구분하고, 구분된 사용자들의 위치 정보를 수집하여 각 사용자들의 위치에 매칭되는 확장 현실 컨텐츠를 제공할 수 있다.According to the above-described problem solving means of the present invention, it is possible to classify each user through the user's characteristics in a predetermined space, collect location information of the separated users, and provide extended reality content matching the location of each user. .
또한, 서로 다른 영역을 촬영 및 스캔하는 복수의 센싱부들의 중복 영역에 어느 한 사용자가 식별될 경우, 복수의 센싱부들 모두 해당 사용자를 하나의 고유 식별 아이디로 구분할 수 있다. In addition, when a user is identified in an overlapping area of a plurality of sensing units that photograph and scan different areas, all of the plurality of sensing units may identify the corresponding user with one unique identification ID.
또한, 복수의 카메라 모듈들 및 라이다 모듈들을 통해 사용자들을 센싱함으로써, 기존의 오큘러스 문제를 해결한 집단 체험형 확장 현실 콘텐츠 제공 시스템을 구현할 수 있다. In addition, by sensing users through a plurality of camera modules and LIDAR modules, it is possible to implement a collective experiential extended reality content providing system that solves the existing Oculus problem.
도 1은 본 발명의 일 실시예에 따른 사용자 특징을 활용한 집단 체험형 확장 현실 제공 시스템을 나타낸 도면이다.
도 2는 도 1에 도시된 사용자 특징을 활용한 집단 체험형 확장 현실 제공 시스템의 전체 구성을 나타낸 도면이다.
도 3은 도 1에 도시된 서버의 구성을 도시한 블록도이다.
도 4는 도 1에 도시된 사용자 특징을 활용한 집단 체험형 확장 현실 제공 시스템이 제공하는 확장 현실 컨텐츠에 대한 일례를 나타낸 도면이다.
도 5는 도 2에 도시된 사용자 특징을 활용한 집단 체험형 확장 현실 제공 시스템의 서버가 복수의 사용자들을 센싱하는 과정에 대한 일례를 나타낸 도면이다.
도 6은 본 발명의 다른 실시예에 따른 집단 체험형 확장 현실 제공 방법을 설명하는 동작 흐름도이다.
도 7은 도 6에 도시된 집단 체험형 확장 현실 제공 방법의 일부 단계에 대한 세부 과정들을 도시한 도면이다. 1 is a diagram illustrating a system for providing group experience-type augmented reality using user characteristics according to an embodiment of the present invention.
FIG. 2 is a diagram showing the overall configuration of a system for providing collective experience type augmented reality using user characteristics shown in FIG. 1 .
3 is a block diagram showing the configuration of the server shown in FIG. 1;
FIG. 4 is a diagram illustrating an example of augmented reality content provided by a system for providing collective experiential augmented reality using user characteristics shown in FIG. 1 .
FIG. 5 is a diagram illustrating an example of a process of sensing a plurality of users by a server of a system for providing group experiential augmented reality using user characteristics shown in FIG. 2 .
6 is an operational flowchart illustrating a method for providing group experiential augmented reality according to another embodiment of the present invention.
FIG. 7 is a diagram illustrating detailed processes of some steps of the method for providing group experiential augmented reality shown in FIG. 6 .
이하에서는 첨부한 도면을 참조하여 본 발명을 상세히 설명하기로 한다. 다만, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들로 한정되는 것은 아니다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다. 여기에 사용되는 기술용어 및 과학용어를 포함하는 모든 용어들은 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 일반적으로 이해하는 의미로 해석되어야 한다. 사전에 정의된 용어들은 관련기술문헌과 현재 개시된 내용에 부합하는 의미를 추가적으로 갖는 것으로 해석되어야 하며, 별도로 정의되지 않는 한 매우 이상적이거나 제한적인 의미로 해석되지 않는다.Hereinafter, the present invention will be described in detail with reference to the accompanying drawings. However, the present invention may be implemented in many different forms, and is not limited to the embodiments described herein. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, and the technical ideas disclosed in this specification are not limited by the accompanying drawings. All terms including technical terms and scientific terms used herein should be interpreted as meanings commonly understood by those of ordinary skill in the art to which the present invention belongs. The terms defined in the dictionary should be interpreted as having additional meanings corresponding to the related technical literature and the currently disclosed content, and are not interpreted in a very ideal or limiting sense unless otherwise defined.
도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 도면에 나타난 각 구성요소의 크기, 형태, 형상은 다양하게 변형될 수 있다. 명세서 전체에 대하여 동일/유사한 부분에 대해서는 동일/유사한 도면 부호를 붙였다. In order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and the size, shape, and shape of each component shown in the drawings may be variously modified. Same/similar reference numerals are assigned to the same/similar parts throughout the specification.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 “부” 등은 명세서 작성의 용이함만이 고려되어 부여 되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략하였다.The suffixes "module" and "unit" for the components used in the following description are given or used interchangeably in consideration of ease of writing the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of related known technologies may obscure the gist of the embodiments disclosed in this specification, the detailed description is omitted.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉 또는 결합)"되어 있다고 할 때, 이는 "직접적으로 연결(접속, 접촉 또는 결합)"되어 있는 경우뿐만 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결 (접속, 접촉 또는 결합)"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함(구비 또는 마련)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 "포함(구비 또는 마련)"할 수 있다는 것을 의미한다. Throughout the specification, when a part is said to be “connected (connected, contacted, or combined)” with another part, this is not only the case where it is “directly connected (connected, contacted, or coupled)”, but also has other members in the middle. It also includes the case of being "indirectly connected (connected, contacted, or coupled)" between them. In addition, when a part "includes (provides or provides)" a certain component, it does not exclude other components, but "includes (provides or provides)" other components unless otherwise specified. means you can
본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 나타내는 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 구성 요소들의 순서나 관계를 제한하지 않는다. 예를 들어, 본 발명의 제1구성요소는 제2구성요소로 명명될 수 있고, 유사하게 제2구성요소도 제1구성 요소로 명명될 수 있다. 본 명세서에서 사용되는 단수 표현의 형태들은 명백히 반대의 의미를 나타내지 않는 한 복수 표현의 형태들도 포함하는 것으로 해석되어야 한다. Terms indicating ordinal numbers such as first and second used in this specification are used only for the purpose of distinguishing one element from another, and do not limit the order or relationship of elements. For example, a first element of the present invention may be termed a second element, and similarly, the second element may also be termed a first element. Singular forms used herein should be construed to include plural forms as well, unless the meaning is clearly indicated to the contrary.
도 1은 본 발명의 일 실시예에 따른 사용자 특징을 활용한 집단 체험형 확장 현실 제공 시스템(이하, “확장 현실 제공 시스템”이라 함)을 나타낸 도면이다.1 is a diagram illustrating a system for providing group experiential extended reality using user characteristics according to an embodiment of the present invention (hereinafter, referred to as “extended reality providing system”).
도 1을 참조하면, 확장 현실 제공 시스템은 서버(100) 및 복수의 센싱부들(200)을 포함하고, 복수의 사용자 단말들(300) 및 복수의 체험 단말들(400)을 더 포함할 수 있다. 서버(100), 센싱부(200), 복수의 사용자 단말들(300) 및 복수의 체험 단말들(400)은 서로 유선 또는 무선 통신망을 통해 상호 연결될 수 있다. Referring to FIG. 1 , the augmented reality providing system includes a
서버(100)는 SaaS (Software as a Service), PaaS (Platform as a Service) 또는 IaaS (Infrastructure as a Service)와 같은 클라우드 컴퓨팅 서버로 형성될 수 있다. 또는 서버(100)는 단말과 같은 컴퓨팅 장치일 수 있다. 복수의 센싱부(200)들은 복수의 사용자들을 촬영하는 RGB 센서와 같은 카메라 모듈 및 복수의 사용자들의 3D 스캔 데이터를 생성하는 라이다 모듈을 포함할 수 있다. 복수의 단말들(300)은 예를 들어, 웹 브라우저(WEB Browser)가 탑재된 노트북, 데스크톱(desktop), 랩톱(laptop), 휴대성과 이동성이 보장되는 무선 통신 장치 또는 스마트폰, 터치패드를 포함하는 태블릿 PC 등과 같은 모든 종류의 핸드헬드(Handheld) 기반의 무선 통신 장치를 의미할 수 있다. 통신망은 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 네트워크로 구현될 수 있다. 복수의 체험 단말(400)들은 가상 현실 기기, 증강 현실 기기, 혼합 현실 기기일 수 있고, 예컨대, AR 글래스, 해드마운트 디스플레이일 수 있다. The
복수의 사용자 단말들(300)은 각 사용자들의 체험 단말들(400)로부터 각 사용자들의 움직임 정보를 수신하고, 서버(100)로부터 각 사용자 단말들(300)의 사용자 위치 정보가 매칭된 확장 현실 컨텐츠를 수신한다. 그리고 복수의 사용자 단말들(300)은 복수의 사용자들 각각의 움직임 정보를 각 사용자들의 확장 현실 컨텐츠에 적용한 확장 현실 컨텐츠 영상을 각 사용자들의 체험 단말들(400)로 제공한다.The plurality of
복수의 체험 단말(400)들은 관성 모듈을 포함하고, 관성 모듈은 복수의 사용자들의 움직임을 센싱하여 각 사용자의 움직임 정보를 생성한다. 복수의 체험 단말(400)들 각각은 해당 움직임 정보를 각 사용자들의 사용자 단말(300)들로 송신한다. 복수의 체험 단말(400)들 각각은 각 사용자들의 사용자 단말(300)들로부터 움직임 정보가 적용된 확장 현실 컨텐츠 영상을 수신하고, 해당 확장 현실 콘텐츠 영상을 출력하여 디스플레이 상에 표시할 수 있다. 도 2는 본 발명의 일 실시예에 따른 사용자 특징을 활용한 집단 체험형 확장 현실 제공 시스템의 전체 구성을 나타낸 도면이다. The plurality of
도 1 및 도 2를 함께 참조하면, 확장 현실 제공 시스템은 소정의 공간(P) 상의 복수의 사용자들을 대상으로 집단 체험형 확장 현실 컨텐츠를 제공한다. 확장 현실 제공 시스템은 서버(100), 복수의 센싱부들(200), 복수의 사용자 단말들(300) 및 복수의 체험 단말(400)들을 포함한다. 복수의 사용자 단말들(300) 및 복수의 체험 단말(400)들을에 대한 설명은 도 1을 참조하여 설명했으므로 이하에서 생략하도록 한다. Referring to FIGS. 1 and 2 together, the augmented reality providing system provides group experiential augmented reality content to a plurality of users in a predetermined space P. The augmented reality providing system includes a
서버(100)는 복수의 센싱부(200)들로부터 수신한 소정의 공간(P)에 대한 영상 및 스캔 데이터를 기초로 복수의 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보와 복수의 사용자들 각각의 위치 정보를 수집한다. 서버(100)는 각각의 특징 정보에 대응되는 사용자의 사용자 단말(300)로 해당 사용자의 위치 정보에 매칭되는 확장 현실 콘텐츠를 제공한다. 여기서, 영상 및 스캔 데이터는 소정의 공간(P) 내 서로 다른 영역들을 촬영 및 스캔하도록 배치된 상기 복수의 센싱부들로부터 수신되는 것이고, 상기 서로 다른 영역들은 하나 이상의 중복 영역을 포함한다. 서버(100)는 특징 정보를 기초로 복수의 사용자들 각각에게 고유 식별 아이디를 부여하고, 고유 식별 아이디가 부여된 복수의 사용자들을 트래킹하여 각 사용자의 위치 정보를 수집한다. 예를 들어, 어느 한 사용자가 빨간색 티와 검정 신발을 신고 있을 경우, 서버(100)는 복수의 센싱부(200)들로부터 수신한 영상 및 스캔 데이터에서 해당 사용자의 특징으로 빨간색 티와 검색 신발을 추출하고, 해당 사용자에게 고유 식별 아이디를 부여할 수 있다. The
서버(100)는 복수의 센싱부(200)들이 복수의 사용자들 각각에게 부여된 아이디를 공유하도록 한다. 보다 상세하게는, 서버(100)는 복수의 센싱부(200)들에 의해 복수의 사용자들 중 특정 사용자가 중복 영역에서 센싱된 경우, 중복 영역을 촬영 및 스캔하는 복수의 센싱부(200)들이 어느 한 사용자를 하나의 고유 식별 아이디로 인식하도록 한다. 이는 서로 다른 영역을 촬영 및 스캔하는 복수의 센싱부(200)들이 특정 사용자를 제1 영역에서 인식했을 때, 제1 아이디를 부여하고, 제2 영역에서 인식했을 때 제2 아이디를 부여하면, 한 사용자가 여러 개의 고유 식별 아이디를 부여 받게 되므로, 해당 사용자가 중복 영역에서 인식될 경우, 센싱부(200)들은 해당 사용자를 서로 다르게 인식하는 문제가 발생할 수 있다.The
이러한 문제를 해결하기 위해 서버(100)는 한 사용자를 하나의 고유 식별 아이디로 인식하도록 한다. 서버(100)는 사용자의 특징을 추출하고, 사용자의 특징을 구분하여 각 사용자에게 고유 식별 아이디를 부여하는 것을 인공지능 모델을 통해 수행할 수 있다. To solve this problem, the
복수의 센싱부(200)들은 소정의 공간(P) 상에 배치된다. 복수의 센싱부(200)들은 소정의 공간(P) 내 서로 다른 영역을 촬영 및 스캔하도록 배치되고, 서로 다른 영역들은 하나 이상의 중복 영역을 포함한다. 복수의 센싱부(200)들은 소정의 공간(P)의 천장의 서로 다른 위치에 기울어져 배치되어 서로 다른 영역을 촬영 및 스캔함으로써, 복수의 사용자들을 다각도로 촬영 및 스캔할 수 있다. 복수의 센싱부(200)들은 복수의 카메라 모듈(210)들 및 복수의 라이다 모듈(220)들을 포함한다. A plurality of sensing
복수의 카메라 모듈(210)들은 복수의 사용자들의 2차원 이미지를 연속적으로 획득한다. 복수의 라이다 모듈(220)들은 복수의 사용자들의 3차원 스캔 데이터를 연속적으로 획득한다. 복수의 라이다 모듈(220)은 3차원 스캔 오차 범위가 1mm 이하이고, 360도 범위로 스캔할 수 있다. A plurality of
복수의 사용자 단말(300)들은 통신 모듈, 메모리, 입출력 모듈 및 프로세서를 포함한다. The plurality of
사용자 단말(300)의 통신 모듈은 서버(100) 및 체험 단말(400)과의 정보 송수신을 수행한다. 사용자 단말(300)의 통신 모듈은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치를 포함할 수 있다. The communication module of the
사용자 단말(300)의 메모리는 확장 현실 컨텐츠 실행 프로그램을 저장한다. 확장 현실 컨텐츠 실행 프로그램의 명칭은 설명의 편의를 위해 설정된 것으로, 명칭 그 자체로 프로그램의 기능을 제한하는 것은 아니다.The memory of the
사용자 단말(300)의 입출력 모듈은 외부로부터 사용자 단말(300)로 전송되는 정보, 데이터 등을 입력받거나, 사용자 단말(300)이 보유한 정보, 데이터 등을 외부로 출력할 수 있다. 예컨대, 사용자 단말(300)의 입출력 모듈은 디스플레이, 터치패드, 스피커 및 마이크 등을 포함할 수 있다. The input/output module of the
사용자 단말(300)의 프로세서는 메모리에 저장된 확장 현실 컨텐츠 실행 프로그램을 실행하여 다음과 같은 기능 및 절차들을 수행하도록 구성된다.The processor of the
사용자 단말(300)의 프로세서는 체험 단말(400)로부터 사용자의 움직임 정보를 수신하고, 서버(100)로부터 사용자의 위치 정보가 매칭된 확장 현실 컨텐츠를 수신한다. 사용자의 움직임 정보는 머리 회전 및 머리 방향 등을 포함하는 사용자의 머리 움직임일 수 있다. 사용자의 움직임 정보를 통해 사용자가 바라보는 방향을 알 수 있다. The processor of the
사용자 단말(300)의 프로세서는 사용자의 움직임 정보에 따른 사용자의 시야 정보를 서버(100)로부터 수신한 확장 현실 컨텐츠에 적용한 확장 현실 컨텐츠 영상을 체험 단말(400)로 제공한다. 이를 통해 사용자 단말(300)의 프로세서는 사용자가 바라보는 방향의 확장 현실 컨텐츠 영상을 체험 단말(400)로 제공할 수 있다.The processor of the
복수의 체험 단말(400)들은 통신 모듈, 메모리, 입출력 모듈, 관성 모듈 및 프로세서를 포함한다. The plurality of
체험 단말(400)의 통신 모듈은 사용자 단말(300)과의 정보 송수신을 수행한다. 체험 단말(400)의 통신 모듈은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치를 포함할 수 있다. The communication module of the
체험 단말(400)의 메모리는 확장 현실 컨텐츠 출력 프로그램을 저장한다. 확장 현실 컨텐츠 출력 프로그램의 명칭은 설명의 편의를 위해 설정된 것으로, 명칭 그 자체로 프로그램의 기능을 제한하는 것은 아니다.The memory of the
체험 단말(400)의 입출력 모듈은 외부로부터 체험 단말(400)로 전송되는 정보, 데이터 등을 입력받거나, 체험 단말(400)이 보유한 정보, 데이터 등을 외부로 출력할 수 있다. 예컨대, 체험 단말(400)의 입출력 모듈은 디스플레이, 스피커 및 마이크 등을 포함할 수 있다. The input/output module of the
체험 단말(400)의 관성 모듈은 사용자의 머리 회전, 머리 움직임 속도 및 머리 방향 등의 사용자 움직임을 측정한다. 체험 단말(400)의 관성 모듈은 IMU(Inertial Measurement Unit) 센서일 수 있다.The inertia module of the
체험 단말(400)의 프로세서는 메모리에 저장된 확장 현실 컨텐츠 출력 프로그램을 실행하여 다음과 같은 기능 및 절차들을 수행하도록 구성된다.The processor of the
체험 단말(400)의 프로세서는 사용자 단말(300)에게 관성 모듈에서 측정한 사용자 움직임을 송신한다. 체험 단말(400)의 프로세서는 사용자 단말(300)로부터 사용자 움직임이 적용된 확장 현실 컨텐츠 영상을 수신하고, 해당 컨텐츠 영상을 체험 단말(400)의 입출력 모듈에 출력할 수 있다. The processor of the
도 3은 도 1에 도시된 서버(100)의 구성을 도시한 블록도이다. FIG. 3 is a block diagram showing the configuration of the
도 3을 참조하면, 서버(100)는 통신 모듈(110), 메모리(120) 및 프로세서(140)를 포함하고, 데이터베이스(130)를 더 포함할 수 있다. Referring to FIG. 3 , the
통신 모듈(110)은 복수의 사용자 단말들 및 복수의 센싱부들과의 정보 송수신을 수행한다. 통신 모듈(110)은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치를 포함할 수 있다.The
메모리(120)는 콘텐츠 제공 프로그램을 저장한다. 콘텐츠 제공 프로그램의 명칭은 설명의 편의를 위해 설정된 것으로, 명칭 그 자체로 프로그램의 기능을 제한하는 것은 아니다. 메모리(120)는 통신 모듈(110)로 입력되는 정보 및 데이터, 프로세서(140)에 의해 수행되는 기능에 필요한 정보 및 데이터, 프로세서(140)의 실행에 따라 생성된 데이터 중 적어도 어느 하나 이상을 저장할 수 있다. 메모리(120)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력을 필요로 하는 휘발성 저장장치를 통칭하는 것으로 해석되어야 한다. 또한, 메모리(120)는 프로세서(140)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 메모리(120)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. The
데이터베이스(130)는 확장 현실 콘텐츠를 제공하는데 필요한 데이터가 저장되는 곳일 수 있다. 데이터베이스(130)는 메모리(120)의 일부 영역에 구축되거나 별도의 하드웨어로 구현될 수 있다. The
프로세서(140)는 데이터를 제어 및 처리하는 다양한 종류의 장치들을 포함할 수 있다. 프로세서(140)는 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 일 예에서, 프로세서(140)는 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 프로세서(140)는 메모리(120)에 저장된 콘텐츠 제공 프로그램을 실행하여 앞서 도 2를 참조하여 설명한 서버(100)가 수행하는 기능 및 절차들을 수행하도록 구성된다. 즉, 프로세서(140)가 수행하는 기능 및 동작들은 앞서 설명한 서버(100)가 수행하는 기능 및 동작들과 실질적으로 동일하므로, 이에 대한 설명은 생략하도록 한다. The
도 4는 도 1의 시스템이 제공하는 확장 현실 컨텐츠에 대한 일례를 나타낸 도면이고, 도 4의 (a)는 실제 공간(P1) 상의 복수의 사용자들을 나타낸 도면이고, 도 4의 (b)는 실제 공간(P1) 상의 복수의 사용자들에게 증강 현실 컨텐츠를 제공한 예시를 나타낸 도면이다. 4 is a diagram showing an example of extended reality content provided by the system of FIG. 1, FIG. 4 (a) is a diagram showing a plurality of users in a real space (P1), and FIG. It is a diagram showing an example of providing augmented reality content to a plurality of users in the space P1.
도 4의 (a) 및 (b)를 참조하면, 복수의 사용자(510)들은 실제 공간(P1) 상에 위치하고, 확장 현실 제공 시스템이 복수의 사용자(510)들을 센싱하고, 각 사용자(510)의 사용자 단말로 확장 현실 컨텐츠를 제공한다. 그리고, 사용자 단말에서 사용자의 체험 단말로 확장 현실 컨텐츠를 제공한다. Referring to (a) and (b) of FIG. 4 , a plurality of users 510 are located on a real space P1, the augmented reality providing system senses the plurality of users 510, and each user 510 The extended reality content is provided to the user terminal of the user terminal. Then, the user terminal provides the extended reality content to the user's experience terminal.
확장 현실 컨텐츠는 이미지, 영상 등을 포함하는 인터페이스 형태로 확장 현실 제공 시스템의 서버(100)에서 생성되어 사용자 단말로 제공될 수 있다. 확장 현실 컨텐츠는 확장 현실에 현실감을 더해주고 복수의 사용자들(510)과 상호작용이 가능한 조경, 타일 및 기타 사물 등 중 적어도 하나 이상을 포함할 수 있다. 확장 현실 컨텐츠는 복수의 사용자(510)들의 위치 및 각도에 따른 소리를 체험할 수 있도록 소리 정보를 포함할 수 있다. 예를 들어, 확장 현실 컨텐츠가 종과 같은 사물을 포함할 경우, 어느 한 사용자가 해당 종을 타종하는 행위를 하면, 주변에 있는 사용자들도 각 위치에 맞는 종소리가 들리도록 할 수 있다. 해당 종과 가까이 위치한 사용자에게는 좀더 큰 볼륨의 종소리가 재생되도록 하고, 해당 종과 멀리 떨어진 위치에 있는 사용자에게는 작은 볼륨의 종소리가 재생되도록 한다.The augmented reality content may be generated in the
도 5는 집단 체험형 확장 현실 제공 시스템의 서버가 복수의 사용자들을 센싱하는 과정에 대한 일례를 나타낸 도면이다. 도 5의 (a)는 복수의 센싱부들을 통해 소정의 공간을 서로 다른 영역별로 촬영 및 스캔하는 예시를 나타낸 도면이고, 도 5의 (b)는 복수의 사용자들 각각에게 고유 식별 아이디를 부여하는 예시를 나타낸 도면이고, 도 5의 (c)는 고유 식별 아이디가 부여된 복수의 사용자들 각각의 위치 정보를 수집하는 예시를 나타낸 도면이고, 그리고 도 5의 (d)는 복수의 사용자들 각각의 위치 정보를 확장 현실 컨텐츠에 적용하는 예시를 나타낸 도면이다.5 is a diagram showing an example of a process of sensing a plurality of users by a server of a collective experience-type augmented reality providing system. 5(a) is a diagram showing an example of photographing and scanning a predetermined space for each different area through a plurality of sensing units, and FIG. It is a diagram showing an example, and FIG. 5 (c) is a diagram showing an example of collecting location information of each of a plurality of users to which a unique identification ID is assigned, and FIG. It is a diagram showing an example of applying location information to augmented reality content.
도 5의 (a)를 참조하면, 서버(100)는 복수의 센싱부(200)들을 통해 소정의 공간을 서로 다른 영역(610, 620, 630 및 640)들로 촬영 및 스캔한다. 복수의 카메라 모듈(210)들은 소정의 공간 상부에 배치되고, 기울어진 각도로 서로 다른 영역을 촬영하고, 복수의 라이다 모듈(220)들 각각이 복수의 카메라 모듈(210)들 각각과 인접하게 배치되고, 360도 범위로 복수의 사용자들을 스캔한다. 서로 다른 영역은 제1 영역(610), 제2 영역(620), 제3 영역(630) 및 제4 영역(640)을 포함한다. 서로 다른 영역(610, 620, 630 및 640)들은 하나 이상의 중복 영역을 포함한다. 예를 들어, 중복 영역은, 제1 영역(610), 제2 영역(620), 제3 영역(630) 및 제4 영역(640) 중 적어도 하나 이상의 영역들의 중복 영역일 수 있다. Referring to (a) of FIG. 5 , the
도 5의 (b)를 참조하면, 서버(100)는 각 영역에서 촬영 및 스캔된 복수의 사용자들 각각에게 고유 식별 아이디(650)를 부여한다. 서버(100)는 복수의 센싱부(200)들이 복수의 사용자들 각각에게 부여된 고유 식별 아이디를 공유하도록 한다. 제1 영역(610) 및 제2 영역(620)의 중복 영역에서 어느 한 사용자가 식별될 경우, 제1 영역(610) 및 제2 영역(620)을 촬영 및 스캔하는 센싱부(200)들은 어느 한 사용자를 하나의 고유 식별 아이디(650)로 인식하도록 할 수 있다. Referring to (b) of FIG. 5 , the
도 5의 (c) 및 (d)를 참조하면, 서버(100)는 고유 식별 아이디(650)가 부여된 복수의 사용자들을 트래킹하여 위치 정보(660)를 수집한다. 그리고, 수집한 위치 정보를 확장 현실 컨텐츠에 매칭한다. Referring to (c) and (d) of FIG. 5 , the
도 6은 본 발명의 다른 실시예에 따른 집단 체험형 확장 현실 제공 방법을 설명하는 동작 흐름도이고, 도 7은 집단 체험형 확장 현실 제공 방법의 일부 단계에 대한 세부 과정들을 도시한 도면이다. 이하에서 도 6 및 도 7을 참조하여 집단 체험형 확장 현실 제공 방법을 설명하고자 한다. 이하에서 설명될 집단 체험형 확장 현실 제공 방법의 각 단계들은 앞서 도 1 내지 도5를 참조하여 설명한 집단 체험형 확장 현실 제공 시스템에 의해 수행될 수 있다. 따라서, 앞서 도 1 내지 도 5를 참조하여 설명한 본 발명의 실시예에 대한 내용은 이하에서 설명될 실시예에도 동일하게 적용될 수 있으며, 이하에서 상술한 설명과 중복되는 내용은 생략하도록 한다. 이하에서 설명되는 단계들은 반드시 순서대로 수행되어야 하는 것은 아니고, 단계들의 순서는 다양하게 설정될 수 있으며, 단계들은 거의 동시에 수행될 수도 있다.FIG. 6 is an operation flow chart illustrating a method for providing a group experiential type of augmented reality according to another embodiment of the present invention, and FIG. 7 is a diagram showing detailed processes of some steps of the method for providing a group experiential type of augmented reality. Hereinafter, a method for providing group experiential augmented reality will be described with reference to FIGS. 6 and 7 . Each step of the method for providing group experience-type augmented reality to be described below may be performed by the group experience-type augmented reality provision system described above with reference to FIGS. 1 to 5 . Therefore, the contents of the embodiments of the present invention described above with reference to FIGS. 1 to 5 can be equally applied to the embodiments to be described below, and descriptions overlapping with those described above will be omitted. The steps described below do not necessarily have to be performed in order, the order of the steps may be set in various ways, and the steps may be performed almost simultaneously.
도 6을 참조하면, 집단 체험형 확장 현실 제공 방법은 정보 수신 단계(S1100), 특징 정보 및 위치 정보 수집 단계(S1200) 및 컨텐츠 제공 단계(S1300)를 포함한다. Referring to FIG. 6 , the method for providing group experiential augmented reality includes receiving information (S1100), collecting feature information and location information (S1200), and providing content (S1300).
정보 수신 단계(S1100)는 복수의 센싱부들로부터 영상 및 스캔 데이터를 수신하는 단계이다. 영상 및 스캔 데이터는 소정의 공간 내 서로 다른 영역들을 촬영 및 스캔하도록 배치된 복수의 센싱부들로부터 수신되는 것이고, 서로 다른 영역들은 하나 이상의 중복 영역을 포함한다. The information receiving step (S1100) is a step of receiving images and scan data from a plurality of sensing units. Images and scan data are received from a plurality of sensing units disposed to photograph and scan different areas within a predetermined space, and the different areas include one or more overlapping areas.
특징 정보 및 위치 정보 수집 단계(S1200)는 소정의 공간에 대한 영상 및 스캔 데이터를 기초로 복수의 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보와 복수의 사용자들 각각의 위치 정보를 획득하는 단계이다. In the collecting feature information and location information (S1200), feature information including at least one or more of costume information, face information, body information, and behavior information of each of a plurality of users based on image and scan data of a predetermined space and This is a step of acquiring location information of each of a plurality of users.
컨텐츠 제공 단계(S1300)는 각각의 특징 정보에 대응되는 사용자의 사용자 단말로 해당 사용자의 위치 정보에 매칭되는 확장 현실 콘텐츠를 제공하는 단계이다. 확장 현실 콘텐츠는 상기 사용자 단말들과 연동된 상기 사용자들이 착탈 가능하도록 구성된 체험 단말들로 전송될 수 있다. 체험 단말들은 전송 받은 확장 현실 콘텐츠를 출력 및 디스플레이 상에 표시할 수 있다. The content providing step (S1300) is a step of providing extended reality content matched to the user's location information to the user's terminal corresponding to each feature information. Extended reality content may be transmitted to experience terminals configured to be attachable or detachable by the users linked to the user terminals. Experience terminals may output and display the transmitted extended reality content on a display.
도 7을 참조하면, 특징 정보 및 위치 정보 수집 단계(S1200)는 아이디 부여 단계(S1210) 및 위치 정보 수집 단계(S1220)를 포함한다. Referring to FIG. 7 , the feature information and location information collection step (S1200) includes an ID assignment step (S1210) and location information collection step (S1220).
아이디 부여 단계(S1210)는 특징 정보를 기초로 복수의 사용자들 각각에게 고유 식별 아이디를 부여하는 단계이다. ID assignment step (S1210) is a step of assigning a unique identification ID to each of a plurality of users based on the characteristic information.
위치 정보 수집 단계(S1220)는 고유 식별 아이디가 부여된 복수의 사용자들을 트래킹하여 각 사용자의 위치 정보를 수집하는 단계이다. The location information collection step (S1220) is a step of collecting location information of each user by tracking a plurality of users to which a unique identification ID has been assigned.
이상 지금까지 설명한 본 발명의 실시예들에 따른 사용자 특징을 활용한 집단 체험형 확장 현실 제공 방법은, 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. The method for providing group experiential augmented reality using user characteristics according to the embodiments of the present invention described above is also in the form of a recording medium containing instructions executable by a computer, such as a program module executed by a computer. can be implemented Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. Also, computer readable media may include computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 상술한 설명을 기초로 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해되어야만 한다. 본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다. 본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.Those skilled in the art to which the present invention pertains will be able to understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention based on the above description. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The scope of the present invention is indicated by the following claims, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present invention. The scope of the present application is indicated by the following claims rather than the detailed description above, and all changes or modifications derived from the meaning and scope of the claims and equivalent concepts thereof should be construed as being included in the scope of the present application.
100: 서버
110: 통신 모듈
120: 메모리
130: 데이터베이스
140: 프로세서
200: 센싱부
210: 카메라 모듈
220: 라이다 모듈
300: 사용자 단말
400: 체험 단말100: server
110: communication module
120: memory
130: database
140: processor
200: sensing unit
210: camera module
220: lidar module
300: user terminal
400: experience terminal
Claims (18)
복수의 사용자 단말들 및 센싱부들과의 정보 송수신을 수행하는 통신 모듈;
콘텐츠 제공 프로그램을 저장하는 메모리; 및
상기 메모리에 저장된 프로그램을 실행하는 프로세서를 포함하며,
상기 프로세서는, 상기 콘텐츠 제공 프로그램을 실행하여,
상기 센싱부들로부터 수신한 상기 소정의 공간에 대한 영상 및 스캔 데이터를 기초로, 상기 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보와 상기 사용자들 각각의 위치 정보를 획득하고, 그리고, 각각의 특징 정보에 대응되는 사용자의 사용자 단말로 해당 사용자의 위치 정보에 매칭되는 확장 현실 콘텐츠를 제공하도록 구성되고,
상기 확장 현실 콘텐츠는 상기 사용자 단말들과 연동된 상기 사용자들이 착탈 가능하도록 구성된 체험 단말들로 전송되는 것인, 집단 체험형 확장 현실 제공 장치.An apparatus for providing group experiential extended reality content to a plurality of users in a predetermined space,
A communication module for transmitting and receiving information with a plurality of user terminals and sensing units;
a memory for storing a content providing program; and
A processor for executing a program stored in the memory;
The processor executes the content providing program,
Based on the image and scan data of the predetermined space received from the sensing units, feature information including at least one of clothing information, face information, body information, and behavior information of each of the users and each of the users Acquiring location information of, and configured to provide extended reality content matching the location information of the user to a user terminal of a user corresponding to each characteristic information,
Wherein the extended reality content is transmitted to experience terminals configured to be detachable by the users interlocked with the user terminals.
상기 영상 및 스캔 데이터는 상기 소정의 공간 내 서로 다른 영역들을 촬영 및 스캔하도록 배치된 상기 센싱부들로부터 수신되는 것이고, 상기 서로 다른 영역들은 하나 이상의 중복 영역을 포함하는 것인, 집단 체험형 확장 현실 제공 장치.According to claim 1,
The image and scan data are received from the sensing units arranged to photograph and scan different areas in the predetermined space, and the different areas include one or more overlapping areas, providing a collective experiential type of extended reality. Device.
상기 프로세서는,
상기 특징 정보를 기초로 상기 사용자들 각각에게 고유 식별 아이디를 부여하고, 그리고,
상기 고유 식별 아이디가 부여된 상기 사용자들을 트래킹하여 각 사용자의 위치 정보를 수집하는 것인, 집단 체험형 확장 현실 제공 장치.According to claim 1,
the processor,
Based on the characteristic information, a unique identification ID is assigned to each of the users, and
and collecting location information of each user by tracking the users to whom the unique identification ID has been assigned.
상기 프로세서는
상기 영상 및 스캔 데이터의 사용자들 각각에게 부여된 상기 고유 식별 아이디를 공유하도록 하는 것인, 집단 체험형 확장 현실 제공 장치.According to claim 3,
The processor
To share the unique identification ID assigned to each of the users of the image and scan data, a group experience-type augmented reality providing device.
상기 사용자들 중 특정 사용자가 상기 중복 영역에서 촬영 및 스캔된 경우,
상기 프로세서는,
상기 센싱부들 중 상기 중복 영역을 센싱하는 센싱부들이 상기 특정 사용자를 동일한 고유 식별 아이디로 인식하도록 하는 것인, 집단 체험형 확장 현실 제공 장치.According to claim 2,
When a specific user among the users is photographed and scanned in the overlapping area,
the processor,
The apparatus for providing group experience-type augmented reality, wherein the sensing units sensing the overlapping area among the sensing units recognize the specific user with the same unique identification ID.
a) 상기 소정의 공간 상에 배치된 복수의 센싱부들로부터 상기 소정의 공간에 대한 영상 및 스캔 데이터를 수신하는 단계;
b) 상기 영상 및 스캔 데이터를 기초로 상기 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보와 상기 사용자들 각각의 위치 정보를 획득하는 단계; 및
c) 각각의 특징 정보에 대응되는 사용자의 사용자 단말로 해당 사용자의 위치 정보에 매칭되는 확장 현실 콘텐츠를 제공하는 단계를 포함하고,
상기 확장 현실 콘텐츠는 상기 사용자 단말들과 연동된 상기 사용자들이 착탈 가능하도록 구성된 체험 단말들로 전송되는 것인, 집단 체험형 확장 현실 제공 방법.A method of providing group experiential extended reality content to a plurality of users in a predetermined space, performed by a processor, comprising:
a) receiving images and scan data of the predetermined space from a plurality of sensing units disposed on the predetermined space;
b) obtaining feature information including at least one of costume information, face information, body information, and behavior information of each of the users and location information of each of the users based on the image and scan data; and
c) providing extended reality content matched to the user's location information to a user's terminal corresponding to each feature information;
Wherein the extended reality content is transmitted to experiential terminals configured to be attachable and detachable to the users interlocked with the user terminals.
상기 영상 및 스캔 데이터는 상기 소정의 공간 내 서로 다른 영역들을 촬영 및 스캔하도록 배치된 상기 센싱부들로부터 수신되는 것이고, 상기 서로 다른 영역들은 하나 이상의 중복 영역을 포함하는 것인, 집단 체험형 확장 현실 제공 방법.According to claim 6,
The image and scan data are received from the sensing units arranged to photograph and scan different areas in the predetermined space, and the different areas include one or more overlapping areas, providing a collective experiential type of extended reality. method.
상기 b) 단계는,
상기 특징 정보를 기초로 상기 사용자들 각각에게 고유 식별 아이디를 부여하는 단계; 및
상기 고유 식별 아이디가 부여된 상기 사용자들을 트래킹하여 각 사용자의 위치 정보를 수집하는 단계를 포함하는 것인, 집단 체험형 확장 현실 제공 방법.According to claim 6
In step b),
assigning a unique identification ID to each of the users based on the characteristic information; and
and collecting location information of each user by tracking the users to whom the unique identification ID has been assigned.
서버;
상기 서버와 통신 연결되는 복수의 사용자 단말들;
상기 소정의 공간에 대한 영상 및 스캔 데이터를 획득하는 복수의 센싱부들; 및
상기 사용자 단말들로부터 수신되는 확장 현실 콘텐츠를 출력하고 상기 사용자들이 착탈 가능하도록 구성되는 복수의 체험 단말들을 포함하고,
상기 서버는, 상기 센싱부들로부터 수신한 상기 영상 및 스캔 데이터를 기초로 상기 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보와 상기 사용자들 각각의 위치 정보를 획득하고, 그리고,
각각의 특징 정보에 대응되는 사용자의 사용자 단말로 해당 사용자의 위치 정보에 매칭되는 확장 현실 콘텐츠를 제공하는 것인, 집단 체험형 확장 현실 제공 시스템.In a system for providing group experiential extended reality content to a plurality of users in a predetermined space,
server;
a plurality of user terminals connected to the server in communication;
a plurality of sensing units for obtaining images and scan data of the predetermined space; and
Includes a plurality of experience terminals configured to output extended reality content received from the user terminals and to be detachable by the users;
The server may include characteristic information including at least one of costume information, face information, body information, and behavior information of each of the users and location of each of the users based on the image and scan data received from the sensing units. obtain information, and
A group experience-type augmented reality providing system, which provides extended reality content matching the user's location information to a user terminal corresponding to each characteristic information.
상기 센싱부들은 상기 소정의 공간 내 서로 다른 영역을 촬영 및 스캔하도록 배치되고, 그리고,
상기 서로 다른 영역들은 하나 이상의 중복 영역을 포함하는 것인, 집단 체험형 확장 현실 제공 시스템.According to claim 9,
The sensing units are arranged to photograph and scan different areas within the predetermined space, and
Wherein the different areas include one or more overlapping areas, a group experiential augmented reality providing system.
상기 센싱부들은 복수의 카메라 모듈들 및 라이다 모듈들을 포함하고,
상기 카메라 모듈들은 상기 사용자들의 2차원 이미지를 연속적으로 획득하고, 그리고
상기 라이다 모듈들은 상기 사용자들의 3차원 스캔 데이터를 연속적으로 획득하는 것인, 집단 체험형 확장 현실 제공 시스템.According to claim 9,
The sensing units include a plurality of camera modules and LIDAR modules,
The camera modules continuously acquire two-dimensional images of the users, and
The lidar modules continuously acquire the three-dimensional scan data of the users, the collective experiential augmented reality providing system.
상기 서버는,
상기 특징 정보를 기초로 상기 사용자들 각각에게 고유 식별 아이디를 부여하고, 그리고
상기 고유 식별 아이디가 부여된 상기 사용자들을 트래킹하여 각 사용자의 위치 정보를 수집하는 것인, 집단 체험형 확장 현실 제공 시스템.According to claim 10,
The server,
Based on the characteristic information, a unique identification ID is assigned to each of the users, and
Collecting location information of each user by tracking the users to whom the unique identification ID is assigned, a collective experience-type augmented reality providing system.
상기 서버는,
상기 센싱부들이 상기 사용자들 각각에게 부여된 고유 식별 아이디를 공유하도록 하는 것인, 집단 체험형 확장 현실 제공 시스템.According to claim 12,
The server,
The group experience-type augmented reality providing system, wherein the sensing units share a unique identification ID assigned to each of the users.
상기 센싱부들에 의해 상기 사용자들 중 특정 사용자가 상기 중복 영역에서 센싱된 경우,
상기 서버는,
상기 중복 영역을 촬영 및 스캔하는 센싱부들이 상기 특정 사용자를 동일한 고유 식별 아이디로 인식하도록 하는 것인, 집단 체험형 확장 현실 제공 시스템.According to claim 13,
When a specific user among the users is sensed in the overlapping area by the sensing units,
The server,
The group experience-type augmented reality providing system, wherein the sensing units for photographing and scanning the overlapping area recognize the specific user with the same unique identification ID.
상기 체험 단말들은 상기 사용자들의 움직임을 센싱하여 각 사용자의 움직임 정보를 생성하는 관성 모듈을 포함하고, 그리고
상기 사용자 단말들은,
상기 서버로부터 수신한 상기 위치 정보에 매칭된 확장 현실 컨텐츠에 상기 움직임 정보에 따른 사용자의 시야 정보를 적용한 확장 현실 컨텐츠 영상을 상기 체험 단말들로 제공하는 것인, 집단 체험형 확장 현실 제공 시스템.According to claim 9,
The experience terminals include an inertia module that senses the motions of the users and generates motion information of each user, and
The user terminals,
and providing an extended reality content image obtained by applying user's view information according to the movement information to the extended reality content matched to the location information received from the server to the experience terminals.
i) 상기 소정의 공간 상에 배치된 복수의 센싱부들을 통해 상기 소정의 공간에 대한 영상 및 스캔 데이터를 수신하는 단계;
ii) 상기 영상 및 상기 스캔 데이터로부터 상기 사용자들 각각의 의상 정보, 얼굴 정보, 신체 정보 및 행동 정보 중 적어도 하나 이상을 포함하는 특징 정보 와 상기 사용자들 각각의 위치 정보를 수집하는 단계; 및
iii) 각각의 특징 정보에 대응되는 사용자의 사용자 단말로 해당 사용자의 위치 정보가 매칭된 확장 현실 컨텐츠를 송신하는 단계를 포함하는 집단 체험형 확장 현실 제공 방법.A method of providing group experiential extended reality content to a plurality of users in a predetermined space performed by a server, the method comprising:
i) receiving images and scan data of the predetermined space through a plurality of sensing units disposed on the predetermined space;
ii) collecting characteristic information including at least one of costume information, face information, body information, and behavior information of each of the users and location information of each of the users from the image and the scan data; and
iii) A method for providing group experience-type augmented reality, which includes transmitting extended reality content matched with location information of a corresponding user to a user terminal of a user corresponding to each characteristic information.
상기 i) 단계는,
상기 소정의 공간 내 서로 다른 영역들을 촬영 및 스캔하도록 배치된 상기 센싱부들로부터 상기 영상 및 스캔 데이터를 수신하는 단계를 포함하고, 그리고
상기 서로 다른 영역은 하나 이상의 중복 영역을 포함하는 것인, 집단 체험형 확장 현실 제공 방법.According to claim 16,
In step i),
receiving the image and scan data from the sensing units disposed to photograph and scan different areas within the predetermined space; and
Wherein the different regions include one or more overlapping regions, a collective experiential type of augmented reality providing method.
상기 ii) 단계는,
상기 특징 정보를 기초로 상기 사용자들 각각에게 고유 식별 아이디를 부여하는 단계; 및
상기 고유 식별 아이디가 부여된 상기 사용자들을 트래킹하여 각 사용자의 위치 정보를 수집하는 단계를 포함하는 것인, 집단 체험형 확장 현실 제공 방법.According to claim 17,
In step ii),
assigning a unique identification ID to each of the users based on the characteristic information; and
and collecting location information of each user by tracking the users to whom the unique identification ID has been assigned.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220025227A KR20230127669A (en) | 2022-02-25 | 2022-02-25 | Method, apparatus and sysyem for providing group experiential extended reality using user characteristics |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220025227A KR20230127669A (en) | 2022-02-25 | 2022-02-25 | Method, apparatus and sysyem for providing group experiential extended reality using user characteristics |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230127669A true KR20230127669A (en) | 2023-09-01 |
Family
ID=87975315
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220025227A KR20230127669A (en) | 2022-02-25 | 2022-02-25 | Method, apparatus and sysyem for providing group experiential extended reality using user characteristics |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230127669A (en) |
-
2022
- 2022-02-25 KR KR1020220025227A patent/KR20230127669A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7506091B2 (en) | Image-based localization | |
US11727594B2 (en) | Augmented reality for three-dimensional model reconstruction | |
US10827133B2 (en) | Communication terminal, image management apparatus, image processing system, method for controlling display, and computer program product | |
US8442307B1 (en) | Appearance augmented 3-D point clouds for trajectory and camera localization | |
Chen et al. | Crowd map: Accurate reconstruction of indoor floor plans from crowdsourced sensor-rich videos | |
US20220237812A1 (en) | Item display method, apparatus, and device, and storage medium | |
US20220309836A1 (en) | Ai-based face recognition method and apparatus, device, and medium | |
CN108875133A (en) | Determine architectural composition | |
KR20220160066A (en) | Image processing method and apparatus | |
US11461921B2 (en) | Program, system, electronic device, and method for recognizing three-dimensional object | |
KR102498597B1 (en) | Electronic device and method for identifying object based on setting region-of-interest by using the same | |
CN109074497A (en) | Use the activity in depth information identification sequence of video images | |
US10600202B2 (en) | Information processing device and method, and program | |
WO2022087846A1 (en) | Image processing method and apparatus, device, and storage medium | |
JP6305856B2 (en) | Image processing apparatus, image processing method, and program | |
JP2017182681A (en) | Image processing system, information processing device, and program | |
CN113723164A (en) | Method, device and equipment for acquiring edge difference information and storage medium | |
KR20230127669A (en) | Method, apparatus and sysyem for providing group experiential extended reality using user characteristics | |
JP2018045517A (en) | Application device, application method, and application program | |
CN115482285A (en) | Image alignment method, device, equipment and storage medium | |
CN114898282A (en) | Image processing method and device | |
JP2023527679A (en) | Panorama generation using mobile camera | |
CN110753931A (en) | System and method for nodding action recognition based on facial feature points | |
US9058674B1 (en) | Enhancing resolution of single images | |
US20230401796A1 (en) | Fast ar device pairing using depth predictions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |