WO2023017890A1 - Method for providing metaverse, apparatus for providing metaverse, and system for providing metaverse - Google Patents

Method for providing metaverse, apparatus for providing metaverse, and system for providing metaverse Download PDF

Info

Publication number
WO2023017890A1
WO2023017890A1 PCT/KR2021/011663 KR2021011663W WO2023017890A1 WO 2023017890 A1 WO2023017890 A1 WO 2023017890A1 KR 2021011663 W KR2021011663 W KR 2021011663W WO 2023017890 A1 WO2023017890 A1 WO 2023017890A1
Authority
WO
WIPO (PCT)
Prior art keywords
metaverse
user
displays
providing
content
Prior art date
Application number
PCT/KR2021/011663
Other languages
French (fr)
Korean (ko)
Inventor
문연국
김민준
김지은
채승훈
원광호
Original Assignee
한국전자기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자기술연구원 filed Critical 한국전자기술연구원
Publication of WO2023017890A1 publication Critical patent/WO2023017890A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F15/00Digital computers in general; Data processing equipment in general
    • G06F15/16Combinations of two or more digital computers each having at least an arithmetic unit, a program unit and a register, e.g. for a simultaneous processing of several programs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/08Mouthpieces; Microphones; Attachments therefor

Definitions

  • the present invention relates to a metaverse providing method, a metaverse providing device, and a metaverse providing system, and in detail, implements a metaverse that can be accessed in a mixed reality-based experience space, and a plurality of users or users in the same experience space
  • a metaverse providing method, a metaverse providing device, and a metaverse providing system in which a plurality of users in different experience spaces can access and share the experience of metaverse contents, or a single user in the experience space can experience metaverse contents will be.
  • Patent Document 1 Korean Patent Publication No. 10-2014-0036555
  • Patent Document 1 Korean Patent Publication No. 10-2014-0036555
  • Patent Document 1 discloses a configuration in which, for example, a first user at home and a second user in an outdoor space share experiences through metaverse content displayed on a single flat-panel display, respectively. are doing
  • the metaverse contents such as the circumference and the Olle road experienced by each user are displayed on a single flat display provided for each real space, there is a limit to enhancing the reality of the provided metaverse.
  • Patent Document 1 Korean Patent Publication No. 10-2014-0036555
  • An object of the present invention is to provide a metaverse providing method, a metaverse providing apparatus, and a metaverse providing system capable of enhancing the realism of the metaverse.
  • Another object of the present invention is a method for providing a metaverse, a device for providing a metaverse, and a method for providing an active experience by accessing the metaverse without a separate wearable device for access to virtual reality, such as a head mount display (HMD). It is to provide a metaverse provision system.
  • HMD head mount display
  • Another object of the present invention is to provide a metaverse providing method, a metaverse providing device, and a metaverse providing system capable of continuously expanding the number of metaverse contents provided in an experience space.
  • Another object of the present invention is not only to allow a single user in the experience space to experience metaverse content, but also to allow multiple users in the same experience space or multiple users in different experience spaces to access and share the experience of metaverse content. It is to provide a possible metaverse providing method, a metaverse providing device, and a metaverse providing system.
  • a metaverse providing method a) using a camera in the experience space of a metaverse providing device including an experience space provided by a plurality of displays. Detecting the location of one or more users by doing; b) displaying the metaverse content on one or more displays of the plurality of displays based on the location of the user and the metaverse content selected by the user; c) detecting the user's action using a sensor closest to the user's location among a plurality of sensors; and d) displaying a user avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays.
  • step b) is performed in a state in which a first user among a plurality of users in the experience space selects a first metaverse content and a second user selects a second metaverse content. , displaying the first metaverse content on a display closest to the location of the first user among the plurality of displays, and displaying the second metaverse content on one or more displays among the remaining displays.
  • a method for providing a metaverse according to a second feature of an embodiment of the present invention is a) using a camera in each experience space of a plurality of metaverse providing devices each including a plurality of experience spaces provided by a plurality of displays. detecting the user's location; b) displaying the metaverse content on one or more displays among the plurality of displays based on the user's position in each experience space and the metaverse content selected by the user; c) sensing an action of the user by using a sensor closest to the user's location among a plurality of sensors in each of the experience spaces; and d) displaying a user avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays in each experience space.
  • Active experiences can be performed by accessing the metaverse without a separate wearable device for access to virtual reality such as HMD (Head Mount Display).
  • HMD Head Mount Display
  • the number of metaverse contents provided in the experience space can be continuously expanded.
  • FIG. 1 is a block diagram of a metaverse providing device according to an embodiment of the present invention.
  • FIG. 2 is a schematic perspective view of a metaverse providing device for explaining an embodiment of a metaverse providing method according to an embodiment of the present invention.
  • FIG. 3 is a schematic perspective view of a metaverse providing device for explaining another embodiment of a metaverse providing method according to an embodiment of the present invention.
  • FIG. 4 is a flowchart of a metaverse providing method according to an embodiment of the present invention.
  • FIG. 5 is a block diagram of a metaverse providing system according to an embodiment of the present invention.
  • FIG. 6 is a schematic perspective view of a metaverse providing system for explaining an embodiment of a metaverse providing method according to a modified example of an embodiment of the present invention.
  • FIG. 8 is a flowchart of a metaverse providing method according to a modified example of an embodiment of the present invention.
  • FIG. 1 is a block diagram of a metaverse providing device according to an embodiment of the present invention
  • FIG. 2 is a schematic perspective view of a metaverse providing device for explaining an embodiment of a metaverse providing method according to an embodiment of the present invention
  • 3 is a schematic perspective view of a metaverse providing device for explaining another embodiment of a metaverse providing method according to an embodiment of the present invention.
  • the input unit 110, the control unit 150, the storage unit 160, the communication unit 170, the signal collection unit 180, and the driving unit 190 are shown in FIG. 1, but in FIGS. 2 and 3 not shown
  • FIG. 4 is a flowchart of a metaverse providing method according to an embodiment of the present invention.
  • the metaverse providing device 100 includes a plurality of displays 121 to 123, a camera 130, a plurality of sensors 141 to 149, and a controller 150.
  • the metaverse providing device 100 may further include one or more of an input unit 110, a storage unit 160, a communication unit 170, a signal collection unit 180, and a driving unit 190.
  • the plurality of displays 121 to 123 are arranged to provide an experience space (S) and are components that display metaverse contents.
  • a plurality of displays 121 to 123 provide the experience space S means “a plurality of displays 121 to 123 are provided on 75% or more of the sides of the total side of the experience space S” " can mean For example, referring to FIGS. 2 and 3 , when the experience space S has four sides, it may mean that a plurality of displays 121 to 123 are provided on three or more side surfaces. Of course, the plurality of displays 121 to 123 may be further provided on one or more of the ceiling surface and the floor surface of the experience space S as well as the side surface. In this specification, “a plurality of displays 121 to 123 provide an experience space S” may be expressed as “a plurality of displays 121 to 123 surround the experience space S”.
  • the camera 130 is a component that detects the location of one or more users U1 to U3 in the experience space S.
  • the plurality of sensors 141 to 149 are components that detect actions of the users U1 to U3.
  • the plurality of sensors 141 to 149 may be arranged along the plurality of displays 121 to 123 .
  • a configuration in which "a plurality of sensors 141 to 149 are disposed along a plurality of displays 121 to 123" is i) a plurality of sensors 141 to 149 are disposed on top of a plurality of displays 121 to 123.
  • a configuration in which a plurality of sensors 141 to 149 are disposed in front of a plurality of displays 121 to 123 (screen or extended surface of a screen), and iii) a plurality of sensors (141 ⁇ 149) may include one or more of the configurations arranged on the surface of the plurality of displays (121 ⁇ 123) side of the bottom surface of the experience space (S).
  • each of the plurality of sensors 141 to 149 may include one or more of a gaze sensor, a motion sensor, a gesture sensor, a voice sensor, and a touch sensor.
  • the gaze sensor may detect the gaze of the users U1 to U3, and may be implemented as, for example, Tobii Inc.'s gaze sensor.
  • the motion sensors may detect motions of the users U1 to U3, and the gesture sensors may detect gestures of the users U1 to U3.
  • a “gesture” is a smaller movement than a “motion”.
  • a “action” is a relatively large movement, such as moving an “arm,” and a “gesture” is a relatively small movement, such as moving a “hand” while the “arm” is substantially stationary.
  • the gesture sensor may be implemented as, for example, a gesture sensor of Leap Motion, Inc., and the motion sensor may be implemented as, for example, NUITRACK SDK of 3DiVi Inc.
  • the motion sensors may be implemented as receivers that receive signals transmitted from the RFID tags or IMUs (Inertial Measurement Units) when the users U1 to U3 are wearing them.
  • the motion sensor may be implemented as a pressure sensor installed on the floor of the experience space S to detect foot motions of the users U1 to U3.
  • the voice sensor may detect the voice of the users U1 to U3 and may be implemented as a microphone, for example. Also, the voice sensor may be implemented as a speech-to-text (STT) sensor.
  • STT speech-to-text
  • the input unit 110 is a component that receives selection signals of users U1 to U3 for metaverse content and user avatars A1 to A3 and images of users U1 to U3.
  • the input unit 110 may be implemented by, for example, a touch screen panel and a camera disposed outside the experience space (S).
  • the users U1 to U3 may select metaverse contents and user avatars A1 to A3 through the touch screen panel of the input unit 110 .
  • the users U1 to U3 may input images of the users U1 to U3 through the camera of the input unit 110 .
  • the input unit 110 may be implemented by a portable terminal capable of communicating with the communication unit 170 of the metaverse providing device 100.
  • the communication unit 170 is a component that communicates information about one or more of metaverse contents and user avatars A1 to A3. For example, the communication unit 170 may transmit/receive information about one or more of metaverse contents and user avatars A1 to A3 with the server 200 shown in FIG. 5 .
  • the signal collector 180 may collect the first signal received from the camera 130 and the second signal received from the plurality of sensors 141 to 149 .
  • the signal collection unit 180 may transfer the collected first and second signals to the control unit 150 .
  • the driving unit 190 may activate the sensors 141 to 149 closest to the position of the user U1 to U3 among the plurality of sensors 141 to 149 according to a control signal from the control unit 150 . According to this activation, the sensors 141 to 149 closest to the location of the users U1 to U3 may detect the actions of the users U1 to U3.
  • FIG. 4 together with FIGS. 1 to 3, a metaverse providing method according to an embodiment of the present invention will be described.
  • step 310 the camera 130 detects the location of one or more users U1 to U3 in the experience space S provided by the plurality of displays 121 to 123.
  • the input unit 110 receives a selection signal of the user U1 to U3 for the metaverse content and the user avatar A1 to A3 and the image of the user U1 to U3. steps can be performed.
  • step 320 the control unit 150 displays one or more displays 121 to 123 among the plurality of displays 121 to 123 based on the location of the users U1 to U3 and the metaverse content selected by the users U1 to U3.
  • a plurality of displays 121 to 123 are controlled to display metaverse contents.
  • the control unit 150 when all users U1 to U3 in the experience space S are in a state in which, for example, the first metaverse content related to “marathon” is selected, a plurality of The plurality of displays 121 to 123 may be controlled to display the first metaverse content on the displays 121 to 123 of the above.
  • the controller 150 determines that a first user U1 among a plurality of users U1 to U3 in the experience space S, for example, a first metaverse related to “marathon”.
  • a first metaverse related to “marathon” For example, referring to FIG. 3 , the controller 150 determines that a first user U1 among a plurality of users U1 to U3 in the experience space S, for example, a first metaverse related to “marathon”.
  • the second user U2 is in a state of selecting, for example, the second metaverse content related to "dance”
  • the position closest to the position of the first user U1 among the plurality of displays 121 to 123 Control the plurality of displays 121 to 123 to display the first metaverse content on the display 121 and display the second metaverse content on one or more displays 122 and 123 among the remaining displays 122 and 123.
  • the controller 150 detects the action of the user U1 to U3 using the sensor 141 to 149 closest to the position of the user U1 to U3 among the plurality of sensors 141 to 149. Controls the sensors 141 to 149 of For example, the sensors 141 to 149 closest to the location of the users U1 to U3 are based on the metaverse content selected by the users U1 to U3, based on the gaze, motion, gesture, and voice of the users U1 to U3. At least one of , , and touch may be sensed.
  • the sensors 142, 145, and 148 closest to the location of the users U1 to U3 are motion can be detected.
  • the sensors closest to the location of the users (U1 to U3) may detect a user's touch.
  • the controller 150 selects the user (U1 to U3) on the displays (121 to 123) corresponding to the sensors (141 to 149) closest to the position of the user (U1 to U3) among the plurality of displays (121 to 123).
  • the plurality of displays 121 to 123 are controlled to display the user avatars A1 to A3 synchronized with the behavior of the user. For example, referring to FIG. 2 , the controller 150 displays the first user U1's action on the first display 121 corresponding to the second sensor 142 closest to the position of the first user U1. Controls the first display 121 to display the first user avatar A1 synchronized with the second user U2, and displays the second display 122 corresponding to the fifth sensor 145 closest to the position of the second user U2.
  • the second display 122 is controlled to display the second user avatar A2 synchronized with the behavior of the second user U2 and corresponds to the eighth sensor 148 closest to the position of the third user U3.
  • the third display 123 may be controlled to display the third user U3's avatar A3 synchronized with the behavior of the third user U3 on the third display 123.
  • the controller 150 selects the sensors 141 to 149 closest to the position of the users U1 to U3 among the entire areas of the displays 121 to 123 corresponding to the sensors 141 to 149.
  • the plurality of displays 121 to 123 may be controlled to display the user avatars A1 to A3 synchronized with the actions of the users U1 to U3 in the area corresponding to .
  • the controller 150 controls the second sensor 142 of the entire area of the first display 121 corresponding to the second sensor 142 closest to the position of the first user U1.
  • the first display 121 is controlled to display the first user avatar A1 synchronized with the behavior of the first user U1 in the central area corresponding to ), and the first display 121 closest to the location of the second user U2 is controlled.
  • the second user U2's avatar A2 synchronized with the behavior of the second user U2 is displayed in the central area corresponding to the fifth sensor 145 among the entire area of the second display 122 corresponding to the fifth sensor 145. of the entire area of the third display 123 corresponding to the eighth sensor 148 closest to the position of the third user U3, corresponding to the eighth sensor 148.
  • the third display 123 may be controlled to display the third user U3's avatar A3 synchronized with the behavior of the third user U3 in the central area.
  • a method for providing a metaverse is a) using a camera 130 in an experience space S provided by a plurality of displays 121 to 123 and one or more users U1 to U3. ) Detecting the location (310); b) The metaverse content is displayed on one or more displays 121 to 123 among the plurality of displays 121 to 123 based on the location of the users U1 to U3 and the metaverse content selected by the users U1 to U3.
  • an active experience can be performed by accessing the metaverse without a separate wearable device for accessing virtual reality such as an HMD.
  • a plurality of users (U1 to U3) in the experience space (S) can access the metaverse providing device 100 and share the experience of metaverse contents.
  • step b) the first user U1 among the plurality of users U1 to U3 in the experience space S selects the first metaverse content and the second user U2 selects the second metaverse content.
  • the first metaverse content is displayed on the display 121 closest to the position of the first user U1 among the plurality of displays 121 to 123, and the other displays 122 and 123
  • the step of displaying the second metaverse content it is possible to continuously expand the number of metaverse contents provided in the experience space (S).
  • FIG. 5 is a block diagram of a metaverse providing system according to an embodiment of the present invention
  • FIG. 6 is a metaverse providing system for explaining an embodiment of a metaverse providing method according to a modified example of an embodiment of the present invention
  • 7 is a schematic perspective view of a metaverse providing system for explaining another embodiment of a metaverse providing method according to a modification of an embodiment of the present invention.
  • the input units 110a and 110b, the control units 150a and 150b, the storage units 160a and 160b, the communication units 170a and 170b, the signal collection units 180a and 180b, and the driving units 190a and 190b 5, but not shown in FIGS. 6 and 7.
  • FIG. 8 is a flowchart of a metaverse providing method according to a modified example of an embodiment of the present invention.
  • the metaverse providing system 1000 according to an embodiment of the present invention will be described as follows.
  • the metaverse providing system 1000 includes a plurality of metaverse providing devices 100A and 100B and a server 200 .
  • Each of the plurality of metaverse providing devices 100A and 100B includes a plurality of displays 121a to 123a and 121b to 123b, cameras 130a and 130b, a plurality of sensors 141a to 149a and 141b to 149b, and a controller 150a. , 150b), and communication units 170a and 170b.
  • each of the plurality of metaverse providing devices 100A and 100b includes one or more of input units 110a and 110b, storage units 160a and 160b, signal collection units 180a and 180b, and driving units 190a and 190b. may further include.
  • the server 200 is a component that transmits and receives information on one or more of metaverse contents and user avatars A11, A12, A13, A21, and A22 to and from a plurality of metaverse providing devices 100A and 100B.
  • the server 200 may include a server storage unit 210, a server communication unit 220, and a server control unit 230.
  • the server storage unit 210 is a component that stores information on one or more of metaverse contents and user avatars A11, A12, A13, A21, and A22.
  • One or more of these metaverse content and user avatars (A11, A12, A13, A21, A22) is metaverse content and user avatars (A11, A12, A13 , A21, A22), or one or more of metaverse contents and user avatars A11, A12, A13, A21, A22 received from a plurality of metaverse providing devices 100A, 100b. there is.
  • the input units 110a and 110b input metaverse contents and user avatars A11 to A13 for each experience space S1 and S2 of the plurality of metaverse providing devices 100A and 100B.
  • a step of receiving a selection signal of the user (U11 to U13, U21 to U22) for A21 to A22 and the user's image (U11 to U13, U21 to U22) may be input.
  • step 440 in each of the experience spaces S1 and S2 of the plurality of metaverse providing devices 100A and 100B, the control units 150a and 150b display the user U11 among the plurality of displays 121a to 123a and 121b to 123b. Synchronization with the actions of the users (U11 to U13, U21 to U22) on the displays (121a to 123a, 121b to 123b) corresponding to the sensors (141a to 149a, 141b to 149b) closest to the positions of ⁇ U13 and U21 to U22 The plurality of displays 121a to 123a and 121b to 123b are controlled to display the user avatars A11 to A13 and A21 to A22.
  • the user avatars (A11 to A13) synchronized with the behavior of the users (U11 to U13) in the first experience space (S1) Transmission of information to the second metaverse providing device 100B, and provision of the first metaverse of information about the user avatars A21 to A22 synchronized with the actions of the users U21 to U22 in the second experience space S2 This can be done by stopping the transmission to device 100A.
  • the user U21 of the second experience space S2 of the metaverse providing device 100B selects the same first metaverse content (“dance” in FIG.
  • metaverse contents are displayed on a single flat display provided for each real space
  • the sense of reality of the metaverse can be enhanced.
  • an active experience can be performed by accessing the metaverse without a separate wearable device for accessing virtual reality such as an HMD.
  • step d) the user U12 and the second metaverse providing device of the first experience space S1 of the first metaverse providing device 100A among the plurality of metaverse providing devices 100A and 100B
  • the user U21 of the second experience space S2 of 100B is in a state in which the same first metaverse content is selected, one of the plurality of displays 121a to 123a of the first metaverse providing device 100A.
  • the user of the first experience space S1 By simultaneously displaying the user avatar A12 synchronized with the behavior of U12 and the user avatar A21 synchronized with the behavior of the user U21 in the second experience space S2, the experience spaces S1 and S2 are different from each other. ) A plurality of users (U12, U21) in can access and share the experience of metaverse content.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Computer Graphics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Ophthalmology & Optometry (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

A method for providing a metaverse, according to one embodiment of the present invention, comprises: a) detecting the location of at least one user by using a camera in an experience space of an apparatus for providing a metaverse including the experience space provided by a plurality of displays; b) displaying metaverse content on at least one of the plurality of displays on the basis of the location of the user and metaverse content selected by the user; c) detecting the user's action by using a sensor closest to the location of the user from among a plurality of sensors; and d) displaying a user avatar synchronized with the user's action on a display corresponding to the closest sensor from among the plurality of displays.

Description

메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템Metaverse providing method, metaverse providing device, and metaverse providing system
본 발명은 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템에 관한 것으로, 상세하게는, 혼합 현실 기반의 체험 공간에서 접속이 가능한 메타버스를 구현하고, 동일한 체험 공간 내의 복수의 사용자 또는 서로 다른 체험 공간 내의 복수의 사용자가 접속하여 메타버스 콘텐츠의 경험을 공유하거나, 체험 공간 내의 단일 사용자가 메타버스 콘텐츠를 경험할 수 있는 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템에 관한 것이다. The present invention relates to a metaverse providing method, a metaverse providing device, and a metaverse providing system, and in detail, implements a metaverse that can be accessed in a mixed reality-based experience space, and a plurality of users or users in the same experience space A metaverse providing method, a metaverse providing device, and a metaverse providing system in which a plurality of users in different experience spaces can access and share the experience of metaverse contents, or a single user in the experience space can experience metaverse contents will be.
최근, COVID-19로 인한 팬데믹 현상으로 인해 비대면 환경 기반의 활동이 대중화되었지만, 소비가능한 콘텐츠는 대부분 수동적인 형태이며, 그 종류 역시 한정적이다. 또한, 대부분의 혼합 현실 기반의 체험은 HMD(Head Mount Display)와 같은 가상 현실 기기를 이용하는 서비스를 제공하지만, 이러한 가상 현실 기기는 장시간 착용할 경우 사용자의 불편함을 가져오며, 가상 현실 기기를 착용한 채 활동적인 체험을 하는 것은 매우 어렵다. Recently, non-face-to-face environment-based activities have become popular due to the pandemic caused by COVID-19, but most of the consumable content is passive and the types are limited. In addition, most mixed reality-based experiences provide services using virtual reality devices such as HMDs (Head Mount Displays), but these virtual reality devices cause inconvenience to users when worn for a long time, and wear virtual reality devices. It is very difficult to have an active experience alone.
사용자 간 상호작용이 가능한 메타버스 공간을 제공하기 위한 메타버스 클라이언트 단말 및 방법에 관한 종래 기술인 특허문헌 1(한국공개특허공보 제10-2014-0036555호)이 개시되어 있다. Patent Document 1 (Korean Patent Publication No. 10-2014-0036555), which is a prior art related to a metaverse client terminal and method for providing a metaverse space capable of interaction between users, is disclosed.
특허문헌 1에 개시된 메타버스 공간 제공 시스템은, 예를 들어, 집에 있는 제1 사용자 및 야외 공간에 있는 제2 사용자가 각각 단일 평면 디스플레이에 표시되는 메타버스 콘텐츠를 통해 경험을 공유하는 구성을 개시하고 있다. 이러한 종래 기술에서는, 각각의 사용자가 경험하는 둘레길 및 올레길과 같은 메타버스 콘텐츠가 각각의 실제 공간마다 마련된 단일 평면 디스플레이에 표시되기 때문에, 제공되는 메타버스의 현실감을 높이는 데에 한계가 있는 문제점이 있다. The metaverse space providing system disclosed in Patent Document 1 discloses a configuration in which, for example, a first user at home and a second user in an outdoor space share experiences through metaverse content displayed on a single flat-panel display, respectively. are doing In this prior art, since the metaverse contents such as the circumference and the Olle road experienced by each user are displayed on a single flat display provided for each real space, there is a limit to enhancing the reality of the provided metaverse. there is
(특허문헌 1) 한국공개특허공보 제10-2014-0036555호 (Patent Document 1) Korean Patent Publication No. 10-2014-0036555
본 발명의 목적은 메타버스의 현실감을 높일 수 있는 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템을 제공하는 데에 있다. An object of the present invention is to provide a metaverse providing method, a metaverse providing apparatus, and a metaverse providing system capable of enhancing the realism of the metaverse.
본 발명의 다른 목적은 HMD(Head Mount Display)와 같은 가상 현실로의 접속을 위한 별도의 착용 기기 없이 메타버스에 접속하여 활동적인 체험을 수행할 수 있는 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템을 제공하는 데에 있다.Another object of the present invention is a method for providing a metaverse, a device for providing a metaverse, and a method for providing an active experience by accessing the metaverse without a separate wearable device for access to virtual reality, such as a head mount display (HMD). It is to provide a metaverse provision system.
본 발명의 또 다른 목적은 체험 공간 내에 제공되는 메타버스 콘텐츠의 개수를 계속 확장할 수 있는 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템을 제공하는 데에 있다. Another object of the present invention is to provide a metaverse providing method, a metaverse providing device, and a metaverse providing system capable of continuously expanding the number of metaverse contents provided in an experience space.
본 발명의 또 다른 목적은 체험 공간 내의 단일 사용자가 메타버스 콘텐츠를 경험할 수 있을 뿐만 아니라, 동일한 체험 공간 내의 복수의 사용자 또는 서로 다른 체험 공간 내의 복수의 사용자가 접속하여 메타버스 콘텐츠의 경험을 공유할 수 있는 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템을 제공하는 데에 있다. Another object of the present invention is not only to allow a single user in the experience space to experience metaverse content, but also to allow multiple users in the same experience space or multiple users in different experience spaces to access and share the experience of metaverse content. It is to provide a possible metaverse providing method, a metaverse providing device, and a metaverse providing system.
상기와 같은 목적을 달성하기 위하여, 본 발명의 실시예의 제1 특징에 따르는 메타버스 제공 방법은 a) 복수의 디스플레이에 의해 제공되는 체험 공간을 포함하는 메타버스 제공 장치의 상기 체험 공간에서 카메라를 이용하여 하나 이상의 사용자의 위치를 탐지하는 단계; b) 상기 사용자의 위치 및 상기 사용자가 선택한 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이 중 하나 이상의 디스플레이에 상기 메타버스 콘텐츠를 표시하는 단계; c) 복수의 센서 중 상기 사용자의 위치에 가장 가까운 센서를 이용하여 상기 사용자의 행동을 감지하는 단계; 및 d) 상기 복수의 디스플레이 중 상기 가장 가까운 센서에 대응하는 디스플레이에 상기 사용자의 행동과 동기화된 사용자 아바타를 표시하는 단계를 포함하는 것을 특징으로 한다. In order to achieve the above object, a metaverse providing method according to a first feature of an embodiment of the present invention a) using a camera in the experience space of a metaverse providing device including an experience space provided by a plurality of displays. Detecting the location of one or more users by doing; b) displaying the metaverse content on one or more displays of the plurality of displays based on the location of the user and the metaverse content selected by the user; c) detecting the user's action using a sensor closest to the user's location among a plurality of sensors; and d) displaying a user avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays.
상기 제1 특징에 따르는 메타버스 제공 방법은, 상기 b) 단계가, 상기 체험 공간 내의 복수의 사용자 중 제1 사용자가 제1 메타버스 콘텐츠를 선택하고 제2 사용자가 제2 메타버스 콘텐츠를 선택한 상태일 때, 상기 복수의 디스플레이 중 상기 제1 사용자의 위치에 가장 가까운 디스플레이에 제1 메타버스 콘텐츠를 표시하고, 나머지 디스플레이 중 하나 이상의 디스플레이에 제2 메타버스 콘텐츠를 표시하는 단계를 포함할 수 있다. In the metaverse providing method according to the first feature, step b) is performed in a state in which a first user among a plurality of users in the experience space selects a first metaverse content and a second user selects a second metaverse content. , displaying the first metaverse content on a display closest to the location of the first user among the plurality of displays, and displaying the second metaverse content on one or more displays among the remaining displays.
본 발명의 실시예의 제2 특징에 따르는 메타버스 제공 방법은 a) 각각이 복수의 디스플레이에 의해 제공되는 복수의 체험 공간을 포함하는 복수의 메타버스 제공 장치의 각각의 체험 공간에서 카메라를 이용하여 하나 이상의 사용자의 위치를 탐지하는 단계; b) 상기 각각의 체험 공간에서 상기 사용자의 위치 및 상기 사용자가 선택한 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이 중 하나 이상의 디스플레이에 상기 메타버스 콘텐츠를 표시하는 단계; c) 상기 각각의 체험 공간에서 복수의 센서 중 상기 사용자의 위치에 가장 가까운 센서를 이용하여 상기 사용자의 행동을 감지하는 단계; 및 d) 상기 각각의 체험 공간에서 상기 복수의 디스플레이 중 상기 가장 가까운 센서에 대응하는 디스플레이에 상기 사용자의 행동과 동기화된 사용자 아바타를 표시하는 단계를 포함하는 것을 특징으로 한다. A method for providing a metaverse according to a second feature of an embodiment of the present invention is a) using a camera in each experience space of a plurality of metaverse providing devices each including a plurality of experience spaces provided by a plurality of displays. detecting the user's location; b) displaying the metaverse content on one or more displays among the plurality of displays based on the user's position in each experience space and the metaverse content selected by the user; c) sensing an action of the user by using a sensor closest to the user's location among a plurality of sensors in each of the experience spaces; and d) displaying a user avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays in each experience space.
상기 제2 특징에 따르는 메타버스 제공 방법은 상기 d) 단계에서, 상기 복수의 메타버스 제공 장치 중 제1 메타버스 제공 장치의 제1 체험 공간의 사용자 및 제2 메타버스 제공 장치의 제2 체험 공간의 사용자가 동일한 제1 메타버스 콘텐츠를 선택한 상태일 때, 상기 제1 메타버스 제공 장치의 복수의 디스플레이 중 하나 이상의 디스플레이 및 상기 제2 메타버스 제공 장치의 복수의 디스플레이 중 하나 이상의 디스플레이에, 각각, 상기 제1 체험 공간의 사용자의 행동과 동기화된 사용자 아바타 및 상기 제2 체험 공간의 사용자의 행동과 동기화된 사용자 아바타를 동시에 표시할 수 있다. In the metaverse providing method according to the second feature, in step d), the user of the first experience space of the first metaverse providing device and the second experience space of the second metaverse providing device among the plurality of metaverse providing devices. When the user of selects the same first metaverse content, on one or more displays among the plurality of displays of the first metaverse providing device and one or more displays among the plurality of displays of the second metaverse providing device, respectively, A user avatar synchronized with the user's behavior in the first experience space and a user avatar synchronized with the user's behavior in the second experience space may be simultaneously displayed.
본 발명의 실시예의 제3 특징에 따르는 메타버스 제공 장치는 체험 공간을 제공하도록 배치되며 메타버스 콘텐츠를 표시하는 복수의 디스플레이; 상기 체험 공간 내의 하나 이상의 사용자의 위치를 탐지하는 카메라; 상기 사용자의 행동을 감지하는 복수의 센서; 및 상기 사용자의 위치 및 상기 사용자가 선택한 상기 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이 중 하나 이상의 디스플레이에 상기 메타버스 콘텐츠를 표시하고, 상기 복수의 센서 중 상기 사용자의 위치에 가장 가까운 센서를 이용하여 상기 사용자의 행동을 감지하며, 상기 복수의 디스플레이 중 상기 가장 가까운 센서에 대응하는 디스플레이에 상기 사용자의 행동과 동기화된 사용자 아바타를 표시하도록 상기 복수의 디스플레이 및 상기 복수의 센서를 제어하는 제어부를 포함하는 것을 특징으로 한다. A metaverse providing apparatus according to a third feature of an embodiment of the present invention includes a plurality of displays arranged to provide an experience space and displaying metaverse contents; a camera detecting a location of one or more users within the experience space; A plurality of sensors for detecting the user's behavior; And displaying the metaverse content on one or more displays of the plurality of displays based on the user's location and the metaverse content selected by the user, using a sensor closest to the user's location among the plurality of sensors A control unit for sensing the user's behavior and controlling the plurality of displays and the plurality of sensors to display a user avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays characterized by
본 발명의 실시예의 제4 특징에 따르는 메타버스 제공 시스템은 복수의 메타버스 제공 장치; 및 메타버스 콘텐츠 및 사용자 아바타 중 하나 이상의 정보를 상기 복수의 메타버스 제공 장치와 송수신하는 서버를 포함하고, 상기 복수의 메타버스 제공 장치는 각각 체험 공간을 제공하도록 배치되며 메타버스 콘텐츠를 표시하는 복수의 디스플레이; 상기 체험 공간 내의 하나 이상의 사용자의 위치를 탐지하는 카메라; 상기 사용자의 행동을 감지하는 복수의 센서; 상기 사용자의 위치 및 상기 사용자가 선택한 상기 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이 중 하나 이상의 디스플레이에 상기 메타버스 콘텐츠를 표시하고, 상기 복수의 센서 중 상기 사용자의 위치에 가장 가까운 센서를 이용하여 상기 사용자의 행동을 감지하며, 상기 복수의 디스플레이 중 상기 가장 가까운 센서에 대응하는 디스플레이에 상기 사용자의 행동과 동기화된 사용자 아바타를 표시하도록 상기 복수의 디스플레이 및 상기 복수의 센서를 제어하는 제어부; 및 상기 메타버스 콘텐츠 및 상기 사용자 아바타 중 하나 이상의 정보에 대한 통신을 수행하는 통신부를 포함하는 것을 특징으로 한다. A metaverse providing system according to a fourth aspect of an embodiment of the present invention includes a plurality of metaverse providing devices; And a server that transmits and receives information on one or more of metaverse contents and user avatars with the plurality of metaverse providing devices, wherein the plurality of metaverse providing devices are arranged to provide an experience space and display metaverse contents. display of; a camera detecting a location of one or more users within the experience space; A plurality of sensors for detecting the user's behavior; Based on the location of the user and the metaverse content selected by the user, the metaverse content is displayed on one or more displays among the plurality of displays, and the metaverse content is displayed using a sensor closest to the user's location among the plurality of sensors. a controller that senses a user's behavior and controls the plurality of displays and the plurality of sensors to display a user's avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays; and a communication unit that performs communication on one or more of the metaverse contents and the user avatar.
본 발명의 실시예에 따른 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템을 사용하면 다음과 같은 효과가 달성된다. The following effects are achieved by using the metaverse providing method, the metaverse providing device, and the metaverse providing system according to an embodiment of the present invention.
1. 메타버스의 현실감을 높일 수 있다. 1. It can increase the realism of the metaverse.
2. HMD(Head Mount Display)와 같은 가상 현실로의 접속을 위한 별도의 착용 기기 없이 메타버스에 접속하여 활동적인 체험을 수행할 수 있다.2. Active experiences can be performed by accessing the metaverse without a separate wearable device for access to virtual reality such as HMD (Head Mount Display).
3. 체험 공간 내에 제공되는 메타버스 콘텐츠의 개수를 계속 확장할 수 있다. 3. The number of metaverse contents provided in the experience space can be continuously expanded.
4. 체험 공간 내의 단일 사용자가 메타버스 콘텐츠를 경험할 수 있을 뿐만 아니라, 동일한 체험 공간 내의 복수의 사용자 또는 서로 다른 체험 공간 내의 복수의 사용자가 접속하여 메타버스 콘텐츠의 경험을 공유할 수 있다. 4. Not only can a single user in the experience space experience metaverse content, but multiple users in the same experience space or multiple users in different experience spaces can access and share the experience of metaverse content.
이하, 본 발명에 따른 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템의 바람직한 실시형태를 첨부된 도면을 참조하여 상세히 설명한다. Hereinafter, preferred embodiments of a metaverse providing method, a metaverse providing device, and a metaverse providing system according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시형태에 따른 메타버스 제공 장치의 블록도이다. 1 is a block diagram of a metaverse providing device according to an embodiment of the present invention.
도 2는 본 발명의 일 실시형태에 따른 메타버스 제공 방법의 일 실시예를 설명하기 위한 메타버스 제공 장치의 개략 사시도이다. 2 is a schematic perspective view of a metaverse providing device for explaining an embodiment of a metaverse providing method according to an embodiment of the present invention.
도 3은 본 발명의 일 실시형태에 따른 메타버스 제공 방법의 다른 실시예를 설명하기 위한 메타버스 제공 장치의 개략 사시도이다. 3 is a schematic perspective view of a metaverse providing device for explaining another embodiment of a metaverse providing method according to an embodiment of the present invention.
도 4는 본 발명의 일 실시형태에 따른 메타버스 제공 방법의 순서도이다. 4 is a flowchart of a metaverse providing method according to an embodiment of the present invention.
도 5는 본 발명의 일 실시형태에 따른 메타버스 제공 시스템의 블록도이다. 5 is a block diagram of a metaverse providing system according to an embodiment of the present invention.
도 6은 본 발명의 일 실시형태의 변형예에 따른 메타버스 제공 방법의 일 실시예를 설명하기 위한 메타버스 제공 시스템의 개략 사시도이다. 6 is a schematic perspective view of a metaverse providing system for explaining an embodiment of a metaverse providing method according to a modified example of an embodiment of the present invention.
도 7은 본 발명의 일 실시형태의 변형예에 따른 메타버스 제공 방법의 다른 실시예를 설명하기 위한 메타버스 제공 시스템의 개략 사시도이다. 7 is a schematic perspective view of a metaverse providing system for explaining another embodiment of a metaverse providing method according to a modified example of an embodiment of the present invention.
도 8은 본 발명의 일 실시형태의 변형예에 따른 메타버스 제공 방법의 순서도이다. 8 is a flowchart of a metaverse providing method according to a modified example of an embodiment of the present invention.
이하, 본 발명에 따른 메타버스 제공 방법, 메타버스 제공 장치, 및 메타버스 제공 시스템의 바람직한 실시형태를 첨부된 도면을 참조하여 상세히 설명한다. Hereinafter, preferred embodiments of a metaverse providing method, a metaverse providing device, and a metaverse providing system according to the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시형태에 따른 메타버스 제공 장치의 블록도이고, 도 2는 본 발명의 일 실시형태에 따른 메타버스 제공 방법의 일 실시예를 설명하기 위한 메타버스 제공 장치의 개략 사시도이며, 도 3은 본 발명의 일 실시형태에 따른 메타버스 제공 방법의 다른 실시예를 설명하기 위한 메타버스 제공 장치의 개략 사시도이다. 이와 관련하여, 입력부(110), 제어부(150), 저장부(160), 통신부(170), 신호 수집부(180), 및 구동부(190)는 도 1에 도시되어 있으나, 도 2 및 3에는 도시되어 있지 않다. 1 is a block diagram of a metaverse providing device according to an embodiment of the present invention, and FIG. 2 is a schematic perspective view of a metaverse providing device for explaining an embodiment of a metaverse providing method according to an embodiment of the present invention. 3 is a schematic perspective view of a metaverse providing device for explaining another embodiment of a metaverse providing method according to an embodiment of the present invention. In this regard, the input unit 110, the control unit 150, the storage unit 160, the communication unit 170, the signal collection unit 180, and the driving unit 190 are shown in FIG. 1, but in FIGS. 2 and 3 not shown
도 4는 본 발명의 일 실시형태에 따른 메타버스 제공 방법의 순서도이다. 4 is a flowchart of a metaverse providing method according to an embodiment of the present invention.
도 1 내지 도 3을 참조하여, 본 발명의 일 실시형태에 따른 메타버스 제공 장치(100)를 설명하면 다음과 같다. Referring to Figures 1 to 3, the metaverse providing device 100 according to an embodiment of the present invention will be described.
메타버스 제공 장치(100)는 복수의 디스플레이(121~123), 카메라(130), 복수의 센서(141~149), 및 제어부(150)를 포함한다. 또한, 메타버스 제공 장치(100)는 입력부(110), 저장부(160), 통신부(170), 신호 수집부(180), 및 구동부(190) 중 하나 이상을 더 포함할 수 있다. The metaverse providing device 100 includes a plurality of displays 121 to 123, a camera 130, a plurality of sensors 141 to 149, and a controller 150. In addition, the metaverse providing device 100 may further include one or more of an input unit 110, a storage unit 160, a communication unit 170, a signal collection unit 180, and a driving unit 190.
복수의 디스플레이(121~123)는 체험 공간(S)을 제공하도록 배치되며 메타버스 콘텐츠를 표시하는 구성요소이다. The plurality of displays 121 to 123 are arranged to provide an experience space (S) and are components that display metaverse contents.
본 명세서에서, "복수의 디스플레이(121~123)가 체험 공간(S)을 제공함"은 "복수의 디스플레이(121~123)가 체험 공간(S)의 전체 측면 중 75% 이상의 개수의 측면에 마련됨"을 의미할 수 있다. 예를 들어, 도 2 및 도 3을 참조하면, 체험 공간(S)이 4개의 측면을 가지는 경우, 복수의 디스플레이(121~123)가 3개 이상의 측면에 마련됨을 의미할 수 있다. 물론, 복수의 디스플레이(121~123)는 측면뿐만 아니라 체험 공간(S)의 천장면 및 바닥면 중 하나 이상에 더 마련될 수도 있다. 본 명세서에서, "복수의 디스플레이(121~123)가 체험 공간(S)을 제공함"은 "복수의 디스플레이(121~123)가 체험 공간(S)을 둘러쌈"으로 표현될 수도 있다. In this specification, “a plurality of displays 121 to 123 provide the experience space S” means “a plurality of displays 121 to 123 are provided on 75% or more of the sides of the total side of the experience space S” " can mean For example, referring to FIGS. 2 and 3 , when the experience space S has four sides, it may mean that a plurality of displays 121 to 123 are provided on three or more side surfaces. Of course, the plurality of displays 121 to 123 may be further provided on one or more of the ceiling surface and the floor surface of the experience space S as well as the side surface. In this specification, “a plurality of displays 121 to 123 provide an experience space S” may be expressed as “a plurality of displays 121 to 123 surround the experience space S”.
카메라(130)는 체험 공간(S) 내의 하나 이상의 사용자(U1~U3)의 위치를 탐지하는 구성요소이다. The camera 130 is a component that detects the location of one or more users U1 to U3 in the experience space S.
복수의 센서(141~149)는 사용자(U1~U3)의 행동을 감지하는 구성요소이다. 예를 들어, 복수의 센서(141~149)는 복수의 디스플레이(121~123)를 따라 배치될 수 있다. 예를 들어, "복수의 센서(141~149)가 복수의 디스플레이(121~123)를 따라 배치되는" 구성은 i) 복수의 센서(141~149)가 복수의 디스플레이(121~123)의 상단에 배치되는 구성, ii) 복수의 센서(141~149)가 복수의 디스플레이(121~123)의 전면(前面; 스크린(screen) 또는 스크린의 연장면)에 배치되는 구성, 및 iii) 복수의 센서(141~149)가 체험 공간(S)의 바닥면 중 복수의 디스플레이(121~123) 측의 면에 배치되는 구성 중 하나 이상의 구성을 포함할 수 있다. The plurality of sensors 141 to 149 are components that detect actions of the users U1 to U3. For example, the plurality of sensors 141 to 149 may be arranged along the plurality of displays 121 to 123 . For example, a configuration in which "a plurality of sensors 141 to 149 are disposed along a plurality of displays 121 to 123" is i) a plurality of sensors 141 to 149 are disposed on top of a plurality of displays 121 to 123. ii) a configuration in which a plurality of sensors 141 to 149 are disposed in front of a plurality of displays 121 to 123 (screen or extended surface of a screen), and iii) a plurality of sensors (141 ~ 149) may include one or more of the configurations arranged on the surface of the plurality of displays (121 ~ 123) side of the bottom surface of the experience space (S).
예를 들어, 복수의 센서(141~149)의 각각은 시선 센서, 동작 센서, 제스처 센서, 음성 센서, 및 터치 센서 중 하나 이상을 포함할 수 있다. For example, each of the plurality of sensors 141 to 149 may include one or more of a gaze sensor, a motion sensor, a gesture sensor, a voice sensor, and a touch sensor.
시선 센서는 사용자(U1~U3)의 시선을 감지할 수 있고, 예를 들어, Tobii Inc.의 시선 센서로 구현될 수 있다. The gaze sensor may detect the gaze of the users U1 to U3, and may be implemented as, for example, Tobii Inc.'s gaze sensor.
동작 센서는 사용자(U1~U3)의 동작을 감지할 수 있고, 제스처 센서는 사용자(U1~U3)의 제스처를 감지할 수 있다. 본 명세서에서, "제스처"는 "동작"보다 작은 움직임이다. 예를 들어, "동작"은 "팔"을 움직이는 것과 같이 상대적으로 큰 움직임이며, "제스처"는 "팔"이 실질적으로 정지된 상태에서 "손"을 움직이는 것과 같이 상대적으로 작은 움직임이다. 제스처 센서는, 예를 들어, Leap Motion, Inc.의 제스처 센서로 구현될 수 있으며, 동작 센서는, 예를 들어, 3DiVi Inc.의 NUITRACK SDK로 구현될 수 있다. 또한, 동작 센서는, 사용자(U1~U3)가 RFID 태그 또는 IMU(Inertial Measurement Unit)를 착용하고 있는 경우, 이들로부터 송신되는 신호를 수신하는 수신기로 구현될 수 있다. 또한, 동작 센서는, 사용자(U1~U3)의 발 동작을 감지하도록, 체험 공간(S)의 바닥면에 설치된 압력 센서로 구현될 수도 있다. The motion sensors may detect motions of the users U1 to U3, and the gesture sensors may detect gestures of the users U1 to U3. In this specification, a “gesture” is a smaller movement than a “motion”. For example, a “action” is a relatively large movement, such as moving an “arm,” and a “gesture” is a relatively small movement, such as moving a “hand” while the “arm” is substantially stationary. The gesture sensor may be implemented as, for example, a gesture sensor of Leap Motion, Inc., and the motion sensor may be implemented as, for example, NUITRACK SDK of 3DiVi Inc. In addition, the motion sensors may be implemented as receivers that receive signals transmitted from the RFID tags or IMUs (Inertial Measurement Units) when the users U1 to U3 are wearing them. In addition, the motion sensor may be implemented as a pressure sensor installed on the floor of the experience space S to detect foot motions of the users U1 to U3.
음성 센서는 사용자(U1~U3)의 음성을 감지할 수 있고, 예를 들어, 마이크로 구현될 수 있다. 또한, 음성 센서는 STT(Speech-To-Text) 센서로 구현될 수도 있다. The voice sensor may detect the voice of the users U1 to U3 and may be implemented as a microphone, for example. Also, the voice sensor may be implemented as a speech-to-text (STT) sensor.
터치 센서는 사용자(U1~U3)의 터치를 감지할 수 있고, 예를 들어, 디스플레이(121~123)의 스크린에 터치 센서가 마련된 터치스크린 패널 디스플레이로 구현될 수 있다. The touch sensors may detect touches of the users U1 to U3, and may be implemented as, for example, a touch screen panel display in which touch sensors are provided on the screens of the displays 121 to 123.
제어부(150)는 사용자(U1~U3)의 위치 및 사용자(U1~U3)가 선택한 메타버스 콘텐츠에 근거하여 복수의 디스플레이(121~123) 중 하나 이상의 디스플레이(121~123)에 메타버스 콘텐츠를 표시하도록 복수의 디스플레이(121~123)를 제어한다. 또한, 제어부(150)는 복수의 센서(141~149) 중 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)를 이용하여 사용자(U1~U3)의 행동을 감지하도록 복수의 센서(141~149)를 제어한다. 또한, 제어부(150)는 복수의 디스플레이(121~123) 중 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)에 대응하는 디스플레이(121~123)에 사용자(U1~U3)의 행동과 동기화된 사용자 아바타(A1~A3)를 표시하도록 복수의 디스플레이(121~123)를 제어한다. The control unit 150 displays the metaverse content on one or more displays 121 to 123 among the plurality of displays 121 to 123 based on the location of the user U1 to U3 and the metaverse content selected by the user U1 to U3. A plurality of displays 121 to 123 are controlled to display. In addition, the control unit 150 uses a plurality of sensors 141 to 149 closest to the position of the users U1 to U3 among the plurality of sensors 141 to 149 to detect the behavior of the users U1 to U3. Control (141~149). In addition, the controller 150 displays the user U1 to U3 on the displays 121 to 123 corresponding to the sensors 141 to 149 closest to the position of the user U1 to U3 among the plurality of displays 121 to 123. The plurality of displays 121 to 123 are controlled to display the user avatars A1 to A3 synchronized with the action.
입력부(110)는 메타버스 콘텐츠 및 사용자 아바타(A1~A3)에 대한 사용자(U1~U3)의 선택 신호, 및 사용자(U1~U3)의 이미지를 입력받는 구성요소이다. 입력부(110)는, 예를 들어, 체험 공간(S)의 외부에 배치된 터치스크린 패널 및 카메라에 의해 구현될 수도 있다. 이 경우, 사용자(U1~U3)는 입력부(110)의 터치스크린 패널을 통해 메타버스 콘텐츠 및 사용자 아바타(A1~A3)를 선택할 수 있다. 또한, 사용자(U1~U3)는 입력부(110)의 카메라를 통해 사용자(U1~U3)의 이미지를 입력할 수 있다. 또한, 입력부(110)는 메타버스 제공 장치(100)의 통신부(170)와 통신할 수 있는 휴대 단말에 의해 구현될 수도 있다. The input unit 110 is a component that receives selection signals of users U1 to U3 for metaverse content and user avatars A1 to A3 and images of users U1 to U3. The input unit 110 may be implemented by, for example, a touch screen panel and a camera disposed outside the experience space (S). In this case, the users U1 to U3 may select metaverse contents and user avatars A1 to A3 through the touch screen panel of the input unit 110 . Also, the users U1 to U3 may input images of the users U1 to U3 through the camera of the input unit 110 . In addition, the input unit 110 may be implemented by a portable terminal capable of communicating with the communication unit 170 of the metaverse providing device 100.
저장부(160)는 메타버스 콘텐츠 및 사용자 아바타(A1~A3)에 대한 정보가 저장되는 구성요소이다. 이러한 메타버스 콘텐츠 및 사용자 아바타(A1~A3)에 대한 정보는 저장부(160)에 미리 저장되어 있을 수도 있고, 도 5에 도시된 서버(200)로부터 수신되어 저장부(160)에 저장될 수도 있다. The storage unit 160 is a component in which information on metaverse contents and user avatars (A1 to A3) is stored. Information on these metaverse contents and user avatars (A1 to A3) may be pre-stored in the storage unit 160, or may be received from the server 200 shown in FIG. 5 and stored in the storage unit 160. there is.
통신부(170)는 메타버스 콘텐츠 및 사용자 아바타(A1~A3) 중 하나 이상의 정보에 대한 통신을 수행하는 구성요소이다. 예를 들어, 통신부(170)는 메타버스 콘텐츠 및 사용자 아바타(A1~A3) 중 하나 이상의 정보를 도 5에 도시된 서버(200)와 송수신할 수 있다. The communication unit 170 is a component that communicates information about one or more of metaverse contents and user avatars A1 to A3. For example, the communication unit 170 may transmit/receive information about one or more of metaverse contents and user avatars A1 to A3 with the server 200 shown in FIG. 5 .
신호 수집부(180)는 카메라(130)로부터 수신된 제1 신호 및 복수의 센서(141~149)로부터 수신된 제2 신호를 수집할 수 있다. 신호 수집부(180)는 이렇게 수집된 제1 신호 및 제2 신호를 제어부(150)로 전달할 수 있다. The signal collector 180 may collect the first signal received from the camera 130 and the second signal received from the plurality of sensors 141 to 149 . The signal collection unit 180 may transfer the collected first and second signals to the control unit 150 .
구동부(190)는 제어부(150)의 제어 신호에 따라 복수의 센서(141~149) 중 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)를 활성화시킬 수 있다. 이러한 활성화에 따라, 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)는 사용자(U1~U3)의 행동을 감지할 수 있다. The driving unit 190 may activate the sensors 141 to 149 closest to the position of the user U1 to U3 among the plurality of sensors 141 to 149 according to a control signal from the control unit 150 . According to this activation, the sensors 141 to 149 closest to the location of the users U1 to U3 may detect the actions of the users U1 to U3.
도 4를 도 1 내지 도 3과 함께 참조하여, 본 발명의 일 실시형태에 따른 메타버스 제공 방법을 설명하면 다음과 같다. Referring to FIG. 4 together with FIGS. 1 to 3, a metaverse providing method according to an embodiment of the present invention will be described.
단계 310에서, 카메라(130)는 복수의 디스플레이(121~123)에 의해 제공되는 체험 공간(S)에서 하나 이상의 사용자(U1~U3)의 위치를 탐지한다. In step 310, the camera 130 detects the location of one or more users U1 to U3 in the experience space S provided by the plurality of displays 121 to 123.
예를 들어, 단계 310 이전에, 입력부(110)가 메타버스 콘텐츠 및 사용자 아바타(A1~A3)에 대한 사용자(U1~U3)의 선택 신호, 및 상기 사용자(U1~U3)의 이미지를 입력받는 단계가 수행될 수 있다. For example, before step 310, the input unit 110 receives a selection signal of the user U1 to U3 for the metaverse content and the user avatar A1 to A3 and the image of the user U1 to U3. steps can be performed.
단계 320에서, 제어부(150)는 사용자(U1~U3)의 위치 및 사용자(U1~U3)가 선택한 메타버스 콘텐츠에 근거하여 복수의 디스플레이(121~123) 중 하나 이상의 디스플레이(121~123)에 메타버스 콘텐츠를 표시하도록 복수의 디스플레이(121~123)를 제어한다. In step 320, the control unit 150 displays one or more displays 121 to 123 among the plurality of displays 121 to 123 based on the location of the users U1 to U3 and the metaverse content selected by the users U1 to U3. A plurality of displays 121 to 123 are controlled to display metaverse contents.
예를 들어, 도 2를 참조하면, 제어부(150)는, 체험 공간(S) 내의 모든 사용자(U1~U3)가 예를 들어 "마라톤"에 관한 제1 메타버스 콘텐츠를 선택한 상태일 때, 복수의 디스플레이(121~123)에 이러한 제1 메타버스 콘텐츠를 표시하도록 복수의 디스플레이(121~123)를 제어할 수 있다. For example, referring to FIG. 2 , the control unit 150, when all users U1 to U3 in the experience space S are in a state in which, for example, the first metaverse content related to “marathon” is selected, a plurality of The plurality of displays 121 to 123 may be controlled to display the first metaverse content on the displays 121 to 123 of the above.
예를 들어, 도 3을 참조하면, 제어부(150)는, 체험 공간(S) 내의 복수의 사용자(U1~U3) 중 제1 사용자(U1)가 예를 들어 "마라톤"에 관한 제1 메타버스 콘텐츠를 선택하고 제2 사용자(U2)가 예를 들어 "댄스"에 관한 제2 메타버스 콘텐츠를 선택한 상태일 때, 복수의 디스플레이(121~123) 중 제1 사용자(U1)의 위치에 가장 가까운 디스플레이(121)에 제1 메타버스 콘텐츠를 표시하고, 나머지 디스플레이(122, 123) 중 하나 이상의 디스플레이(122, 123)에 제2 메타버스 콘텐츠를 표시하도록 복수의 디스플레이(121~123)를 제어할 수 있다. 여기서, " 제1 사용자"는 "체험 공간(S) 내의 복수의 사용자(U1~U3) 중 우선순위가 제일 높은 사용자(U1)"일 수 있으나, 이에 한정되는 것은 아니며, 임의의 2명의 사용자 중 우선순위가 높은 사용자가 "제1 사용자"이고, 우선순위가 낮은 사용자가 "제2 사용자"일 수 있다. 또한, "제1 사용자(U1)의 위치에 가장 가까운 디스플레이"는 하나의 디스플레이일 수 있으나, 이에 한정되는 것은 아니며, 2개 이상의 디스플레이일 수도 있다. For example, referring to FIG. 3 , the controller 150 determines that a first user U1 among a plurality of users U1 to U3 in the experience space S, for example, a first metaverse related to “marathon”. When content is selected and the second user U2 is in a state of selecting, for example, the second metaverse content related to "dance", the position closest to the position of the first user U1 among the plurality of displays 121 to 123 Control the plurality of displays 121 to 123 to display the first metaverse content on the display 121 and display the second metaverse content on one or more displays 122 and 123 among the remaining displays 122 and 123. can Here, the "first user" may be "the user U1 having the highest priority among the plurality of users U1 to U3 in the experience space S", but is not limited thereto, and any two users A user with a higher priority may be a "first user" and a user with a lower priority may be a "second user". Also, “the display closest to the location of the first user U1” may be one display, but is not limited thereto, and may be two or more displays.
단계 330에서, 제어부(150)는 복수의 센서(141~149) 중 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)를 이용하여 사용자(U1~U3)의 행동을 감지하도록 복수의 센서(141~149)를 제어한다. 예를 들어, 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)는 사용자(U1~U3)가 선택한 메타버스 콘텐츠에 근거하여 사용자(U1~U3)의 시선, 동작, 제스처, 음성, 및 터치 중 하나 이상을 감지할 수 있다. In step 330, the controller 150 detects the action of the user U1 to U3 using the sensor 141 to 149 closest to the position of the user U1 to U3 among the plurality of sensors 141 to 149. Controls the sensors 141 to 149 of For example, the sensors 141 to 149 closest to the location of the users U1 to U3 are based on the metaverse content selected by the users U1 to U3, based on the gaze, motion, gesture, and voice of the users U1 to U3. At least one of , , and touch may be sensed.
예를 들어, 도 2를 참조하면, 사용자(U1~U3)가 선택한 메타버스 콘텐츠가 "마라톤"일 때, 사용자(U1~U3)의 위치에 가장 가까운 센서(142, 145, 148)는 사용자의 동작을 감지할 수 있다. 또한, 도 2에는 구체적으로 도시되어 있지 않으나, 사용자(U1~U3)가 선택한 메타버스 콘텐츠가 "바둑 게임"일 때, 사용자(U1~U3)의 위치에 가장 가까운 센서(142, 145, 148; 예를 들어, 디스플레이(121, 122, 123)의 스크린에 배치됨)는 사용자의 터치를 감지할 수 있다. For example, referring to FIG. 2 , when the metaverse content selected by the users U1 to U3 is “marathon,” the sensors 142, 145, and 148 closest to the location of the users U1 to U3 are motion can be detected. In addition, although not specifically shown in FIG. 2, when the metaverse content selected by the users (U1 to U3) is "Go game", the sensors closest to the location of the users (U1 to U3) (142, 145, 148; For example, the displays 121, 122, and 123 disposed on screens) may detect a user's touch.
단계 340에서, 제어부(150)는 복수의 디스플레이(121~123) 중 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)에 대응하는 디스플레이(121~123)에 사용자(U1~U3)의 행동과 동기화된 사용자 아바타(A1~A3)를 표시하도록 복수의 디스플레이(121~123)를 제어한다. 예를 들어, 도 2를 참조하면, 제어부(150)는 제1 사용자(U1)의 위치에 가장 가까운 제2 센서(142)에 대응하는 제1 디스플레이(121)에 제1 사용자(U1)의 행동과 동기화된 제1 사용자 아바타(A1)를 표시하도록 제1 디스플레이(121)를 제어하고, 제2 사용자(U2)의 위치에 가장 가까운 제5 센서(145)에 대응하는 제2 디스플레이(122)에 제2 사용자(U2)의 행동과 동기화된 제2 사용자 아바타(A2)를 표시하도록 제2 디스플레이(122)를 제어하며, 제3 사용자(U3)의 위치에 가장 가까운 제8 센서(148)에 대응하는 제3 디스플레이(123)에 제3 사용자(U3)의 행동과 동기화된 제3 사용자 아바타(A3)를 표시하도록 제3 디스플레이(123)를 제어할 수 있다. In step 340, the controller 150 selects the user (U1 to U3) on the displays (121 to 123) corresponding to the sensors (141 to 149) closest to the position of the user (U1 to U3) among the plurality of displays (121 to 123). The plurality of displays 121 to 123 are controlled to display the user avatars A1 to A3 synchronized with the behavior of the user. For example, referring to FIG. 2 , the controller 150 displays the first user U1's action on the first display 121 corresponding to the second sensor 142 closest to the position of the first user U1. Controls the first display 121 to display the first user avatar A1 synchronized with the second user U2, and displays the second display 122 corresponding to the fifth sensor 145 closest to the position of the second user U2. The second display 122 is controlled to display the second user avatar A2 synchronized with the behavior of the second user U2 and corresponds to the eighth sensor 148 closest to the position of the third user U3. The third display 123 may be controlled to display the third user U3's avatar A3 synchronized with the behavior of the third user U3 on the third display 123.
또한, 단계 340에서, 제어부(150)는 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)에 대응하는 디스플레이(121~123)의 전체 영역 중 이러한 가장 가까운 센서(141~149)에 대응되는 영역에 사용자(U1~U3)의 행동과 동기화된 사용자 아바타(A1~A3)를 표시하도록 복수의 디스플레이(121~123)를 제어할 수도 있다. 예를 들어, 도 2를 참조하면, 제어부(150)는 제1 사용자(U1)의 위치에 가장 가까운 제2 센서(142)에 대응하는 제1 디스플레이(121)의 전체 영역 중 제2 센서(142)에 대응되는 중앙 영역에 제1 사용자(U1)의 행동과 동기화된 제1 사용자 아바타(A1)를 표시하도록 제1 디스플레이(121)를 제어하고, 제2 사용자(U2)의 위치에 가장 가까운 제5 센서(145)에 대응하는 제2 디스플레이(122)의 전체 영역 중 제5 센서에(145) 대응되는 중앙 영역에 제2 사용자(U2)의 행동과 동기화된 제2 사용자 아바타(A2)를 표시하도록 제2 디스플레이(122)를 제어하며, 제3 사용자(U3)의 위치에 가장 가까운 제8 센서(148)에 대응하는 제3 디스플레이(123)의 전체 영역 중 제8 센서(148)에 대응하는 중앙 영역에 제3 사용자(U3)의 행동과 동기화된 제3 사용자 아바타(A3)를 표시하도록 제3 디스플레이(123)를 제어할 수 있다. In addition, in step 340, the controller 150 selects the sensors 141 to 149 closest to the position of the users U1 to U3 among the entire areas of the displays 121 to 123 corresponding to the sensors 141 to 149. The plurality of displays 121 to 123 may be controlled to display the user avatars A1 to A3 synchronized with the actions of the users U1 to U3 in the area corresponding to . For example, referring to FIG. 2 , the controller 150 controls the second sensor 142 of the entire area of the first display 121 corresponding to the second sensor 142 closest to the position of the first user U1. The first display 121 is controlled to display the first user avatar A1 synchronized with the behavior of the first user U1 in the central area corresponding to ), and the first display 121 closest to the location of the second user U2 is controlled. The second user U2's avatar A2 synchronized with the behavior of the second user U2 is displayed in the central area corresponding to the fifth sensor 145 among the entire area of the second display 122 corresponding to the fifth sensor 145. of the entire area of the third display 123 corresponding to the eighth sensor 148 closest to the position of the third user U3, corresponding to the eighth sensor 148. The third display 123 may be controlled to display the third user U3's avatar A3 synchronized with the behavior of the third user U3 in the central area.
본 발명의 실시예의 제1 특징에 따르면, 메타버스 제공 방법은 a) 복수의 디스플레이(121~123)에 의해 제공되는 체험 공간(S)에서 카메라(130)를 이용하여 하나 이상의 사용자(U1~U3)의 위치를 탐지하는 단계(310); b) 상기 사용자(U1~U3)의 위치 및 상기 사용자(U1~U3)가 선택한 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이(121~123) 중 하나 이상의 디스플레이(121~123)에 상기 메타버스 콘텐츠를 표시하는 단계(320); c) 복수의 센서(141~149) 중 상기 사용자(U1~U3)의 위치에 가장 가까운 센서(141~149)를 이용하여 상기 사용자(U1~U3)의 행동을 감지하는 단계(330); 및 d) 상기 복수의 디스플레이(121~123) 중 상기 가장 가까운 센서(141~149)에 대응하는 디스플레이(121~123)에 상기 사용자(U1~U3)의 행동과 동기화된 사용자 아바타(A1~A3)를 표시하는 단계(340)를 포함하는 것을 특징으로 한다. 이에 따라, 메타버스 콘텐츠가 각각의 실제 공간마다 마련된 단일 평면 디스플레이에 표시되는 종래기술과 비교하여, 메타버스의 현실감을 높일 수 있다. 또한, HMD와 같은 가상 현실로의 접속을 위한 별도의 착용 기기 없이 메타버스에 접속하여 활동적인 체험을 수행할 수 있다. 또한, 체험 공간(S) 내의 복수의 사용자(U1~U3)가 메타버스 제공 장치(100)에 접속하여 메타버스 콘텐츠의 경험을 공유할 수 있다. According to a first feature of an embodiment of the present invention, a method for providing a metaverse is a) using a camera 130 in an experience space S provided by a plurality of displays 121 to 123 and one or more users U1 to U3. ) Detecting the location (310); b) The metaverse content is displayed on one or more displays 121 to 123 among the plurality of displays 121 to 123 based on the location of the users U1 to U3 and the metaverse content selected by the users U1 to U3. Displaying (320); c) sensing an action of the user U1 to U3 using a sensor 141 to 149 closest to the position of the user U1 to U3 among the plurality of sensors 141 to 149 (330); and d) user avatars (A1 to A3) synchronized with the actions of the users (U1 to U3) on the displays (121 to 123) corresponding to the closest sensors (141 to 149) among the plurality of displays (121 to 123). ) It is characterized in that it comprises a step 340 of displaying. Accordingly, compared to the prior art in which metaverse contents are displayed on a single flat display provided for each real space, the sense of reality of the metaverse can be enhanced. In addition, an active experience can be performed by accessing the metaverse without a separate wearable device for accessing virtual reality such as an HMD. In addition, a plurality of users (U1 to U3) in the experience space (S) can access the metaverse providing device 100 and share the experience of metaverse contents.
또한, 상기 b) 단계가, 상기 체험 공간(S) 내의 복수의 사용자(U1~U3) 중 제1 사용자(U1)가 제1 메타버스 콘텐츠를 선택하고 제2 사용자(U2)가 제2 메타버스 콘텐츠를 선택한 상태일 때, 상기 복수의 디스플레이(121~123) 중 상기 제1 사용자(U1)의 위치에 가장 가까운 디스플레이(121)에 제1 메타버스 콘텐츠를 표시하고, 나머지 디스플레이(122, 123) 중 하나 이상의 디스플레이(122, 123)에 제2 메타버스 콘텐츠를 표시하는 단계를 포함함으로써, 체험 공간(S) 내에 제공되는 메타버스 콘텐츠의 개수를 계속 확장할 수 있다. In addition, in step b), the first user U1 among the plurality of users U1 to U3 in the experience space S selects the first metaverse content and the second user U2 selects the second metaverse content. When the content is selected, the first metaverse content is displayed on the display 121 closest to the position of the first user U1 among the plurality of displays 121 to 123, and the other displays 122 and 123 By including the step of displaying the second metaverse content on one or more of the displays 122 and 123, it is possible to continuously expand the number of metaverse contents provided in the experience space (S).
도 5는 본 발명의 일 실시형태에 따른 메타버스 제공 시스템의 블록도이고, 도 6은 본 발명의 일 실시형태의 변형예에 따른 메타버스 제공 방법의 일 실시예를 설명하기 위한 메타버스 제공 시스템의 개략 사시도이며, 도 7은 본 발명의 일 실시형태의 변형예에 따른 메타버스 제공 방법의 다른 실시예를 설명하기 위한 메타버스 제공 시스템의 개략 사시도이다. 이와 관련하여, 입력부(110a, 110b), 제어부(150a, 150b), 저장부(160a, 160b), 통신부(170a, 170b), 신호 수집부(180a, 180b), 및 구동부(190a, 190b)는 도 5에 도시되어 있으나, 도 6 및 도 7에는 도시되어 있지 않다. 5 is a block diagram of a metaverse providing system according to an embodiment of the present invention, and FIG. 6 is a metaverse providing system for explaining an embodiment of a metaverse providing method according to a modified example of an embodiment of the present invention. 7 is a schematic perspective view of a metaverse providing system for explaining another embodiment of a metaverse providing method according to a modification of an embodiment of the present invention. In this regard, the input units 110a and 110b, the control units 150a and 150b, the storage units 160a and 160b, the communication units 170a and 170b, the signal collection units 180a and 180b, and the driving units 190a and 190b 5, but not shown in FIGS. 6 and 7.
도 8은 본 발명의 일 실시형태의 변형예에 따른 메타버스 제공 방법의 순서도이다. 8 is a flowchart of a metaverse providing method according to a modified example of an embodiment of the present invention.
도 5 내지 도 7을 참조하여, 본 발명의 일 실시형태에 따른 메타버스 제공 시스템(1000)을 설명하면 다음과 같다. Referring to FIGS. 5 to 7 , the metaverse providing system 1000 according to an embodiment of the present invention will be described as follows.
메타버스 제공 시스템(1000)은 복수의 메타버스 제공 장치(100A, 100B) 및 서버(200)를 포함한다. The metaverse providing system 1000 includes a plurality of metaverse providing devices 100A and 100B and a server 200 .
복수의 메타버스 제공 장치(100A, 100B)의 각각은 복수의 디스플레이(121a~123a, 121b~123b), 카메라(130a, 130b), 복수의 센서(141a~149a, 141b~149b), 제어부(150a, 150b), 및 통신부(170a, 170b)를 포함한다. 또한, 복수의 메타버스 제공 장치(100A, 100b)의 각각은 입력부(110a, 110b), 저장부(160a, 160b), 신호 수집부(180a, 180b), 및 구동부(190a, 190b) 중 하나 이상을 더 포함할 수 있다.Each of the plurality of metaverse providing devices 100A and 100B includes a plurality of displays 121a to 123a and 121b to 123b, cameras 130a and 130b, a plurality of sensors 141a to 149a and 141b to 149b, and a controller 150a. , 150b), and communication units 170a and 170b. In addition, each of the plurality of metaverse providing devices 100A and 100b includes one or more of input units 110a and 110b, storage units 160a and 160b, signal collection units 180a and 180b, and driving units 190a and 190b. may further include.
서버(200)는 메타버스 콘텐츠 및 사용자 아바타(A11, A12, A13, A21, A22) 중 하나 이상의 정보를 복수의 메타버스 제공 장치(100A, 100B)와 송수신하는 구성요소이다. 서버(200)는 서버 저장부(210), 서버 통신부(220), 및 서버 제어부(230)를 포함할 수 있다. The server 200 is a component that transmits and receives information on one or more of metaverse contents and user avatars A11, A12, A13, A21, and A22 to and from a plurality of metaverse providing devices 100A and 100B. The server 200 may include a server storage unit 210, a server communication unit 220, and a server control unit 230.
서버 저장부(210)는 메타버스 콘텐츠 및 사용자 아바타(A11, A12, A13, A21, A22) 중 하나 이상의 정보를 저장하는 구성요소이다. 이러한 메타버스 콘텐츠 및 사용자 아바타(A11, A12, A13, A21, A22) 중 하나 이상의 정보는 복수의 메타버스 제공 장치(100A, 100B)로 송신하기 위한 메타버스 콘텐츠 및 사용자 아바타(A11, A12, A13, A21, A22) 중 하나 이상의 정보일 수도 있고, 복수의 메타버스 제공 장치(100A, 100b)로부터 수신된 메타버스 콘텐츠 및 사용자 아바타(A11, A12, A13, A21, A22) 중 하나 이상의 정보일 수도 있다. The server storage unit 210 is a component that stores information on one or more of metaverse contents and user avatars A11, A12, A13, A21, and A22. One or more of these metaverse content and user avatars (A11, A12, A13, A21, A22) is metaverse content and user avatars (A11, A12, A13 , A21, A22), or one or more of metaverse contents and user avatars A11, A12, A13, A21, A22 received from a plurality of metaverse providing devices 100A, 100b. there is.
서버 통신부(220)는 메타버스 콘텐츠 및 사용자 아바타(A11, A12, A13, A21, A22) 중 하나 이상의 정보에 대한 통신을 복수의 메타버스 제공 장치(100A, 100B)의 통신부(170a, 170b)와 수행하기 위한 구성요소이다. The server communication unit 220 communicates information about one or more of the metaverse contents and user avatars A11, A12, A13, A21, and A22 with the communication units 170a and 170b of the plurality of metaverse providing devices 100A and 100B. It is a component to perform.
서버 제어부(230)는 복수의 메타버스 제공 장치(100A, 100B)에서 선택되는 메타버스 콘텐츠에 따라 메타버스 콘텐츠 및 사용자 아바타(A11, A12, A13, A21, A22) 중 하나 이상의 정보를 복수의 메타버스 제공 장치(100A, 100B)와 송수신하도록 서버 통신부(220) 및 서버 저장부(210)를 제어할 수 있다. The server control unit 230 transmits one or more information of metaverse content and user avatars (A11, A12, A13, A21, A22) according to the metaverse content selected from the plurality of metaverse providing devices 100A and 100B to a plurality of metaverses. The server communication unit 220 and the server storage unit 210 may be controlled to transmit and receive data to and from the bus providing devices 100A and 100B.
도 8을 도 5 내지 도 7과 함께 참조하여, 본 발명의 일 실시형태의 변형예에 따른 메타버스 제공 방법을 설명하면 다음과 같다. Referring to FIG. 8 together with FIGS. 5 to 7, a metaverse providing method according to a modified example of an embodiment of the present invention will be described.
단계 410에서, 각각이 복수의 디스플레이(121a~123a, 121b~123b)에 의해 제공되는 복수의 체험 공간(S1, S2)을 포함하는 복수의 메타버스 제공 장치(100A, 100B)의 각각의 체험 공간(S1, S2)에서, 카메라(130a, 130b)는 하나 이상의 사용자(U11~U13, U21~U22)의 위치를 탐지한다. In step 410, each experience space of a plurality of metaverse providing devices 100A and 100B including a plurality of experience spaces S1 and S2 provided by a plurality of displays 121a to 123a and 121b to 123b, respectively. In (S1 and S2), the cameras 130a and 130b detect the location of one or more users U11 to U13 and U21 to U22.
예를 들어, 단계 410 이전에, 복수의 메타버스 제공 장치(100A, 100B)의 각각의 체험 공간(S1, S2)에 대하여, 입력부(110a, 110b)가 메타버스 콘텐츠 및 사용자 아바타(A11~A13, A21~A22)에 대한 사용자(U11~U13, U21~U22)의 선택 신호, 및 사용자의 이미지(U11~U13, U21~U22)를 입력받는 단계가 수행될 수 있다. For example, prior to step 410, the input units 110a and 110b input metaverse contents and user avatars A11 to A13 for each experience space S1 and S2 of the plurality of metaverse providing devices 100A and 100B. , A step of receiving a selection signal of the user (U11 to U13, U21 to U22) for A21 to A22 and the user's image (U11 to U13, U21 to U22) may be input.
단계 420에서, 복수의 메타버스 제공 장치(100A, 100B)의 각각의 체험 공간(S1, S2)에서, 제어부(150a, 150b)는 사용자(U11~U13, U21~U22)의 위치 및 사용자(U11~U13, U21~U22)가 선택한 메타버스 콘텐츠에 근거하여 복수의 디스플레이(121a~123a, 121b~123b) 중 하나 이상의 디스플레이(121a~123a, 121b~123b)에 메타버스 콘텐츠를 표시하도록 복수의 디스플레이(121a~123a, 121b~123b)를 제어한다. In step 420, in each of the experience spaces S1 and S2 of the plurality of metaverse providing devices 100A and 100B, the controllers 150a and 150b determine the location of the users U11 to U13 and U21 to U22 and the user U11 A plurality of displays to display the metaverse content on one or more displays 121a to 123a and 121b to 123b among the plurality of displays 121a to 123a and 121b to 123b based on the metaverse content selected by ~ U13 and U21 to U22. (121a to 123a, 121b to 123b) are controlled.
단계 430에서, 복수의 메타버스 제공 장치(100A, 100B)의 각각의 체험 공간(S1, S2)에서, 제어부(150a, 150b)는 복수의 센서(141a~149a, 141b~149b) 중 사용자(U11~U13, U21~U22)의 위치에 가장 가까운 센서(141a~149a, 141b~149b)를 이용하여 사용자(U11~U13, U21~U22)의 행동을 감지하도록 복수의 센서(141a~149a, 141b~149b)를 제어한다. 예를 들어, 복수의 메타버스 제공 장치(100A, 100B)의 각각의 체험 공간(S1, S2))에 대하여, 사용자(U11~U13, U21~U22)의 위치에 가장 가까운 센서(141a~149a, 141b~149b)는 사용자(U11~U13, U21~U22)가 선택한 메타버스 콘텐츠에 근거하여 사용자(U11~U13, U21~U22)의 시선, 동작, 제스처, 음성, 및 터치 중 하나 이상을 감지할 수 있다. In step 430, in each of the experience spaces S1 and S2 of the plurality of metaverse providing devices 100A and 100B, the control units 150a and 150b select the user U11 among the plurality of sensors 141a to 149a and 141b to 149b. A plurality of sensors 141a to 149a and 141b to detect the actions of the users U11 to U13 and U21 to U22 using the sensors 141a to 149a and 141b to 149b closest to the positions of the ~U13 and U21 to U22. 149b). For example, with respect to each experience space (S1, S2) of the plurality of metaverse providing devices (100A, 100B), the closest sensors (141a to 149a, 141b to 149b) can detect one or more of the gaze, motion, gesture, voice, and touch of the user (U11 to U13, U21 to U22) based on the metaverse content selected by the user (U11 to U13, U21 to U22). can
단계 440에서, 복수의 메타버스 제공 장치(100A, 100B)의 각각의 체험 공간(S1, S2)에서, 제어부(150a, 150b)는 복수의 디스플레이(121a~123a, 121b~123b) 중 사용자(U11~U13, U21~U22)의 위치에 가장 가까운 센서(141a~149a, 141b~149b)에 대응하는 디스플레이(121a~123a, 121b~123b)에 사용자(U11~U13, U21~U22)의 행동과 동기화된 사용자 아바타(A11~A13, A21~A22)를 표시하도록 복수의 디스플레이(121a~123a, 121b~123b)를 제어한다. In step 440, in each of the experience spaces S1 and S2 of the plurality of metaverse providing devices 100A and 100B, the control units 150a and 150b display the user U11 among the plurality of displays 121a to 123a and 121b to 123b. Synchronization with the actions of the users (U11 to U13, U21 to U22) on the displays (121a to 123a, 121b to 123b) corresponding to the sensors (141a to 149a, 141b to 149b) closest to the positions of ~U13 and U21 to U22 The plurality of displays 121a to 123a and 121b to 123b are controlled to display the user avatars A11 to A13 and A21 to A22.
예를 들어, 도 6을 도 5와 함께 참조하면, 제1 메타버스 제공 장치(100A)의 제1 체험 공간(S1)과 제2 메타버스 제공 장치(100B)의 제2 체험 공간(S2) 간에 동일한 메타버스 콘텐츠를 선택한 사용자(U11~U13, U21~U22)가 존재하지 않을 때, 제1 체험 공간(S1)의 사용자(U11~U13)의 행동과 동기화된 사용자 아바타(A11~A13)의 제2 메타버스 제공 장치(100B)의 디스플레이(121b~123b)에 대한 표시가 정지되고, 제2 체험 공간(S2)의 사용자(U21~U22)의 행동과 동기화된 사용자 아바타(A21~A22)의 제1 메타버스 제공 장치(100A)의 디스플레이(121a~121b)에 대한 표시가 정지될 수 있다. 이러한 처리는, 예를 들어, 서버(200)가, 제1 메타버스 제공 장치(100A)의 제1 체험 공간(S1)과 제2 메타버스 제공 장치(100B)의 제2 체험 공간(S2) 간에 동일한 메타버스 콘텐츠를 선택한 사용자(U11~U13, U21~U22)가 존재하지 않을 때, 제1 체험 공간(S1)의 사용자(U11~U13)의 행동과 동기화된 사용자 아바타(A11~A13)에 대한 정보의 제2 메타버스 제공 장치(100B)로의 송신, 및 제2 체험 공간(S2)의 사용자(U21~U22)의 행동과 동기화된 사용자 아바타(A21~A22)에 대한 정보의 제1 메타버스 제공 장치(100A)로의 송신을 정지함으로써 행해질 수 있다. For example, referring to FIG. 6 together with FIG. 5 , between the first experience space S1 of the first metaverse providing device 100A and the second experience space S2 of the second metaverse providing device 100B When there are no users (U11 to U13, U21 to U22) who have selected the same metaverse content, control of user avatars (A11 to A13) synchronized with the actions of the users (U11 to U13) in the first experience space (S1). 2 The display of the displays 121b to 123b of the metaverse providing device 100B is stopped, and the user avatars A21 to A22 synchronized with the actions of the users U21 to U22 in the second experience space S2 are displayed. 1 Display on the displays 121a to 121b of the metaverse providing device 100A may be stopped. Such processing is, for example, performed by the server 200 between the first experience space S1 of the first metaverse providing device 100A and the second experience space S2 of the second metaverse providing device 100B. When there are no users (U11 to U13, U21 to U22) who have selected the same metaverse content, the user avatars (A11 to A13) synchronized with the behavior of the users (U11 to U13) in the first experience space (S1) Transmission of information to the second metaverse providing device 100B, and provision of the first metaverse of information about the user avatars A21 to A22 synchronized with the actions of the users U21 to U22 in the second experience space S2 This can be done by stopping the transmission to device 100A.
예를 들어, 도 7을 도 5와 함께 참조하면, 복수의 메타버스 제공 장치(100A, 100B) 중 제1 메타버스 제공 장치(100A)의 제1 체험 공간(S1)의 사용자(U12) 및 제2 메타버스 제공 장치(100B)의 제2 체험 공간(S2)의 사용자(U21)가 동일한 제1 메타버스 콘텐츠(도 7의 경우, "댄스")를 선택한 상태일 때, 제1 메타버스 제공장치(100A)의 복수의 디스플레이(121a~123a) 중 하나 이상의 디스플레이(122a, 123a) 및 제2 메타버스 제공 장치(100B)의 복수의 디스플레이(121b~123b) 중 하나 이상의 디스플레이(121b~123b)에, 각각, 제1 체험 공간(S1)의 사용자(U12)의 행동과 동기화된 사용자 아바타(A12) 및 제2 체험 공간(S2)의 사용자(U21)의 행동과 동기화된 사용자 아바타(A21)를 동시에 표시할 수 있다. 이러한 처리는, 예를 들어, 서버(200)가, 복수의 메타버스 제공 장치(100A, 100B) 중 제1 메타버스 제공 장치(100A)의 제1 체험 공간(S1)의 사용자(U12) 및 제2 메타버스 제공 장치(100B)의 제2 체험 공간(S2)의 사용자(U21)가 동일한 제1 메타버스 콘텐츠를 선택한 상태일 때, 제1 체험 공간(S1)의 사용자(U12)의 행동과 동기화된 사용자 아바타(A12)에 대한 정보의 제2 메타버스 제공 장치(100B)로의 송신, 및 제2 체험 공간(S2)의 사용자(U21)의 행동과 동기화된 사용자 아바타(A21)에 대한 정보의 제1 메타버스 제공 장치(100A)로의 송신을 수행함으로써 행해질 수 있다. For example, referring to FIG. 7 together with FIG. 5 , the user U12 and the user U12 of the first experience space S1 of the first metaverse providing device 100A among the plurality of metaverse providing devices 100A and 100B. 2 When the user U21 of the second experience space S2 of the metaverse providing device 100B selects the same first metaverse content (“dance” in FIG. 7 ), the first metaverse providing device On one or more displays 122a, 123a of the plurality of displays 121a to 123a of 100A and one or more displays 121b to 123b of the plurality of displays 121b to 123b of the second metaverse providing device 100B , A user avatar A12 synchronized with the behavior of the user U12 in the first experience space S1 and a user avatar A21 synchronized with the behavior of the user U21 in the second experience space S2 are simultaneously displayed. can be displayed This processing is performed by, for example, the server 200, the user U12 and the user U12 of the first experience space S1 of the first metaverse providing device 100A among the plurality of metaverse providing devices 100A and 100B. 2 When the user U21 of the second experience space S2 of the metaverse providing device 100B selects the same first metaverse content, synchronization with the behavior of the user U12 of the first experience space S1 transmission of information on the user avatar A12 that has been created to the second metaverse providing device 100B, and provision of information on the user U21 synchronized with the behavior of the user U21 in the second experience space S2 1 It can be done by performing transmission to the metaverse providing device (100A).
본 발명의 실시예의 제2 특징에 따르면, 메타버스 제공 방법은 a) 각각이 복수의 디스플레이(121a~123a, 121b~123b)에 의해 제공되는 복수의 체험 공간(S1, S2)을 포함하는 복수의 메타버스 제공 장치(100A, 100B)의 각각의 체험 공간(S1, S2)에서 카메라(130a, 130b)를 이용하여 하나 이상의 사용자(U11~U13, U21~U22)의 위치를 탐지하는 단계(410); b) 상기 각각의 체험 공간(S1, S2)에서 상기 사용자(U11~U13, U21~U22)의 위치 및 상기 사용자(U11~U13, U21~U22)가 선택한 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이(121a~123a, 121b~123b) 중 하나 이상의 디스플레이(121a~123a, 121b~123b)에 상기 메타버스 콘텐츠를 표시하는 단계(420); c) 상기 각각의 체험 공간(S1, S2)에서 복수의 센서(141a~149a, 141b~149b) 중 상기 사용자(U11~U13, U21~U22)의 위치에 가장 가까운 센서(141a~149a, 141b~149b)를 이용하여 상기 사용자(U11~U13, U21~U22)의 행동을 감지하는 단계(430); 및 d) 상기 각각의 체험 공간(S1, S2)에서 상기 복수의 디스플레이(121a~123a, 121b~123b) 중 상기 가장 가까운 센서(141a~149a, 141b~149b)에 대응하는 디스플레이(121a~123a, 121b~123b)에 상기 사용자(U11~U13, U21~U22)의 행동과 동기화된 사용자 아바타(A11~A13, A21~A22)를 표시하는 단계(440)를 포함하는 것을 특징으로 한다. 이에 따라, 메타버스 콘텐츠가 각각의 실제 공간마다 마련된 단일 평면 디스플레이에 표시되는 종래기술과 비교하여, 메타버스의 현실감을 높일 수 있다. 또한, HMD와 같은 가상 현실로의 접속을 위한 별도의 착용 기기 없이 메타버스에 접속하여 활동적인 체험을 수행할 수 있다.According to a second feature of an embodiment of the present invention, a metaverse providing method includes a) a plurality of experience spaces S1 and S2 each of which is provided by a plurality of displays 121a to 123a and 121b to 123b. Detecting the location of one or more users (U11 to U13, U21 to U22) using the cameras 130a and 130b in each of the experience spaces S1 and S2 of the metaverse providing devices 100A and 100B (410) ; b) The plurality of displays based on the location of the users (U11 to U13 and U21 to U22) in each of the experience spaces (S1 and S2) and the metaverse content selected by the users (U11 to U13 and U21 to U22). Displaying the metaverse content on one or more displays 121a to 123a and 121b to 123b of (121a to 123a and 121b to 123b) (420); c) Among the plurality of sensors 141a to 149a and 141b to 149b in each of the experience spaces S1 and S2, the sensors 141a to 149a and 141b to the closest to the position of the user U11 to U13 and U21 to U22 149b) detecting the behavior of the users (U11 to U13 and U21 to U22) (430); and d) displays 121a to 123a corresponding to the closest sensors 141a to 149a and 141b to 149b among the plurality of displays 121a to 123a and 121b to 123b in each of the experience spaces S1 and S2, 121b to 123b) displaying user avatars A11 to A13 and A21 to A22 synchronized with the behaviors of the users U11 to U13 and U21 to U22 (440). Accordingly, compared to the prior art in which metaverse contents are displayed on a single flat display provided for each real space, the sense of reality of the metaverse can be enhanced. In addition, an active experience can be performed by accessing the metaverse without a separate wearable device for accessing virtual reality such as an HMD.
또한, 상기 d) 단계에서, 상기 복수의 메타버스 제공 장치(100A, 100B) 중 제1 메타버스 제공 장치(100A)의 제1 체험 공간(S1)의 사용자(U12) 및 제2 메타버스 제공 장치(100B)의 제2 체험 공간(S2)의 사용자(U21)가 동일한 제1 메타버스 콘텐츠를 선택한 상태일 때, 상기 제1 메타버스 제공 장치(100A)의 복수의 디스플레이(121a~123a) 중 하나 이상의 디스플레이(122a~123a) 및 상기 제2 메타버스 제공 장치(100B)의 복수의 디스플레이(121b~123b) 중 하나 이상의 디스플레이(121b~123b)에, 각각, 상기 제1 체험 공간(S1)의 사용자(U12)의 행동과 동기화된 사용자 아바타(A12) 및 상기 제2 체험 공간(S2)의 사용자(U21)의 행동과 동기화된 사용자 아바타(A21)를 동시에 표시함으로써, 서로 다른 체험 공간(S1, S2) 내의 복수의 사용자(U12, U21)가 접속하여 메타버스 콘텐츠의 경험을 공유할 수 있다. In addition, in step d), the user U12 and the second metaverse providing device of the first experience space S1 of the first metaverse providing device 100A among the plurality of metaverse providing devices 100A and 100B When the user U21 of the second experience space S2 of 100B is in a state in which the same first metaverse content is selected, one of the plurality of displays 121a to 123a of the first metaverse providing device 100A. On one or more displays 121b to 123b among the plurality of displays 122a to 123a and the plurality of displays 121b to 123b of the second metaverse providing device 100B, respectively, the user of the first experience space S1 By simultaneously displaying the user avatar A12 synchronized with the behavior of U12 and the user avatar A21 synchronized with the behavior of the user U21 in the second experience space S2, the experience spaces S1 and S2 are different from each other. ) A plurality of users (U12, U21) in can access and share the experience of metaverse content.
본 발명은 첨부된 예시 도면의 바람직한 실시형태를 중심으로 도시하고 설명하였지만, 이에 한정하지 않고 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 이하의 청구범위에 기재된 본 발명의 기술적 사상의 범위 내에서 다양한 형태로 실시할 수 있음은 물론이다. Although the present invention has been shown and described with reference to the preferred embodiments of the accompanying exemplary drawings, it is not limited thereto, and those skilled in the art to which the present invention pertains within the scope of the technical idea of the present invention described in the claims below. Of course, it can be implemented in various forms.

Claims (12)

  1. 메타버스 제공 방법에 있어서, In the metaverse providing method,
    a) 복수의 디스플레이에 의해 제공되는 체험 공간을 포함하는 메타버스 제공 장치의 상기 체험 공간에서 카메라를 이용하여 하나 이상의 사용자의 위치를 탐지하는 단계;a) detecting a location of one or more users by using a camera in the experience space of a metaverse providing device including an experience space provided by a plurality of displays;
    b) 상기 사용자의 위치 및 상기 사용자가 선택한 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이 중 하나 이상의 디스플레이에 상기 메타버스 콘텐츠를 표시하는 단계; b) displaying the metaverse content on one or more displays of the plurality of displays based on the location of the user and the metaverse content selected by the user;
    c) 복수의 센서 중 상기 사용자의 위치에 가장 가까운 센서를 이용하여 상기 사용자의 행동을 감지하는 단계; 및c) detecting the user's action using a sensor closest to the user's location among a plurality of sensors; and
    d) 상기 복수의 디스플레이 중 상기 가장 가까운 센서에 대응하는 디스플레이에 상기 사용자의 행동과 동기화된 사용자 아바타를 표시하는 단계d) displaying a user avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays;
    를 포함하는 것을 특징으로 하는 메타버스 제공 방법. A metaverse providing method comprising a.
  2. 제1항에 있어서, 상기 b) 단계는, 상기 체험 공간 내의 복수의 사용자 중 제1 사용자가 제1 메타버스 콘텐츠를 선택하고 제2 사용자가 제2 메타버스 콘텐츠를 선택한 상태일 때, 상기 복수의 디스플레이 중 상기 제1 사용자의 위치에 가장 가까운 디스플레이에 제1 메타버스 콘텐츠를 표시하고, 나머지 디스플레이 중 하나 이상의 디스플레이에 제2 메타버스 콘텐츠를 표시하는 단계를 포함하는 것을 특징으로 하는 메타버스 제공 방법. The method of claim 1, wherein step b) comprises: when a first user among a plurality of users in the experience space selects a first metaverse content and a second user selects a second metaverse content, the plurality of Displaying the first metaverse content on a display closest to the location of the first user among the displays, and displaying the second metaverse content on one or more of the remaining displays.
  3. 제1항에 있어서, 상기 a) 단계 이전에, a1) 상기 메타버스 제공 장치의 입력부에서 상기 메타버스 콘텐츠 및 상기 사용자 아바타에 대한 상기 사용자의 선택 신호, 및 상기 사용자의 이미지를 입력받는 단계를 더 포함하는 것을 특징으로 하는 메타버스 제공 방법. The method of claim 1, before the step a), a1) receiving the user's selection signal for the metaverse content and the user avatar and the user's image through an input unit of the metaverse providing device. A metaverse providing method comprising:
  4. 제1항에 있어서, 상기 c) 단계에서, 상기 사용자가 선택한 메타버스 콘텐츠에 근거하여 상기 가장 가까운 센서가 상기 사용자의 시선, 동작, 제스처, 음성, 및 터치 중 하나 이상을 감지하는 것을 특징으로 하는 메타버스 제공 방법. The method of claim 1, wherein in step c), the closest sensor detects one or more of the user's gaze, motion, gesture, voice, and touch based on the metaverse content selected by the user. How to provide the metaverse.
  5. 제1항에 있어서, 상기 b) 단계에서, 상기 체험 공간 내의 모든 사용자가 제1 메타버스 콘텐츠를 선택한 상태일 때, 상기 복수의 디스플레이에 상기 제1 메타버스 콘텐츠를 표시하는 것을 특징으로 하는 메타버스 제공 방법. The method of claim 1, wherein in step b), when all users in the experience space are in a state in which the first metaverse content is selected, the first metaverse content is displayed on the plurality of displays. How to provide.
  6. 메타버스 제공 방법에 있어서, In the metaverse providing method,
    a) 각각이 복수의 디스플레이에 의해 제공되는 복수의 체험 공간을 포함하는 복수의 메타버스 제공 장치의 각각의 체험 공간에서 카메라를 이용하여 하나 이상의 사용자의 위치를 탐지하는 단계; a) detecting a location of one or more users using a camera in each experience space of a plurality of metaverse providing devices, each of which includes a plurality of experience spaces provided by a plurality of displays;
    b) 상기 각각의 체험 공간에서 상기 사용자의 위치 및 상기 사용자가 선택한 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이 중 하나 이상의 디스플레이에 상기 메타버스 콘텐츠를 표시하는 단계; b) displaying the metaverse content on one or more displays among the plurality of displays based on the user's position in each experience space and the metaverse content selected by the user;
    c) 상기 각각의 체험 공간에서 복수의 센서 중 상기 사용자의 위치에 가장 가까운 센서를 이용하여 상기 사용자의 행동을 감지하는 단계; 및c) sensing an action of the user by using a sensor closest to the user's location among a plurality of sensors in each of the experience spaces; and
    d) 상기 각각의 체험 공간에서 상기 복수의 디스플레이 중 상기 가장 가까운 센서에 대응하는 디스플레이에 상기 사용자의 행동과 동기화된 사용자 아바타를 표시하는 단계d) displaying a user avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays in each experience space;
    를 포함하는 것을 특징으로 하는 메타버스 제공 방법. A metaverse providing method comprising a.
  7. 제6항에 있어서, 상기 d) 단계에서, 상기 복수의 메타버스 제공 장치 중 제1 메타버스 제공 장치의 제1 체험 공간의 사용자 및 제2 메타버스 제공 장치의 제2 체험 공간의 사용자가 동일한 제1 메타버스 콘텐츠를 선택한 상태일 때, 상기 제1 메타버스 제공 장치의 복수의 디스플레이 중 하나 이상의 디스플레이 및 상기 제2 메타버스 제공 장치의 복수의 디스플레이 중 하나 이상의 디스플레이에, 각각, 상기 제1 체험 공간의 사용자의 행동과 동기화된 사용자 아바타 및 상기 제2 체험 공간의 사용자의 행동과 동기화된 사용자 아바타를 동시에 표시하는 것을 특징으로 하는 메타버스 제공 방법. The method of claim 6, wherein in step d), a user of a first experience space of a first metaverse providing device and a user of a second experience space of a second metaverse providing device are the same among the plurality of metaverse providing devices. When 1 metaverse content is selected, on one or more displays among the plurality of displays of the first metaverse providing device and one or more displays among the plurality of displays of the second metaverse providing device, respectively, the first experience space A method for providing a metaverse, characterized in that simultaneously displaying a user avatar synchronized with a user's behavior and a user avatar synchronized with a user's behavior in the second experience space.
  8. 제6항에 있어서, 상기 a) 단계 이전에, a1) 상기 복수의 메타버스 제공 장치의 각각의 입력부에서, 상기 복수의 체험 공간의 각각에 대하여, 상기 메타버스 콘텐츠 및 상기 사용자 아바타에 대한 상기 사용자의 선택 신호, 및 상기 사용자의 이미지를 입력받는 단계를 더 포함하는 것을 특징으로 하는 메타버스 제공 방법. The method of claim 6, before the step a), a1) in each input unit of the plurality of metaverse providing devices, for each of the plurality of experience spaces, the metaverse content and the user for the user avatar A method for providing a metaverse, characterized in that it further comprises receiving a selection signal of and the user's image.
  9. 제6항에 있어서, 상기 c) 단계에서, 상기 복수의 메타버스 제공 장치의 상기 각각의 체험 공간에 대하여, 상기 사용자가 선택한 메타버스 콘텐츠에 근거하여 상기 가장 가까운 센서가 상기 사용자의 시선, 동작, 제스처, 음성, 및 터치 중 하나 이상을 감지하는 것을 특징으로 하는 메타버스 제공 방법. The method of claim 6, in the step c), the closest sensor is determined based on the metaverse content selected by the user for each of the experience spaces of the plurality of metaverse providing devices. A metaverse providing method characterized by detecting one or more of gestures, voices, and touches.
  10. 메타버스 제공 장치에 있어서, In the metaverse providing device,
    체험 공간을 제공하도록 배치되며 메타버스 콘텐츠를 표시하는 복수의 디스플레이;A plurality of displays arranged to provide an experience space and displaying metaverse contents;
    상기 체험 공간 내의 하나 이상의 사용자의 위치를 탐지하는 카메라;a camera detecting a location of one or more users within the experience space;
    상기 사용자의 행동을 감지하는 복수의 센서; 및A plurality of sensors for detecting the user's behavior; and
    상기 사용자의 위치 및 상기 사용자가 선택한 상기 메타버스 콘텐츠에 근거하여 상기 복수의 디스플레이 중 하나 이상의 디스플레이에 상기 메타버스 콘텐츠를 표시하고, 상기 복수의 센서 중 상기 사용자의 위치에 가장 가까운 센서를 이용하여 상기 사용자의 행동을 감지하며, 상기 복수의 디스플레이 중 상기 가장 가까운 센서에 대응하는 디스플레이에 상기 사용자의 행동과 동기화된 사용자 아바타를 표시하도록 상기 복수의 디스플레이 및 상기 복수의 센서를 제어하는 제어부Based on the location of the user and the metaverse content selected by the user, the metaverse content is displayed on one or more displays among the plurality of displays, and the metaverse content is displayed using a sensor closest to the user's location among the plurality of sensors. A control unit that detects a user's behavior and controls the plurality of displays and the plurality of sensors to display a user avatar synchronized with the user's behavior on a display corresponding to the closest sensor among the plurality of displays.
    를 포함하는 것을 특징으로 하는 메타버스 제공 장치. Metaverse providing device comprising a.
  11. 제10항에 있어서, 상기 메타버스 콘텐츠 및 상기 사용자 아바타 중 하나 이상의 정보에 대한 통신을 수행하는 통신부를 더 포함하는 것을 특징으로 하는 메타버스 제공 장치. 11. The apparatus for providing a metaverse according to claim 10, further comprising a communication unit that communicates information about one or more of the metaverse contents and the user avatar.
  12. 메타버스 제공 시스템에 있어서, In the metaverse providing system,
    복수의 메타버스 제공 장치; 및A plurality of metaverse providing devices; and
    메타버스 콘텐츠 및 사용자 아바타 중 하나 이상의 정보를 상기 복수의 메타버스 제공 장치와 송수신하는 서버를 포함하고,A server that transmits and receives one or more of metaverse contents and user avatars to and from the plurality of metaverse providing devices,
    상기 복수의 메타버스 제공 장치는 각각 제11항에 기재된 메타버스 제공 장치로 구현되는 것을 특징으로 하는 메타버스 제공 시스템. The plurality of metaverse providing devices are each implemented as the metaverse providing device according to claim 11, characterized in that the metaverse providing system.
PCT/KR2021/011663 2021-08-11 2021-08-31 Method for providing metaverse, apparatus for providing metaverse, and system for providing metaverse WO2023017890A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210105773A KR102641519B1 (en) 2021-08-11 2021-08-11 Method, apparatus, and system for providing metaverse
KR10-2021-0105773 2021-08-11

Publications (1)

Publication Number Publication Date
WO2023017890A1 true WO2023017890A1 (en) 2023-02-16

Family

ID=85200746

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/011663 WO2023017890A1 (en) 2021-08-11 2021-08-31 Method for providing metaverse, apparatus for providing metaverse, and system for providing metaverse

Country Status (2)

Country Link
KR (1) KR102641519B1 (en)
WO (1) WO2023017890A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130068593A (en) * 2011-12-15 2013-06-26 한국전자통신연구원 Metaverse platform for fusing actual feeling and method for providing service using the same
KR20150129957A (en) * 2014-05-12 2015-11-23 한국전자통신연구원 Experience Ride Representation Apparatus and its Method for Real-sense media service based on multi-vision
KR20170058817A (en) * 2015-11-19 2017-05-29 세창인스트루먼트(주) Virtual reality system having transparent display through which internal space is looked
US20180165864A1 (en) * 2016-12-13 2018-06-14 DeepMotion, Inc. Virtual reality system using multiple force arrays for a solver
JP2019139781A (en) * 2013-03-11 2019-08-22 マジック リープ, インコーポレイテッドMagic Leap,Inc. System and method for augmented and virtual reality

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101923723B1 (en) 2012-09-17 2018-11-29 한국전자통신연구원 Metaverse client terminal and method for providing metaverse space for user interaction

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130068593A (en) * 2011-12-15 2013-06-26 한국전자통신연구원 Metaverse platform for fusing actual feeling and method for providing service using the same
JP2019139781A (en) * 2013-03-11 2019-08-22 マジック リープ, インコーポレイテッドMagic Leap,Inc. System and method for augmented and virtual reality
KR20150129957A (en) * 2014-05-12 2015-11-23 한국전자통신연구원 Experience Ride Representation Apparatus and its Method for Real-sense media service based on multi-vision
KR20170058817A (en) * 2015-11-19 2017-05-29 세창인스트루먼트(주) Virtual reality system having transparent display through which internal space is looked
US20180165864A1 (en) * 2016-12-13 2018-06-14 DeepMotion, Inc. Virtual reality system using multiple force arrays for a solver

Also Published As

Publication number Publication date
KR20230024451A (en) 2023-02-21
KR102641519B1 (en) 2024-02-29

Similar Documents

Publication Publication Date Title
WO2012033345A1 (en) Motion control touch screen method and apparatus
WO2018217060A1 (en) Method and wearable device for performing actions using body sensor array
WO2016060291A1 (en) Portable device and control method therefor
WO2012115307A1 (en) An apparatus and method for inputting command using gesture
WO2018070754A1 (en) System and method to prevent boundary artifacts
WO2009108029A2 (en) Device and method to display fingerboard of mobile virtual guitar
EP3132333A1 (en) Flexible touch sensitive display device and control method thereof
WO2017086708A1 (en) Method and apparatus for displaying content
WO2015030305A1 (en) Portable device displaying augmented reality image and method of controlling therefor
WO2013133583A1 (en) System and method for cognitive rehabilitation using tangible interaction
WO2014030902A1 (en) Input method and apparatus of portable device
EP2649511A2 (en) 3 dimensional (3d) display system of responding to user motion and user interface for the 3d display system
WO2011034307A2 (en) Method and terminal for providing different image information in accordance with the angle of a terminal, and computer-readable recording medium
WO2020085821A1 (en) Smart terminal connected to head-mounted display and control method therefor
EP2664131A1 (en) Apparatus and method for compositing image in a portable terminal
WO2015156539A2 (en) Computing apparatus, method for controlling computing apparatus thereof, and multi-display system
WO2014098305A1 (en) Touch sensitive device for providing mini-map of tactile user interface and method of controlling the same
CN110362231A (en) The method and device that new line touch control device, image are shown
WO2011040710A2 (en) Method, terminal and computer-readable recording medium for performing visual search based on movement or position of terminal
WO2013133624A1 (en) Interface apparatus using motion recognition, and method for controlling same
WO2009157732A2 (en) Method and device for controlling cursor movement
WO2016208881A1 (en) Three-dimensional user interface for head-mountable display
WO2023017890A1 (en) Method for providing metaverse, apparatus for providing metaverse, and system for providing metaverse
WO2011005002A2 (en) Auxiliary touch monitor system which enables independent touch input, and independent touch input method for an auxiliary touch monitor
WO2012118271A1 (en) Method and device for controlling contents using touch, recording medium therefor, and user terminal having same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21953537

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21953537

Country of ref document: EP

Kind code of ref document: A1