WO2019132521A1 - Virtual environment control system - Google Patents

Virtual environment control system Download PDF

Info

Publication number
WO2019132521A1
WO2019132521A1 PCT/KR2018/016683 KR2018016683W WO2019132521A1 WO 2019132521 A1 WO2019132521 A1 WO 2019132521A1 KR 2018016683 W KR2018016683 W KR 2018016683W WO 2019132521 A1 WO2019132521 A1 WO 2019132521A1
Authority
WO
WIPO (PCT)
Prior art keywords
player
virtual
character
information
play space
Prior art date
Application number
PCT/KR2018/016683
Other languages
French (fr)
Korean (ko)
Inventor
이후정
김재영
Original Assignee
스코넥엔터테인먼트주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020180097687A external-priority patent/KR102181587B1/en
Application filed by 스코넥엔터테인먼트주식회사 filed Critical 스코넥엔터테인먼트주식회사
Priority to US16/958,524 priority Critical patent/US11517821B2/en
Publication of WO2019132521A1 publication Critical patent/WO2019132521A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Definitions

  • the present invention relates to a virtual environment control system.
  • a virtual environment is a technology that provides a user with an arbitrary world implemented through a program, unlike the real world.
  • a virtual environment has been provided through a display which is provided independently from a user such as a monitor, etc.
  • a VR which is directly worn on a user's head and provides a virtual environment to a user at a position close to the user's eyes, AR and MR.
  • a user who wears a wearable display device conventionally sat or stood at a fixed position, but in recent years, he has developed into a technique of playing a virtual environment in a predefined space have.
  • One task is to provide a virtual environment control system capable of providing the same virtual environment to a plurality of players playing in space with each other.
  • Another object of the present invention is to provide a virtual environment control system that converts the action in the real world between the players who play in the space with each other into an action in the virtual environment.
  • a virtual reality control system for providing a virtual image of at least a part of a virtual environment through a wearable display device worn by a player to a player playing in a plurality of separated spaces, At least one first detecting device for obtaining texturing information; At least one second detecting device for obtaining detecting information for a second play space; At least one auxiliary computing device for generating a first virtual image and a second virtual image; A first wearable display device for outputting the first virtual image to a first player located in the first play space; And a second wearable display device for outputting the second virtual image to a second player located in the second play space, wherein the auxiliary computing device comprises: Acquiring first virtual position information on a virtual environment corresponding to the first player based on real position information of the first player, acquiring first virtual position information as position information in a virtual environment corresponding to the first player, Acquiring second virtual position information for the second player based on the first virtual player information and second virtual position information that is
  • a wearable display device for providing a virtual image of at least a part of a virtual environment to a player playing in a plurality of separated spaces, the communication device for acquiring information about the other player; A display unit for outputting a virtual image to the player; And a controller for controlling the output of the virtual image on the display unit, wherein the virtual image output through the display unit includes a virtual image corresponding to a first virtual space corresponding to a first play space played by a player wearing the wearable display apparatus, An image for a region and an image for a second virtual region corresponding to a second play space played by at least one other player other than the player may be provided.
  • FIG. 1 is an environment diagram illustrating a system according to one embodiment.
  • FIG. 2 is a block diagram illustrating a detection system in accordance with one embodiment.
  • FIG. 3 is a block diagram illustrating a server according to one embodiment.
  • FIG. 4 is a block diagram illustrating a secondary computing device in accordance with one embodiment.
  • FIG. 5 is a block diagram illustrating a wearable display device according to an embodiment.
  • FIG. 6 is an exemplary diagram illustrating an implementation of a system according to one embodiment.
  • FIG. 7 is a schematic diagram illustrating a method of tracking a target object according to an embodiment.
  • FIG. 8 is an exemplary diagram illustrating an implementation of a virtual environment according to an embodiment.
  • FIG. 9 is an exemplary diagram illustrating a rotation delay according to one embodiment.
  • FIG. 10 is an exemplary diagram showing an error of rotation delay according to an embodiment.
  • FIG. 11 is a flowchart illustrating a rotational delay matching method according to an embodiment.
  • FIG. 12 is an exemplary diagram illustrating final angular value acquisition according to one embodiment.
  • FIG. 13 is a diagram illustrating virtual image acquisition according to rotation delay matching of a detaching device and a wearable display operation sensor module according to an exemplary embodiment.
  • FIG. 14 is an exemplary diagram showing correction of a virtual image according to the rotational delay matching method described above.
  • 15 is an exemplary diagram of a system for subspace matching according to one embodiment.
  • 16 is an illustration of another system for subspace matching according to one embodiment.
  • 17 is an exemplary diagram illustrating a subspace matching according to an embodiment.
  • 18 is an exemplary view showing a distance relationship in the divided space matching according to an embodiment.
  • FIG. 19 is an exemplary view showing the matching of the field of view in the subspace matching according to an embodiment.
  • 20 is an exemplary diagram illustrating movement in a subspace matching according to an embodiment
  • 21 is an exemplary diagram illustrating a shot situation in a subspace matching according to an embodiment.
  • 22 is an exemplary diagram illustrating sound matching in a subspace matching according to one embodiment.
  • FIG. 23 is a diagram showing the division of space into the same space according to an embodiment.
  • 24 is a diagram illustrating a collaboration object in a subspace matching according to one embodiment.
  • 25 is a diagram showing a divided space matching according to another embodiment.
  • Figure 26 is a diagram illustrating movement from one sub-space match to another in accordance with another embodiment.
  • FIG. 27 is a diagram showing a shot according to a positional relation in a subspace matching according to another embodiment.
  • FIG. 28 is a diagram showing the sound matching in the divided space matching according to another embodiment.
  • FIG. 28 is a diagram showing the sound matching in the divided space matching according to another embodiment.
  • 29 is an exemplary view showing face registration according to an embodiment.
  • FIG. 30 is a flowchart showing a play character acquisition method according to an embodiment.
  • FIG. 31 is a diagram illustrating acquisition of face data through a face sensor unit according to an embodiment.
  • 32 is an exemplary diagram showing face data of a player according to an embodiment.
  • FIG. 33 is a diagram illustrating acquisition of previously stored face data using identification information according to an embodiment.
  • 34 is a diagram illustrating selection of a virtual character according to an embodiment.
  • 35 is an exemplary view of a play character according to an embodiment.
  • a virtual reality control system for providing a virtual image of at least a part of a virtual environment through a wearable display device worn by a player to a player playing in a plurality of separated spaces, At least one first detecting device for obtaining texturing information; At least one second detecting device for obtaining detecting information for a second play space; At least one auxiliary computing device for generating a first virtual image and a second virtual image; A first wearable display device for outputting the first virtual image to a first player located in the first play space; And a second wearable display device for outputting the second virtual image to a second player located in the second play space, wherein the auxiliary computing device comprises: Acquiring first virtual position information on a virtual environment corresponding to the first player based on real position information of the first player, acquiring first virtual position information as position information in a virtual environment corresponding to the first player, Acquiring second virtual position information for the second player based on the first virtual player information and second virtual position information that is
  • a virtual environment can be an artificial environment generated by a program.
  • Such a virtual environment typically includes a VR that creates a virtual space separated from reality by a program and provides an image of the virtual space, a AR that provides a single image as a virtual image based on the real world, And MR that provides a virtual space and provides an image of the virtual space.
  • the virtual environment may mean an environment for providing various types of virtual space as well as the VR, AR, and MR described above.
  • FIG. 1 is an environment diagram illustrating a system according to one embodiment.
  • the system may include a detection system 100, a server 200, a secondary computing device 300, a wearable display device 400, and an input device 500.
  • the detection system 100 may be coupled to the server 200.
  • Detecting system 100 may track objects to obtain detec- tion information.
  • the object according to one embodiment may be an object that affects an image output through the wearable display device 400.
  • the object may include at least one of a body part of the player, a wearable display device 400, a user, an input device 500, an object located near the user, and an object having a reference point or feature point.
  • tracking of the tracked object may mean acquiring information about the position of the object in a real environment.
  • tracking of a tracked object can acquire information about a position that changes in accordance with the movement of the object in a real environment.
  • the positional information on the object may be acquired in a predetermined period, but is not limited thereto.
  • the detecting system 100 may provide the detaching information to the server 200.
  • the server 200 may be coupled to the detecting system 1000 and the secondary computing device 300.
  • the server 200 may obtain information from the connected configuration.
  • the server 200 may obtain at least one of the detecting information from the detecting system 100, the image information obtained by the detecting system 100, and the status information of the detecting system 100 .
  • server 200 may obtain various information according to some embodiments to be described later.
  • the server 200 may control the connected configuration.
  • the server 200 may control the auxiliary computing device 300 or the wearable display device 400.
  • the server 200 may control the operation of an application installed in the auxiliary computing device 300.
  • the server 200 may control the start and / or termination of an application installed in the secondary computing device 300.
  • the server 200 may provide various settings needed for the operation of the detection system 100.
  • the server 200 can generate virtual position information indicating the position of the object in the virtual environment based on the detection information.
  • the server 200 may also perform authentication of applications running on the secondary computing device 300.
  • the functions of the server 200 according to one embodiment are not limited to those described above, and the server 200 performing various functions may be provided according to the embodiment.
  • server 200 is not necessarily provided in a single physical configuration, but may be provided as a plurality of devices that perform the respective functions by subdividing the functions described above.
  • the server 200 may include a detec- tion server connected to the detec- tion system 100 to obtain virtual location information based on the detec- tion information, an operation server for performing control over at least some of the configurations provided to the system, A license server that performs authentication for an application executed in at least one configuration of each configuration of the system, and the like, and can be performed in each server.
  • a detec- tion server connected to the detec- tion system 100 to obtain virtual location information based on the detec- tion information
  • an operation server for performing control over at least some of the configurations provided to the system
  • a license server that performs authentication for an application executed in at least one configuration of each configuration of the system, and the like, and can be performed in each server.
  • the auxiliary computing device 300 may be coupled to at least one of the server 200, the wearable display device 400, and the input device 500.
  • the auxiliary computing device 300 may provide an image to be provided to the user via the wearable display device 400 through a pre-installed application.
  • the auxiliary computing device 300 may also provide acoustic information to be provided to the user via the wearable display device 400.
  • the secondary computing device 300 may obtain an image to be provided to the user based on the preinstalled program and the detected information.
  • the auxiliary computing device 300 may also obtain input information based on the input signal obtained from the input device 500.
  • the input information may include user selection information on an object and the like, information on an operation input through the input device 500, and orientation information on a direction of the input device 500.
  • the auxiliary computing device 300 may acquire an image to be provided to the user in consideration of the acquired input information.
  • the secondary computing device 300 may be provided in the form of a backpack PC that the player P can wear.
  • the auxiliary computing device 300 may be provided in a form bound to a bag in which the auxiliary computing device 300 may be located and may be provided in a form in which the player P is in possession of the auxiliary computing device 300 Lt; / RTI >
  • the wearable display device 400 may be coupled to the secondary computing device 300.
  • the wearable display device 400 may provide the user with an image of the virtual reality.
  • the wearable display device 400 may visually output to the user a virtual image obtained from the auxiliary computing device 300.
  • the wearable display device 400 can output the acoustic information obtained from the auxiliary chatting device 300.
  • the input device 500 may obtain a signal for a user's input to be reflected in the virtual reality.
  • the input device 500 may be coupled to the secondary computing device 300.
  • the input device 500 may provide an input signal corresponding to a user input to the auxiliary computing device 300.
  • the input device 500 may include an acceleration sensor, a gyroscope, a gyro sensor, a MEMS, a geomagnetism sensor, an inertia sensor (IMIU), an optical sensor, an illuminance sensor, a photosensor, an infrared sensor, Sensors, depth sensors, electromagnetic sensors, and the like.
  • an acceleration sensor a gyroscope, a gyro sensor, a MEMS, a geomagnetism sensor, an inertia sensor (IMIU), an optical sensor, an illuminance sensor, a photosensor, an infrared sensor, Sensors, depth sensors, electromagnetic sensors, and the like.
  • IMIU inertia sensor
  • the input device 500 may also include a button, a switch, a jog shuttle, and a wheel for acquiring a signal for the user's selection.
  • the input device 500 may also be connected to the auxiliary computing device 300 via at least one of wire communication and wireless communication.
  • the input device 500 may also include a communication module for communicating with the secondary computing device 300.
  • the input device 500 is illustrated as being connected to the auxiliary computing device 300 in FIG. 1, the input device 500 may be provided in various connection forms depending on the selection.
  • the input device 500 may be connected to a configuration such as the server 200 and the wearable display 400 to provide an input signal.
  • the system described above is only an example for convenience of description.
  • the system according to one embodiment is not limited to the configuration and connection relationship shown in FIG. 1, and may be provided in various forms according to the selection.
  • the auxiliary computing device 300 and the wearable display device 400 may be provided in one configuration, in which case the operations performed in the auxiliary computing device 300 may be implemented in the wearable display device 400 have.
  • FIG. 2 is a block diagram illustrating a detection system in accordance with one embodiment.
  • the detection system 100 may include a light emitting unit 110 and a sensing unit 120.
  • the light emitting unit 110 may transmit a signal to or from the object to track the object.
  • the light emitting unit 110 may be provided as a light emitting device that externally transmits optical signals such as visible light and infrared light.
  • the light emitting portion may be provided with a visible light LED and an infrared LED or the like.
  • the sensing unit 120 may acquire a signal from the outside.
  • the sensing unit 120 may acquire a signal corresponding to a signal transmitted by the light emitting unit 110.
  • the sensing unit 120 may acquire a signal for the light reflected by the marker M provided to the object.
  • the sensing unit 120 may be provided with an image sensor, an optical sensor, an illuminance sensor, a photosensor, an infrared sensor, a color sensor, a depth sensor, and an electromagnetic sensor.
  • FIG. 3 is a block diagram illustrating a server 200 according to one embodiment.
  • the server 200 may include a server communication unit 210, a server storage unit 220, a server input unit 230, a server control unit 240, and a server display unit 250.
  • the server communication unit 210 may be connected to at least one of the detecting system 100, the auxiliary computing device 300, and the wearable display device 400 to acquire or provide data.
  • the server communication unit 210 may be connected to at least one of the detaching system 100, the auxiliary computing device 300, and the wearable display device 400 in at least one of a wired communication mode and a wireless communication mode.
  • the wireless communication may include a wireless communication network such as a Wi-Fi network, a 3G, an LTE network, a 5G, a LoRa, a wireless access in vehicle environment (beacon), a zigbee, , Bluetooth low energy (BLE), and the like.
  • a wireless communication network such as a Wi-Fi network, a 3G, an LTE network, a 5G, a LoRa, a wireless access in vehicle environment (beacon), a zigbee, , Bluetooth low energy (BLE), and the like.
  • the wired communication may also include a twisted pair cable, a coaxial cable, or an optical cable.
  • the server communication unit 210 may be provided as a communication module for providing at least one of a wired communication and a wireless communication.
  • the server storage unit 220 may store data.
  • the server storage unit 220 may store information acquired from the outside.
  • the server storage unit 220 may store information necessary for the operation of the server 200.
  • the server storage unit 220 may store various types of data such as magnetic media such as a hard disk, a floppy disk, and a magnetic tape, an optical media such as a CD-ROM and a DVD, a floptical disk, Such as magneto-optical media and ROM, RAM, flash memory, SSD, CD-ROM, DVD-ROM or USB.
  • magnetic media such as a hard disk, a floppy disk, and a magnetic tape
  • an optical media such as a CD-ROM and a DVD
  • a floptical disk such as magneto-optical media and ROM, RAM, flash memory, SSD, CD-ROM, DVD-ROM or USB.
  • the server input unit 230 may acquire a signal corresponding to a user's input.
  • the user's input can be, for example, a push, a click, a touch and a drag of a button.
  • the server input unit 230 may be implemented by, for example, a keyboard, a key pad, a button, a jog shuttle, and a wheel.
  • the server control unit 240 can manage the operation of the server 200.
  • the server control unit 240 may control the operation of the configuration included in the server 200.
  • the server control unit 240 may be implemented as a microprocessor, a microcontroller, a DSP, a processor, and an electrical unit for performing controller functions.
  • the server control unit 240 may be implemented with separate software modules that allow at least one function or operation to be performed in embodiments such as procedures or functions.
  • the software code may be implemented by a software application written in a suitable programming language.
  • the software codes may also be stored in the server storage unit 220 and executed by the server storage unit 240 or components.
  • the server display unit 250 can output visual information.
  • the server display unit 250 may be provided as a monitor, a TV, a display panel, or the like for outputting visual information.
  • the server display unit 250 may perform the function of the server input unit 230.
  • FIG. 4 is a block diagram illustrating a secondary computing device 300 in accordance with one embodiment.
  • the auxiliary computing device 300 may include an auxiliary computing communication unit 310, an auxiliary computing storage unit 320, an auxiliary computing input unit 330, and an auxiliary computing control unit 340.
  • the auxiliary computing communication unit 310 may be connected to at least one of the server 200, the wearable display device 400, and the input device 500.
  • the auxiliary computing communication unit 310 may be connected to at least one of the server 200, the wearable display device 400, and the input device 500 through at least one of a wired communication and a wireless communication.
  • the auxiliary computing communication unit 310 may exchange information with at least one of the connected server 200, the wearable display device 400, and the input device 500.
  • the wireless communication may include a wireless communication network such as a Wi-Fi network, a 3G, an LTE network, a 5G, a LoRa, a wireless access in vehicle environment (beacon), a zigbee, , Bluetooth low energy (BLE), and the like.
  • a wireless communication network such as a Wi-Fi network, a 3G, an LTE network, a 5G, a LoRa, a wireless access in vehicle environment (beacon), a zigbee, , Bluetooth low energy (BLE), and the like.
  • the wired communication may also include a twisted pair cable, a coaxial cable, or an optical cable.
  • the auxiliary computing communication unit 310 may be provided as a communication module for providing at least one of a wireless communication and a wired communication.
  • the auxiliary computing storage unit 320 may store information acquired from the outside.
  • auxiliary computing storage unit 320 may store data and the like necessary for the operation of the auxiliary computing device 300.
  • the secondary computing input 330 may obtain the signal corresponding to the input of the player.
  • the input of the player can be, for example, pushing, clicking, touching, dragging, etc. of the button.
  • auxiliary computing input unit 330 may be implemented as a keyboard, a keypad, a button, a jog shuttle, and a wheel.
  • the secondary computing control unit 340 may be responsible for the operation of the secondary computing device 300.
  • the auxiliary computing control unit 340 may be embodied as a microprocessor, a microcontroller, a DSP, a processor, an electrical unit for performing a controller function, and the like.
  • the secondary computing control unit 340 may be implemented with separate software modules that perform at least one function or operation, such as procedures or functions.
  • the software code may be implemented by a software application written in a suitable programming language.
  • the software codes may also be stored in the server storage unit 220 and executed by the server storage unit 240 or components.
  • FIG. 5 is a block diagram illustrating a wearable display device 400 according to one embodiment.
  • the wearable display device 400 includes a wearable display communication unit 410, a wearable display storage unit 420, a wearable display sensor unit 430, a wearable display control unit 440, And a display output unit 450.
  • the wearable display communication unit 410 may be connected to the auxiliary computing device 300.
  • the wearable display communication unit 410 may be connected to the auxiliary computing device 300 through at least one of a wired communication and a wireless communication.
  • the wearable display storage 420 may store data.
  • the wearable display storage unit 420 may store a program necessary for operation of the wearable display apparatus 400.
  • the wearable display storage unit 420 may store information acquired from the outside.
  • the wearable display sensor unit 430 may obtain a signal corresponding to the state of the wearable display device 400 and the user's input.
  • the wearable display sensor portion 430 may include a wearable display motion sensor module 431 and a wearable display sound sensor module 432.
  • the wearable display motion sensor module 431 can obtain a signal about the state of the wearable display device 400.
  • the wearable display motion sensor module 431 may obtain rotation information about the rotation of the wearable display device 400.
  • the wearable display motion sensor module 431 may obtain movement information on the movement of the wearable display device 400.
  • the wearable display motion sensor module 431 may be an acceleration sensor, a gyroscope, a gyroscope, a MEMS, a geomagnetic sensor, an inertial sensor (IMIU), an image sensor, an optical sensor, a light sensor, a photosensor, Or an electromagnetic wave sensor or the like.
  • IMIU inertial sensor
  • the wearable display acoustic sensor module 432 can acquire a signal corresponding to a sound incoming from the outside.
  • the wearable display acoustic sensor module 432 may be a microphone.
  • the wearable display controller 440 may control the operation of the wearable display device 400.
  • the wearable display control unit 440 may be embodied as a microprocessor, a microcontroller, a DSP, a processor, an electric unit for performing controller functions, and the like.
  • the wearable display controller 440 may be implemented with a separate software module that, according to a software implementation, embodiments such as procedures or functions may perform at least one function or operation.
  • the software code may be implemented by a software application written in a suitable programming language.
  • the software codes may also be stored in the server storage unit 220 and executed by the server storage unit 240 or components.
  • the wearable display screen output unit 450 can output visual information to the user.
  • the wearable display screen output unit 450 may output an image of a virtual reality.
  • the wearable display screen output unit 450 may output an image of a three-dimensional virtual reality.
  • the wearable display screen output unit 450 may be provided as an image output device such as a liquid crystal display (LCD), an electronic paper, an LED display, an OLED display, a curved display, and a stereoscopy (three dimensional display using binocular parallax).
  • LCD liquid crystal display
  • OLED organic light-emitting diode
  • curved display a curved display
  • stereoscopy three dimensional display using binocular parallax
  • the wearable display sound output unit 460 can output auditory information.
  • the wearable display sound output unit 460 may be provided as an acoustic device such as a tuner, a playback device, an amplifier, a speaker, or the like.
  • FIG. 6 is an exemplary diagram illustrating an implementation of a system according to one embodiment.
  • a system for divided space matching may be provided with a play space PA in which at least one player P plays.
  • the player P who plays in the play space PA may be provided with the auxiliary computing device 300, the wearable display device 400, and the input device 500.
  • the marker M may be provided to the object provided to each of the players P.
  • the wearable display device 400 and the input device 500 may be provided with markers M of different patterns from each other.
  • At least one detaching device 100 may be provided in the play space PA.
  • a plurality of detaching devices 100 may be provided in the play space PA.
  • Such a detaching device 100 may be provided at predetermined intervals around the periphery of the play space PA.
  • the detaching apparatus 100 may be provided at a predetermined height from the ground.
  • the detaching device 100 may be provided to direct the play space PA.
  • the detaching device 100 may be fixedly installed on a pre-installed frame.
  • a frame for installing the detecting device 100 may be provided around the play space PA. Also, the detecting device 100 may be fixed to the frame.
  • Detecting apparatus 100 may obtain detec- tion information for the play space PA.
  • the sensing unit 120 included in the detaching device 100 may acquire detec- tion information for at least a part of the play space PA.
  • the sensing unit 120 included in the detaching device 100 may acquire detec- tion information on the sensing range of the sensing unit 120 in the play space PA.
  • Detecting apparatus 100 may provide detec- tion information to server 200.
  • the detecting apparatus 100 may provide the server 200 with detec- tion information acquired by the sensing unit 120.
  • the server 200 can obtain the current position information of the object based on the detection information.
  • the server 200 can acquire detaching information from the plurality of detaching devices 100, The current position information of the object can be obtained based on the detection information.
  • the server 200 may acquire virtual position information VP for at least one object based on the real position information RP of the objects.
  • the server 200 may acquire the coordinates in the virtual reality corresponding to the coordinates included in the real position information RP in the real world of the play, as the virtual position information VP of the character C.
  • the server 200 may provide at least one of the real location information RP and the virtual location information VP to the auxiliary computing device 300.
  • the auxiliary computing device 300 can acquire the virtual position information VP based on the real position information RP.
  • the secondary computing device 300 may also obtain a virtual image based on the virtual location information VP.
  • the auxiliary computing device 300 may obtain virtual position information, which is the position of the character C in the virtual environment, based on the virtual position information VP. Or the auxiliary computing device 300 may acquire virtual position information which is the position of the virtual camera in the virtual environment based on the virtual position information VP.
  • the auxiliary computing device 300 may acquire the virtual image area based on the virtual location information and the virtual direction direction included in the virtual location information.
  • the secondary computing device 300 may obtain a virtual image for the virtual image region.
  • the secondary computing device 300 may obtain a virtual image for a virtual image area in a virtual environment.
  • the secondary computing device 300 may provide the virtual image to the wearable display device 400.
  • the wearable display device 400 can output a virtual image to the user.
  • the server 300 may provide a virtual image to the viewing display device 700.
  • the server 300 may provide the virtual image acquired from the auxiliary computing device 300 to the connected display device 700.
  • the server 300 when the server 300 is connected to a plurality of auxiliary computing devices 300, the server 300 may acquire a virtual image from at least one of the plurality of auxiliary computing devices 300, A virtual image can be provided to the display device 700 for viewing.
  • the server 300 may obtain a selection of the auxiliary computing device 300 to acquire a virtual image among the auxiliary computing devices 300 connected to the server 300 through the server input unit 230,
  • the virtual image obtained from the device 300 can be provided to the display device 700 for viewing.
  • the server 300 may acquire the virtual location information VP from the auxiliary computing device 300 and may acquire the virtual image based on the acquired virtual location information and the preset virtual camera location. In addition, the server 300 may provide the acquired virtual image to the display device 700 for viewing.
  • the viewing display device 700 can output a virtual image acquired from the server 300.
  • the input device 500 may be provided in connection with at least one of the server 200, the auxiliary computing device 300, and the wearable display device 400.
  • the input device 500 may be provided with at least one marker M.
  • the input device 500 may be provided so that each player P can carry it.
  • the player P1 may carry the input device 400 in his or her hand.
  • the server apparatus 400 may obtain the real position information of the input apparatus 400 based on the detection information obtained from the detaching apparatus 100.
  • the real position information of the input device 400 may include at least one of the position information of the input device on the play space PA and the direction information of the input device 500.
  • the auxiliary computing device 300 can determine the direction of the virtual object corresponding to the input device in the virtual environment based on the real position information of the input device 400.
  • the auxiliary computing device 300 may acquire a virtual image in which the direction of the virtual object corresponding to the input device in the virtual environment is considered.
  • the secondary computing device 300 may obtain a virtual image in which the total corresponding to the input device in the virtual environment is oriented in a direction corresponding to the direction of the input device.
  • the auxiliary computing device 300 may acquire a virtual image in which a generation of an event according to a player's event generation command through the input device 500 is considered in a virtual environment.
  • the auxiliary computing device 300 may acquire a virtual image that fires a gun possessed by the character C corresponding to the player P in a virtual environment when the player provided with the input device 500 is depressed by the player P1 can do.
  • FIG. 7 is a schematic diagram illustrating a method of tracking a target object according to an embodiment.
  • the object tracking method can acquire information about a target object using a sensor provided externally, and determine the position of the target object based on information about the obtained target object.
  • the object may be provided with a marker M for identifying the object.
  • the marker M may be provided to the object to provide a reference for identifying and tracking the object.
  • the marker M provided to one object can be provided to be distinguishable from the marker M provided to another object.
  • the marker M provided to one object may be provided in a different pattern from the marker M provided to another object.
  • the pattern may include various patterns such as a pattern formed by providing a plurality of markers M at different positions and a light pattern provided to one display panel.
  • the marker M may be provided as a passive marker that reflects or absorbs the optical signal transmitted from the light emitting unit 110, or as an active marker capable of transmitting an optical signal by itself.
  • the passive markers may include stereoscopic models with light reflective material, paper on which recognizable codes are printed, reflective tape, and the like.
  • the active marker may include an LED module, a radio wave generator, and the like.
  • the object may be provided with at least one marker M.
  • only one marker M may be provided to the object.
  • a plurality of markers (M) may be provided to the object even if the system tracks the position only for one object.
  • a plurality of markers M may be provided in one object to form a pattern in order to identify each of the plurality of objects.
  • the wearable display device 400 may be provided with a marker M in a first pattern when the object tracking the position in the system is provided by the wearable display device 400 and the input device 500 .
  • the input device 500 may also be provided with a marker 130 in a second pattern.
  • the first pattern and the second pattern are different from each other.
  • the first pattern and the second pattern can be identified by the wearable display device 400.
  • the second pattern can do.
  • the markers M provided for each of the plurality of objects are provided to form a pattern in order to identify each of the plurality of objects.
  • the markers M provided to the object can be provided by forming a pattern.
  • the pattern of the marker M provided to the object can also be used for identification of the user.
  • the first pattern may be identified by the wearable display device 400 of the first user, and the second pattern may be identified by the input device 500 of the first user.
  • the third pattern may be identified by the wearable display device 400 of the second user, and the fourth pattern may be identified by the input device 500 of the second user.
  • the server device 200 can acquire information about the object from the detec- tion system 100 and acquire detec- tion information on the position of the object based on the acquired information. In addition, the server device 200 can track the position of the object based on the detection information.
  • the light emitting unit 110 of the detaching system 100 transmits a signal to at least a part of the play space PA It can send out.
  • the light emitting unit 100 may transmit an infrared signal to at least a part of the play space PA.
  • the sensing unit 120 may provide the information acquired from the outside to the server apparatus 200.
  • the sensing unit 120 when the sensing unit 120 is a camera, the sensing unit 120 may provide an image signal obtained from the outside to the server 200.
  • sensing unit 120 Although only one sensing unit 120 is shown in FIG. 7, the present invention is not limited thereto. As described above with reference to FIG. 6, a plurality of sensing units 120 may be provided, and a plurality of sensing units 120 Can provide the acquired information to the server apparatus 200.
  • the server device 200 can determine the position of the object based on the information obtained from the sensing unit 120.
  • the server device 200 may determine whether information on the marker M is included in the information obtained from the sensing unit 120. [ The server device 200 can identify the object based on the pattern of the marker M when the information about the marker M is included in the information acquired from the sensing unit 120. [
  • the server device 200 may identify the wearable display device 400 when the information obtained from the sensing unit 120 includes the first pattern.
  • the information obtained from one sensing unit 120 may include a plurality of patterns, and the server apparatus 200 may identify a plurality of patterns.
  • Such a pattern can be stored in advance in the server device 200. If there is a pattern stored in advance in the acquired information, the server device 200 can determine that the corresponding pattern exists, Can be identified.
  • the server device 200 can determine the position of the object based on the information obtained from the sensing unit 120.
  • the representative point RP for each of the patterns stored in advance in the server device 200 may be set.
  • the representative point RP may be a point representative of the pattern.
  • the server apparatus 200 can acquire information on the position of the object and track the object.
  • the location tracking of the object is not limited to the above-described method, and various types of position tracking methods can be used depending on the selection.
  • the sensing unit 120 when the sensing unit 120 is provided as an image sensor, the sensing unit 120 may acquire an image of the exterior and acquire positional information of the object based on the acquired image. .
  • the sensing unit 120 shown in FIG. 7 when the sensing unit 120 shown in FIG. 7 is provided on the wearable display device 400, the sensing unit 120 is provided on one side of the wearable display device 400, It is possible to obtain image information on the outside of the wearable display device 400 by being directed from the inside to the outside.
  • the wearable display device 400 may provide image information obtained by the auxiliary computing device 300.
  • the wearable display device 400 may provide image information to the secondary computing device 300 at predetermined cycles.
  • the wearable display device 400 may provide image information to the auxiliary computing device 300 at the same cycle as the period for acquiring image information through the sensing unit 120.
  • the secondary computing device 300 may obtain at least one feature point from the acquired image information.
  • the auxiliary computing device 300 may acquire objects included in the image information as feature points.
  • the auxiliary computing device 300 may acquire objects of a predetermined size or larger among the objects included in the image information as minutiae.
  • the auxiliary computing device 300 can identify an object included in the image information and can acquire objects of a predetermined size or more among the identified objects as minutiae. The auxiliary computing device 300 may also determine the size of the object based on the number of pixels occupied by the object included in the image information.
  • the auxiliary computing device 300 may acquire a predetermined type of object among the objects included in the image information as feature points.
  • the auxiliary computing device 300 may acquire a shared object, such as a baseball ball, a soccer ball, and a basketball ball, included in image information, as feature points.
  • a shared object such as a baseball ball, a soccer ball, and a basketball ball
  • the auxiliary computing device 300 may acquire the markers included in the image information as feature points.
  • the auxiliary computing device 300 can identify markers such as barcodes and QR codes included in image information and acquire them as feature points.
  • the auxiliary computing device 300 may also determine the location of the feature points included in the image information.
  • the auxiliary computing device 300 may determine at least one of positional change and size change of the feature point based on the image information obtained from the wearable display device 400.
  • the auxiliary computing device 300 can determine the moving direction and the moving distance of the wearable display device 400 based on the position change direction, the position change amount, and the size change amount of the feature points.
  • the auxiliary computing device 300 may determine a change in the position of the feature point based on the image information obtained from the wearable display device 400.
  • the secondary computing device 300 may be configured to determine the location of the feature point based on the position change direction and the position change amount
  • the auxiliary computing device 300 can determine the moving direction and the moving distance of the wearable display device 400 based on the positional change amount of the feature points.
  • the auxiliary computing device 300 can determine the moving direction and the moving distance of the wearable display device 400 based on the position change direction, the position change amount, and the size change amount of the feature points.
  • the auxiliary computing device 300 may calculate the position of the feature point included in the first image information obtained at the first viewpoint and the position of the feature point included in the second image information acquired at the second viewpoint subsequent to the first viewpoint It can be determined that the wearable display device 400 has moved to the left when the position of the feature point in the first image information has moved to the right in the second image information.
  • the auxiliary computing device 300 can determine the movement distance of the feature point when the position of the feature point is changed.
  • the auxiliary computing device 300 can determine the travel distance of the feature point based on the number of pixels between the position of the feature point in the first image information and the position of the feature point in the second image information.
  • the auxiliary computing device 300 can determine the travel distance of the feature point based on the coordinates of the feature point in the first image information and the coordinates of the feature point in the second image.
  • the auxiliary computing device 300 may determine the moving direction and the moving distance of the wearable display device 400 based on the size variation.
  • the auxiliary computing device 300 compares the size of the minutiae included in the first image information acquired at the first time and the size of the minutiae included in the second image information acquired at the second time later than the first time As a result, when the position of the feature point in the first image information moves to the right in the second image information, it can be determined that the wearable display apparatus 400 has moved to the left.
  • the auxiliary computing device 300 can track the position of the object based on the positional change relative to the object from the preset initial position.
  • FIG. 8 is an exemplary diagram illustrating an implementation of a virtual environment according to an embodiment.
  • the system may provide a virtual image for at least a portion of a virtual environment via the wearable display device 400.
  • the virtual environment may include a background, a terrain object, a virtual object, and a character.
  • a character corresponding to the player may be provided in the virtual environment.
  • the virtual environment may be provided with a virtual object, such as a total, corresponding to the controller possessed by the player.
  • the terrain object may be provided at a predetermined location in the virtual environment.
  • the terrain object may also include a terrain object to which the character is movable and an unmovable terrain object.
  • the movable terrain object may be a terrain object to which a character corresponding to the player can move when the player moves to a position corresponding to the terrain object.
  • the moving object terrain object may be a terrain object whose character corresponding to the player does not move to the terrain object.
  • the character may include an NPC character and a player character provided by a preprogrammed program.
  • the location information may include at least one of real location information and virtual location information.
  • the real position information may include at least one of the position coordinates and the orientation direction of the object.
  • the real location information may be a location coordinate of an object located on the play space PA.
  • the server 200 may store coordinate values for the play space PA in advance.
  • the server 200 may previously store a coordinate system for the play space PA.
  • the coordinate system may be at least one of a plane coordinate system, a rectangular coordinate system, a polar coordinate system, a spatial coordinate system, a cylindrical coordinate system, and a spherical coordinate system.
  • the server 200 may obtain the coordinate values in the play space PA of the object based on the detection information and the coordinate system for the play space PA. Also, the server 200 can acquire the coordinate value in the play space PA of the acquired object as the real position information.
  • the server 200 determines whether or not the marker's play space (PA) based on the position of the marker corresponding to the object in the infrared image and the installation position of the detecting device 100 providing the infrared image ) Can be obtained.
  • the server 200 can determine the pattern of the marker based on the coordinate value in the play space PA of the marker, and can identify the object corresponding to the pattern of the marker.
  • the server 200 can acquire representative points of the object based on the pattern of the marker and the coordinate values of the marker in the play space PA, and acquires the coordinate value of the representative point of the object as the real position information of the object .
  • the server 200 may provide realistic location information to the auxiliary computing device 300.
  • the secondary computing device 300 may store coordinate values for the virtual environment VW in advance.
  • the auxiliary computing device 300 may previously store a coordinate system for the virtual environment VW.
  • the coordinate system may be at least one of a plane coordinate system, a rectangular coordinate system, a polar coordinate system, a spatial coordinate system, a cylindrical coordinate system, and a spherical coordinate system.
  • the auxiliary computing device 300 may obtain the coordinate values in the virtual environment VW of the object based on the real position information and the coordinate system for the virtual environment VW. Also, the auxiliary computing device 300 can acquire the coordinate value in the virtual environment (VW) of the acquired object as virtual position information.
  • VW virtual environment
  • the auxiliary computing device 300 may acquire the coordinate value in the virtual environment VW corresponding to the coordinate value included in the real position information, and may calculate the coordinate value in the acquired virtual environment VW as the virtual position information .
  • the secondary computing device 300 may obtain a virtual image to be output to the user based on the virtual location information.
  • the auxiliary computing device 300 may acquire virtual position information of the wearable display device 400 as virtual position information of the virtual camera, and may be based on the virtual position information of the virtual camera and the direction of the virtual camera Thereby obtaining visual information of the virtual camera.
  • the auxiliary computing device 300 can acquire the directing direction of the virtual camera based on the directing direction included in the real position information of the wearable display device 400.
  • the auxiliary computing device 300 may acquire a predetermined area in the direction of the virtual camera in the field of view of the car camera.
  • the secondary computing device 300 may also obtain a virtual image corresponding to the field of view of the virtual camera in a virtual environment.
  • the secondary computing device 300 may provide the virtual image to the wearable display device 400.
  • the wearable display device 400 can output the obtained virtual image to the user through the wearable display screen output unit 450.
  • FIG. 9 is an exemplary diagram illustrating a rotation delay according to one embodiment.
  • the image provided through the display unit 400 of the wearable display device 400 in the system 10 may be a region in a virtual reality.
  • the image provided through the wearable display device 400 may be an image corresponding to a view in a direction from the position of the virtual camera provided in the virtual reality.
  • the image provided through the display unit 400 of the wearable display apparatus 400 may be provided differently depending on the rotation state of the wearable display apparatus 400.
  • the direction of the wearable display device 400 may be changed, thereby changing the direction of the virtual camera. Also, as the direction of the virtual camera is changed, the field of view of the virtual camera may be changed, so that the image provided through the wearable display device 400 may be changed.
  • the wearable display device 400 when the wearable display device 400 is oriented in a first direction at a first position in the real world, in a virtual environment, the virtual camera may be oriented in a first direction at a first position, A first image corresponding to the field of view can be provided to the user through the wearable display device 400. Also, when the wearable display device 400 is oriented in the real world to a second direction that is different from the first direction at the first position, in the virtual environment, the virtual camera may be oriented from the first position to the second direction, A second image corresponding to the field of view of the virtual camera of the wearable display device 400 may be provided to the user through the wearable display device 400. [
  • Information on the position and orientation of the wearable display device 400 may be obtained in various manners.
  • the information about the position and the orientation of the wearable display device 400 may be detected by the detec- tion information obtained by the detec- tion system 1000 and the wearable display motion sensor module of the wearable display device 400 431). ≪ / RTI >
  • 100 and the time delay required for the sub-computing device 300 to acquire information from the wearable display operation sensor module 431 may be different from each other.
  • the time of acquiring the detec- tion information for one viewpoint may be different from the time of acquiring information from the wearable display motion sensor module 431, and an error may occur accordingly.
  • the rotation information acquired from the wearable display motion sensor module 431 obtained at the time of acquiring the detec- tion information for the first time may be transmitted to the wearable display motion sensor module 431 at a time before the first time, May be acquired rotation information.
  • Inaccurate position information can be obtained due to accumulated errors when acquiring position information based on the rotation information acquired through the wearable display motion sensor module 431.
  • the detec- tion information obtained from the detec- ting device may have a relatively small error when compared with the rotation information acquired through the wearable display motion sensor module 431.
  • FIG. 10 is an exemplary diagram showing an error of rotation delay according to an embodiment.
  • the rotation information obtained through the wearable display motion sensor module 431 indicates that the wearable display device 100 ) May be provided as being rotated to the right by 20 degrees.
  • the server 200 acquires the position information of the wearable display device 100 based on the rotation information acquired through the wearable display motion sensor module 431 and acquires the virtual image based on the information
  • the area of the virtual image VI in the virtual environment needs to be moved as the actual operation position AT as shown in the virtual image VI of FIG. An error may occur.
  • the player can recognize that the screen to be moved has not moved sufficiently due to the rotation of the player himself / herself, thereby feeling nuisance such as nausea and fatigue.
  • FIG. 11 is a flowchart illustrating a rotational delay matching method according to an embodiment.
  • the rotation delay matching method includes setting a first initial rotation information (S100), acquiring a first difference value (S110), setting a second initial rotation information (S140) of obtaining the second difference value, obtaining the third difference value (S140), correcting the third difference value (S150), obtaining the fourth difference value (S160) , Obtaining a final angle value (S170), and providing an image based on the final angle value (S180).
  • the step of obtaining the internal start value may be performed (SlOO).
  • the sub computing device 300 may obtain rotation information of the wearable display device 400 from the wearable display motion sensor module 430 that obtains rotation information of the wearable display device 400.
  • the sub-computing device 300 may set the internal start value to the acquired initial rotation information if the acquired rotation information is the first acquired rotation information.
  • the step of obtaining the internal difference value may be performed (S110).
  • the sub-computing device 300 can obtain rotation information of the wearable display device 400.
  • the rotation information of the wearable display device 400 acquired by the sub computing device 300 may be later than the time when the internal start value is obtained in the previous step S100.
  • the sub computing device 300 may acquire the first difference value based on the internal start value acquired in the previous step S100 and the rotation information about the time point before the time when the internal start value is acquired.
  • the sub-computing device 300 may obtain the difference between the internal start value acquired at the first time point and the rotation information acquired at the second time point subsequent to the first time point, as the internal difference value.
  • the sub-computing device 300 may convert the internal difference value to an angle value.
  • the step of obtaining the external start value may be performed (S120).
  • the sub-computing device 300 may obtain the detaching information for the wearable display device 400 from the detaching system 100.
  • the sub computing device 300 may set the external starting value if the obtained detecting information is the detaching information acquired first.
  • the step of obtaining the second difference value may be performed (S130).
  • the sub-computing device 300 may obtain the detaching information for the wearable display device 400 from the detaching system 1000.
  • the detaching information for the wearable display device 400 acquired by the sub computing device 300 may be later than the point at which the external start value is obtained in the previous step S120.
  • the sub-computing device 300 may calculate an external difference value based on the external start value acquired in the previous step S120 and the detec- tion information about the wearable display device 400 at a point later than the time when the external start value is acquired Can be obtained.
  • the sub-computing device 300 may obtain the difference between the external start value acquired at the first time point and the detec- tion information acquired at the second time point subsequent to the first time point, as an external difference value.
  • the step of acquiring the inner and outer difference values may be performed (S140).
  • the sub-computing device 300 may obtain an internal difference value that is a difference value between the internal start value and the external difference value.
  • the step of correcting the internal and external difference values may be performed (S150).
  • the sub-computing device 300 may use the filter to correct the inner and outer difference values.
  • the sub-computing device 300 may calibrate the difference between inside and outside using a Kalman filter.
  • the step of obtaining the final difference value may be performed (S160).
  • the sub-computing device 300 may obtain a final difference value that is a difference value between the external start value and the external difference value.
  • the step of obtaining the final angle value may be performed (S170).
  • the sub computing device 300 may obtain the final angle value obtained by multiplying the internal start value and the fourth difference value converted into the angle value.
  • FIG. 12 is an exemplary diagram illustrating final angular value acquisition according to one embodiment.
  • the sub-computing device 300 may convert the internal difference value into the angle value as described in step S110.
  • the angle value according to an embodiment may be a quaternion.
  • the quaternion may include an X-axis value, a Y-axis value, a Z-axis value, and an angle value (W, O).
  • the sub computing device 300 can acquire the internal start value DP1 (X1, Y1, Z1, O) converted to the angle value and calculate the fourth difference value DP2 (X2, Y2, Z2, O ') Can be obtained.
  • the sub-computing device may multiply the internal start value DP1 (X1, Y1, Z1, O) and the fourth difference value DP2 (X2, Y2, Z2, O) to obtain the final angle value.
  • the step of providing an image based on the final angle value may be performed (S180).
  • the sub-computing device 300 may obtain a virtual view corresponding to the final angle value.
  • the sub-computing device 300 may acquire an image corresponding to the obtained virtual field of view.
  • the sub-computing device 300 may also provide the acquired image to the wearable display device 400.
  • FIG. 13 is a diagram illustrating virtual image acquisition according to rotation delay matching of a detaching device and a wearable display operation sensor module according to an exemplary embodiment.
  • the rotation information obtained from the sensor module 431 has different delays so that the detection information and the rotation information can be obtained at different points in time even if the rotation is performed at the same point in time.
  • the sub-computing device 300 can obtain the rotation angle value at which the error occurs due to the rotation information at the second time point by matching the rotation information acquired at the first time point with the detection information acquired at the second time point It is possible to obtain a virtual image based on the acquired positional information based on the detected information.
  • FIG. 14 is an exemplary diagram showing correction of a virtual image according to the rotational delay matching method described above.
  • the object is moved to the first center position CP1 ). ≪ / RTI >
  • the object may be located at the second center position CP2.
  • the auxiliary computing device 300 can acquire the angle value of the rotation of the wearable display device 100 through the rotation delay matching method described above and obtains the virtual image based on the obtained angle value, A virtual image located at the center position CP2 can be obtained.
  • 15 is an exemplary diagram of a system for subspace matching according to one embodiment.
  • a system for divided space matching may be provided with a first play space PA1 and a second play space PA2.
  • the first play space PA1 may be a space in which players of the first player group play in the real world.
  • the second play space PA2 may be a space in which the play of the second player group is played in the real world.
  • the first play space PA1 and the second play space PA2 may be provided in the same area but are not limited thereto and the first play space PA1 and the second play space PA2 may be provided in the same area, They can be provided in different areas.
  • first play space PA1 and the second play space PA2 may be provided separately from each other.
  • first play space PA1 and the second play space PA2 may be provided separately from each other.
  • the player P included in the first player group and the player P included in the second player group may be different from each other.
  • the first player P1 and the second player P2 included in the first player group can play in the first play space PA1
  • the third player P3 and the fourth player P4 included in the second player group can play the game.
  • FIG. 15 The environment shown in FIG. 15 is only an example for convenience of description.
  • the system for subspace matching according to an embodiment is not limited to FIG. 9, but may be provided in various forms according to an option.
  • first play space PA1 and the second play space PA2 are shown in FIG. 15, the present invention is not limited thereto, and more play spaces PA may be provided as an option.
  • FIG. 15 shows that two players play in one play space PA, the present invention is not limited thereto. It is also possible to select a smaller number of players to play in one play space PA have.
  • Each of the player P playing in the first play space PA1 and the player P playing in the second play space PA2 is provided with the auxiliary computing device 300, the wearable display device 400, and the input device 500 ) May be provided.
  • the first player P1 is provided with a 1-1 second auxiliary computing device 300a, a 1-1 wearable display device 400a, and a 1-1 input device 500a .
  • the second player P2 is provided with a first 1-2 auxiliary computing device 300a ', a first 1-2 wearable display device 400a' and a first 1-2 input device 500a ' May be provided.
  • the auxiliary computing device 300, the wearable display device 400 and the input device 500 may be provided have.
  • a second-1 auxiliary computing device 300b, a second-1 wearing-in display device 400b, and a second-1 input device 500b are provided to the third player P3 .
  • the second-second auxiliary computing device 300b ', the second-second wearing display device 4002', and the second-second input device 500b ' are connected to the fourth player P4, May be provided.
  • At least one of the auxiliary computing device 300, the wearable display device 400, and the input device 500 provided for each of the players P may be provided with a marker M.
  • the wearable display device 400 provided to each player P as an example may be provided with a marker M.
  • At least one detaching device 100 may be provided in each of the first play space PA1 and the second play space PA2.
  • a first detaching device 100a may be provided in the first play space PA1, and a second detaching device 100b may be provided in the second play space PA1 .
  • the first detecting device 100a may be a detecting device 100 provided in the first play space PA1 and the second detecting device 100b may be a detaching device 100 provided in the second play space PA2.
  • the first detaching device 100a provided in the first play space PA1 may obtain detec- tion information on the object located in the first play space PA1.
  • the first detection device 100a includes a first-second auxiliary computing device 300a provided to a first player P1 located in a first play space PA1, a first-second auxiliary computing device 300a provided to a first- The first 1-2 input device 500a, the 1-2 second auxiliary computing device 300a ', the 1-2 worn display device 400a', and the 1-2th auxiliary computing device 300a 'provided to the second player P2, It is possible to obtain the detection information on the marker provided to any one of the input devices 500a '.
  • the second detaching device 100b provided in the second play space PA2 may obtain detec- tion information on the object located in the second play space PA2.
  • the second detecting device 100b may include a second-1 auxiliary computing device 300b, a second-1 wearing-in display device 400b provided to a third player P3 located in the second play space PA2, 2-2 auxiliary computing device 300b 'provided to the 4th player P2, the 2-2 wearing display device 400b' and the 2-2 auxiliary computing device 300b 'provided to the 4th player P2, It is possible to obtain the detec- tion information on the marker provided to any one of the input devices 500b '.
  • first detection device 100a and the second detection device 100b may be provided in plural.
  • a plurality of first detaching devices 100a may be provided in the first play space PA1.
  • a plurality of second detaching devices 100b may be provided in the second play space PA2.
  • detaching devices 1000a may be provided in the first detaching device 100a and the second playing space PA2 provided in the first play space PA1 but the present invention is not limited thereto, A different number of detaching devices 100 may be provided in the first play space PA1 and the second play space PA2.
  • the first detection device 100 may acquire a first detection signal for the first play space PA1.
  • the sensing unit 120 included in the first detection system 100a may acquire a detaching signal for the first play space PA1.
  • the first detection device 100a may provide the first detection signal to the server 200.
  • the first detecting device 100a may detect a first detecting information about the first playing space PA1 acquired by the sensing unit 120 included in the first detecting device 100a, .
  • the server 200 may obtain the real position information of the object in the first play space PA1 based on the first detection information.
  • the server 200 may acquire a first detaching signal from the plurality of detaching devices 100 And can acquire the first detection information based on the obtained detection signals.
  • a second detaching device 100b may be provided in the second play space PA2.
  • the second detecting device 100b may obtain the second detecting information for the second play space PA2.
  • the sensing unit 120 included in the second detection device 100b may acquire second detection information on the second play space PA2.
  • the second detaching apparatus 100b may provide the server 200 with detec- tion information for the second play space PA2.
  • the server 200 may identify the first detection information and the second detection information.
  • the server 200 may store in advance the pattern of the light emitting unit 110, the sensing unit 120, the marker M, and the marker M for each object included in the first detecting apparatus 100a.
  • the server 200 transmits identification information about the sensing unit 120 included in the sensing unit 120 included in the first sensing device 100a and the sensing unit 120 included in the second sensing device 100b to the server storage unit 220 ) In advance.
  • the server 200 may acquire the detection information obtained from the sensing unit 120 included in the first detection apparatus 100a as the first detection information and the second detection information included in the second detection system 100a And the detection information obtained from the sensing unit 120 may be acquired as the second detection information.
  • the server 200 connects the detaching apparatus 100 installed in the first play space PA1 of the detaching apparatus 100 connected to the server 200 through the server communication unit 210 to the first detaching apparatus 100a Can be obtained through the server input unit 230 and the first detection information can be obtained based on the detection signal obtained from the first detection device 100a.
  • the server 200 determines whether or not the player is playing in a play space PA of either the first play space PA1 or the second play space PA2 based on the first detection information and the second detection information It is possible to obtain the real positional information RP at the position.
  • the server 200 may obtain the real position information of the first player P1 and the second player P2 in the first play space PA1 based on the first detection information.
  • the server 200 may also acquire positional information of the third player P3 and the fourth player P4 in the second play space PA2 based on the second detection information.
  • the server 200 can acquire the virtual position information VP of the character C corresponding to the player based on the real position information RP in the real world of the plays.
  • the server 200 may acquire the coordinates in the virtual reality corresponding to the coordinates included in the real position information RP in the real world of the play, as the virtual position information VP of the character C.
  • the server 200 may provide at least one of the real location information RP and the virtual location information VP to the auxiliary computing device 300.
  • the auxiliary computing device 300 can acquire the virtual position information VP based on the real position information RP.
  • the secondary computing device 300 may also obtain a virtual image based on the virtual location information VP.
  • the auxiliary computing device 300 may obtain virtual position information, which is the position of the character C in the virtual environment, based on the virtual position information VP. Or the auxiliary computing device 300 may acquire virtual position information which is the position of the virtual camera in the virtual environment based on the virtual position information VP.
  • the auxiliary computing device 300 may acquire the virtual image area based on the virtual location information and the virtual direction direction included in the virtual location information.
  • the secondary computing device 300 may obtain a virtual image for the virtual image region.
  • the secondary computing device 300 may obtain a virtual image for a virtual image area in a virtual environment.
  • the secondary computing device 300 may provide the virtual image to the wearable display device 400.
  • the wearable display device 400 can output a virtual image to the user.
  • a virtual image can be provided by the viewing display device 700.
  • 16 is an illustration of another system for subspace matching according to one embodiment.
  • the other system shown in FIG. 16 may be one in which each detaching device 100 in the system described above with reference to FIG. 15 is provided in connection with a different server 200.
  • it may be a system for providing a virtual environment through a network between servers 200 to players playing in a play space PA located in different areas.
  • another system for divided space matching may be provided with a first play space PA1 and a second play space PA2.
  • first player P1 and the second player P2 included in the first player group can play in the first play space PA1 and the first player P1 and the second player P2 included in the second player group can play in the first play space PA1.
  • the third player P3 and the fourth player P4 can play the game.
  • Each of the player P playing in the first play space PA1 and the player P playing in the second play space PA2 is provided with the auxiliary computing device 300, the wearable display device 400, and the input device 500 ) May be provided.
  • the first player P1 is provided with a 1-1 second auxiliary computing device 300a, a 1-1 wearable display device 400a, and a 1-1 input device 500a .
  • the second player P2 is connected to the first 1-2 secondary computing device 300a ', the 1-2 wearable display device 400a' and the 1-2 input device 500a ' May be provided.
  • the auxiliary computing device 300, the wearable display device 400 and the input device 500 may be provided have.
  • the second-first auxiliary computing device 300b, the second-first wearing display device 400b, and the second-first input device 500b are provided to the third player P3 .
  • the second-second auxiliary computing device 300b ', the second-second wearing display device 4002', and the second-second input device 500b ' are connected to the fourth player P4, May be provided.
  • At least one of the auxiliary computing device 300, the wearable display device 400, and the input device 500 provided for each of the players P may be provided with a marker M.
  • the wearable display device 400 provided to each player P as an example may be provided with a marker M.
  • a first detaching device 100a may be provided in the first play space PA1.
  • the first detecting device 100a may obtain the first detecting information for the first play space PA1.
  • the first detection device 100a may provide the first detection information to the first server 200a.
  • a second detaching system 100b may be provided in the second play space PA2.
  • the second detection system 100b may obtain the second detection information for the second play space PA2.
  • the second detection system 100b may provide the second detection information to the second server 200b.
  • the first server 200a and the second server 200b are connected to the first server 200a through the first server 200a and the second server 200b, 200a in the second play space PA2 to obtain detec- tion information for the players included in the second player group.
  • the first server 200a may provide the second server 200b with detaching information for the players included in the first player group playing in the first play space PA1.
  • the second server 200b may provide the first server 200a with detec- tion information for the players included in the second player group that is played in the second play space PA2.
  • the first server 200a may provide detec- tion information for the first player group and the players of the second player group to the auxiliary computing devices 300 worn by the players of the first player group.
  • the second server 200b may provide detaching information for the players of the first player group and the second player group to the auxiliary computing devices 300 worn by the players of the second player group.
  • the auxiliary computing device 300 worn by the player included in the first player group and the second player group is not able to receive the auxiliary computing device 300 based on the acquired detection information for the players of the first player group and the second player group,
  • the wearable display device 400 coupled to the display device 400 may provide an image of the virtual environment.
  • 17 is an exemplary diagram illustrating a subspace matching according to an embodiment.
  • a first play space PA1 and a second play space PA2 may be provided.
  • the first player group can play in the first play space PA1, and the second player group can play in the second play space PA2.
  • the first player P1 and the second player P2 can play in the first play space PA1
  • the third player P3 and the fourth player P4 can play in the second play space PA2, Can play.
  • the virtual environment includes a first player P1 and a second player P2 playing in the first play space PA1, a third player P3 and a fourth player P4 playing in the second play space PA2, A character corresponding to the character can be provided.
  • the first character C1 corresponding to the first player P1 in the virtual environment VW may be provided at a virtual position corresponding to the position of the first player P1 in the first play space PA1.
  • the first player P1 playing in the first play space PA1 is PA1 (Xa, Ya, Za)
  • the first player P1 in the virtual environment VW the first player P1 in the virtual environment VW
  • the first character C1 corresponding to the virtual environment VW may be provided at (Xc, Yc, Zc) in the virtual environment VW.
  • the second character P2 corresponding to the second player P2 in the virtual environment VW when the actual position information of the second player P2 playing in the second play space PA2 is (Xb, Yb, Zb) C2 may be provided to (Xd, Yd, Zd) of the virtual environment VW.
  • the virtual area provided with the character corresponding to the player playing in the first play space PA1 and the virtual area provided with the character corresponding to the player playing in the second play space PA2 are separately provided .
  • the first player P1 playing in the first play space PA1 is PA1 (Xa, Ya, Za)
  • the first player P1 in the virtual environment VW The first character C1 corresponding to the first virtual area VA1 may be provided to VA1 (Xc, Yc, Zc) of the first virtual area VA1.
  • the second character P2 corresponding to the second player P2 in the virtual environment VW when the actual position information of the second player P2 playing in the second play space PA2 is PA2 (Xb, Yb, Zb) (C2) may be provided to VA2 (Xd, Yd, Zd) in the second virtual area VA2.
  • the secondary computing device 300 may obtain a virtual camera position for each player based on the location of the character in the virtual environment,
  • the secondary computing device 300 may obtain the virtual camera position of the first player based on the position of the first character.
  • the secondary computing device 300 may also obtain a virtual image based on the location of the virtual camera.
  • the secondary computing device 300 may obtain a view to provide to the first player based on the virtual camera position of the first player, and may provide an area corresponding to the field of view of the first player to the first player in the virtual environment You can acquire a virtual image to do.
  • 18 is an exemplary view showing a distance relationship in the divided space matching according to an embodiment.
  • a first play space PA1 and a second play space PA2 may be provided.
  • the first play space PA1 and the second play space PA2 may be provided independently.
  • the first play space PA1 and the second play space PA2 may be provided at predetermined distances.
  • the first player P1 can play in the first play space PA1
  • the second player P2 can play in the second play space PA2.
  • the first character C1 corresponding to the first player P1 and the second character C2 corresponding to the second player P2 may be provided.
  • the actual distance RD between the first player P1 and the second player P2 in the real world and the virtual distance VD between the first character C1 and the second character C2 in the virtual environment are different from each other .
  • the coordinates of the first player P1 in the real world are (1, 1, 1) and the coordinates of the second player P2 in the real world are (1, 11, 1) Is located at a distance of 10 from the first player P1 in the Y axis
  • the coordinates of the first character C1 are provided as (1,1,1) in the virtual environment
  • the coordinates of the second character C2 are (1, 5, 1).
  • the first character (C1) and the second character (C2) are spaced apart from each other by 5 in the Y axis
  • the virtual distance VD between the real distance RD and the first character C1 and the second character C2 in the virtual environment can be provided differently from each other.
  • the distance between the first character and the second character C2 viewed by the first player in the virtual image output to the first player through the wearable display device 400 is determined by the distance between the first player P1 and the second player P2 in the real world, Lt; / RTI >
  • the second character C2 in the virtual image provided through the wearable display device 400 may be provided spaced apart by 5 on the Y axis.
  • FIG. 19 is an exemplary view showing the matching of the field of view in the subspace matching according to an embodiment.
  • a first play space PA1 and a second play space PA2 may be provided.
  • the first play space PA1 and the second play space PA2 may be provided independently.
  • the first play space PA1 and the second play space PA2 may be provided at a predetermined distance in the first direction.
  • first play space PA1 and the second play space PA2 are spaced apart from each other in the first direction, they can be provided in the second direction in the virtual environment.
  • the virtual environment VW shown in FIG. 19 even if the first play space PA1 and the second play space PA2 are spaced apart in the first direction, the virtual environment VW shown in FIG. 19, for example, The space PA can be provided in the horizontal direction in the virtual environment.
  • the first player P1 can play in the first play space PA1
  • the second player P2 can play in the second play space PA2.
  • the field of view (VOF) of the virtual environment provided to the first player P1 may be provided.
  • the wearable display device 400 when the first player P1 directs the wearable display device 400 in a second direction perpendicular to the first direction, in the real world, even if the second player P2 is not positioned in the second direction,
  • the second character C2 may be provided to the virtual image VI provided to the first player P1 through the device 400.
  • 20 is an exemplary diagram illustrating movement in a subspace matching according to an embodiment
  • a first play space PA1 and a second play space PA2 may be provided.
  • the first play space PA1 and the second play space PA2 may be provided independently.
  • the first player P1 can play in the first play space PA1
  • the second player P2 can play in the second play space PA2.
  • the first virtual environment area VA1 corresponding to the first play space PA1 and the second virtual environment area VA2 corresponding to the second play space PA2 may be provided.
  • the first virtual environment area VA1 and the second virtual environment area VA2 may be those in which an arbitrary space is provided in an entire virtual environment.
  • the first character C1 corresponding to the first player P1 playing in the first play space PA1 can move in the first virtual environment area VA1.
  • the first character C1 corresponding to the first player P1 playing in the first play space PA1 corresponds to the second character P2 corresponding to the second player P2 playing in the second play space PA2
  • the movement to the second virtual environment area VA2 provided can be restricted.
  • the second character C2 corresponding to the second player P2 playing in the second play space PA2 can move in the second virtual environment area VA2.
  • the second character P2 corresponding to the second player P2 playing in the second play space PA2 corresponds to the first character P1 corresponding to the first player P1 playing in the first play space PA1
  • the movement to the first virtual environment area VA1 provided can be restricted.
  • the second character C2 positioned in the second direction may move in the first direction.
  • a virtual image in which the second character C2 positioned on the left of the first character C1 moves forward may be provided.
  • the first character C1 may be provided to move to the second character C2 located in the second direction.
  • a virtual image moving to the position of the second character C2 may be provided.
  • 21 is an exemplary diagram illustrating a shot situation in a subspace matching according to an embodiment.
  • the first play space PA1 and the second play space PA2 may be provided independently.
  • the first player P1 can play in the first play space PA1
  • the second player P2 can play in the second play space PA2.
  • the first virtual environment area VA1 corresponding to the first play space PA1 and the second virtual environment area VA2 corresponding to the second play space PA2 may be provided.
  • the first play space PA1 and the second play space PA2 may be provided in a first direction.
  • the player P1 may not exist in the third direction VD3 because the play space PA is not provided in the third direction perpendicular to the first direction.
  • the first player P1 playing in the first play space PA1 can direct the held input device 400 in the third direction RD3, and the input device 400 To command to generate a predetermined event in the third direction RD3.
  • the first player P1 playing in the first play space PA1 may direct the input device 400 toward the left side, and may push the switch provided to the input device 400 to the left side.
  • the virtual image VI provided to the first player through the wearable display device 400 worn by the first player P1 may be provided with an image in which a predetermined event occurs in the third direction RD3 .
  • the first character C1 is moved to the left in the direction of the gun, An image to be fired may be provided.
  • the second character C2 corresponding to the second player P2 is positioned in the direction in which the first character C1 corresponding to the first player P1 fires the bullet in the virtual environment VW through the divided space matching Thus, the second character C2 can be shot by the bullet emitted by the first character C1.
  • the first player C1 is not positioned in the direction in which the first character C1 is oriented in the virtual environment VW When the second character C2 is positioned, the first player P1 may hit the second player P2.
  • the first player P1 when the first player P1 directs the input device 400 to input a command for shooting a bullet, even if the second player P2 is not positioned in the direction toward the input device 400,
  • the second character C2 is positioned in the direction in which the first character C1 is oriented in the virtual environment VW
  • the first player P1 is notified to the first player P1 via the wearable display device 400 worn by the first player P1
  • the provided virtual image may be provided with an image in which the second character C2 is shot by the bullet emitted by the first character C1.
  • the first player P1 directs the input device 400 to input a command for shooting a bullet in the real world
  • the second player P2 is not positioned in the direction of the input device 400
  • the second character C2 is positioned in the direction in which the first character C1 is oriented in the virtual environment VW
  • the second player P2 is notified to the second player P2 via the wearable display device 400 worn by the second player P2
  • the provided virtual image may be provided with an image shot by the bullet emitted by the first character C1.
  • 22 is an exemplary diagram illustrating sound matching in a subspace matching according to one embodiment.
  • the first play space PA1 and the second play space PA2 may be provided independently.
  • a second play space PA2 may be provided at a position apart from the first play space PA1 in the first direction.
  • the first player P1 can play in the first play space PA1
  • the second player P2 can play in the second play space PA2.
  • the second player P2 may be located in the second play space PA2 provided away from the first player P1 in the first direction.
  • the sound generated by the second player P2 in the real world can be recognized as the sound generated in the first direction to the first player P1.
  • the second character C2 corresponding to the second player P2 may be positioned in the third direction VD3 from the first character C1 corresponding to the first player P1,
  • the sound generated by the second player P2 provided to the first player PA1 may be provided to be output so that the first player PA1 recognizes the sound generated in the third direction in which the second character C2 is located .
  • the second player P2 is located at a position spaced apart from the first player P1 in the first direction, and the second character P2 is positioned at a position spaced apart from the first character C1 in the third direction,
  • the sound generated by the second player P2 spaced apart from the first player P1 in the first direction in the real world when the second player P2 is positioned on the left and right sides of the wearable display device 400 May be provided to be output through the wearable display sound output section 460 provided on the left side corresponding to the third direction in which the second character C2 is located in the virtual one of the part 460.
  • the auxiliary computing device 300 may be configured to communicate with the first player P1 by the second character C2 based on the positional relationship of the first character C1 and the second character C2 in the virtual environment It is possible to obtain output sound information for the generated sound.
  • the wearable display device 400 may provide input acoustic information obtained through the wearable display acoustic sensor module 432 to the auxiliary computing device 300.
  • the wearable display device 400 may also provide input acoustic information to the auxiliary computing device 300, including identification information imparted to the wearable display device 400.
  • the auxiliary computing device 300 may provide the acquired input sound information to the server 200 by the wearable display device 400.
  • the server 200 can identify the wearable display device 400 and / or the player P that provided the input sound information based on the identification information of the wearable display device 400 included in the input sound information.
  • the server 200 may provide input acoustic information to the secondary computing device 300 that includes identification information for the wearable display device 400 and /
  • the auxiliary computing device 300 generates the input sound information based on the positional relationship of the character C corresponding to the player P providing the input sound information and the input sound information and the character C corresponding to the player P receiving the sound
  • the output sound information can be obtained.
  • the auxiliary computing device 300 calculates the virtual number of the first character C1 corresponding to the first player P1 based on the coordinates in the first play space PA1 of the first player P1 (Xa, Ya, Za) in the second environment P2 can be acquired and the second character P2 corresponding to the second player P2 can be obtained based on the coordinates in the second play space PA2 of the second player P2
  • the coordinates VA2 (Xb, Yb, Zb) in the virtual environment of the object C2 can be obtained.
  • 2 player P2 when the second character C2 is located on the left side of the first character C1 as a result of determining the positions of the first character C1 and the second character C2 in the virtual environment, 2 player P2 outputs the sound input through the wearable display sound sensor module 432 through the 3D sound to the sound generated from the left side of the first player P1 in the wearable display sound output section 460 Acoustic information can be obtained.
  • the auxiliary computing device 300 may also provide the acquired acoustic information to the wearable display device 400 and the wearable display device 400 may provide the wearable display acoustic sensor module 432 To output a sound signal.
  • the auxiliary computing device 300 transmits the sound input through the wearable display sound sensor module 432 provided to the wearable display device 400 worn by the player P to the other player P
  • a method of acquiring output sound information to provide the input signals to the players P through a sound sensor module (not shown) connected to the server 200 may be different from each other . ≪ / RTI >
  • the auxiliary computing device 300 transmits the sound input through the wearable display sound sensor module 432 provided to the wearable display device 400 worn by the player P to the other player P
  • the output sound information based on the 3D sound including the direction of the sound based on the position information between the players P can be obtained as described above.
  • the acoustic information of the 2D system which does not include the direction of the sound can be obtained.
  • FIG. 23 is a diagram showing the division of space into the same space according to an embodiment.
  • the first play space PA1 and the second play space PA2 may be provided independently.
  • a second play space PA2 may be provided in front of the first play space PA1.
  • the first player P1 can play in the first play space PA1
  • the second player P2 can play in the second play space PA2.
  • the second player P2 may be positioned in front of the first player P1 as shown in FIG.
  • the two play spaces PA may overlap and be provided in one virtual environment VW.
  • the first characters C1 and / The position of the second character C2 can be overlapped.
  • the first play space PA1 and the second play space PA2 may be provided to share one virtual space VA.
  • the first player P1 when the first player P1 is positioned at (X, Y, Z) in the first play space PA1 and the second player P2 is positioned at (X, Y, Z)
  • the first character C1 and the second character C2 in the virtual environment VW may be provided at the same position.
  • first character C1 and the second character C2 are provided at the same position in the virtual environment, there may occur a case where the positions of the first character C1 and the second character C2 overlap each other and interfere with the play.
  • the auxiliary computing device 300 transmits the first character C1 and the second character C2 to the virtual environment At least one of the coordinates of the first character C1 in the virtual environment and the coordinates of the second character C2 in the virtual environment can be corrected so as not to overlap in the virtual environment.
  • the auxiliary computing device 300 subtracts or adds predetermined coordinate values in the virtual environment coordinates of the first character C1 and the second character C2 to calculate coordinates of the first character C1 in the virtual environment, 2 coordinates of the character C2 in the virtual environment can be corrected.
  • the coordinates of the first character C1 and the second character C2 in the virtual environment are (10, 10, 10)
  • the coordinates of the first character C1 in the virtual environment are coordinates (5, 10, 10)
  • the coordinate of the second character C2 in the virtual environment is obtained by adding 5 to the coordinate value of the X axis (15, 10, 10) can do.
  • the coordinate value of the first character C1 and the second character C2 in the virtual environment are (10, 10, 10)
  • the coordinate value of the first character C1 which is the priority can be obtained by adding 5 to the coordinate value of the X axis in the virtual environment of the second character C2 which is the order of the second character.
  • 24 is a diagram illustrating a collaboration object in a subspace matching according to one embodiment.
  • a second play space PA2 may be provided in front of the first play space PA1.
  • the first player P1 can play in the first play space PA1
  • the second player P2 can play in the second play space PA2.
  • the second player P2 may be positioned in front of the first player P1 as shown in FIG.
  • the two play spaces PA may overlap and be provided in one virtual environment VW.
  • the first player P may carry an object OJ.
  • the object OJ can be shared even if the first player P1 and the second player P2 are spaced apart from each other.
  • the first character C1 can be output as having the object OJ in the virtual environment VW.
  • the first character C1 may be output as having the object OJ.
  • the second player P2 can not touch the object OJ, but in the virtual reality, the second character C2 can touch the object OJ.
  • the first character C1 corresponding to the first player P1 may carry a virtual object OJ in the virtual reality.
  • the first character C1 and the second character C2 can share virtual objects provided to the virtual environment.
  • the object OJ may be provided with a marker.
  • the server 200 can determine the position of the object OJ in the play space PA based on the detection information.
  • the server 200 stores the object in the first play space PA1, It is possible to determine that the object OJ is provided, and obtain the real position information of the object OJ on the first play space PA1.
  • the server 200 can acquire the virtual position information of the object OJ based on the real position information of the object OJ.
  • the server 200 may also provide the virtual location information of the object (OJ) to the auxiliary computing device 300.
  • Secondary computing device 300 may render a virtual object corresponding to object OJ.
  • the secondary computing device 300 may render a box corresponding to the object OJ and obtain a virtual image containing the rendered box.
  • Secondary computing device 300 may render the virtual object based on the type of object OJ.
  • the secondary computing device 300 may determine the type of the object OJ based on the type of the marker M pattern provided to the object OJ, So that a virtual object can be rendered.
  • the secondary computing device 300 may render a pre-stored soccer ball virtual object if it is a soccer ball as a result of the determination based on the type of the marker (M) pattern provided to the object OJ.
  • the secondary computing device 300 may also be coupled to a separate haptic device.
  • the auxiliary computing device 300 may be connected to a glove-shaped haptic device mounted on the user's hand and a haptic device mounted on the user's body in the form of a vest.
  • the auxiliary computing device 300 may provide haptic feedback to the player P via the haptic device based on whether the player P and the virtual object are in contact with each other.
  • the auxiliary computing device 300 can determine the positional relationship between the virtual object and the player P in the virtual environment.
  • the auxiliary computing device 300 may determine that the character C is a virtual object It can be judged that the contact has been made.
  • the secondary computing device 300 may control the haptic device to provide the corresponding haptic feedback if it determines that the character C has contacted the virtual object in the virtual environment.
  • 25 is a diagram showing a divided space matching according to another embodiment.
  • a first play space PA1 and a second play space PA2 may be provided.
  • one play space PA may be provided in a divided region.
  • the detachment system 100 may be provided in the play space PA.
  • Detecting system 100 may obtain detec- tion information for first play space PA1 and second play space PA2.
  • the first player group can play in the first play space PA1, and the second player group can play in the second play space PA2.
  • the first player P1 and the second player P2 can play in the first play space PA1
  • the third player P3 and the fourth player P4 can play in the second play space PA2, Can play.
  • the virtual environment includes a first player P1 and a second player P2 playing in the first play space PA1, a third player P3 and a fourth player P4 playing in the second play space PA2, A character corresponding to the character can be provided.
  • the character corresponding to the first play space PA1 may be located in the first layer, and the character corresponding to the second player group may be located in the second layer corresponding to the second play space PA2 Lt; / RTI > layer.
  • a character corresponding to the first player group may be provided on the second floor of the virtual environment, The corresponding character can be provided on the third floor.
  • the server 2000 determines whether the first player PA playing in the first play space PA1 is PA1 (10, 10 and 10 which are real position information in the second play space PA2 of the second player P2 playing in the second play space PA2, Can be obtained.
  • the auxiliary computing device 300 further includes a first character C1 corresponding to the first player P1 based on the real position information of the first player P1 and the second player P2 acquired from the server 200, And virtual position information of the second character C2 corresponding to the second player P2.
  • the auxiliary computing device 300 can acquire the virtual position information of the first character C1 by the VA1 10,10 and 10 when the first play space PA1 is the first layer, ) Is the second layer, the virtual position information of the second character C1 is the coordinate value of the Z axis in the PA2 (10, 10, 10) which is the real position information in the second play space PA2 of the second player P2 (10, 10, 20) obtained by changing the coordinates of the first layer to the coordinates corresponding to the second layer.
  • the first play space PA1 and the second play space PA2 are provided in the same layer, the first virtual space VA1 and the second play space PA2 corresponding to the first play space PA1 in the virtual environment, ) May be provided in different layers.
  • Figure 26 is a diagram illustrating movement from one sub-space match to another in accordance with another embodiment.
  • a play space PA may be provided in the real world, and the play space PA may include a first play space PA1, a second play space PA2, and a move region MA can do.
  • the first virtual area VA1 corresponding to the first play space PA1 may be provided in the first layer and the second virtual area VA2 corresponding to the second play space PA2 may be provided in the second layer.
  • the first character C1 provided in the virtual environment is the first virtual area VA1 to the second virtual area VA2.
  • the first character C1 provided in the virtual environment can move from the first layer to the second layer of the virtual environment.
  • a virtual step Vstair connecting the first virtual area VA1 and the second virtual area VA2 may be provided in the virtual environment.
  • the first character C1 can move from the first virtual area VA1 to the second virtual area VA2 along the virtual step Vstair connecting the first virtual area VA2.
  • the virtual environment in the movement to another layer in the virtual environment via the movement area MA according to an embodiment, includes a virtual staircase connecting the first virtual area VA1 and the second virtual area VA2, (Vstair) is provided, but various types of moving means can be provided.
  • the virtual environment may be provided with a virtual elevator corresponding to the moving area.
  • the virtual elevator may be provided with a virtual object that allows the player to select the desired number of floors.
  • the secondary computing device 300 may be configured to place the hand and input devices 500 at a location in the real world corresponding to the desired number of layers provided in the virtual environment or to direct the input device 500 to a predetermined When a selection is input, it can be determined that the number of layers is selected.
  • the auxiliary computing device 300 may provide a virtual image to the wearable display device 400 such that the virtual elevator moves to that layer.
  • the auxiliary computing device 300 may acquire a virtual image corresponding to the second play area PA2 in the virtual environment and provide the acquired virtual image to the wearable display device 400.
  • the auxiliary computing device 300 wears a virtual image corresponding to the second play area PA2 when the first player P1 moves from the movement area MA to the second play area PA2 Type display device 400 according to the present invention.
  • the auxiliary computing device 300 may provide a virtual image corresponding to the second play area PA2 to the wearable display device 400 when the virtual elevator moves to the corresponding layer.
  • the auxiliary computing device 300 provides the virtual image corresponding to the second play area PA2 to the wearable display device 400 when the virtual elevator moves to the corresponding layer and the door of the virtual elevator is opened can do.
  • the secondary computing device 300 may provide a virtual image corresponding to that layer.
  • the auxiliary computing device 300 may provide a virtual image corresponding to the third floor when the virtual elevator moves to the third floor and the user moves to the second playing area PA2.
  • the auxiliary computing device 300 may provide a virtual image corresponding to the third floor when the virtual elevator moves to the third floor and the door of the virtual elevator is opened.
  • the auxiliary computing device 300 may provide a virtual image that is different from the other layers for at least some of the plurality of layers provided through the virtual elevator.
  • the first layer and the second layer may be provided with virtual environments of different backgrounds so that the virtual images for the first and second layers may be different from each other.
  • the auxiliary computing device 300 moves to the wearable display device
  • the virtual images provided to the display device 300 may be different virtual images.
  • a real object may be provided in the moving area MA.
  • a real object provided in the moving area MA may be provided with a real object through which a user can input a selection, such as a button, a switch, a stick, and the like.
  • the real object may also be provided with a marker.
  • the auxiliary computing device 300 may change the virtual space for the play area PA of at least one of the first play area PA1 and the second play area PA2 based on the real object manipulation of the player.
  • the auxiliary computing device 300 can determine the real object manipulation of the first player P1 based on the detection information.
  • the auxiliary computing device 300 may generate a first play area PA1 and a second play area PA2 based on the manipulation result of the real object, It is possible to determine a virtual space to be applied to at least one play area PA of the area PA2.
  • the auxiliary computing device 300 can determine the layer selected by the first player P1 based on the switch pressed by the first player P1, May apply the virtual image for the selected layer to at least one play area PA of the first play area PA1 and the second play area PA2.
  • FIG. 27 is a diagram showing a shot according to a positional relation in a subspace matching according to another embodiment.
  • a play space PA may be provided, and the play space PA may include a first play space PA1 and a second play space PA2.
  • the first virtual area VA1 corresponding to the first play space PA1 may be provided in the first layer and the second virtual area VA2 corresponding to the second play space PA2 may be provided in the second layer.
  • the first player P1 playing in the first play space PA1 has a second player P2, which plays the input device 400 possessed in the second play space PA1, It may be directed in the fifth direction RD5 and the input device 400 may be operated to command to generate a predetermined event in the third direction RD3.
  • the first player P1 playing in the first play space PA1 directs the input device 400 toward the left where the second player P2 playing in the second play space PA1 is located,
  • the user may command to generate an event to fire the gun to the left by depressing a switch provided on the switch 400.
  • the secondary computing device 300 may be configured to generate a virtual image in which a predetermined event occurs in a fifth direction RD5 in a virtual environment corresponding to a fifth direction RD5 in which the first player P1 has directed the input device 500. [ Can be obtained.
  • the auxiliary computing device 300 may include a first character C1 in a fifth direction RD5 in a virtual environment corresponding to a fifth direction RD5 in which the first player P1 is oriented toward the input device 500. [ You can acquire a virtual image that fires this gun.
  • the first player P1 playing in the first play space PA1 is directed in the direction of the second player P2 located in the second play space PA2 and fires the gun
  • the first player P1 targets the second player P2 and fires the gun but in the virtual environment VW the first character C1 corresponding to the first player P1 is located on the first floor
  • the second character C2 corresponding to the second player P2 may be located in the second layer.
  • the second player P2 Even if the second player P2 is positioned in the direction in which the first player P1 directs the input device 400 in the real world, the second character P2 in the virtual environment VW, The first player P1 can not hit the second player P2 if the second player P2 is not positioned.
  • the first player P1 when the first player P1 directs the input device 400 to input a command for shooting a bullet, even if the second player P2 is positioned in the direction toward the input device 400, If the second character C2 is not positioned in the direction in which the first character C1 is oriented in the environment VW, the first player P1 is allowed to move through the wearable display device 400 worn by the first player P1 The second character C2 may not be provided in the direction in which the bullet is fired.
  • the second player P2 can be moved through the wearable display device 400 worn by the second player P2,
  • the virtual image provided to the user may not be provided with a virtual image provided when the user is hit. More specifically, for example, a virtual image provided when a second player P2 is shot is not provided, and a virtual image that has been previously provided can be provided.
  • FIG. 28 is a diagram showing the sound matching in the divided space matching according to another embodiment.
  • FIG. 28 is a diagram showing the sound matching in the divided space matching according to another embodiment.
  • the first play space PA1 and the second play space PA2 may be provided independently.
  • a play space PA may be provided, and the play space PA may include a first play space PA1 and a second play space PA2.
  • first play space PA1 and the second play space PA2 may be provided in the same layer.
  • the first virtual area VA1 corresponding to the first play space PA1 may be provided in the first layer, and the first virtual space VA1 corresponding to the second play space PA2 may be provided A second virtual area VA2 may be provided in the second layer.
  • the first player P1 can play in the first play space PA1 and the second player P2 can play in the second play space PA2.
  • the second player P2 may be positioned on the left side of the first player P1.
  • the direction of the sound provided through the wearable display sound output portion 460 of the wearable display device 400 may be different from the direction between the players in the real world.
  • a sound generated by the second player P2 to the first player PA1 in the real world can be recognized as a sound generated from the left.
  • the sound generated by the second player P2 provided to the first player PA1 is displayed on the left side of the wearable display sound output unit 460 provided to the first player PA1 to the left / To be output via the wearable display sound output 460 provided to the user.
  • the first character C1 corresponding to the first player P1 is located in the first layer
  • the second character C2 corresponding to the second character may be located in the second layer.
  • the sound generated by the second player P2 provided to the first player PA1 can be provided to be heard above the first player P1.
  • 29 is an exemplary view showing face registration according to an embodiment.
  • each player and / or team may provide virtual characters of different colors to identify each player and / or team.
  • first virtual player character corresponding to the first player and the second virtual character corresponding to the second player character may be provided in different colors to identify the player.
  • the virtual character and the virtual character corresponding to the player belonging to the second team can be discriminated from each other.
  • identification information corresponding to each player and / or team is provided so as to distinguish each player and / or team in a virtual environment so that one player can identify each player and / Teams can be identified from each other.
  • Identification information for the first player and / or the first virtual character in a predetermined area adjacent to the first virtual character and / or the first virtual character corresponding to the first player
  • Identification information for the second player and / or the second virtual character is provided in a predetermined area adjacent to the second virtual character and / or the second virtual character to provide the identification information so as to identify the first virtual character and the second virtual character can do.
  • the virtual character corresponding to the player belonging to the first team and the virtual character corresponding to the player belonging to the second team can be discriminated from each other by providing identification information for the second team in a predetermined area adjacent to the first team have.
  • Such face features can be provided in a variety of ways. Generally, in a game, the virtual characters are provided uniformly or the face features are different from one another for each virtual character, but the face features are not provided differently from one player to another.
  • one player can be easily distinguished from the other players by providing different facial features for each player.
  • the face characteristic of the player is reflected in the face data of the virtual character, so that it is possible to more clearly identify the virtual character of the player.
  • FIG. 30 is a flowchart showing a play character acquisition method according to an embodiment.
  • a method for acquiring a play character includes acquiring player face data (S200), acquiring a face feature value based on player face data (S210), acquiring information about a virtual character S220), acquiring the face data of the virtual character based on the face feature value (S230), storing the play character (S500), and outputting the play character (S240).
  • a step of acquiring player face data may be performed (S200).
  • the virtual environment system may be provided with the face sensor unit 800 and the face data of the player through the face sensor unit 800 may be acquired.
  • the server 200 may acquire the face data of the player to obtain the face characteristic value of the player.
  • FIG. 31 is a diagram showing acquisition of face data through the face sensor unit 800 according to an embodiment.
  • a face sensor unit 800 for obtaining face data of a player can be provided, and face data of a player can be obtained through the face sensor unit 800.
  • the face sensor unit 800 may be provided as a camera, an image, or the like.
  • the face sensor unit 800 when the face sensor unit 800 is provided as a camera, the face of the player can be captured by photographing the face of the player with the camera.
  • 32 is an exemplary diagram showing face data of a player according to an embodiment.
  • the server 200 can acquire face data of the face of the player through the face sensor unit 800.
  • face data corresponding to the acquired player identification information among the face data stored in advance in the server 200 can be obtained.
  • FIG. 33 is a diagram illustrating acquisition of previously stored face data using identification information according to an embodiment.
  • the server 200 may store the face data acquired through the face sensor unit 800 in advance.
  • the face data may be stored in advance in a separate face data server.
  • the server 200 can acquire player identification information through the ID sensor unit 900.
  • the server 200 may acquire the player identification information input by the player through the input device provided in the ID sensor unit 900.
  • the server 200 may scan and acquire player identification information recorded on a portable recording medium held by the player via the ID sensor unit 900.
  • the server 200 may acquire player identification information by scanning a barcode recorded on the ID card held by the player via the barcode reader provided in the ID sensor unit 900.
  • the server 200 can acquire the player identification information inputted by the player through the ID sensor unit 900. [ In addition, the server 200 can acquire the face data corresponding to the player identification information among the face data stored in advance.
  • the server 200 can request the transmission of the face data corresponding to the player identification information to the face data server and acquire the face data corresponding to the player identification information from the face data server have.
  • the server 200 can acquire face data from a portable recording medium.
  • the server 200 can acquire the face data recorded on the portable recording medium held by the player through the ID sensor unit 900.
  • the server 200 can scan the face data recorded on the portable recording medium held by the player through the ID sensor unit 900 and acquire the face data.
  • the server 200 may acquire facial data by scanning a barcode recorded on an ID card held by a player through a barcode reader provided in the ID sensor unit 900.
  • a step of acquiring a face feature value based on player face data may be performed (S210).
  • Feature values of facial data can be obtained for eye color, hair color, eyebrow color, facial skin color, nose height, width, eye size, distance between eye and eye,
  • the server 200 can acquire the face data of the virtual character by applying the characteristic value of the obtained face data to the predetermined virtual character face data variable value.
  • the face data may include variables such as the height of the nose, the nose of the nose, the size of the eyes, the distance between the eyes and the eye, and the position of the eyes.
  • the server control unit 240 can change the variable value of the stored face data to the feature value of the acquired face data.
  • the server control unit 240 may set the nose height parameter of the virtual character's face data to 10 cm.
  • the face data of the virtual character among the players having the feature values different from each other may be different from each other.
  • the face data of the first character and the face data of the second character may be different from each other.
  • the first character acquires the face data by applying the feature value acquired from the first player, when the other player views the first character, It is possible to identify the character corresponding to one player.
  • the server 200 may transmit the acquired characteristic values to the auxiliary computing device 300.
  • the acquisition of the feature values described above is not necessarily performed in the server 200, and may be provided in various forms according to the selection.
  • the auxiliary computing device 300 may acquire the feature value by acquiring the face data acquired in step S100 and performing step S200.
  • the step of acquiring information on the virtual character may be performed (S220).
  • information on a selected character among a plurality of virtual characters stored in advance can be obtained.
  • a step of selecting at least one character among a plurality of virtual characters in the virtual environment may be provided.
  • the player may be provided with identification information for a plurality of characters.
  • 34 is a diagram illustrating selection of a virtual character according to an embodiment.
  • the auxiliary computing device 300 can control the wearable display device 400 to provide images for a plurality of virtual characters in a virtual environment.
  • identification information for each of a plurality of virtual characters may be provided.
  • the auxiliary computing device 300 may also obtain a selection of the player for the at least one virtual character via the controller 500.
  • the auxiliary computing device 300 may acquire a virtual character corresponding to a direction in which the player has directed the controller 500 as a virtual character selected by the player.
  • the auxiliary computing device 300 may display the selection button corresponding to the direction in which the controller 500 is oriented when the player touches the predetermined selection button
  • the virtual character can be obtained as a virtual character selected by the player.
  • the auxiliary computing device 300 may obtain the character information for the selected virtual character.
  • the character information may be data on the body excluding the face data of the virtual character as information on the appearance of the character.
  • the character information may include face data of the virtual character of the character, and the face data of the virtual character may be provided with face data in which the basic character value previously assigned to the virtual character is set.
  • a step of acquiring face data of a virtual character based on the face feature value may be performed (S230).
  • the server 200 can acquire the face data of the virtual character based on the face characteristic value of the player.
  • the face data of the virtual character includes variable values for eye color, hair color, eyebrow color, face skin color, nose height, width, eye size, distance between eyes, can do.
  • the server 200 can acquire the face data of the virtual character by changing the variable value included in the face data of the virtual character to the characteristic value acquired based on the face data of the player.
  • the server 200 may acquire face data of a virtual character by changing the height variable value of the nose included in the face data of the virtual character to a variable value obtained from the face data of the player.
  • the step of storing the play character may be performed (S240).
  • the server 200 can acquire the virtual character based on the face data of the virtual character and the body data of the virtual character.
  • the server 200 may store the virtual character in the server storage unit 220.
  • the server 200 may transmit the virtual character to the auxiliary computing device 300.
  • the server 200 may transmit the first virtual character corresponding to the first player to the second auxiliary computing device used by the second player.
  • the server 200 may transmit a second virtual character corresponding to the second player to a first auxiliary computing device used by the first player.
  • the server 200 may transmit the first virtual character and the second virtual character to the first auxiliary computing device and the second auxiliary computing device connected to the server 200.
  • the step of outputting the play character may be performed (S250).
  • an image of a virtual character corresponding to another player can be output through the wearable display device 400 worn by one player.
  • 35 is an exemplary view of a play character according to an embodiment.
  • the face data of the virtual character output in the virtual environment may be provided with face data reflecting characteristic values obtained based on the face data of the player.
  • the wearable display device 400 when the first player and the second player play the virtual environment and the virtual character corresponding to the second player is included in the view of the first player in the virtual environment, the wearable display device 400 , The virtual character corresponding to the second player can be output.
  • the virtual character corresponding to the first player can be output through the wearable display device 400 worn by the second player.
  • the face data of the virtual character corresponding to the second player may be output with the face data reflecting the characteristic value of the second player .
  • the face data of the virtual character corresponding to the second player is outputted as the face data reflecting the characteristic value of the second player .

Abstract

One aspect may provide a virtual reality control system for providing a virtual image for at least a part of a virtual environment, through a wearable display device worn by a player, to the player playing in a plurality of separated spaces, the virtual reality control system comprising: at least one first detecting device for obtaining detecting information about a first play space; at least one second detecting device for obtaining detecting information about a second play space; at least one auxiliary computing device for generating a first virtual image and a second virtual image; a first wearable display device for outputting the first virtual image to a first player located in the first play space; and a second wearable display device for outputting the second virtual image to a second player located in the second play space, wherein the first virtual image is an image for an area corresponding to a field of view at a position determined on the basis of first virtual position information in the virtual environment, and the second virtual image is an image for an area corresponding to a field of view at a position determined on the basis of second virtual position information in the virtual environment.

Description

가상 환경 제어 시스템Virtual environment control system
본 발명은 가상 환경 제어 시스템에 관한 것이다.The present invention relates to a virtual environment control system.
가상 환경은 현실 세계와 달리 프로그램을 통하여 구현된 임의의 세계를 사용자에게 제공하는 기술이다.A virtual environment is a technology that provides a user with an arbitrary world implemented through a program, unlike the real world.
종래에는 이러한 가상 환경이 모니터 등과 같이 사용자와 이격되어 독립적으로 제공되는 디스플레이를 통하여 제공되었으나, 최근에는 사용자의 머리에 직접적으로 착용되어, 사용자의 눈에 근접한 위치에서 사용자에게 가상 환경을 제공하는 VR, AR 및 MR 등의 기술로 발전하고 있다.Conventionally, such a virtual environment has been provided through a display which is provided independently from a user such as a monitor, etc. However, recently, a VR, which is directly worn on a user's head and provides a virtual environment to a user at a position close to the user's eyes, AR and MR.
이러한 가상 환경을 제공함에 있어서, 종래에는 착용형 디스플레이 장치를 착용한 사용자가 고정된 위치에 앉거나 서서 플레이를 진행하였으나, 최근에는 미리 정의된 공간안에서 가상 환경에 대한 플레이를 진행하는 기술로 발전하고 있다.In providing such a virtual environment, a user who wears a wearable display device conventionally sat or stood at a fixed position, but in recent years, he has developed into a technique of playing a virtual environment in a predefined space have.
이러한 공간 단위의 가상 환경을 제공함에 있어서 종래에는 하나의 공간에 하나의 가상 환경만을 제공함으로써 플레이어를 수용하는데 한계가 있었으며, 서로 다른 공간에 위치한 플레이어들 사이에서 가상 환경을 공유할 수 없는 문제가 있었다.Conventionally, in providing such a space-based virtual environment, there is a limitation in accepting players by providing only one virtual environment in one space, and there is a problem in that a virtual environment can not be shared among players located in different spaces .
일 과제는 서로 공간에서 플레이하는 복수의 플레이어에게 동일한 가상 환경을 제공할 수 있는 가상 환경 제어 시스템을 제공하는 것이다.One task is to provide a virtual environment control system capable of providing the same virtual environment to a plurality of players playing in space with each other.
다른 과제는 서로 공간에서 플레이하는 플레이어들 간의 현실 세계에서의 작용을 가상 환경에서의 작용으로 변환하여 제공하는 가상 환경 제어 시스템을 제공하는 것이다.Another object of the present invention is to provide a virtual environment control system that converts the action in the real world between the players who play in the space with each other into an action in the virtual environment.
본 발명이 해결하고자 하는 과제가 상술한 과제로 제한되는 것은 아니며, 언급되지 아니한 과제들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the present invention is not limited to the above-described embodiments and that various changes and modifications may be made without departing from the spirit and scope of the present invention as defined by the following claims .
일 양상에 따르면 분리된 복수의 공간에서 플레이하는 플레이어에게 상기 플레이어가 착용한 착용형 디스플레이 장치를 통하여 가상 환경의 적어도 일부에 대한 가상 이미지를 제공하는 가상 현실 제어 시스템으로, 제1 플레이 공간에 대한 디텍팅 정보를 획득하는 적어도 하나의 제1 디텍팅 장치; 제2 플레이 공간에 대한 디텍팅 정보를 획득하는 적어도 하나의 제2 디텍팅 장치; 제1 가상 이미지 및 제2 가상 이미지를 생성하는 적어도 하나의 보조 컴퓨팅 장치; 상기 제1 플레이 공간에 위치한 제1 플레이어에게 상기 제1 가상 이미지를 출력하는 제1 착용형 디스플레이 장치; 및 상기 제2 플레이 공간에 위치한 제2 플레이어에게 상기 제2 가상 이미지를 출력하는 제2 착용형 디스플레이 장치;를 포함하고, 상기 보조 컴퓨팅 장치는, 상기 제1 디텍팅 정보에 기초하여 상기 제1 플레이어에 대한 제1 현실 위치 정보를 획득하고, 상기 제1 플레이어의 현실 위치 정보에 기초하여 상기 제1 플레이어에 대응하는 가상 환경에서의 위치 정보인 제1 가상 위치 정보를 획득하고, 상기 제2 디텍팅 정보에 기초하여 상기 제2 플레이어에 대한 제2 현실 위치 정보를 획득하고, 상기 제2 플레이어의 현실 위치 정보에 기초하여 상기 제2 플레이어에 대응하는 상기 가상 환경에서의 위치인 제2 가상 위치 정보를 획득하고, 상기 제1 가상 이미지는 상기 가상 환경에서 상기 제1 가상 위치 정보에 기초하여 판단된 위치에서의 시야에 대응하는 영역에 대한 이미지이고, 상기 제2 가상 이미지는 상기 가상 환경에서 상기 제2 가상 위치 정보에 기초하여 판단된 위치에서의 시야에 대응하는 영역에 대한 이미지인 가상 환경 제어 시스템이 제공될 수 있다.According to an aspect of the present invention, there is provided a virtual reality control system for providing a virtual image of at least a part of a virtual environment through a wearable display device worn by a player to a player playing in a plurality of separated spaces, At least one first detecting device for obtaining texturing information; At least one second detecting device for obtaining detecting information for a second play space; At least one auxiliary computing device for generating a first virtual image and a second virtual image; A first wearable display device for outputting the first virtual image to a first player located in the first play space; And a second wearable display device for outputting the second virtual image to a second player located in the second play space, wherein the auxiliary computing device comprises: Acquiring first virtual position information on a virtual environment corresponding to the first player based on real position information of the first player, acquiring first virtual position information as position information in a virtual environment corresponding to the first player, Acquiring second virtual position information for the second player based on the first virtual player information and second virtual position information that is a position in the virtual environment corresponding to the second player based on the real player position information of the second player And the first virtual image corresponds to an area corresponding to a field of view at a position determined based on the first virtual position information in the virtual environment And the second virtual image is an image for an area corresponding to a view at a position determined based on the second virtual position information in the virtual environment.
다른 양상에 따르면 분리된 복수의 공간에서 플레이하는 플레이어에게 가상 환경의 적어도 일부에 대한 가상 이미지를 제공하는 착용형 디스플레이 장치로, 타플레이어에 대한 정보를 획득하는 통신부; 상기 플레이어에게 가상 이미지를 출력하는 디스플레이부; 및 상기 디스플레이부의 상기 가상 이미지의 출력을 제어하는 제어부;를 포함하되, 상기 디스플레이부를 통하여 출력되는 상기 가상 이미지는 상기 착용형 디스플레이 장치를 착용한 플레이어가 플레이하는 제1 플레이 공간에 대응하는 제1 가상 영역에 대한 이미지 및 상기 플레이어를 제외한 적어도 하나의 상기 타플레이어가 플레이하는 제2 플레이 공간에 대응하는 제2 가상 영역에 대한 이미지를 포함하는 착용형 디스플레이 장치가 제공될 수 있다.According to another aspect of the present invention, there is provided a wearable display device for providing a virtual image of at least a part of a virtual environment to a player playing in a plurality of separated spaces, the communication device for acquiring information about the other player; A display unit for outputting a virtual image to the player; And a controller for controlling the output of the virtual image on the display unit, wherein the virtual image output through the display unit includes a virtual image corresponding to a first virtual space corresponding to a first play space played by a player wearing the wearable display apparatus, An image for a region and an image for a second virtual region corresponding to a second play space played by at least one other player other than the player may be provided.
본 발명의 과제의 해결 수단이 상술한 해결 수단들로 제한되는 것은 아니며, 언급되지 아니한 해결 수단들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.It is to be understood that the solution of the problem of the present invention is not limited to the above-mentioned solutions, and the solutions which are not mentioned can be clearly understood by those skilled in the art to which the present invention belongs It will be possible.
일 양상에 따르면 서로 공간에서 플레이하는 복수의 플레이어에게 동일한 가상 환경을 제공할 수 있다.According to one aspect, it is possible to provide the same virtual environment to a plurality of players who play in space with each other.
다른 양상에 따르면 서로 공간에서 플레이하는 플레이어들 간의 현실 세계에서의 작용을 가상 환경에서의 작용으로 변환하여 제공할 수 있다.According to another aspect, it is possible to convert the action in the real world between the players playing in the space with each other into the action in the virtual environment.
본 발명의 효과가 상술한 효과들로 제한되는 것은 아니며, 언급되지 아니한 효과들은 본 명세서 및 첨부된 도면으로부터 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to the above-mentioned effects, and the effects not mentioned can be clearly understood by those skilled in the art from the present specification and the accompanying drawings.
도 1은 일 실시예에 따른 시스템을 나타내는 환경도이다.1 is an environment diagram illustrating a system according to one embodiment.
도 2는 일 실시예에 따른 디텍팅 시스템을 나타내는 블록도이다.2 is a block diagram illustrating a detection system in accordance with one embodiment.
도 3은 일 실시예에 따른 서버를 나타내는 블록도이다.3 is a block diagram illustrating a server according to one embodiment.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치를 나타내는 블록도이다.4 is a block diagram illustrating a secondary computing device in accordance with one embodiment.
도 5는 일 실시예에 따른 착용형 디스플레이 장치를 나타내는 블록도이다.5 is a block diagram illustrating a wearable display device according to an embodiment.
도 6은 일 실시예에 따른 시스템의 구현을 나타내는 예시도이다.6 is an exemplary diagram illustrating an implementation of a system according to one embodiment.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.7 is a schematic diagram illustrating a method of tracking a target object according to an embodiment.
도 8은 일 실시예에 따른 가상 환경의 구현예를 나타내는 예시도이다.8 is an exemplary diagram illustrating an implementation of a virtual environment according to an embodiment.
도 9는 일 실시예에 따른 회전 지연을 나타내는 예시도이다.9 is an exemplary diagram illustrating a rotation delay according to one embodiment.
도 10은 일 실시예에 따른 회전 지연의 오차를 나타내는 예시도이다.10 is an exemplary diagram showing an error of rotation delay according to an embodiment.
도 11은 일 실시예에 따른 회전 지연 정합 방법을 나타내는 순서도이다.11 is a flowchart illustrating a rotational delay matching method according to an embodiment.
도 12는 일 실시예에 따른 최종 각도값 획득을 나타내는 예시도이다.12 is an exemplary diagram illustrating final angular value acquisition according to one embodiment.
도 13은 일 실시예에 따른 디텍팅 장치 및 착용형 디스플레이 동작 센서 모듈의 회전 지연 정합에 따른 가상 이미지 획득을 나타내는 도면이다.FIG. 13 is a diagram illustrating virtual image acquisition according to rotation delay matching of a detaching device and a wearable display operation sensor module according to an exemplary embodiment.
도 14는 앞서 설명한 회전 지연 정합 방법에 따른 가상 이미지의 보정을 나타내는 예시도이다.FIG. 14 is an exemplary diagram showing correction of a virtual image according to the rotational delay matching method described above.
도 15는 일 실시예에 따른 분할 공간 정합을 위한 시스템의 예시도이다.15 is an exemplary diagram of a system for subspace matching according to one embodiment.
도 16은 일 실시예에 따른 분할 공간 정합을 위한 다른 시스템의 예시도이다.16 is an illustration of another system for subspace matching according to one embodiment.
도 17은 일 실시예에 따른 분할 공간 정합을 나타내는 예시도이다.17 is an exemplary diagram illustrating a subspace matching according to an embodiment.
도 18은 일 실시예에 따른 분한 공간 정합에서 거리 관계를 나타내는 예시도이다.18 is an exemplary view showing a distance relationship in the divided space matching according to an embodiment.
도 19는 일 실시예에 따른 분할 공간 정합에서 시야의 정합을 나타내는 예시도이다.FIG. 19 is an exemplary view showing the matching of the field of view in the subspace matching according to an embodiment. FIG.
도 20은 일 실시예에 따른 분할 공간 정합에서 이동을 나타내는 예시도이다.20 is an exemplary diagram illustrating movement in a subspace matching according to an embodiment;
도 21은 일 실시예에 따른 분할 공간 정합에서 피격 상황을 나타내는 예시도이다.21 is an exemplary diagram illustrating a shot situation in a subspace matching according to an embodiment.
도 22는 일 실시예예 따른 분할 공간 정합에서의 사운드 정합을 나타내는 예시도이다.22 is an exemplary diagram illustrating sound matching in a subspace matching according to one embodiment.
도 23은 일 실시예에 따른 동일 공간으로의 분할 공간 정합을 나타내는 도면이다.FIG. 23 is a diagram showing the division of space into the same space according to an embodiment. FIG.
도 24는 일 실시예예 따른 분할 공간 정합에서의 협동 오브젝트를 나타내는 도면이다.24 is a diagram illustrating a collaboration object in a subspace matching according to one embodiment.
도 25는 다른 실시예에 따른 분할 공간 정합을 나타내는 도면이다.25 is a diagram showing a divided space matching according to another embodiment.
도 26은 다른 실시예에 따른 분할 공간 정합에서 다른 층으로의 이동을 나타내는 도면이다.Figure 26 is a diagram illustrating movement from one sub-space match to another in accordance with another embodiment.
도 27은 다른 실시예에 따른 분할 공간 정합에서 위치 관계에 따른 피격을 나타내는 도면이다.FIG. 27 is a diagram showing a shot according to a positional relation in a subspace matching according to another embodiment. FIG.
도 28은 다른 실시예에 따른 분할 공간 정합에서의 소리 정합을 나타내는 도면이다.FIG. 28 is a diagram showing the sound matching in the divided space matching according to another embodiment. FIG.
도 29는 일 실시예에 따른 얼굴 정합을 나타내는 예시도이다.29 is an exemplary view showing face registration according to an embodiment.
도 30은 일 실시예에 따른 플레이 캐릭터 획득 방법을 나타내는 순서도이다.30 is a flowchart showing a play character acquisition method according to an embodiment.
도 31은 일 실시예에 따른 얼굴 센서부를 통한 얼굴 데이터의 획득을 나타내는 도면이다.31 is a diagram illustrating acquisition of face data through a face sensor unit according to an embodiment.
도 32는 일 실시예에 따른 플레이어의 얼굴 데이터를 나타내는 예시도이다.32 is an exemplary diagram showing face data of a player according to an embodiment.
도 33은 일 실시예에 따른 식별 정보를 이용한 미리 저장된 얼굴 데이터의 획득을 나타내는 도면이다.FIG. 33 is a diagram illustrating acquisition of previously stored face data using identification information according to an embodiment. FIG.
도 34는 일 실시예에 따른 가상 캐릭터의 선택을 나타내는 도면이다.34 is a diagram illustrating selection of a virtual character according to an embodiment.
도 35는 일 실시예에 따른 플레이 캐릭터의 예시도이다.35 is an exemplary view of a play character according to an embodiment.
일 양상에 따르면 분리된 복수의 공간에서 플레이하는 플레이어에게 상기 플레이어가 착용한 착용형 디스플레이 장치를 통하여 가상 환경의 적어도 일부에 대한 가상 이미지를 제공하는 가상 현실 제어 시스템으로, 제1 플레이 공간에 대한 디텍팅 정보를 획득하는 적어도 하나의 제1 디텍팅 장치; 제2 플레이 공간에 대한 디텍팅 정보를 획득하는 적어도 하나의 제2 디텍팅 장치; 제1 가상 이미지 및 제2 가상 이미지를 생성하는 적어도 하나의 보조 컴퓨팅 장치; 상기 제1 플레이 공간에 위치한 제1 플레이어에게 상기 제1 가상 이미지를 출력하는 제1 착용형 디스플레이 장치; 및 상기 제2 플레이 공간에 위치한 제2 플레이어에게 상기 제2 가상 이미지를 출력하는 제2 착용형 디스플레이 장치;를 포함하고, 상기 보조 컴퓨팅 장치는, 상기 제1 디텍팅 정보에 기초하여 상기 제1 플레이어에 대한 제1 현실 위치 정보를 획득하고, 상기 제1 플레이어의 현실 위치 정보에 기초하여 상기 제1 플레이어에 대응하는 가상 환경에서의 위치 정보인 제1 가상 위치 정보를 획득하고, 상기 제2 디텍팅 정보에 기초하여 상기 제2 플레이어에 대한 제2 현실 위치 정보를 획득하고, 상기 제2 플레이어의 현실 위치 정보에 기초하여 상기 제2 플레이어에 대응하는 상기 가상 환경에서의 위치인 제2 가상 위치 정보를 획득하고, 상기 제1 가상 이미지는 상기 가상 환경에서 상기 제1 가상 위치 정보에 기초하여 판단된 위치에서의 시야에 대응하는 영역에 대한 이미지이고, 상기 제2 가상 이미지는 상기 가상 환경에서 상기 제2 가상 위치 정보에 기초하여 판단된 위치에서의 시야에 대응하는 영역에 대한 이미지인 가상 환경 제어 시스템이 제공될 수 있다.According to an aspect of the present invention, there is provided a virtual reality control system for providing a virtual image of at least a part of a virtual environment through a wearable display device worn by a player to a player playing in a plurality of separated spaces, At least one first detecting device for obtaining texturing information; At least one second detecting device for obtaining detecting information for a second play space; At least one auxiliary computing device for generating a first virtual image and a second virtual image; A first wearable display device for outputting the first virtual image to a first player located in the first play space; And a second wearable display device for outputting the second virtual image to a second player located in the second play space, wherein the auxiliary computing device comprises: Acquiring first virtual position information on a virtual environment corresponding to the first player based on real position information of the first player, acquiring first virtual position information as position information in a virtual environment corresponding to the first player, Acquiring second virtual position information for the second player based on the first virtual player information and second virtual position information that is a position in the virtual environment corresponding to the second player based on the real player position information of the second player And the first virtual image corresponds to an area corresponding to a field of view at a position determined based on the first virtual position information in the virtual environment And the second virtual image is an image for an area corresponding to a view at a position determined based on the second virtual position information in the virtual environment.
본 발명의 상술한 목적, 특징들 및 장점은 첨부된 도면과 관련된 다음의 상세한 설명을 통해 보다 분명해질 것이다. 다만, 본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예들을 가질 수 있는 바, 이하에서는 특정 실시예들을 도면에 예시하고 이를 상세히 설명하고자 한다. The above objects, features and advantages of the present invention will become more apparent from the following detailed description taken in conjunction with the accompanying drawings. It is to be understood, however, that the invention is not limited to the disclosed embodiments, but, on the contrary, is intended to cover various modifications and similarities.
도면들에 있어서, 층 및 영역들의 두께는 명확성을 기하기 위하여 과장되어진 것이며, 또한, 구성요소(element) 또는 층이 다른 구성요소 또는 층의 "위(on)" 또는 "상(on)"으로 지칭되는 것은 다른 구성요소 또는 층의 바로 위 뿐만 아니라 중간에 다른 층 또는 다른 구성요소를 개재한 경우를 모두 포함한다. 명세서 전체에 걸쳐서 동일한 참조번호들은 원칙적으로 동일한 구성요소들을 나타낸다. 또한, 각 실시예의 도면에 나타나는 동일한 사상의 범위 내의 기능이 동일한 구성요소는 동일한 참조부호를 사용하여 설명한다.In the drawings, the thicknesses of the layers and regions are exaggerated for clarity and the element or layer is referred to as being "on" or "on" Included in the scope of the present invention is not only directly above another element or layer but also includes intervening layers or other elements in between. Like reference numerals designate like elements throughout the specification. The same reference numerals are used to designate the same components in the same reference numerals in the drawings of the embodiments.
본 발명과 관련된 공지 기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 본 명세서의 설명 과정에서 이용되는 숫자(예를 들어, 제1, 제2 등)는 하나의 구성요소를 다른 구성요소와 구분하기 위한 식별기호에 불과하다.The detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. In addition, numerals (e.g., first, second, etc.) used in the description of the present invention are merely an identifier for distinguishing one component from another.
또한, 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. In addition, the suffix "module" and " part "for constituent elements used in the following description are given or mixed in consideration of ease of specification, and do not have their own meaning or role.
가상 환경은 현실 세계와 달리 프로그램에 의해 생성된 인공적인 환경일 수 있다.Unlike the real world, a virtual environment can be an artificial environment generated by a program.
이러한 가상 환경은 통상적으로 프로그램에 의해 현실과 분리된 가상 공간을 생성하여 이에 대한 이미지를 제공하는 VR, 현실 세계를 기반으로 가상의 이미지를 겹쳐 하나의 이미지로 제공하는 AR 및 현실 세계와 가상 환경을 융합하여 가상 공간을 제공하고 이에 대한 이미지를 제공하는 MR로 구분될 수 있다.Such a virtual environment typically includes a VR that creates a virtual space separated from reality by a program and provides an image of the virtual space, a AR that provides a single image as a virtual image based on the real world, And MR that provides a virtual space and provides an image of the virtual space.
이하에서 설명되는 가상 환경을 설명함에 있어서 가상 환경은 앞서 설명된 VR, AR 및 MR 뿐만 아니라 다양한 형태의 가상 공간을 제공하는 환경을 의미할 수 있다.In describing the virtual environment described below, the virtual environment may mean an environment for providing various types of virtual space as well as the VR, AR, and MR described above.
이하에서는 도 1을 참조하여 일 실시예에 따른 가상 현실을 제공하기 위한 시스템에 대해서 설명하도록 한다.Hereinafter, a system for providing a virtual reality according to an embodiment will be described with reference to FIG.
도 1은 일 실시예에 따른 시스템을 나타내는 환경도이다.1 is an environment diagram illustrating a system according to one embodiment.
도 1을 참조하면, 시스템은 디텍팅 시스템(100), 서버(200), 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)를 포함할 수 있다. Referring to FIG. 1, the system may include a detection system 100, a server 200, a secondary computing device 300, a wearable display device 400, and an input device 500.
일 실시예에 따르면 디텍팅 시스템(100)은 서버(200)와 연결될 수 있다.According to one embodiment, the detection system 100 may be coupled to the server 200.
디텍팅 시스템(100)은 대상체를 추적하여 디텍팅 정보를 획득할 수 있다.Detecting system 100 may track objects to obtain detec- tion information.
일 실시예에 따른 대상체는 착용형 디스플레이 장치(400)를 통해 출력되는 이미지에 영향을 주는 물체일 수 있다.The object according to one embodiment may be an object that affects an image output through the wearable display device 400. [
예를 들어 대상체는 플레이어의 신체 부위, 착용형 디스플레이 장치(400), 사용자, 입력 장치(500), 상기 사용자 주변에 위치한 물체 및 기준점 또는 특징점을 갖는 물체 중 적어도 하나가 포함될 수 있다.For example, the object may include at least one of a body part of the player, a wearable display device 400, a user, an input device 500, an object located near the user, and an object having a reference point or feature point.
또한 일 실시예에 따른 추적 대상체의 추적은 실제 환경에서의 대상체의 위치에 대한 정보를 획득하는 것을 의미할 수 있다.In addition, tracking of the tracked object according to one embodiment may mean acquiring information about the position of the object in a real environment.
예를 들어 추적 대상체의 추적은 실제 환경에서 대상체의 이동에 따라 변경되는 위치에 대한 정보를 획득할 수 있다. 이러한 대상체에 대한 위치 정보는 획득한 미리 정해진 주기로 획득될 수 있으나, 이에 한정되는 것은 아니다.For example, tracking of a tracked object can acquire information about a position that changes in accordance with the movement of the object in a real environment. The positional information on the object may be acquired in a predetermined period, but is not limited thereto.
일 실시예에 따르면 디텍팅 시스템(100)은 디텍팅 정보를 서버(200)에 제공할 수 있다.According to one embodiment, the detecting system 100 may provide the detaching information to the server 200.
일 실시예에 따르면 서버(200)는 디텍팅 시스템(1000) 및 보조 컴퓨팅 장치(300)와 연결될 수 있다.According to one embodiment, the server 200 may be coupled to the detecting system 1000 and the secondary computing device 300.
서버(200)는 연결된 구성으로부터 정보를 획득할 수 있다.The server 200 may obtain information from the connected configuration.
일 실시예에 따르면 서버(200)는 디텍팅 시스템(100)으로부터 디텍팅 정보, 디텍팅 시스템(100)이 획득한 이미지 정보 및 디텍팅 시스템(100)의 상태 정보 중 적어도 하나를 획득할 수 있다. According to one embodiment, the server 200 may obtain at least one of the detecting information from the detecting system 100, the image information obtained by the detecting system 100, and the status information of the detecting system 100 .
그 밖에도 서버(200)는 후술할 몇몇 실시예에 따라 다양한 정보를 획득할 수 있다.In addition, the server 200 may obtain various information according to some embodiments to be described later.
일 실시예에 따르면 서버(200)는 연결된 구성을 제어할 수 있다.According to one embodiment, the server 200 may control the connected configuration.
일 실시예에 따르면 서버(200)는 상기 보조 컴퓨팅 장치(300) 또는 상기 착용형 디스플레이 장치(400)를 제어할 수 있다.According to one embodiment, the server 200 may control the auxiliary computing device 300 or the wearable display device 400. [
일 예로 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 어플리케이션의 구동을 제어할 수 있다. 보다 구체적인 예를 들어 서버(200)는 보조 컴퓨팅 장치(300)에 설치된 어플리케이션의 시작 및/또는 종료를 제어할 수 있다.For example, the server 200 may control the operation of an application installed in the auxiliary computing device 300. [ More specifically, the server 200 may control the start and / or termination of an application installed in the secondary computing device 300.
다른 예로 서버(200)는 디텍팅 시스템(100)의 동작에 필요한 다양한 설정을 제공할 수 있다.As another example, the server 200 may provide various settings needed for the operation of the detection system 100.
또한 서버(200)는 디텍팅 정보에 기초하여 가상환경에서의 대상체 위치를 나타내는 가상 위치 정보를 생성할 수 있다.Also, the server 200 can generate virtual position information indicating the position of the object in the virtual environment based on the detection information.
또한 서버(200)는 보조 컴퓨팅 장치(300)에서 구동되는 어플리케이션의 인증을 수행할 수 있다. The server 200 may also perform authentication of applications running on the secondary computing device 300.
일 실시예에 따른 서버(200)의 기능이 상술한 기능으로 한정되는 것은 아니며, 실시예에 따라 다양한 기능을 수행하는 서버(200)가 제공될 수 있다.The functions of the server 200 according to one embodiment are not limited to those described above, and the server 200 performing various functions may be provided according to the embodiment.
또한 일 실시예예 따른 서버(200)가 반드시 하나의 물리적인 구성으로 제공되어야 하는 것은 아니며, 상술한 기능을 세분화 하여 각각의 기능을 수행하는 복수의 장치로 제공될 수 있다.  In addition, the server 200 according to one embodiment is not necessarily provided in a single physical configuration, but may be provided as a plurality of devices that perform the respective functions by subdividing the functions described above.
예를 들어 서버(200)는 디텍팅 시스템(100)과 연결되어 디텍팅 정보에 기초하여 가상 위치 정보를 획득하는 디텍팅 서버, 시스템에 제공되는 구성 중 적어도 일부에 대한 제어를 수행하는 운영 서버 및 시스템의 각 구성 중 적어도 하나의 구성에서 실행되는 어플리케이션에 대한 인증을 수행하는 라이센스 서버 등으로 세분화되어 각 서버에서 수행될 수 있다.For example, the server 200 may include a detec- tion server connected to the detec- tion system 100 to obtain virtual location information based on the detec- tion information, an operation server for performing control over at least some of the configurations provided to the system, A license server that performs authentication for an application executed in at least one configuration of each configuration of the system, and the like, and can be performed in each server.
보조 컴퓨팅 장치는(300)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.The auxiliary computing device 300 may be coupled to at least one of the server 200, the wearable display device 400, and the input device 500.
보조 컴퓨팅 장치(300)는 미리 설치된 어플리케이션을 통하여 착용형 디스플레이 장치(400)를 통하여 사용자에게 제공될 이미지를 제공할 수 있다.The auxiliary computing device 300 may provide an image to be provided to the user via the wearable display device 400 through a pre-installed application.
또한 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통해 사용자에게 제공할 음향 정보를 제공할 수 있다. The auxiliary computing device 300 may also provide acoustic information to be provided to the user via the wearable display device 400.
일 실시예에 따르면, 상기 보조 컴퓨팅 장치(300)는 미리 설치된 프로그램 및 디텍팅 정보에 기초하여 사용자에게 제공될 이미지를 획득할 수 있다.According to one embodiment, the secondary computing device 300 may obtain an image to be provided to the user based on the preinstalled program and the detected information.
또한 보조 컴퓨팅 장치(300)는 입력 장치(500)로부터 획득한 입력 신호에 기초하여 입력 정보를 획득할 수 있다.The auxiliary computing device 300 may also obtain input information based on the input signal obtained from the input device 500. [
입력 정보는 오브젝트 등에 대한 사용자의 선택 정보, 입력 장치(500)를 통하여 입력된 동작에 대한 정보, 입력 장치(500)의 지향 방향에 대한 지향 정보 등을 포함할 수 있다.The input information may include user selection information on an object and the like, information on an operation input through the input device 500, and orientation information on a direction of the input device 500.
또한 보조 컴퓨팅 장치(300)는 획득한 입력 정보를 고려하여 사용자에게 제공할 이미지를 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire an image to be provided to the user in consideration of the acquired input information.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어(P)가 착용 가능한 백팩PC의 형태로 제공될 수 있다.According to one embodiment, the secondary computing device 300 may be provided in the form of a backpack PC that the player P can wear.
일 예로 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 장치(300)가 위치할 수 있는 가방에 결착된 형태로 제공될 수 있으며, 플레이어(P)가 가방을 맴으로써 보조 컴퓨팅 장치(300)를 소지하는 형태로 제공될 수 있다.The auxiliary computing device 300 may be provided in a form bound to a bag in which the auxiliary computing device 300 may be located and may be provided in a form in which the player P is in possession of the auxiliary computing device 300 Lt; / RTI >
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.The wearable display device 400 may be coupled to the secondary computing device 300.
착용형 디스플레이 장치(400)는 사용자에게 가상 현실에 대한 이미지를 제공할 수 있다.The wearable display device 400 may provide the user with an image of the virtual reality.
착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 사용자에게 시각적으로 출력할 수 있다.The wearable display device 400 may visually output to the user a virtual image obtained from the auxiliary computing device 300. [
또한 착용형 디스플레이 장치(400)는 보조 컴튜팅 장치(300)로부터 획득한 음향 정보를 출력할 수 있다.In addition, the wearable display device 400 can output the acoustic information obtained from the auxiliary chatting device 300. [
입력 장치(500)는 가상 현실에 반영할 사용자의 입력에 대한 신호를 획득할 수 있다.The input device 500 may obtain a signal for a user's input to be reflected in the virtual reality.
입력 장치(500)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.The input device 500 may be coupled to the secondary computing device 300.
입력 장치(500)는 보조 컴퓨팅 장치(300)로 사용자의 입력에 대응하는 입력 신호를 제공할 수 있다.The input device 500 may provide an input signal corresponding to a user input to the auxiliary computing device 300.
입력 장치(500)는 사용자의 동작에 대응하는 신호를 획득하기 위한 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등을 포함할 수 있다.The input device 500 may include an acceleration sensor, a gyroscope, a gyro sensor, a MEMS, a geomagnetism sensor, an inertia sensor (IMIU), an optical sensor, an illuminance sensor, a photosensor, an infrared sensor, Sensors, depth sensors, electromagnetic sensors, and the like.
또한 입력 장치(500)는 사용자의 선택에 대한 신호를 획득하기 위한 버튼, 스위치, 조그셔틀 및 휠 등을 포함할 수 있다.The input device 500 may also include a button, a switch, a jog shuttle, and a wheel for acquiring a signal for the user's selection.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식으로 연결될 수 있다.The input device 500 may also be connected to the auxiliary computing device 300 via at least one of wire communication and wireless communication.
또한 입력 장치(500)는 보조 컴퓨팅 장치(300)와의 통신을 위한 통신 모듈을 포할 수 있다.The input device 500 may also include a communication module for communicating with the secondary computing device 300.
도 1에는 입력 장치(500)가 보조 컴퓨팅 장치(300)와 연결되는 것으로 도시하였으나 이에 한정되는 것은 아니며 입력 장치(500)는 선택에 따라 다양한 연결 형태로 제공될 수 있다. Although the input device 500 is illustrated as being connected to the auxiliary computing device 300 in FIG. 1, the input device 500 may be provided in various connection forms depending on the selection.
예를 들어 입력 장치(500)는 서버(200) 및 착용형 디스플레이(400)등의 구성과 연결되어 입력 신호를 제공할 수 있다.For example, the input device 500 may be connected to a configuration such as the server 200 and the wearable display 400 to provide an input signal.
이상에서 설명된 시스템은 설명의 편의를 위한 예시일 뿐 일 실시예에 따른 시스템이 도 1에 도시된 구성 및 연결 관계로 한정되는 것은 아니며 선택에 따라 다양한 형태로 제공될 수 있다.The system described above is only an example for convenience of description. The system according to one embodiment is not limited to the configuration and connection relationship shown in FIG. 1, and may be provided in various forms according to the selection.
일 예로 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400)는 하나의 구성으로 제공될 수 있으며, 이 경우 보조 컴퓨팅 장치(300)에서 수행하는 동작이 착용형 디스플레이 장치(400)에서 구현될 수 있다.For example, the auxiliary computing device 300 and the wearable display device 400 may be provided in one configuration, in which case the operations performed in the auxiliary computing device 300 may be implemented in the wearable display device 400 have.
다만, 이하에서 다양한 실시예들을 설명함에 있어서 설명의 편의를 위하여 상술한 시스템을 예시로 하여 설명하도록 한다.However, in the following description of the various embodiments, for the convenience of explanation, the system described above will be described as an example.
이하에서는 도 2를 참조하여 일 실시예에 따른 디텍팅 시스템(100)에 대하여 설명하도록 한다.Hereinafter, a dettating system 100 according to an embodiment will be described with reference to FIG.
도 2는 일 실시예에 따른 디텍팅 시스템을 나타내는 블록도이다.2 is a block diagram illustrating a detection system in accordance with one embodiment.
도 2를 참조하면, 상기 디텍팅 시스템(100)은 발광부(110) 및 센싱부(120) 를 포함할 수 있다.Referring to FIG. 2, the detection system 100 may include a light emitting unit 110 and a sensing unit 120.
발광부(110)는 상기 대상체 추적을 위해 상기 대상체 또는 그 주변에 신호를 송출할 수 있다. The light emitting unit 110 may transmit a signal to or from the object to track the object.
일 예로, 발광부(110)는 가시광 및 적외선 등의 광 신호를 외부로 발신하는 발광 소자로 제공될 수 있다.For example, the light emitting unit 110 may be provided as a light emitting device that externally transmits optical signals such as visible light and infrared light.
보다 구체적인 예를 들어 발광부는 가시광 LED 및 적외선 LED 등으로 제공될 수 있다.More specifically, for example, the light emitting portion may be provided with a visible light LED and an infrared LED or the like.
센싱부(120)는 외부로부터 신호를 획득할 수 있다.The sensing unit 120 may acquire a signal from the outside.
일 예로 센싱부(120)는 발광부(110)가 송출한 신호에 대응하는 신호를 획득할 수 있다.For example, the sensing unit 120 may acquire a signal corresponding to a signal transmitted by the light emitting unit 110.
다른 예로 센싱부(120)는 대상체에 제공되는 마커(M)가 반사한 광에 대한 신호를 획득할 수 있다.As another example, the sensing unit 120 may acquire a signal for the light reflected by the marker M provided to the object.
예를 들어 센싱부(120)는 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 및 전자파 센서 등으로 제공될 수 있다.For example, the sensing unit 120 may be provided with an image sensor, an optical sensor, an illuminance sensor, a photosensor, an infrared sensor, a color sensor, a depth sensor, and an electromagnetic sensor.
도 3은 일 실시예에 따른 서버(200)를 나타내는 블록도이다.3 is a block diagram illustrating a server 200 according to one embodiment.
도 3을 참조하면, 서버(200)는 서버 통신부(210), 서버 저장부(220), 서버 입력부(230), 서버 제어부(240) 및 서버 디스플레이부(250)를 포함할 수 있다.3, the server 200 may include a server communication unit 210, a server storage unit 220, a server input unit 230, a server control unit 240, and a server display unit 250.
서버 통신부(210)는 디텍팅 시스템(100), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 데이터를 획득하거나 제공할 수 있다.The server communication unit 210 may be connected to at least one of the detecting system 100, the auxiliary computing device 300, and the wearable display device 400 to acquire or provide data.
서버 통신부(210)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 디텍팅 시스템(100), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결될 수 있다.The server communication unit 210 may be connected to at least one of the detaching system 100, the auxiliary computing device 300, and the wearable display device 400 in at least one of a wired communication mode and a wireless communication mode.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다. For example, the wireless communication may include a wireless communication network such as a Wi-Fi network, a 3G, an LTE network, a 5G, a LoRa, a wireless access in vehicle environment (beacon), a zigbee, , Bluetooth low energy (BLE), and the like.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.The wired communication may also include a twisted pair cable, a coaxial cable, or an optical cable.
서버 통신부(210)는 유선 통신 및 무선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.The server communication unit 210 may be provided as a communication module for providing at least one of a wired communication and a wireless communication.
서버 저장부(220)는 데이터를 저장할 수 있다.The server storage unit 220 may store data.
서버 저장부(220)는 외부로부터 획득한 정보를 저장할 수 있다.The server storage unit 220 may store information acquired from the outside.
또한 서버 저장부(220)는 서버(200)의 동작에 필요한 정보를 저장할 수 있다. The server storage unit 220 may store information necessary for the operation of the server 200. [
예를 들어 서버 저장부(220)는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리, SSD, CD-ROM, DVD-ROM 또는 USB 등으로 제공될 수 있다.For example, the server storage unit 220 may store various types of data such as magnetic media such as a hard disk, a floppy disk, and a magnetic tape, an optical media such as a CD-ROM and a DVD, a floptical disk, Such as magneto-optical media and ROM, RAM, flash memory, SSD, CD-ROM, DVD-ROM or USB.
서버 입력부(230)는 사용자의 입력에 대응하는 신호를 획득할 수 있다.The server input unit 230 may acquire a signal corresponding to a user's input.
사용자의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.The user's input can be, for example, a push, a click, a touch and a drag of a button.
서버 입력부(230)는 예를 들어 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.The server input unit 230 may be implemented by, for example, a keyboard, a key pad, a button, a jog shuttle, and a wheel.
서버 제어부(240)는 서버(200)의 동작을 총괄할 수 있다.The server control unit 240 can manage the operation of the server 200. [
일 예로 서버 제어부(240)는 서버(200)에 포함된 구성의 동작을 제어할 수 있다.For example, the server control unit 240 may control the operation of the configuration included in the server 200. [
서버 제어부(240)는 예시적으로 마이크로 프로세서, 마이크로 컨트롤러, DSP, 프로세서, 제어기 기능 수행을 위한 전기적인 유닛 등으로 구현될 수 있다. The server control unit 240 may be implemented as a microprocessor, a microcontroller, a DSP, a processor, and an electrical unit for performing controller functions.
또한 서버 제어부(240)는 소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한 소프트웨어 코드는 서버 저장부(220)에 저장되고, 서버 저장부(240) 또는 구성요소 등에 의해 실행될 수 있다.Also, according to a software implementation, the server control unit 240 may be implemented with separate software modules that allow at least one function or operation to be performed in embodiments such as procedures or functions. The software code may be implemented by a software application written in a suitable programming language. The software codes may also be stored in the server storage unit 220 and executed by the server storage unit 240 or components.
서버 디스플레이부(250)는 시각적인 정보를 출력할 수 있다. The server display unit 250 can output visual information.
서버 디스플레이부(250)는 시각적인 정보를 출력하는 모니터, TV, 디스플레이 패널 등으로 제공될 수 있다.The server display unit 250 may be provided as a monitor, a TV, a display panel, or the like for outputting visual information.
또한 서버 디스플레이부(250)가 터치 스크린으로 제공되는 경우, 서버 디스플레이부(250)는 서버 입력부(230)의 기능을 수행할 수 있다.Also, when the server display unit 250 is provided as a touch screen, the server display unit 250 may perform the function of the server input unit 230.
도 4는 일 실시예에 따른 보조 컴퓨팅 장치(300)를 나타내는 블록도이다.4 is a block diagram illustrating a secondary computing device 300 in accordance with one embodiment.
도 4를 참조하면, 상기 보조 컴퓨팅 장치(300)는 보조 컴퓨팅 통신부(310), 보조 컴퓨팅 저장부(320), 보조 컴퓨팅 입력부(330) 및 보조 컴퓨팅 제어부(340)를 포함할 수 있다.4, the auxiliary computing device 300 may include an auxiliary computing communication unit 310, an auxiliary computing storage unit 320, an auxiliary computing input unit 330, and an auxiliary computing control unit 340.
상기 보조 컴퓨팅 통신부(310)는 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.The auxiliary computing communication unit 310 may be connected to at least one of the server 200, the wearable display device 400, and the input device 500.
보조 컴퓨팅 통신부(310)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 연결될 수 있다.The auxiliary computing communication unit 310 may be connected to at least one of the server 200, the wearable display device 400, and the input device 500 through at least one of a wired communication and a wireless communication.
보조 컴퓨팅 통신부(310)는 연결된 서버(200), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나와 정보를 교환할 수 있다.  The auxiliary computing communication unit 310 may exchange information with at least one of the connected server 200, the wearable display device 400, and the input device 500.
예를 들어 무선통신은 와이파이(Wi-Fi)망, 3G, LTE망, 5G, 로라(LoRa) 등의 이동통신망, wave(Wireless Access in Vehicular Environment), 비콘, 지그비(zigbee), 블루투스(Bluetooth), BLE(Bluetooth Low Energy) 등을 포함할 수 있다. For example, the wireless communication may include a wireless communication network such as a Wi-Fi network, a 3G, an LTE network, a 5G, a LoRa, a wireless access in vehicle environment (beacon), a zigbee, , Bluetooth low energy (BLE), and the like.
또한 유선통신은 트위스트 페어 케이블, 동축케이블 또는 광케이블 등을 포함할 수 있다.The wired communication may also include a twisted pair cable, a coaxial cable, or an optical cable.
보조 컴퓨팅 통신부(310)는 무선 통신 및 유선 통신 중 적어도 하나의 통신 방식을 제공하기 위한 통신 모듈로 제공될 수 있다.The auxiliary computing communication unit 310 may be provided as a communication module for providing at least one of a wireless communication and a wired communication.
보조 컴퓨팅 저장부(320)는 외부로부터 획득한 정보를 저장할 수 있다.The auxiliary computing storage unit 320 may store information acquired from the outside.
또한 보조 컴퓨팅 저장부(320)는 보조 컴퓨팅 장치(300)의 동작에 필요한 데이터 등을 저장할 수 있다.In addition, the auxiliary computing storage unit 320 may store data and the like necessary for the operation of the auxiliary computing device 300.
보조 컴퓨팅 입력부(330)는 플레이어의 입력에 대응하는 신호를 획득할 수 있다.The secondary computing input 330 may obtain the signal corresponding to the input of the player.
플레이어의 입력은 예를 들어 버튼의 누름, 클릭, 터치 및 드래그 등일 수 있다.The input of the player can be, for example, pushing, clicking, touching, dragging, etc. of the button.
예를 들어 보조 컴퓨팅 입력부(330)는 키보드, 키 패드, 버튼, 조그셔틀 및 휠 등으로 구현될 수 있다.For example, the auxiliary computing input unit 330 may be implemented as a keyboard, a keypad, a button, a jog shuttle, and a wheel.
보조 컴퓨팅 제어부(340)는 보조 컴퓨팅 장치(300)의 동작을 총괄할 수 있다.The secondary computing control unit 340 may be responsible for the operation of the secondary computing device 300.
보조 컴퓨팅 제어부(340)는 예시적으로 마이크로 프로세서, 마이크로 컨트롤러, DSP, 프로세서, 제어기 기능 수행을 위한 전기적인 유닛 등으로 구현될 수 있다. The auxiliary computing control unit 340 may be embodied as a microprocessor, a microcontroller, a DSP, a processor, an electrical unit for performing a controller function, and the like.
또한 보조 컴퓨팅 제어부(340)는 소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한 소프트웨어 코드는 서버 저장부(220)에 저장되고, 서버 저장부(240) 또는 구성요소 등에 의해 실행될 수 있다.In addition, according to a software implementation, the secondary computing control unit 340 may be implemented with separate software modules that perform at least one function or operation, such as procedures or functions. The software code may be implemented by a software application written in a suitable programming language. The software codes may also be stored in the server storage unit 220 and executed by the server storage unit 240 or components.
도 5는 일 실시예에 따른 착용형 디스플레이 장치(400)를 나타내는 블록도이다.5 is a block diagram illustrating a wearable display device 400 according to one embodiment.
도 5를 참조하면, 착용형 디스플레이 장치(400)는 착용형 디스플레이 통신부(410), 착용형 디스플레이 저장부(420), 착용형 디스플레이 센서부(430), 착용형 디스플레이 제어부(440) 및 착용형 디스플레이 출력부(450)를 포함할 수 있다.5, the wearable display device 400 includes a wearable display communication unit 410, a wearable display storage unit 420, a wearable display sensor unit 430, a wearable display control unit 440, And a display output unit 450.
착용형 디스플레이 통신부(410)는 보조 컴퓨팅 장치(300)와 연결될 수 있다.The wearable display communication unit 410 may be connected to the auxiliary computing device 300.
착용형 디스플레이 통신부(410)는 유선통신 및 무선통신 중 적어도 하나의 통신 방식으로 보조 컴퓨팅 장치(300)와 연결될 수 있다. The wearable display communication unit 410 may be connected to the auxiliary computing device 300 through at least one of a wired communication and a wireless communication.
착용형 디스플레이 저장부(420)는 데이터를 저장할 수 있다.The wearable display storage 420 may store data.
착용형 디스플레이 저장부(420)는 착용형 디스플레이 장치(400)의 동작에 필요한 프로그램을 저장할 수 있다.The wearable display storage unit 420 may store a program necessary for operation of the wearable display apparatus 400. [
또한 착용형 디스플레이 저장부(420)는 외부로부터 획득한 정보를 저장할 수 있다.In addition, the wearable display storage unit 420 may store information acquired from the outside.
착용형 디스플레이 센서부(430)는 착용형 디스플레이 장치(400)의 상태 및 사용자의 입력에 대응하는 신호를 획득할 수 있다.The wearable display sensor unit 430 may obtain a signal corresponding to the state of the wearable display device 400 and the user's input.
일 실시예에 따른 착용형 디스플레이 센서부(430)는 착용형 디스플레이 동작 센서모듈(431) 및 착용형 디스플레이 음향 센서모듈(432)을 포함할 수 있다.The wearable display sensor portion 430 according to one embodiment may include a wearable display motion sensor module 431 and a wearable display sound sensor module 432. [
착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 상태에 대한 신호를 획득할 수 있다.The wearable display motion sensor module 431 can obtain a signal about the state of the wearable display device 400. [
일 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 회전에 대한 회전 정보를 획득할 수 있다.For example, the wearable display motion sensor module 431 may obtain rotation information about the rotation of the wearable display device 400.
다른 예로 착용형 디스플레이 동작 센서모듈(431)은 착용형 디스플레이 장치(400)의 위치 이동에 대한 이동 정보를 획득할 수 있다.As another example, the wearable display motion sensor module 431 may obtain movement information on the movement of the wearable display device 400.
착용형 디스플레이 동작 센서모듈(431)은 가속도 센서, 자이로스코프, 자이로 센서, MEMS, 지자기 센서, 관성 센서(IMIU), 이미지 센서, 광 센서, 조도 센서, 포토 센서, 적외선 센서, 칼라 센서, 깊이 센서 또는 전자파 센서 등을 포함할 수 있다.The wearable display motion sensor module 431 may be an acceleration sensor, a gyroscope, a gyroscope, a MEMS, a geomagnetic sensor, an inertial sensor (IMIU), an image sensor, an optical sensor, a light sensor, a photosensor, Or an electromagnetic wave sensor or the like.
착용형 디스플레이 음향 센서모듈(432)는 외부로부터 유입되는 소리에 대응하는 신호를 획득할 수 있다.The wearable display acoustic sensor module 432 can acquire a signal corresponding to a sound incoming from the outside.
일 예로 착용형 디스플레이 음향 센서모듈(432) 마이크일 수 있다.For example, the wearable display acoustic sensor module 432 may be a microphone.
상기 착용형 디스플레이 제어부(440)는 착용형 디스플레이 장치(400)의 동작을 총괄할 수 있다.The wearable display controller 440 may control the operation of the wearable display device 400.
착용형 디스플레이 제어부(440)는 예시적으로 마이크로 프로세서, 마이크로 컨트롤러, DSP, 프로세서, 제어기 기능 수행을 위한 전기적인 유닛 등으로 구현될 수 있다. The wearable display control unit 440 may be embodied as a microprocessor, a microcontroller, a DSP, a processor, an electric unit for performing controller functions, and the like.
또한 착용형 디스플레이 제어부(440)는 소프트웨어적인 구현에 의하면, 절차나 기능과 같은 실시예들은 적어도 하나의 기능 또는 작동을 수행하게 하는 별개의 소프트웨어 모듈과 함께 구현될 수 있다. 소프트웨어 코드는 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션에 의해 구현될 수 있다. 또한 소프트웨어 코드는 서버 저장부(220)에 저장되고, 서버 저장부(240) 또는 구성요소 등에 의해 실행될 수 있다.In addition, the wearable display controller 440 may be implemented with a separate software module that, according to a software implementation, embodiments such as procedures or functions may perform at least one function or operation. The software code may be implemented by a software application written in a suitable programming language. The software codes may also be stored in the server storage unit 220 and executed by the server storage unit 240 or components.
착용형 디스플레이 화면 출력부(450)는 사용자에게 시각적인 정보를 출력할 수 있다.The wearable display screen output unit 450 can output visual information to the user.
일 예로 착용형 디스플레이 화면 출력부 (450)는 가상 현실에 대한 이미지를 출력할 수 있다. 또한 다른 예로 착용형 디스플레이 화면 출력부(450)는 3차원 가상 현실에 대한 이미지를 출력할 수 있다.For example, the wearable display screen output unit 450 may output an image of a virtual reality. As another example, the wearable display screen output unit 450 may output an image of a three-dimensional virtual reality.
착용형 디스플레이 화면 출력부(450)는 액정 디스플레이(LCD), 전자 종이, LED 디스플레이, OLED 디스플레이, 곡면 디스플레이, 스테레오스코피(양안 시차를 이용한 3차원 디스플레이) 등의 이미지 출력 장치로 제공될 수 있다.The wearable display screen output unit 450 may be provided as an image output device such as a liquid crystal display (LCD), an electronic paper, an LED display, an OLED display, a curved display, and a stereoscopy (three dimensional display using binocular parallax).
착용형 디스플레이 음향 출력부(460)는 청각적인 정보를 출력할 수 있다.The wearable display sound output unit 460 can output auditory information.
착용형 디스플레이 음향 출력부(460)는 튜너, 재생장치, 앰프, 스피커 등의 음향장치로 제공될 수 있다.The wearable display sound output unit 460 may be provided as an acoustic device such as a tuner, a playback device, an amplifier, a speaker, or the like.
도 6은 일 실시예에 따른 시스템의 구현을 나타내는 예시도이다.6 is an exemplary diagram illustrating an implementation of a system according to one embodiment.
도 6을 참조하면 분할 공간 정합을 위한 시스템은 적어도 하나의 플레이어(P)가 플레이하는 플레이 공간(PA)이 제공될 수 있다.Referring to FIG. 6, a system for divided space matching may be provided with a play space PA in which at least one player P plays.
또한 플레이 공간(PA)에서 플레이하는 플레이어(P)에는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)가 제공될 수 있다.Further, the player P who plays in the play space PA may be provided with the auxiliary computing device 300, the wearable display device 400, and the input device 500.
또한 플레이어(P) 각각에게 제공되는 대상체에는 마커(M)가 제공될 수 있다.Further, the marker M may be provided to the object provided to each of the players P.
일 예로 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)인 경우 착용형 디스플레이 장치(400) 및 입력 장치(500)에는 서로 상이한 패턴의 마커(M)가 제공될 수 있다.For example, when the object is the wearable display device 400 and the input device 500, the wearable display device 400 and the input device 500 may be provided with markers M of different patterns from each other.
또한 플레이 공간(PA)에는 적어도 하나의 디텍팅 장치(100)가 제공될 수 있다.Also, at least one detaching device 100 may be provided in the play space PA.
일 예로 도 6에 도시된 바와 같이 플레이 공간(PA)에는 복수의 디텍팅 장치(100)가 제공될 수 있다.For example, as shown in FIG. 6, a plurality of detaching devices 100 may be provided in the play space PA.
이러한 디텍팅 장치(100)는 플레이 공간(PA)의 주변을 둘러 미리 정해진 간격으로 이격 되어 제공될 수 있다.Such a detaching device 100 may be provided at predetermined intervals around the periphery of the play space PA.
또한 디텍팅 장치(100)는 지면으로부터 미리 정해진 높이만큼 이격되어 제공될 수 있다.Also, the detaching apparatus 100 may be provided at a predetermined height from the ground.
또한 디텍팅 장치(100)는 플레이 공간(PA)을 지향하도록 제공될 수 있다.Also, the detaching device 100 may be provided to direct the play space PA.
디텍팅 장치(100)는 미리 설치된 플레임에 고정되어 설치 될 수 있다.The detaching device 100 may be fixedly installed on a pre-installed frame.
일 예로 도 6에 도시된 바와 같이 플레이 공간(PA) 주변에는 디텍팅 장치(100)를 설치하기 위한 프레임이 제공될 수 있다. 또한 디텍팅 장치(100)는 프레임에 고정되어 설치될 수 있다.For example, as shown in FIG. 6, a frame for installing the detecting device 100 may be provided around the play space PA. Also, the detecting device 100 may be fixed to the frame.
디텍팅 장치(100)는 플레이 공간(PA)에 대한 디텍팅 정보를 획득할 수 있다.Detecting apparatus 100 may obtain detec- tion information for the play space PA.
디텍팅 장치(100)에 포함된 센싱부(120)는 플레이 공간(PA) 중 적어도 일부에 대한 디텍팅 정보를 획득할 수 있다.The sensing unit 120 included in the detaching device 100 may acquire detec- tion information for at least a part of the play space PA.
일 예로 디텍팅 장치(100)에 포함된 센싱부(120)는 플레이 공간(PA) 중 센싱부(120)의 센싱 범위에 대한 디텍팅 정보를 획득할 수 있다.For example, the sensing unit 120 included in the detaching device 100 may acquire detec- tion information on the sensing range of the sensing unit 120 in the play space PA.
디텍팅 장치(100)는 디텍팅 정보를 서버(200)에 제공할 수 있다.Detecting apparatus 100 may provide detec- tion information to server 200.
일 예로 디텍팅 장치(100)는 센싱부(120)가 획득한 디텍팅 정보를 서버(200)에 제공할 수 있다.For example, the detecting apparatus 100 may provide the server 200 with detec- tion information acquired by the sensing unit 120. [
서버(200)는 디텍팅 정보에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.The server 200 can obtain the current position information of the object based on the detection information.
도 6에 도시된 바와 같이 플레이 공간(PA)에 복수의 디텍팅 장치(100)가 제공되는 경우 서버(200)는 복수의 디텍팅 장치(100)로부터 디텍팅 정보를 획득할 수 있으며, 획득한 디텍팅 정보들에 기초하여 대상체의 현재 위치 정보를 획득할 수 있다.When a plurality of detaching devices 100 are provided in the play space PA as shown in FIG. 6, the server 200 can acquire detaching information from the plurality of detaching devices 100, The current position information of the object can be obtained based on the detection information.
또한 서버(200)는 대상체들의 현실 위치 정보(RP)에 기초하여 적어도 하나의 대상체에 대한 가상 위치 정보(VP)를 획득할 수 있다.In addition, the server 200 may acquire virtual position information VP for at least one object based on the real position information RP of the objects.
일 예로 서버(200)는 플레이들의 현실 세계에서의 현실 위치 정보(RP)에 포함된 좌표에 대응하는 가상 현실에서의 좌표를 캐릭터(C)의 가상 위치 정보(VP)로 획득할 수 있다.For example, the server 200 may acquire the coordinates in the virtual reality corresponding to the coordinates included in the real position information RP in the real world of the play, as the virtual position information VP of the character C.
서버(200)는 현실 위치 정보(RP) 및 가상 위치 정보(VP) 중 적어도 하나를 보조 컴퓨팅 장치(300)로 제공할 수 있다.The server 200 may provide at least one of the real location information RP and the virtual location information VP to the auxiliary computing device 300. [
보조 컴퓨팅 장치(300)는 현실 위치 정보(RP)에 기초하여 가상 위치 정보(VP)를 획득할 수 있다.The auxiliary computing device 300 can acquire the virtual position information VP based on the real position information RP.
또한 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 이미지를 획득할 수 있다.The secondary computing device 300 may also obtain a virtual image based on the virtual location information VP.
일 예로 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 환경에서의 캐릭터(C)의 위치인 가상 위치 정보를 획득할 수 있다. 또는 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 환경에서의 가상 카메라의 위치인 가상 위치 정보를 획득할 수 있다.For example, the auxiliary computing device 300 may obtain virtual position information, which is the position of the character C in the virtual environment, based on the virtual position information VP. Or the auxiliary computing device 300 may acquire virtual position information which is the position of the virtual camera in the virtual environment based on the virtual position information VP.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 포함된 가상 위치 정보 및 가상 지향 방향에 기초하여 가상 이미지 영역을 획득할 수 있다.The auxiliary computing device 300 may acquire the virtual image area based on the virtual location information and the virtual direction direction included in the virtual location information.
보조 컴퓨팅 장치(300)는 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.The secondary computing device 300 may obtain a virtual image for the virtual image region.
보조 컴퓨팅 장치(300)는 가상 환경에서 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.The secondary computing device 300 may obtain a virtual image for a virtual image area in a virtual environment.
보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.The secondary computing device 300 may provide the virtual image to the wearable display device 400. [
착용형 디스플레이 장치(400)는 가상 이미지를 사용자에게 출력할 수 있다.The wearable display device 400 can output a virtual image to the user.
또한 서버(300)는 관람용 디스플레이 장치(700)로 가상 이미지를 제공할 수 있다.In addition, the server 300 may provide a virtual image to the viewing display device 700.
서버(300)는 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.The server 300 may provide the virtual image acquired from the auxiliary computing device 300 to the connected display device 700. [
또한 서버(300)가 복수의 보조 컴퓨팅 장치(300)와 연결된 경우 서버(300)는 복수의 보조 컴퓨팅 장치(300) 중 적어도 하나의 보조 컴퓨팅 장치(300)로부터 가상 이미지를 획득할 수 있으며, 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.In addition, when the server 300 is connected to a plurality of auxiliary computing devices 300, the server 300 may acquire a virtual image from at least one of the plurality of auxiliary computing devices 300, A virtual image can be provided to the display device 700 for viewing.
일 예로 서버(300)는 서버 입력부(230)를 통하여 서버(300)와 연결된 보조 컴퓨팅 장치(300) 중 가상 이미지를 획득할 보조 컴퓨팅 장치(300)에 대한 선택을 획득할 수 있으며, 선택된 보조 컴퓨팅 장치(300)로부터 획득한 가상 이미지를 관람용 디스플레이 장치(700)로 제공할 수 있다.For example, the server 300 may obtain a selection of the auxiliary computing device 300 to acquire a virtual image among the auxiliary computing devices 300 connected to the server 300 through the server input unit 230, The virtual image obtained from the device 300 can be provided to the display device 700 for viewing.
또한 서버(300)는 보조 컴퓨팅 장치(300)로부터 가상 위치 정보(VP)를 획득할 수 있으며, 획득한 가상 위치 정보 및 미리 설정된 가상 카메라 위치에 기초하여 가상 이미지를 획득할 수 있다. 또한 서버(300)는 획득한 가상 이미지를 연결된 관람용 디스플레이 장치(700)로 제공할 수 있다.In addition, the server 300 may acquire the virtual location information VP from the auxiliary computing device 300 and may acquire the virtual image based on the acquired virtual location information and the preset virtual camera location. In addition, the server 300 may provide the acquired virtual image to the display device 700 for viewing.
관람용 디스플레이 장치(700)는 서버(300)로부터 획득한 가상 이미지를 출력할 수 있다.The viewing display device 700 can output a virtual image acquired from the server 300. [
또한 입력 장치(500)는 서버(200), 보조 컴퓨팅 장치(300) 및 착용형 디스플레이 장치(400) 중 적어도 하나와 연결되어 제공될 수 있다.Also, the input device 500 may be provided in connection with at least one of the server 200, the auxiliary computing device 300, and the wearable display device 400.
또한 입력 장치(500)는 적어도 하나의 마커(M)가 제공될 수 있다.Also, the input device 500 may be provided with at least one marker M. [
입력 장치(500)는 각각의 플레이어(P)가 소지하도록 제공될 수 있다.The input device 500 may be provided so that each player P can carry it.
일 예로 플레이어(P1)는 입력 장치(400)를 손에 휴대할 수 있다.For example, the player P1 may carry the input device 400 in his or her hand.
일 실시예에 따르면 서버 장치(400)는 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 입력 장치(400)의 현실 위치 정보를 획득할 수 있다. 또한 입력 장치(400)의 현실 위치 정보는 플레이 공간(PA) 상에서의 입력 장치의 위치 정보 및 입력 장치(500)의 지향 방향 정보 중 적어도 하나를 포함할 수 있다.According to one embodiment, the server apparatus 400 may obtain the real position information of the input apparatus 400 based on the detection information obtained from the detaching apparatus 100. In addition, the real position information of the input device 400 may include at least one of the position information of the input device on the play space PA and the direction information of the input device 500.
보조 컴퓨팅 장치(300)는 입력 장치(400)의 현실 위치 정보에 기초하여 가상환경에서 입력 장치에 대응하는 가상 오브젝트의 지향 방향을 판단할 수 있다.The auxiliary computing device 300 can determine the direction of the virtual object corresponding to the input device in the virtual environment based on the real position information of the input device 400. [
또한 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치에 대응하는 가상 오브젝트의 지향 방향이 고려된 가상 이미지를 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire a virtual image in which the direction of the virtual object corresponding to the input device in the virtual environment is considered.
일 예로 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치에 대응하는 총이 입력 장치의 지향 방향에 대응하는 방향으로 지향하는 가상 이미지를 획득할 수 있다.As an example, the secondary computing device 300 may obtain a virtual image in which the total corresponding to the input device in the virtual environment is oriented in a direction corresponding to the direction of the input device.
또한 또한 보조 컴퓨팅 장치(300)는 가상환경에서 입력 장치(500)를 통한 플레이어의 이벤트 발생 명령에 따른 이벤트 발생이 고려된 가상 이미지를 획득할 수 있다.Also, the auxiliary computing device 300 may acquire a virtual image in which a generation of an event according to a player's event generation command through the input device 500 is considered in a virtual environment.
일 예로 보조 컴퓨팅 장치(300)는 입력 장치(500)에 제공되는 스위치를 플레이어(P1) 누른 경우 가상환경에서 플레이어(P)에 대응하는 캐릭터(C)가 소지한 총을 발사하는 가상 이미지를 획득할 수 있다.The auxiliary computing device 300 may acquire a virtual image that fires a gun possessed by the character C corresponding to the player P in a virtual environment when the player provided with the input device 500 is depressed by the player P1 can do.
도 7은 일 실시예에 따른 대상체 추적 방법을 나타내는 개략도이다.7 is a schematic diagram illustrating a method of tracking a target object according to an embodiment.
도 7을 참조하면 대상체 추적 방법은 외부에 제공되는 센서를 이용하여 대상체에 대한 정보를 획득하고, 획득한 대상체에 대한 정보에 기초하여 대상체의 위치를 판단할 수 있다.Referring to FIG. 7, the object tracking method can acquire information about a target object using a sensor provided externally, and determine the position of the target object based on information about the obtained target object.
이하에서는 도 7을 참조하여 대상체가 착용형 디스플레이 장치(400)인 경우를 예시적으로 설명하도록 한다.Hereinafter, a case in which the object is a wearable display device 400 will be exemplarily described with reference to FIG.
도 7을 참조하면 대상체는 대상체를 식별하기 위한 마커(M)가 제공될 수 있다.Referring to FIG. 7, the object may be provided with a marker M for identifying the object.
마커(M)는 대상체에 제공되어 대상체를 식별하여 추적하는 기준을 제공할 수 있다.The marker M may be provided to the object to provide a reference for identifying and tracking the object.
대상체를 추적하기 위해서는 대상체와 대상체가 아닌 구성을 식별해야할 필요가 있으며, 대상체에 마커(M)가 제공됨으로써 대상체 임을 식별 가능할 수 있다.In order to track an object, it is necessary to identify a configuration other than the object and the object, and it is possible to identify the object by providing the marker (M) to the object.
또한 복수의 대상체가 제공되는 경우 각각의 대상체를 식별할 필요가 있으며, 이를 위하여 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 구별 가능하게 제공될 수 있다.Also, when a plurality of objects are provided, it is necessary to identify each object, and for this purpose, the marker M provided to one object can be provided to be distinguishable from the marker M provided to another object.
예를 들어 하나의 대상체에 제공되는 마커(M)는 다른 대상체에 제공되는 마커(M)와 상이한 패턴으로 제공될 수 있다.For example, the marker M provided to one object may be provided in a different pattern from the marker M provided to another object.
또한 패턴은 복수의 마커(M)가 상이한 위치에 제공되어 형성되는 패턴 및 하나의 디스플레이 패널 들에 제공되는 광 패턴 등 다양한 의미의 패턴을 포함할 수 있다.Also, the pattern may include various patterns such as a pattern formed by providing a plurality of markers M at different positions and a light pattern provided to one display panel.
또한 마커(M) 는 상기 발광부(110)로부터 송출된 광 신호를 반사하거나 흡수하는 패시브 마커 및 자체적으로 광 신호를 송출할 수 있는 액티브 마커 등으로 제공될 수 있다.The marker M may be provided as a passive marker that reflects or absorbs the optical signal transmitted from the light emitting unit 110, or as an active marker capable of transmitting an optical signal by itself.
일 예로, 패시브 마커는 광 반사 물질이 부착된 입체 모형, 인식 가능한 코드가 인쇄되어 있는 종이, 반사테이프 등을 포함할 수 있다.As an example, the passive markers may include stereoscopic models with light reflective material, paper on which recognizable codes are printed, reflective tape, and the like.
또한 액티브 마커는 LED 모듈, 전파 발생기 등이 포함할 수 있다.The active marker may include an LED module, a radio wave generator, and the like.
일 실시예에 따르면 대상체에는 적어도 하나의 마커(M)가 제공될 수 있다.According to one embodiment, the object may be provided with at least one marker M.
일 예로 시스템이 하나의 대상체에 대해서만 위치를 추적하는 경우에는 대상체에는 하나의 마커(M)만 제공될 수 있다. 또한 시스템이 하나의 대상체에 대해서만 위치를 추적하는 경우라 하더라도 대상체에는 복수의 마커(M)가 제공될 수 있다.For example, when the system tracks the position of only one object, only one marker M may be provided to the object. In addition, a plurality of markers (M) may be provided to the object even if the system tracks the position only for one object.
또한 시스템이 복수의 대상체(130)에 대해서 위치를 추적하는 경우, 복수의 대상체 각각을 식별하기 위해서 하나의 대상체에는 복수의 마커(M)가 패턴을 형성하여 제공될 수 있다.Also, when the system tracks a position with respect to a plurality of objects 130, a plurality of markers M may be provided in one object to form a pattern in order to identify each of the plurality of objects.
일 예로 시스템에서 위치를 추적하는 대상체가 착용형 디스플레이 장치(400) 및 입력 장치(500)의 두가지로 제공되는 경우 착용형 디스플레이 장치(400)에는 제1 패턴으로 마커(M)가 제공될 수 있다. 또한 입력 장치(500)에는 제2 패턴으로 마커가(130) 제공될 수 있다. The wearable display device 400 may be provided with a marker M in a first pattern when the object tracking the position in the system is provided by the wearable display device 400 and the input device 500 . The input device 500 may also be provided with a marker 130 in a second pattern.
제1 패턴 및 제2 패턴은 서로 상이한 패턴으로, 위치 추적 시 제1 패턴이 검출된 경우 착용형 디스플레이 장치(400)로 식별할 수 있으며, 제2 패턴이 검출된 경우 입력 장치(500)로 식별할 수 있다.The first pattern and the second pattern are different from each other. When the first pattern is detected during the position tracking, the first pattern and the second pattern can be identified by the wearable display device 400. When the second pattern is detected, can do.
이상에서는 복수의 대상체가 제공되는 경우 복수의 각각을 식별하기 위하여 복수의 대상체 각각에 제공되는 마커(M)들이 패턴을 형성하여 제공되는 것으로 설명하였으나, 이에 한정되는 것은 아니며, 하나의 대상체가 제공되는 경우에도 대상체에 제공되는 마커(M)들이 패턴을 형성하여 제공될 수 있다.In the above description, when a plurality of objects are provided, the markers M provided for each of the plurality of objects are provided to form a pattern in order to identify each of the plurality of objects. However, the present invention is not limited thereto, The markers M provided to the object can be provided by forming a pattern.
또한 대상체에 제공되는 마커(M)의 패턴은 사용자의 식별에도 사용될 수 있다.The pattern of the marker M provided to the object can also be used for identification of the user.
일 예로 제1 패턴은 제1 사용자의 착용형 디스플레이 장치(400)로 식별될 수 있으며, 제2 패턴은 제1 사용자의 입력 장치(500)로 식별될 수 있다. 또한 제3 패턴은 제2 사용자의 착용형 디스플레이 장치(400)로 식별될 수 있으며, 제4 패턴은 제2 사용자의 입력 장치(500)로 식별될 수 있다.For example, the first pattern may be identified by the wearable display device 400 of the first user, and the second pattern may be identified by the input device 500 of the first user. Also, the third pattern may be identified by the wearable display device 400 of the second user, and the fourth pattern may be identified by the input device 500 of the second user.
대상체의 추적에 대해서 설명하면 서버 장치(200)는 디텍팅 시스템(100)으로부터 대상체에 대한 정보를 획득할 수 있으며, 획득한 정보에 기초하여 대상체의 위치에 대한 디텍팅 정보를 획득할 수 있다. 또한 서버 장치(200)는 디텍팅 정보에 기초하여 대상체의 위치를 추적할 수 있다. Describing the tracking of the object, the server device 200 can acquire information about the object from the detec- tion system 100 and acquire detec- tion information on the position of the object based on the acquired information. In addition, the server device 200 can track the position of the object based on the detection information.
디텍팅 시스템(100)이 서버 장치(200)로 대상체에 대한 정보를 제공하는 기술에 대해서 설명하면 디텍팅 시스템(100)의 발광부(110)는 플레이 공간(PA)의 적어도 일부 영역에 신호를 발신할 수 있다.A description will now be given of a technique for the detecting system 100 to provide information on a target object to the server 200. The light emitting unit 110 of the detaching system 100 transmits a signal to at least a part of the play space PA It can send out.
일 예로 발광부(110)가 적외선 LED인 경우 발광부(100)는 플레이 공간(PA)의 적어도 일부 영역에 적외선 신호를 발신할 수 있다.For example, when the light emitting unit 110 is an infrared LED, the light emitting unit 100 may transmit an infrared signal to at least a part of the play space PA.
또한 센싱부(120)는 외부로부터 획득한 정보를 서버 장치(200)로 제공할 수 있다.Also, the sensing unit 120 may provide the information acquired from the outside to the server apparatus 200. [
일 예로 센싱부(120)가 카메라인 경우 센싱부(120)는 외부로부터 획득한 이미지 신호를 서버 장치(200)로 제공할 수 있다.For example, when the sensing unit 120 is a camera, the sensing unit 120 may provide an image signal obtained from the outside to the server 200. [
도 7에는 하나의 센싱부(120) 만 도시되어 있으나, 이에 한정되는 것은 아니며, 앞서 도 6에서 설명된 바와 같이 센싱부(120)는 복수로 제공될 수 있으며, 복수의 센싱부(120) 각각은 획득한 정보를 서버 장치(200)로 제공할 수 있다.Although only one sensing unit 120 is shown in FIG. 7, the present invention is not limited thereto. As described above with reference to FIG. 6, a plurality of sensing units 120 may be provided, and a plurality of sensing units 120 Can provide the acquired information to the server apparatus 200.
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.The server device 200 can determine the position of the object based on the information obtained from the sensing unit 120. [
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함되어 있는지 판단할 수 있다. 또한 서버 장치(200)는 센싱부(120)로부터 획득한 정보에 마커(M)에 대한 정보가 포함된 경우 마커(M)의 패턴에 기초하여 대상체를 식별할 수 있다.The server device 200 may determine whether information on the marker M is included in the information obtained from the sensing unit 120. [ The server device 200 can identify the object based on the pattern of the marker M when the information about the marker M is included in the information acquired from the sensing unit 120. [
일 예로 서버 장치(200)는 센싱부(120)로부터 획득한 정보에 제1 패턴이 포함된 경우 착용형 디스플레이 장치(400)임을 식별할 수 있다.For example, the server device 200 may identify the wearable display device 400 when the information obtained from the sensing unit 120 includes the first pattern.
하나의 센싱부(120)로부터 획득한 정보에는 복수의 패턴이 존재할 수 있으며, 서버 장치(200)는 복수의 패턴을 식별할 수 있다. The information obtained from one sensing unit 120 may include a plurality of patterns, and the server apparatus 200 may identify a plurality of patterns.
이러한 패턴은 서버 장치(200)에 미리 저장될 수 있으며, 서버 장치(200)는 획득한 정보에 미리 저장된 패턴이 존재하는 경우 해당 패턴이 존재하는 것으로 판단할 수 있으며, 해당 패턴에 대응하는 대상체를 식별할 수 있다.Such a pattern can be stored in advance in the server device 200. If there is a pattern stored in advance in the acquired information, the server device 200 can determine that the corresponding pattern exists, Can be identified.
서버 장치(200)는 센싱부(120)로부터 획득한 정보에 기초하여 대상체의 위치를 판단할 수 있다.The server device 200 can determine the position of the object based on the information obtained from the sensing unit 120. [
서버 장치(200)에는 미리 저장된 패턴을 각각에 대한 대표점(RP)가 설정될 수 있다. 대표점(RP)는 패턴을 대표하는 점(point)일 수 있다.The representative point RP for each of the patterns stored in advance in the server device 200 may be set. The representative point RP may be a point representative of the pattern.
복수의 마커(M)를 통한 패턴이 제공되는 경우 패턴에 포함된 복수의 마커(M)에 대한 좌표 정보가 획득되게 되며, 서버 장치(200)는 패턴을 대표하는 대표점(RP)을 패턴에 대응하는 대상체의 위치로 획득할 수 있다.When a pattern through a plurality of markers M is provided, coordinate information for a plurality of markers M contained in the pattern is obtained, and the server device 200 obtains the representative point RP representative of the pattern as a pattern It can be obtained by the position of the corresponding object.
따라서, 서버 장치(200)는 대상체의 위치에 대한 정보를 획득하여 대상체를 추적할 수 있다.Accordingly, the server apparatus 200 can acquire information on the position of the object and track the object.
일 실시예에 따른 대상체의 위치 추적이 상술한 방법으로 한정되는 것은 아니며, 선택에 따라 다양한 방식의 위치 추적 방법이 사용될 수 있다.The location tracking of the object according to one embodiment is not limited to the above-described method, and various types of position tracking methods can be used depending on the selection.
일 실시예에 따르면 센싱부(120)가 이미지 센서로 제공되는 경우 센싱부(120)는 외부에 대한 이미지를 획득할 수 있으며, 획득한 이미지에 기초하여 대상체에 대한 위치 정보를 획득할 수 있다..According to an exemplary embodiment, when the sensing unit 120 is provided as an image sensor, the sensing unit 120 may acquire an image of the exterior and acquire positional information of the object based on the acquired image. .
일 예로 도 7에 도시된 센싱부(120)가 착용형 디스플레이 장치(400)에 제공되는 경우 센싱부(120)는 착용형 디스플레이 장치(400)의 일측에 제공되어 착용형 디스플레이 장치(400)의 내부에서 외부 방향으로 지향하여 착용형 디스플레이 장치(400)의 외부에 대한 이미지 정보를 획득할 수 있다.For example, when the sensing unit 120 shown in FIG. 7 is provided on the wearable display device 400, the sensing unit 120 is provided on one side of the wearable display device 400, It is possible to obtain image information on the outside of the wearable display device 400 by being directed from the inside to the outside.
또한 착용형 디스플레이 장치(400)는 보조 컴퓨팅 장치(300)로 획득한 이미지 정보를 제공할 수 있다.In addition, the wearable display device 400 may provide image information obtained by the auxiliary computing device 300.
일 실시예에 따르면 착용형 디스플레이 장치(400)는 미리 정해진 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.According to one embodiment, the wearable display device 400 may provide image information to the secondary computing device 300 at predetermined cycles.
일 예로 착용형 디스플레이 장치(400)는 센싱부(120)를 통하여 이미지 정보를 획득하는 주기와 동일한 주기로 보조 컴퓨팅 장치(300)로 이미지 정보를 제공할 수 있다.For example, the wearable display device 400 may provide image information to the auxiliary computing device 300 at the same cycle as the period for acquiring image information through the sensing unit 120. [
보조 컴퓨팅 장치(300)는 획득한 이미지 정보로부터 적어도 하나의 특징점을 획득할 수 있다. The secondary computing device 300 may obtain at least one feature point from the acquired image information.
일 실시예예 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 특징점으로 획득할 수 있다.According to one embodiment, the auxiliary computing device 300 may acquire objects included in the image information as feature points.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다.According to one embodiment, the auxiliary computing device 300 may acquire objects of a predetermined size or larger among the objects included in the image information as minutiae.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물을 식별할 수 있으며, 식별된 사물 중 미리 정해진 크기 이상의 사물을 특징점으로 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물이 차지하는 픽셀수에 기초하여 사물의 크기를 판단할 수 있다.The auxiliary computing device 300 can identify an object included in the image information and can acquire objects of a predetermined size or more among the identified objects as minutiae. The auxiliary computing device 300 may also determine the size of the object based on the number of pixels occupied by the object included in the image information.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 사물 중 미리 설정된 유형의 사물을 특징점으로 획득할 수 있다.According to an exemplary embodiment, the auxiliary computing device 300 may acquire a predetermined type of object among the objects included in the image information as feature points.
일 예로 공 유형의 사물이 미리 설정된 경우 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 야구공, 축구공 및 농구공 등과 같은 공유형의 사물을 특징점으로 획득할 수 있다.For example, when a ball type object is set in advance, the auxiliary computing device 300 may acquire a shared object, such as a baseball ball, a soccer ball, and a basketball ball, included in image information, as feature points.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 마커를 특징점으로 획득할 수 있다.According to one embodiment, the auxiliary computing device 300 may acquire the markers included in the image information as feature points.
보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 바코드, QR 코드와 같은 마커를 식별하여 특징점으로 획득할 수 있다.The auxiliary computing device 300 can identify markers such as barcodes and QR codes included in image information and acquire them as feature points.
또한 보조 컴퓨팅 장치(300)는 이미지 정보에 포함된 특징점의 위치를 판단할 수 있다.The auxiliary computing device 300 may also determine the location of the feature points included in the image information.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화 및 크기 변화 중 적어도 하나를 판단할 수 있다.The auxiliary computing device 300 may determine at least one of positional change and size change of the feature point based on the image information obtained from the wearable display device 400. [
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.The auxiliary computing device 300 can determine the moving direction and the moving distance of the wearable display device 400 based on the position change direction, the position change amount, and the size change amount of the feature points.
일 예로 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로부터 획득한 이미지 정보 들에 기초하여 특징점의 위치 변화를 판단할 수 있다.For example, the auxiliary computing device 300 may determine a change in the position of the feature point based on the image information obtained from the wearable display device 400.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향 및 위치 변화량에 기초하여 The secondary computing device 300 may be configured to determine the location of the feature point based on the position change direction and the position change amount
보조 컴퓨팅 장치(300)는 특징점의 위치 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.The auxiliary computing device 300 can determine the moving direction and the moving distance of the wearable display device 400 based on the positional change amount of the feature points.
보조 컴퓨팅 장치(300)는 특징점의 위치 변화 방향, 위치 변화량 및 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.The auxiliary computing device 300 can determine the moving direction and the moving distance of the wearable display device 400 based on the position change direction, the position change amount, and the size change amount of the feature points.
일 예로 보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 위치와와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 위치를 비교한 결과 제1 이미지 정보에의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.For example, the auxiliary computing device 300 may calculate the position of the feature point included in the first image information obtained at the first viewpoint and the position of the feature point included in the second image information acquired at the second viewpoint subsequent to the first viewpoint It can be determined that the wearable display device 400 has moved to the left when the position of the feature point in the first image information has moved to the right in the second image information.
또한 보조 컴퓨팅 장치(300)는 특징점의 위치가 변경된 경우 특징점의 이동 거리를 판단할 수 있다.In addition, the auxiliary computing device 300 can determine the movement distance of the feature point when the position of the feature point is changed.
보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 위치와 제2 이미지 정보에서의 특징점의 위치 사이의 픽셀 수에 기초하여 특징점의 이동 거리를 판단할 수 있다.The auxiliary computing device 300 can determine the travel distance of the feature point based on the number of pixels between the position of the feature point in the first image information and the position of the feature point in the second image information.
또는 보조 컴퓨팅 장치(300)는 제1 이미지 정보에서의 특징점의 좌표와 제2 이미지에서의 특징점의 좌표에 기초하여 특징점의 이동 거리를 판단할 수 있다.Or the auxiliary computing device 300 can determine the travel distance of the feature point based on the coordinates of the feature point in the first image information and the coordinates of the feature point in the second image.
또한 일 예로 보조 컴퓨팅 장치(300)는 크기 변화량에 기초하여 착용형 디스플레이 장치(400)의 이동 방향 및 이동 거리를 판단할 수 있다.In addition, the auxiliary computing device 300 may determine the moving direction and the moving distance of the wearable display device 400 based on the size variation.
보조 컴퓨팅 장치(300)는 제1 시점에서 획득한 제1 이미지 정보에 포함된 특징점의 크기와 제1 시점보다 이후 시점인 제2 시점에서 획득한 제2 이미지 정보에 포함된 특징점의 크기를 비교한 결과 제1 이미지 정보에의 특징점의 위치가 제2 이미지 정보에서는 우측으로 이동한 경우 착용형 디스플레이 장치(400)가 좌측으로 이동한 것으로 판단할 수 있다.The auxiliary computing device 300 compares the size of the minutiae included in the first image information acquired at the first time and the size of the minutiae included in the second image information acquired at the second time later than the first time As a result, when the position of the feature point in the first image information moves to the right in the second image information, it can be determined that the wearable display apparatus 400 has moved to the left.
따라서 보조 컴퓨팅 장치(300)는 미리 설정된 초기 위치로부터 대상체의 상대인 위치 변화에 기초하여 대상체의 위치를 추적할 수 있다.Accordingly, the auxiliary computing device 300 can track the position of the object based on the positional change relative to the object from the preset initial position.
도 8은 일 실시예에 따른 가상 환경의 구현예를 나타내는 예시도이다.8 is an exemplary diagram illustrating an implementation of a virtual environment according to an embodiment.
도 8을 참조하면, 시스템은 착용형 디스플레이 장치(400)를 통하여 가상 환경의 적어도 일부에 대한 가상 이미지를 제공할 수 있다.Referring to FIG. 8, the system may provide a virtual image for at least a portion of a virtual environment via the wearable display device 400.
가상 환경은 배경, 지형 오브젝트, 가상 오브젝트 및 캐릭터 등을 포함할 수 있다.The virtual environment may include a background, a terrain object, a virtual object, and a character.
일 예로 가상 환경에는 플레이어에 대응하는 캐릭터가 제공될 수 있다.For example, a character corresponding to the player may be provided in the virtual environment.
다른 예로 가상 환경에는 플레이어가 소지한 컨트롤러에 대응하는 총 등의 가상 오브젝트가 제공될 수 있다.As another example, the virtual environment may be provided with a virtual object, such as a total, corresponding to the controller possessed by the player.
지형 오브젝트는 가상 환경의 미리 정해진 위치에 제공될 수 있다.The terrain object may be provided at a predetermined location in the virtual environment.
또한 지형 오브젝트는 캐릭터가 이동 가능한 지형 오브젝트 및 이동 불가능한 지형 오브젝트를 포함할 수 있다.The terrain object may also include a terrain object to which the character is movable and an unmovable terrain object.
일 예로 이동 가능한 지형 오브젝트는 플레이어가 해당 지형 오브젝트에 대응되는 위치로 이동한 경우 플레이어에 대응하는 캐릭터가 이동할 수 있는 지형 오브젝트일 수 있다. 또한 이동 블가능한 지형 오브젝트는 플레이어가 해당 지형 오브젝트에 대응되는 위치로 이동하더라도 플레이어에 대응하는 캐릭터가 해당 지형 오브젝트로 이동하지 않는 지형 오브젝트일 수 있다.For example, the movable terrain object may be a terrain object to which a character corresponding to the player can move when the player moves to a position corresponding to the terrain object. Also, even if the player moves to a position corresponding to the terrain object, the moving object terrain object may be a terrain object whose character corresponding to the player does not move to the terrain object.
또한 캐릭터는 미리 프로그래밍된 프로그램에 의해 제공되는 NPC 캐릭터 및 플레이어 캐릭터를 포함할 수 있다.Also, the character may include an NPC character and a player character provided by a preprogrammed program.
가상 환경에 있어서 위치 정보는 현실 위치 정보 및 가상 위치 정보 중 적어도 하나를 포함할 수 있다.In the virtual environment, the location information may include at least one of real location information and virtual location information.
현실 위치 정보는 대상체의 위치 좌표 및 지향 방향 중 적어도 하나를 포함할 수 있다.The real position information may include at least one of the position coordinates and the orientation direction of the object.
일 예로 현실 위치 정보는 플레이 공간(PA) 상에 위치한 대상의 위치 좌표일 수 있다.For example, the real location information may be a location coordinate of an object located on the play space PA.
서버(200)는 플레이 공간(PA)에 대한 좌표값을 미리 저장할 수 있다.The server 200 may store coordinate values for the play space PA in advance.
서버(200)는 플레이 공간(PA)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.The server 200 may previously store a coordinate system for the play space PA. The coordinate system may be at least one of a plane coordinate system, a rectangular coordinate system, a polar coordinate system, a spatial coordinate system, a cylindrical coordinate system, and a spherical coordinate system.
서버(200)는 디텍팅 정보 및 플레이 공간(PA)에 대한 좌표계에 기초하여 대상체의 플레이 공간(PA)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 획득한 대상체의 플레이 공간(PA)에서의 좌표값을 현실 위치 정보로 획득할 수 있다.The server 200 may obtain the coordinate values in the play space PA of the object based on the detection information and the coordinate system for the play space PA. Also, the server 200 can acquire the coordinate value in the play space PA of the acquired object as the real position information.
일 예로 서버(200)는 디텍팅 정보가 적외선 이미지인 경우 적외선 이미지에서의 대상체에 대응하는 마커의 위치 및 적외선 이미지를 제공한 디텍팅 장치(100)의 설치 위치에 기초하여 마커의 플레이 공간(PA)에서의 좌표값을 획득할 수 있다. 또한 서버(200)는 마커의 플레이 공간(PA)에서의 좌표값에 기초하여 마커의 패턴을 판단할 수 있으며, 마커의 패턴에 대응하는 대상체를 식별할 수 있다. 또한 서버(200)는 마커의 패턴 및 마커의 플레이 공간(PA)에서의 좌표값에 기초하여 대상체의 대표점을 획득할 수 있으며, 대상체의 대표점의 좌표값을 대상체의 현실 위치 정보로 획득할 수 있다.For example, when the detecting information is an infrared image, the server 200 determines whether or not the marker's play space (PA) based on the position of the marker corresponding to the object in the infrared image and the installation position of the detecting device 100 providing the infrared image ) Can be obtained. In addition, the server 200 can determine the pattern of the marker based on the coordinate value in the play space PA of the marker, and can identify the object corresponding to the pattern of the marker. Also, the server 200 can acquire representative points of the object based on the pattern of the marker and the coordinate values of the marker in the play space PA, and acquires the coordinate value of the representative point of the object as the real position information of the object .
서버(200)는 현실 위치 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.The server 200 may provide realistic location information to the auxiliary computing device 300. [
보조 컴퓨팅 장치(300)는 가상 환경(VW)에 대한 좌표값을 미리 저장할 수 있다.The secondary computing device 300 may store coordinate values for the virtual environment VW in advance.
보조 컴퓨팅 장치(300)는 가상 환경(VW)에 대한 좌표계(coordinates system)를 미리 저장할 수 있다. 좌표계는 평면 좌표계, 직교 좌표계, 극좌표계, 공간 좌표계, 원기둥 좌표계, 구면좌표계 중 적어도 하나일 수 있다.The auxiliary computing device 300 may previously store a coordinate system for the virtual environment VW. The coordinate system may be at least one of a plane coordinate system, a rectangular coordinate system, a polar coordinate system, a spatial coordinate system, a cylindrical coordinate system, and a spherical coordinate system.
보조 컴퓨팅 장치(300)는 현실 위치 정보 및 가상 환경(VW)에 대한 좌표계에 기초하여 대상체의 가상 환경(VW)에서의 좌표값을 획득할 수 있다. 또한 보조 컴퓨팅 장치(300)는 획득한 대상체의 가상 환경(VW)에서의 좌표값을 가상 위치 정보로 획득할 수 있다.The auxiliary computing device 300 may obtain the coordinate values in the virtual environment VW of the object based on the real position information and the coordinate system for the virtual environment VW. Also, the auxiliary computing device 300 can acquire the coordinate value in the virtual environment (VW) of the acquired object as virtual position information.
일 예로 보조 컴퓨팅 장치(300)는 현실 위치 정보에 포함된 좌표값에 대응하는 가상 환경(VW)에서의 좌표값을 획득할 수 있으며, 획득한 가상 환경(VW)에서의 좌표값을 가상 위치 정보로 획득할 수 있다.For example, the auxiliary computing device 300 may acquire the coordinate value in the virtual environment VW corresponding to the coordinate value included in the real position information, and may calculate the coordinate value in the acquired virtual environment VW as the virtual position information .
보조 컴퓨팅 장치(300)는 가상 위치 정보에 기초하여 사용자에게 출력할 가상 이미지를 획득할 수 있다.The secondary computing device 300 may obtain a virtual image to be output to the user based on the virtual location information.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 가상 위치 정보를 가상 카메라의 가상 위치 정보로 획득할 수 있으며, 가상 카메라의 가상 위치 정보 및 가상 카메라의 지향 방향에 기초하여 가상 카메라의 시야 정보를 획득할 수 있다.According to one embodiment, the auxiliary computing device 300 may acquire virtual position information of the wearable display device 400 as virtual position information of the virtual camera, and may be based on the virtual position information of the virtual camera and the direction of the virtual camera Thereby obtaining visual information of the virtual camera.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 현실 위치 정보에 포함된 지향 방향에 기초하여 가상 카메라의 지향 방향을 획득할 수 있다.The auxiliary computing device 300 can acquire the directing direction of the virtual camera based on the directing direction included in the real position information of the wearable display device 400. [
또한 보조 컴퓨팅 장치(300)는 가상 카메라의 지향 방향으로 미리 정해진 영역을 카상 카메라의 시야로 획득할 수 있다.In addition, the auxiliary computing device 300 may acquire a predetermined area in the direction of the virtual camera in the field of view of the car camera.
또한 보조 컴퓨팅 장치(300)는 가상 환경에서 가상 카메라의 시야에 대응하는 가상 이미지를 획득할 수 있다.The secondary computing device 300 may also obtain a virtual image corresponding to the field of view of the virtual camera in a virtual environment.
보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.The secondary computing device 300 may provide the virtual image to the wearable display device 400. [
착용형 디스플레이 장치(400)는 획득한 가상 이미지를 착용형 디스플레이 화면 출력부(450)를 통하여 사용자에게 출력할 수 있다.The wearable display device 400 can output the obtained virtual image to the user through the wearable display screen output unit 450.
이하에서는 일 실시예에 따른 회전 지연 정합 방법에 대해서 설명하도록 한다.Hereinafter, a rotational delay matching method according to an embodiment will be described.
도 9는 일 실시예에 따른 회전 지연을 나타내는 예시도이다.9 is an exemplary diagram illustrating a rotation delay according to one embodiment.
도 9를 참조하면 시스템(10)에 있어서 착용형 디스플레이 장치(400)의 디스플레이부(400)를 통하여 제공되는 이미지는 가상 현실에서 일부 영역일 수 있다. Referring to FIG. 9, the image provided through the display unit 400 of the wearable display device 400 in the system 10 may be a region in a virtual reality.
일 예로 착용형 디스플레이 장치(400)를 통하여 제공되는 이미지는 가상 현실에서 제공되는 가상 카메라의 위치에서 지향 방향으로의 시야에 대응하는 이미지일 수 있다.For example, the image provided through the wearable display device 400 may be an image corresponding to a view in a direction from the position of the virtual camera provided in the virtual reality.
또한 착용형 디스플레이 장치(400)의 디스플레이부(400)를 통하여 제공되는 이미지는 착용형 디스플레이 장치(400)의 회전 상태에 따라 상이하게 제공될 있다. Also, the image provided through the display unit 400 of the wearable display apparatus 400 may be provided differently depending on the rotation state of the wearable display apparatus 400.
착용형 디스플레이 장치(400)가 좌우 및 상하로 회전하는 경우 착용형 디스플레이 장치(400)의 지향 방향이 변경될 수 있으며, 이에 따라 가상 카메라의 지향 방향이 변경될 수 있다. 또한 가상 카메라의 지향 방향이 변경됨에 따라 가상 카메라의 시야가 변경될 수 있으며, 이에 따라 착용형 디스플레이 장치(400)를 통하여 제공되는 이미지가 변경될 수 있다.When the wearable display device 400 rotates left and right and up and down, the direction of the wearable display device 400 may be changed, thereby changing the direction of the virtual camera. Also, as the direction of the virtual camera is changed, the field of view of the virtual camera may be changed, so that the image provided through the wearable display device 400 may be changed.
일 예로 착용형 디스플레이 장치(400)가 현실 세계에서 제1 위치에서 제1 방향을 지향하고 있을 때, 가상 환경에서는 가상 카메라가 제1 위치에서 제1 방향을 지향할 수 있으며, 이때의 가상 카메라의 시야에 대응하는 제1 이미지가 착용형 디스플레이 장치(400)를 통하여 사용자에게 제공될 수 있다. 또한 착용형 디스플레이 장치(400)가 현실 세계에서 제1 위치에서 제1 방향과 상이한 제2 방향을 지향하고 있을 때, 가상 환경에서는 가상 카메라가 제1 위치에서 제2 방향을 지향할 수 있으며, 이때의 가상 카메라의 시야에 대응하는 제2 이미지가 착용형 디스플레이 장치(400)를 통하여 사용자에게 제공될 수 있다.For example, when the wearable display device 400 is oriented in a first direction at a first position in the real world, in a virtual environment, the virtual camera may be oriented in a first direction at a first position, A first image corresponding to the field of view can be provided to the user through the wearable display device 400. Also, when the wearable display device 400 is oriented in the real world to a second direction that is different from the first direction at the first position, in the virtual environment, the virtual camera may be oriented from the first position to the second direction, A second image corresponding to the field of view of the virtual camera of the wearable display device 400 may be provided to the user through the wearable display device 400. [
착용형 디스플레이 장치(400)의 위치 및 지향 방향에 대한 정보는 다양한 방식으로 획득될 수 있다.Information on the position and orientation of the wearable display device 400 may be obtained in various manners.
일 실시예에 따르면 착용형 디스플레이 장치(400)의 위치 및 지향 방향에 대한 정보는 디텍팅 시스템(1000)에 의해 획득된 디텍팅 정보와 착용형 디스플레이 장치(400)의 착용형 디스플레이 동작 센서 모듈(431)로부터 획득한 정보에 기초하여 획득될 수 있다.According to one embodiment, the information about the position and the orientation of the wearable display device 400 may be detected by the detec- tion information obtained by the detec- tion system 1000 and the wearable display motion sensor module of the wearable display device 400 431). ≪ / RTI >
이러한 디텍팅 시스템(1000) 및 착용형 디스플레이 동작 센서 모듈(431)에 기초하여 착용형 디스플레이 장치(400)의 위치 및 지향 방향에 대한 정보를 획득하는 경우 서브 컴퓨팅 장치(300)가 디텍팅 시스템(100)로부터 디텍팅 정보를 제공하는데 소요되는 시간 지연과 서브 컴퓨팅 장치(300)가 착용형 디스플레이 동작 센서 모듈(431)로부터 정보를 획득하는데 소요되는 시간 지연은 서로 상이할 수 있다. When acquiring information on the position and orientation of the wearable display device 400 based on the detecting system 1000 and the wearable display motion sensor module 431, 100 and the time delay required for the sub-computing device 300 to acquire information from the wearable display operation sensor module 431 may be different from each other.
따라서 하나의 시점에 대한 디텍팅 정보를 획득하는 시점과 착용형 디스플레이 동작 센서 모듈(431)로부터 정보를 획득하는 시간이 상이할 수 있으며, 이에 따라 오차가 발생할 수 있다.Therefore, the time of acquiring the detec- tion information for one viewpoint may be different from the time of acquiring information from the wearable display motion sensor module 431, and an error may occur accordingly.
일 예로 제1 시점에 대한 디텍팅 정보를 획득하는 시점에서 획득한 착용형 디스플레이 동작 센서 모듈(431)로부터 획득한 회전 정보는 제1 시점 보다 이전의 시점에 대해서 착용형 디스플레이 동작 센서 모듈(431)이 획득한 회전 정보일 수 있다.For example, the rotation information acquired from the wearable display motion sensor module 431 obtained at the time of acquiring the detec- tion information for the first time may be transmitted to the wearable display motion sensor module 431 at a time before the first time, May be acquired rotation information.
착용형 디스플레이 동작 센서 모듈(431)을 통하여 획득한 회전 정보에 기초하여 위치 정보를 획득하는 경우 누적된 오차로 인하여 부정확 위치 정보가 획득될 수 있다. 디텍팅 장치로부터 획득한 디텍팅 정보는 착용형 디스플레이 동작 센서 모듈(431)을 통하여 획득한 회전 정보와 비교하였을 때 상대적으로 오차가 적을 수 있다.Inaccurate position information can be obtained due to accumulated errors when acquiring position information based on the rotation information acquired through the wearable display motion sensor module 431. [ The detec- tion information obtained from the detec- ting device may have a relatively small error when compared with the rotation information acquired through the wearable display motion sensor module 431. [
도 10은 일 실시예에 따른 회전 지연의 오차를 나타내는 예시도이다.10 is an exemplary diagram showing an error of rotation delay according to an embodiment.
도 10을 참조하여 설명하면 플레이어(P)가 착용한 착용형 디스플레이 장치(100)를 우측으로 30도 회전 경우 착용형 디스플레이 동작 센서 모듈(431)을 통하여 획득한 회전 정보에서는 착용형 디스플레이 장치(100)가 우측으로 20도 회전한 것으로 제공될 수 있다.Referring to FIG. 10, when the wearable display device 100 worn by the player P is rotated 30 degrees to the right, the rotation information obtained through the wearable display motion sensor module 431 indicates that the wearable display device 100 ) May be provided as being rotated to the right by 20 degrees.
따라서, 서버(200)가 착용형 디스플레이 동작 센서 모듈(431)을 통하여 획득한 회전 정보에 기초하여 착용형 디스플레이 장치(100)의 위치 정보를 획득하고, 이에 기초하여 가상 이미지를 획득하는 경우 도 10의 가상 이미지(VI)와 같이 가상 환경에서 가상 이미지(VI)의 영역이 실제 동작 위치(AT)와 같이 이동해야 하지만 오차로 인하여 오차 위치(DT)까지만 이동함으로써 실제 이동에 따른 거리와 화면의 이동간에 오차가 발생할 수 있다.Accordingly, when the server 200 acquires the position information of the wearable display device 100 based on the rotation information acquired through the wearable display motion sensor module 431 and acquires the virtual image based on the information, The area of the virtual image VI in the virtual environment needs to be moved as the actual operation position AT as shown in the virtual image VI of FIG. An error may occur.
따라서, 플레이어는 자신이 실제 회전함에 따라 이동해야할 화면이 충분히 이동하지 않았음을 인지할 수 있으며, 이에 따라 멀미, 피로 등의 불편함을 느낄 수 있다.Accordingly, the player can recognize that the screen to be moved has not moved sufficiently due to the rotation of the player himself / herself, thereby feeling nuisance such as nausea and fatigue.
따라서, 디텍팅 장치(100)로부터 획득한 디텍팅 정보 및 착용형 디스플레이 동작 센서 모듈(431)로부터 획득한 회전 정보를 정합함으로써 지연에 따라 발생하는 오차를 제거할 필요가 있다.Therefore, it is necessary to eliminate the error caused by the delay by matching the detec- tion information obtained from the detec- tor 100 and the rotation information acquired from the wearable display operation sensor module 431. [
도 11은 일 실시예에 따른 회전 지연 정합 방법을 나타내는 순서도이다.11 is a flowchart illustrating a rotational delay matching method according to an embodiment.
도 11을 참조하면 일 실시예에 따른 회전 지연 정합 방법은 제1 초기 회전 정보를 설정하는 단계(S100), 제1 차이값을 획득하는 단계(S110), 제2 초기 회전 정보를 설정하는 단계(S120), 제2 차이값을 획득하는 단계(S130), 제3 차이값을 획득하는 단계(S140), 제3 차이값을 보정하는 단계(S150), 제4 차이값을 획득하는 단계(S160), 최종 각도값을 획득하는 단계(S170) 및 최종 각도값에 기초하여 이미지를 제공하는 단계(S180)을 포함할 수 있다.Referring to FIG. 11, the rotation delay matching method according to an exemplary embodiment includes setting a first initial rotation information (S100), acquiring a first difference value (S110), setting a second initial rotation information (S140) of obtaining the second difference value, obtaining the third difference value (S140), correcting the third difference value (S150), obtaining the fourth difference value (S160) , Obtaining a final angle value (S170), and providing an image based on the final angle value (S180).
일 실시예에 따르면 내부 시작값을 획득하는 단계가 수행될 수 있다(S100).According to one embodiment, the step of obtaining the internal start value may be performed (SlOO).
서브 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 회전 정보를 획득하는 착용형 디스플레이 동작 센서 모듈(430)로부터 착용형 디스플레이 장치(400)의 회전 정보를 획득할 수 있다.The sub computing device 300 may obtain rotation information of the wearable display device 400 from the wearable display motion sensor module 430 that obtains rotation information of the wearable display device 400. [
또한 서브 컴퓨팅 장치(300)는 획득한 회전 정보가 최초로 획득한 회전 정보인 경우 내부 시작값으로 설정할 수 있다. Further, the sub-computing device 300 may set the internal start value to the acquired initial rotation information if the acquired rotation information is the first acquired rotation information.
일 실시예에 따르면 내부 차이값을 획득하는 단계가 수행될 수 있다(S110).According to an embodiment, the step of obtaining the internal difference value may be performed (S110).
서브 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)의 회전 정보를 획득할 수 있다.The sub-computing device 300 can obtain rotation information of the wearable display device 400. [
여기서 서브 컴퓨팅 장치(300)가 획득하는 착용형 디스플레이 장치(400)의 회전 정보는 앞선 단계 S100에서 내부 시작값을 획득한 시점보다 이후 시점일 수 있다.Here, the rotation information of the wearable display device 400 acquired by the sub computing device 300 may be later than the time when the internal start value is obtained in the previous step S100.
또한 서브 컴퓨팅 장치(300)는 앞선 단계 S100에서 획득한 내부 시작값과 상기 내부 시작값을 획득한 시점보다 이전 시점에 대한 회전 정보에 기초하여 제1 차이값을 획득할 수 있다.In addition, the sub computing device 300 may acquire the first difference value based on the internal start value acquired in the previous step S100 and the rotation information about the time point before the time when the internal start value is acquired.
일 예로 서브 컴퓨팅 장치(300)는 제1 시점에서 획득한 내부 시작값과 상기 제1 시점보다 이후 시점인 제2 시점에서 획득한 회전 정보의 차이를 내부 차이값으로 획득할 수 있다.For example, the sub-computing device 300 may obtain the difference between the internal start value acquired at the first time point and the rotation information acquired at the second time point subsequent to the first time point, as the internal difference value.
서브 컴퓨팅 장치(300)는 내부 차이값을 각도값으로 변환할 수 있다.The sub-computing device 300 may convert the internal difference value to an angle value.
일 실시예에 따르면 외부 시작값을 획득하는 단계가 수행될 수 있다(S120).According to one embodiment, the step of obtaining the external start value may be performed (S120).
서브 컴퓨팅 장치(300)는 디텍팅 시스템(100)으로부터 착용형 디스플레이 장치(400)에 대한 디텍팅 정보를 획득할 수 있다.The sub-computing device 300 may obtain the detaching information for the wearable display device 400 from the detaching system 100. [
또한 서브 컴퓨팅 장치(300)는 획득한 디텍팅 정보가 최초로 획득한 디텍팅 정보인 경우 외부 시작값으로 설정할 수 있다. In addition, the sub computing device 300 may set the external starting value if the obtained detecting information is the detaching information acquired first.
일 실시예에 따르면 제2 차이값을 획득하는 단계가 수행될 수 있다(S130).According to one embodiment, the step of obtaining the second difference value may be performed (S130).
서브 컴퓨팅 장치(300)는 디텍팅 시스템(1000)으로부터 착용형 디스플레이 장치(400)에 대한 디텍팅 정보를 획득할 수 있다.The sub-computing device 300 may obtain the detaching information for the wearable display device 400 from the detaching system 1000. [
여기서 서브 컴퓨팅 장치(300)가 획득하는 착용형 디스플레이 장치(400)에 대한 디텍팅 정보는 앞선 단계 S120에서 외부 시작값을 획득한 시점보다 이후 시점일 수 있다.Here, the detaching information for the wearable display device 400 acquired by the sub computing device 300 may be later than the point at which the external start value is obtained in the previous step S120.
또한 서브 컴퓨팅 장치(300)는 앞선 단계 S120에서 획득한 외부 시작값과 상기 외부 시작값을 획득한 시점보다 이후 시점에서의 착용형 디스플레이 장치(400)에 대한 디텍팅 정보에 기초하여 외부 차이값을 획득할 수 있다.In addition, the sub-computing device 300 may calculate an external difference value based on the external start value acquired in the previous step S120 and the detec- tion information about the wearable display device 400 at a point later than the time when the external start value is acquired Can be obtained.
일 예로 서브 컴퓨팅 장치(300)는 제1 시점에서 획득한 외부 시작값과 상기 제1 시점보다 이후 시점인 제2 시점에서 획득한 디텍팅 정보의 차이를 외부 차이값으로 획득할 수 있다.For example, the sub-computing device 300 may obtain the difference between the external start value acquired at the first time point and the detec- tion information acquired at the second time point subsequent to the first time point, as an external difference value.
일 실시예에 따르면 내외부 차이값을 획득하는 단계가 수행될 수 있다(S140).According to an embodiment, the step of acquiring the inner and outer difference values may be performed (S140).
서브 컴퓨팅 장치(300)는 내부 시작값 및 외부 차이값간의 차이값인 내외부 차이값을 획득할 수 있다.The sub-computing device 300 may obtain an internal difference value that is a difference value between the internal start value and the external difference value.
일 실시예에 따르면 내외부 차이값을 보정하는 단계가 수행될 수 있다(S150).According to an embodiment, the step of correcting the internal and external difference values may be performed (S150).
서브 컴퓨팅 장치(300)는 필터를 이용하여 내외부 차이값을 보정할 수 있다.The sub-computing device 300 may use the filter to correct the inner and outer difference values.
일 예로 서브 컴퓨팅 장치(300)는 칼만 필터를 이용하여 내외부 차이값을 보정할 수 있다.For example, the sub-computing device 300 may calibrate the difference between inside and outside using a Kalman filter.
일 실시예에 따르면 최종 차이값을 획득하는 단계가 수행될 수 있다(S160).According to one embodiment, the step of obtaining the final difference value may be performed (S160).
서브 컴퓨팅 장치(300)는 외부 시작값 및 외부 차이값 간의 차이값인 최종 차이값을 획득할 수 있다.The sub-computing device 300 may obtain a final difference value that is a difference value between the external start value and the external difference value.
일 실시예예 따르면 최종 각도값을 획득하는 단계가 수행될 수 있다(S170).According to one embodiment, the step of obtaining the final angle value may be performed (S170).
서브 컴퓨팅 장치(300)는 각도값으로 변환된 내부 시작값 및 제4 차이값을 곱연산한 최종 각도값을 획득할 수 있다.The sub computing device 300 may obtain the final angle value obtained by multiplying the internal start value and the fourth difference value converted into the angle value.
도 12는 일 실시예에 따른 최종 각도값 획득을 나타내는 예시도이다.12 is an exemplary diagram illustrating final angular value acquisition according to one embodiment.
도 12를 참조하여 설명하면, 앞서 단계S110에서 설명한 바와 같이 서브 컴퓨팅 장치(300)는 내부 차이값을 각도값으로 변환할 수 있다.Referring to FIG. 12, the sub-computing device 300 may convert the internal difference value into the angle value as described in step S110.
일 실시예에 따른 각도값은 쿼터니언(Quaternion)일 수 있다.The angle value according to an embodiment may be a quaternion.
도 12에 도시된 바와 같이 쿼터니언은 X축값, Y축값, Z축값 및 각도값(W, O)을 포함할 수 있다.As shown in FIG. 12, the quaternion may include an X-axis value, a Y-axis value, a Z-axis value, and an angle value (W, O).
예를 들어 서브 컴퓨팅 장치(300)는 각도값으로 변환된 내부 시작값 DP1(X1, Y1, Z1, O)를 획득할 수 있으며 제4 차이값인 DP2(X2, Y2, Z2, O')를 획득할 수 있다.For example, the sub computing device 300 can acquire the internal start value DP1 (X1, Y1, Z1, O) converted to the angle value and calculate the fourth difference value DP2 (X2, Y2, Z2, O ') Can be obtained.
또한 서브 컴퓨팅 장치는 내부 시작값 DP1(X1, Y1, Z1, O) 및 제4 차이값 DP2(X2, Y2, Z2, O)를 곱 연산하여 최종 각도값을 획득할 수 있다.Also, the sub-computing device may multiply the internal start value DP1 (X1, Y1, Z1, O) and the fourth difference value DP2 (X2, Y2, Z2, O) to obtain the final angle value.
다시 도 11을 참조하여 설명하면 일 실시예에 따르면 최종 각도값에 기초하여 이미지를 제공하는 단계가 수행될 수 있다(S180).Referring again to FIG. 11, according to one embodiment, the step of providing an image based on the final angle value may be performed (S180).
서브 컴퓨팅 장치(300)는 최종 각도값에 대응하는 가상 시야를 획득할 수 있다.The sub-computing device 300 may obtain a virtual view corresponding to the final angle value.
또한 서브 컴퓨팅 장치(300)는 획득한 가상 시야에 대응하는 이미지를 획득할 수 있다.Further, the sub-computing device 300 may acquire an image corresponding to the obtained virtual field of view.
또한 서브 컴퓨팅 장치(300)는 획득한 이미지를 착용형 디스프레이 장치(400)로 제공할 수 있다.The sub-computing device 300 may also provide the acquired image to the wearable display device 400.
도 13은 일 실시예에 따른 디텍팅 장치 및 착용형 디스플레이 동작 센서 모듈의 회전 지연 정합에 따른 가상 이미지 획득을 나타내는 도면이다.FIG. 13 is a diagram illustrating virtual image acquisition according to rotation delay matching of a detaching device and a wearable display operation sensor module according to an exemplary embodiment.
도 13을 참조하여 설명하면 앞서 도 9를 참조하여 설명한 바와 플레이어의 동작에 의해 착용형 디스플레이 장치(400)의 회전이 발생하였을 때 디텍팅 장치(100)로부터 획득한 디텍팅 정보와 착용형 디스플레이 동작 센서 모듈(431)로부터 획득한 회전 정보는 서로 다른 지연을 갖게 되어 동일한 시점에 대한 회전이라도 서로 다른 시점에 디텍팅 정보와 회전 정보가 획득될 수 있다.Referring to FIG. 13, the detaching information obtained from the detaching device 100 when the rotation of the wearable display device 400 occurs due to the operation of the player as described above with reference to FIG. 9, The rotation information obtained from the sensor module 431 has different delays so that the detection information and the rotation information can be obtained at different points in time even if the rotation is performed at the same point in time.
따라서 서브 컴퓨팅 장치(300)는 제1 시점에 획득한 회전 정보와 제2 시점에 획득한 디텍팅 정보를 정합함으로써 회전 정보로 인해 오차가 발생한 회전 각도값을 제2 시점에 획득한 디텍팅 정보에 기초한 위치 정보로 정합할 수 있으며, 디텍팅 정보에 기초하여 획득한 위치 정보에 기초하여 가상 이미지를 획득할 수 있다.Accordingly, the sub-computing device 300 can obtain the rotation angle value at which the error occurs due to the rotation information at the second time point by matching the rotation information acquired at the first time point with the detection information acquired at the second time point It is possible to obtain a virtual image based on the acquired positional information based on the detected information.
도 14는 앞서 설명한 회전 지연 정합 방법에 따른 가상 이미지의 보정을 나타내는 예시도이다.FIG. 14 is an exemplary diagram showing correction of a virtual image according to the rotational delay matching method described above.
도 14를 참조하여 설명하면 착용형 디스플레이 동작 센서 모듈(431)로부터 획득한 회전 정보에 기초하여 착용형 디스플레이 장치(400)의 위치를 판단할 결과 획득한 가상 이미지에서 오브젝트는 제1 중심 위치(CP1)에 위치할 수 있다.Referring to FIG. 14, in the virtual image obtained as a result of determining the position of the wearable display device 400 based on the rotation information acquired from the wearable display motion sensor module 431, the object is moved to the first center position CP1 ). ≪ / RTI >
또한 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 기초하여 디스플레이 장치의 위치를 판단한 결과 획득한 가상 이미지에서 오브젝트는 제2 중심 위치(CP2)에 위치할 수 있다.Also, in the virtual image obtained as a result of determining the position of the display device based on the detection information obtained from the detecting device 100, the object may be located at the second center position CP2.
보조 컴퓨팅 장치(300)는 상술한 회전 지연 정합 방법을 통하여 착용형 디스플레이 장치(100)가 회전한 각도값을 획득할 수 있으며, 획득한 각도값에 기초하여 가상 이미지를 획득한 결과 오브젝트가 제2 중심 위치(CP2)에 위치한 가상 이미지를 획득할 수 있다.The auxiliary computing device 300 can acquire the angle value of the rotation of the wearable display device 100 through the rotation delay matching method described above and obtains the virtual image based on the obtained angle value, A virtual image located at the center position CP2 can be obtained.
도 15는 일 실시예에 따른 분할 공간 정합을 위한 시스템의 예시도이다.15 is an exemplary diagram of a system for subspace matching according to one embodiment.
도 15를 참조하면 분할 공간 정합을 위한 시스템은 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)가 제공될 수 있다.Referring to FIG. 15, a system for divided space matching may be provided with a first play space PA1 and a second play space PA2.
제1 플레이 공간(PA1)은 현실세계에서 제1 플레이어 그룹의 플레이어가 플레이하는 공간일 수 있다.The first play space PA1 may be a space in which players of the first player group play in the real world.
또한 제2 플레이 공간(PA2)은 현실세계에서 제2 플레이어 그룹의 플레이가 플레이하는 공간일 수 있다.Also, the second play space PA2 may be a space in which the play of the second player group is played in the real world.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 서로 동일한 면적으로 제공될 수 있으나 이에 한정되는 것은 아니며, 선택에 따라 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 서로 상이한 면적으로 제공될 수 있다.The first play space PA1 and the second play space PA2 may be provided in the same area but are not limited thereto and the first play space PA1 and the second play space PA2 may be provided in the same area, They can be provided in different areas.
또한 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 서로 분리되어 제공될 수 있다.Also, the first play space PA1 and the second play space PA2 may be provided separately from each other.
일 예로 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 서로 이격되어 독립적으로 제공될 수 있다.For example, the first play space PA1 and the second play space PA2 may be provided separately from each other.
또한 제1 플레이어 그룹에 포함된 플레이어(P)와 제2 플레이어 그룹에 포함된 플레이어(P)는 서로 상이할 수 있다.The player P included in the first player group and the player P included in the second player group may be different from each other.
일 예로 도 15에 도시된 바와 같이 제1 플레이 공간(PA1)에는 제1 플레이어 그룹에 포함된 제1 플레이어(P1) 및 제2 플레이어(P2)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어 그룹에 포함된 제3 플레이어(P3) 및 제4 플레이어(P4)가 플레이할 수 있다.For example, as shown in FIG. 15, the first player P1 and the second player P2 included in the first player group can play in the first play space PA1, The third player P3 and the fourth player P4 included in the second player group can play the game.
도 15에 도시된 환경은 설명의 편의를 위한 예시일 뿐 일 실시예에 따른 분할 공간 정합을 위한 시스템이 도 9로 한정되는 것은 아니며, 선택에 따라 다양한 형태로 제공될 수 있다.The environment shown in FIG. 15 is only an example for convenience of description. The system for subspace matching according to an embodiment is not limited to FIG. 9, but may be provided in various forms according to an option.
일 예로 도 15에는 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)가 제공되는 것으로 도시되어 있으나 이에 한정되는 것은 아니며, 선택에 따라 보다 많은 플레이 공간(PA)이 제공될 수 있다.For example, although the first play space PA1 and the second play space PA2 are shown in FIG. 15, the present invention is not limited thereto, and more play spaces PA may be provided as an option.
또한 도 15에는 하나의 플레이 공간(PA)에 두명의 플레이어가 플레이하는 것으로 도시하였으나, 이에 한정되는 것은 아니며, 선택에 따라 보다 적거나 많은 수의 플레이어가 하나의 플레이 공간(PA)에서 플레이할 수 있다.Although FIG. 15 shows that two players play in one play space PA, the present invention is not limited thereto. It is also possible to select a smaller number of players to play in one play space PA have.
제1 플레이 공간(PA1)에서 플레이하는 플레이어(P) 및 제2 플레이 공간(PA2)에서 플레이하는 플레이어(P) 각각에는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)가 제공될 수 있다.Each of the player P playing in the first play space PA1 and the player P playing in the second play space PA2 is provided with the auxiliary computing device 300, the wearable display device 400, and the input device 500 ) May be provided.
일 예로 도 15에 도시된 바와 같이 제1 플레이어(P1)에게는 제1-1보조 컴퓨팅 장치(300a), 제1-1 착용형 디스플레이 장치(400a) 및 제1-1 입력 장치(500a)가 제공될 수 있다. 또한 도 10에 도시된 바와 같이 제2 플레이어(P2)에게는 제1-2보조 컴퓨팅 장치(300a'), 제1-2 착용형 디스플레이 장치(400a') 및 제1-2 입력 장치(500a')가 제공될 수 있다.For example, as shown in FIG. 15, the first player P1 is provided with a 1-1 second auxiliary computing device 300a, a 1-1 wearable display device 400a, and a 1-1 input device 500a . As shown in FIG. 10, the second player P2 is provided with a first 1-2 auxiliary computing device 300a ', a first 1-2 wearable display device 400a' and a first 1-2 input device 500a ' May be provided.
또한 제2 플레이 공간(PA2)에서 플레이하는 제3플레이어(P3) 및 제4 플레이어(P4) 각각에는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)가 제공될 수 있다.Further, in each of the third player P3 and the fourth player P4 playing in the second play space PA2, the auxiliary computing device 300, the wearable display device 400 and the input device 500 may be provided have.
일 예로 도 15에 도시된 바와 같이 제3 플레이어(P3)에게는 제2-1보조 컴퓨팅 장치(300b), 제2-1 착용형 디스플레이 장치(400b) 및 제2-1 입력 장치(500b)가 제공될 수 있다. 또한 도 10에 도시된 바와 같이 제4 플레이어(P4)에게는 제2-2보조 컴퓨팅 장치(300b'), 제2-2 착용형 디스플레이 장치(4002') 및 제2-2 입력 장치(500b')가 제공될 수 있다.For example, as shown in FIG. 15, a second-1 auxiliary computing device 300b, a second-1 wearing-in display device 400b, and a second-1 input device 500b are provided to the third player P3 . 10, the second-second auxiliary computing device 300b ', the second-second wearing display device 4002', and the second-second input device 500b 'are connected to the fourth player P4, May be provided.
또한 플레이어(P) 각각에게 제공되는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나에는 마커(M)가 제공될 수 있다.Also, at least one of the auxiliary computing device 300, the wearable display device 400, and the input device 500 provided for each of the players P may be provided with a marker M. [
일 예로 플레이어(P) 각각에게 제공되는 착용형 디스플레이 장치(400)에는 마커(M)가 제공될 수 있다.The wearable display device 400 provided to each player P as an example may be provided with a marker M. [
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2) 각각에는 적어도 하나의 디텍팅 장치(100)가 제공될 수 있다.At least one detaching device 100 may be provided in each of the first play space PA1 and the second play space PA2.
일 예로 도 15에 도시된 바와 같이 제1 플레이 공간(PA1)에는 제1 디텍팅 장치(100a)가 제공될 수 있으며, 제2 플레이 공간(PA1)에는 제2 디텍팅 장치(100b)가 제공될 수 있다. 제1 디텍팅 장치(100a)는 제1 플레이 공간(PA1)에 제공되는 디텍팅 장치(100)일 수 있으며, 제2 디텍팅 장치(100b)는 제2 플레이 공간(PA2)에 제공되는 디텍팅 장치(100)일 수 있다.For example, as shown in FIG. 15, a first detaching device 100a may be provided in the first play space PA1, and a second detaching device 100b may be provided in the second play space PA1 . The first detecting device 100a may be a detecting device 100 provided in the first play space PA1 and the second detecting device 100b may be a detaching device 100 provided in the second play space PA2. Device 100 as shown in FIG.
제1 플레이 공간(PA1)에 제공되는 제1 디텍팅 장치(100a)는 제1 플레이 공간(PA1)에 위치한 대상체에 대한 디텍팅 정보를 획득할 수 있다.The first detaching device 100a provided in the first play space PA1 may obtain detec- tion information on the object located in the first play space PA1.
일 예로 제1 디텍팅 장치(100a)는 제1 플레이 공간(PA1)에 위치한 제1 플레이어(P1)에게 제공되는 제1-1보조 컴퓨팅 장치(300a), 제1-1 착용형 디스플레이 장치(400a), 제1-1 입력 장치(500a), 제2 플레이어(P2)에게 제공되는 제1-2보조 컴퓨팅 장치(300a'), 제1-2 착용형 디스플레이 장치(400a') 및 제1-2 입력 장치(500a') 중 어느하나에 제공되는 마커에 대한 디텍팅 정보를 획득할 수 있다.For example, the first detection device 100a includes a first-second auxiliary computing device 300a provided to a first player P1 located in a first play space PA1, a first-second auxiliary computing device 300a provided to a first- The first 1-2 input device 500a, the 1-2 second auxiliary computing device 300a ', the 1-2 worn display device 400a', and the 1-2th auxiliary computing device 300a 'provided to the second player P2, It is possible to obtain the detection information on the marker provided to any one of the input devices 500a '.
또한 제2 플레이 공간(PA2)에 제공되는 제2 디텍팅 장치(100b)는 제2 플레이 공간(PA2)에 위치한 대상체에 대한 디텍팅 정보를 획득할 수 있다.Also, the second detaching device 100b provided in the second play space PA2 may obtain detec- tion information on the object located in the second play space PA2.
일 예로 제2 디텍팅 장치(100b)는 제2 플레이 공간(PA2)에 위치한 제3 플레이어(P3)에게 제공되는 제2-1보조 컴퓨팅 장치(300b), 제2-1 착용형 디스플레이 장치(400b), 제2-1 입력 장치(500b), 제4 플레이어(P2)에게 제공되는 제2-2보조 컴퓨팅 장치(300b'), 제2-2 착용형 디스플레이 장치(400b') 및 제2-2 입력 장치(500b') 중 어느하나에 제공되는 마커에 대한 디텍팅 정보를 획득할 수 있다.For example, the second detecting device 100b may include a second-1 auxiliary computing device 300b, a second-1 wearing-in display device 400b provided to a third player P3 located in the second play space PA2, 2-2 auxiliary computing device 300b 'provided to the 4th player P2, the 2-2 wearing display device 400b' and the 2-2 auxiliary computing device 300b 'provided to the 4th player P2, It is possible to obtain the detec- tion information on the marker provided to any one of the input devices 500b '.
또한 제1 디텍팅 장치(100a) 및 제2 디텍팅 장치(100b)는 복수로 제공될 수 있다.Also, the first detection device 100a and the second detection device 100b may be provided in plural.
일 예로 제1 플레이 공간(PA1)에 복수의 제1 디텍팅 장치(100a)가 제공될 수 있다. For example, a plurality of first detaching devices 100a may be provided in the first play space PA1.
또한 제2 플레이 공간(PA2)에 복수의 제2 디텍팅 장치(100b)가 제공될 수 있다.A plurality of second detaching devices 100b may be provided in the second play space PA2.
제1 플레이 공간(PA1)에 제공되는 제1 디텍팅 장치(100a) 및 제2 플레이 공간(PA2)에는 동일한 수의 디텍팅 장치(1000a)가 제공될 수 있으나 이에 한정되는 것은 아니며, 선택에 따라 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)에는 서로 상이한 수의 디텍팅 장치(100)가 제공될 수 있다.The same number of detaching devices 1000a may be provided in the first detaching device 100a and the second playing space PA2 provided in the first play space PA1 but the present invention is not limited thereto, A different number of detaching devices 100 may be provided in the first play space PA1 and the second play space PA2.
제1 디텍팅 장치(100)는 제1 플레이 공간(PA1)에 대한 제1 디텍팅 신호를 획득할 수 있다.The first detection device 100 may acquire a first detection signal for the first play space PA1.
일 예로 제1 디텍팅 시스템(100a)에 포함된 센싱부(120)는 제1 플레이 공간(PA1)에 대한 디텍팅 신호를 획득할 수 있다.For example, the sensing unit 120 included in the first detection system 100a may acquire a detaching signal for the first play space PA1.
제1 디텍팅 장치(100a)는 제1 디텍팅 신호를 서버(200)에 제공할 수 있다.The first detection device 100a may provide the first detection signal to the server 200. [
일 예로 제1 디텍팅 장치(100a)는 제1 디텍팅 장치(100a)에 포함된 센싱부(120)가 획득한 제1 플레이 공간(PA1)에 대한 제1 디텍팅 장보를 서버(200)에 제공할 수 있다.For example, the first detecting device 100a may detect a first detecting information about the first playing space PA1 acquired by the sensing unit 120 included in the first detecting device 100a, .
서버(200)는 제1 디텍팅 정보에 기초하여 제1 플레이 공간(PA1)에서의 대상체의 현실 위치 정보를 획득할 수 있다.The server 200 may obtain the real position information of the object in the first play space PA1 based on the first detection information.
도 15에 도시된 바와 같이 제1 플레이 공간(PA1)에 복수의 디텍팅 장치(100)가 제공되는 경우 서버(200)는 복수의 디텍팅 장치(100)로부터 제1 디텍팅 신호를 획득할 수 있으며, 획득한 디텍팅 신호들에 기초하여 제1 디텍팅 정보를 획득할 수 있다.15, when a plurality of detaching devices 100 are provided in the first play space PA1, the server 200 may acquire a first detaching signal from the plurality of detaching devices 100 And can acquire the first detection information based on the obtained detection signals.
제2 플레이 공간(PA2)에는 제2 디텍팅 장치(100b)가 제공될 수 있다.A second detaching device 100b may be provided in the second play space PA2.
제2 디텍팅 장치(100b)은 제2 플레이 공간(PA2)에 대한 제2 디텍팅 정보를 획득할 수 있다.The second detecting device 100b may obtain the second detecting information for the second play space PA2.
일 예로 제2 디텍팅 장치(100b)에 포함된 센싱부(120)는 제2 플레이 공간(PA2)에 대한 제2 디텍팅 정보를 획득할 수 있다.For example, the sensing unit 120 included in the second detection device 100b may acquire second detection information on the second play space PA2.
제2 디텍팅 장치(100b)는 제2 플레이 공간(PA2)에 대한 디텍팅 정보를 서버(200)에 제공할 수 있다.The second detaching apparatus 100b may provide the server 200 with detec- tion information for the second play space PA2.
서버(200)는 제1 디텍팅 정보 및 제2 디텍팅 정보를 식별할 수 있다.The server 200 may identify the first detection information and the second detection information.
서버(200)는 제1 디텍팅 장치(100a)에 포함된 발광부(110), 센싱부(120), 마커(M) 및 대상체 별 마커(M)의 패턴를 미리 저장할 수 있다.The server 200 may store in advance the pattern of the light emitting unit 110, the sensing unit 120, the marker M, and the marker M for each object included in the first detecting apparatus 100a.
일 예로 서버(200)는 제1 디텍팅 장치(100a)에 포함된 센싱부(120) 및 제2 디텍팅 장치(100b)에 포함된 센싱부(120)에 대한 식별 정보를 서버 저장부(220)에 미리 저장할 수 있다. For example, the server 200 transmits identification information about the sensing unit 120 included in the sensing unit 120 included in the first sensing device 100a and the sensing unit 120 included in the second sensing device 100b to the server storage unit 220 ) In advance.
서버(200)는 제1 디텍팅 장치(100a)에 포함된 센싱부(120)로부터 획득한 디텍팅 정보를 제1 디텍팅 정보로 획득할 수 있으며, 제2 디텍팅 시스템(100a)에 포함된 센싱부(120)로부터 획득한 디텍팅 정보를 제2 디텍팅 정보로 획득할 수 있다.The server 200 may acquire the detection information obtained from the sensing unit 120 included in the first detection apparatus 100a as the first detection information and the second detection information included in the second detection system 100a And the detection information obtained from the sensing unit 120 may be acquired as the second detection information.
일 예로 서버(200)는 서버 통신부(210)를 통하여 서버(200)와 연결된 디텍팅 장치(100) 중 제1 플레이 공간(PA1)에 설치된 디텍팅 장치(100)를 제1 디텍팅 장치(100a)로 설정하는 사용자의 설정을 서버 입력부(230)를 통하여 획득할 수 있으며, 제1 디텍팅 장치(100a)로부터 획득한 디텍팅 신호에 기초하여 제1 디텍팅 정보를 획득할 수 있다.For example, the server 200 connects the detaching apparatus 100 installed in the first play space PA1 of the detaching apparatus 100 connected to the server 200 through the server communication unit 210 to the first detaching apparatus 100a Can be obtained through the server input unit 230 and the first detection information can be obtained based on the detection signal obtained from the first detection device 100a.
서버(200)는 제1 디텍팅 정보 및 제2 디텍팅 정보에 기초하여 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2) 중 어느 하나의 플레이 공간(PA)에서 플레이하는 플레이어들의 현실 세계에서의 현실 위치 정보(RP)를 획득할 수 있다.The server 200 determines whether or not the player is playing in a play space PA of either the first play space PA1 or the second play space PA2 based on the first detection information and the second detection information It is possible to obtain the real positional information RP at the position.
일 예로 서버(200)는 제1 디텍팅 정보에 기초하여 제1 플레이 공간(PA1)에서의 제1 플레이어(P1) 및 제2 플레이어(P2)의 현실 위치 정보를 획득할 수 있다. 또한 서버(200)는 제2 디텍팅 정보에 기초하여 제2 플레이 공간(PA2)에서의 제3 플레이어(P3) 및 제4 플레이어(P4)의 위치 정보를 획득할 수 있다.For example, the server 200 may obtain the real position information of the first player P1 and the second player P2 in the first play space PA1 based on the first detection information. The server 200 may also acquire positional information of the third player P3 and the fourth player P4 in the second play space PA2 based on the second detection information.
또한 서버(200)는 플레이들의 현실 세계에서의 현실 위치 정보(RP)에 기초하여 플레이어에 대응하는 캐릭터(C)의 가상 위치 정보(VP)를 획득할 수 있다.In addition, the server 200 can acquire the virtual position information VP of the character C corresponding to the player based on the real position information RP in the real world of the plays.
일 예로 서버(200)는 플레이들의 현실 세계에서의 현실 위치 정보(RP)에 포함된 좌표에 대응하는 가상 현실에서의 좌표를 캐릭터(C)의 가상 위치 정보(VP)로 획득할 수 있다.For example, the server 200 may acquire the coordinates in the virtual reality corresponding to the coordinates included in the real position information RP in the real world of the play, as the virtual position information VP of the character C.
서버(200)는 현실 위치 정보(RP) 및 가상 위치 정보(VP) 중 적어도 하나를 보조 컴퓨팅 장치(300)로 제공할 수 있다.The server 200 may provide at least one of the real location information RP and the virtual location information VP to the auxiliary computing device 300. [
보조 컴퓨팅 장치(300)는 현실 위치 정보(RP)에 기초하여 가상 위치 정보(VP)를 획득할 수 있다.The auxiliary computing device 300 can acquire the virtual position information VP based on the real position information RP.
또한 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 이미지를 획득할 수 있다.The secondary computing device 300 may also obtain a virtual image based on the virtual location information VP.
일 예로 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 환경에서의 캐릭터(C)의 위치인 가상 위치 정보를 획득할 수 있다. 또는 보조 컴퓨팅 장치(300)는 가상 위치 정보(VP)에 기초하여 가상 환경에서의 가상 카메라의 위치인 가상 위치 정보를 획득할 수 있다.For example, the auxiliary computing device 300 may obtain virtual position information, which is the position of the character C in the virtual environment, based on the virtual position information VP. Or the auxiliary computing device 300 may acquire virtual position information which is the position of the virtual camera in the virtual environment based on the virtual position information VP.
보조 컴퓨팅 장치(300)는 가상 위치 정보에 포함된 가상 위치 정보 및 가상 지향 방향에 기초하여 가상 이미지 영역을 획득할 수 있다.The auxiliary computing device 300 may acquire the virtual image area based on the virtual location information and the virtual direction direction included in the virtual location information.
보조 컴퓨팅 장치(300)는 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.The secondary computing device 300 may obtain a virtual image for the virtual image region.
보조 컴퓨팅 장치(300)는 가상 환경에서 가상 이미지 영역에 대한 가상 이미지를 획득할 수 있다.The secondary computing device 300 may obtain a virtual image for a virtual image area in a virtual environment.
보조 컴퓨팅 장치(300)는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.The secondary computing device 300 may provide the virtual image to the wearable display device 400. [
착용형 디스플레이 장치(400)는 가상 이미지를 사용자에게 출력할 수 있다.The wearable display device 400 can output a virtual image to the user.
또한 관람용 디스플레이 장치(700)로 가상 이미지를 제공할 수 있다.In addition, a virtual image can be provided by the viewing display device 700. [
도 16은 일 실시예에 따른 분할 공간 정합을 위한 다른 시스템의 예시도이다.16 is an illustration of another system for subspace matching according to one embodiment.
도 16에 도시된 다른 시스템은 앞서 도 15를 참조하여 설명된 시스템에서 각각의 디텍팅 장치(100)가 서로 다른 서버(200)에 연결되어 제공되는 것일 수 있다.The other system shown in FIG. 16 may be one in which each detaching device 100 in the system described above with reference to FIG. 15 is provided in connection with a different server 200.
일 예로, 서로 다른 지역에 위치한 플레이 공간(PA)에서 플레이하는 플레이어들에게 서버(200)간의 네트워크를 통하여 하나의 가상 환경을 제공하기 위한 시스템일 수 있다.For example, it may be a system for providing a virtual environment through a network between servers 200 to players playing in a play space PA located in different areas.
도 16을 참조하면 분할 공간 정합을 위한 다른 시스템에는 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)가 제공될 수 있다.Referring to FIG. 16, another system for divided space matching may be provided with a first play space PA1 and a second play space PA2.
또한 제1 플레이 공간(PA1)에는 제1 플레이어 그룹에 포함된 제1 플레이어(P1) 및 제2 플레이어(P2)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어 그룹에 포함된 제3 플레이어(P3) 및 제4 플레이어(P4)가 플레이할 수 있다.In addition, the first player P1 and the second player P2 included in the first player group can play in the first play space PA1 and the first player P1 and the second player P2 included in the second player group can play in the first play space PA1. The third player P3 and the fourth player P4 can play the game.
제1 플레이 공간(PA1)에서 플레이하는 플레이어(P) 및 제2 플레이 공간(PA2)에서 플레이하는 플레이어(P) 각각에는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)가 제공될 수 있다.Each of the player P playing in the first play space PA1 and the player P playing in the second play space PA2 is provided with the auxiliary computing device 300, the wearable display device 400, and the input device 500 ) May be provided.
일 예로 도 16에 도시된 바와 같이 제1 플레이어(P1)에게는 제1-1보조 컴퓨팅 장치(300a), 제1-1 착용형 디스플레이 장치(400a) 및 제1-1 입력 장치(500a)가 제공될 수 있다. 또한 도 16에 도시된 바와 같이 제2 플레이어(P2)에게는 제1-2보조 컴퓨팅 장치(300a'), 제1-2 착용형 디스플레이 장치(400a') 및 제1-2 입력 장치(500a')가 제공될 수 있다.For example, as shown in FIG. 16, the first player P1 is provided with a 1-1 second auxiliary computing device 300a, a 1-1 wearable display device 400a, and a 1-1 input device 500a . As shown in FIG. 16, the second player P2 is connected to the first 1-2 secondary computing device 300a ', the 1-2 wearable display device 400a' and the 1-2 input device 500a ' May be provided.
또한 제2 플레이 공간(PA2)에서 플레이하는 제3플레이어(P3) 및 제4 플레이어(P4) 각각에는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500)가 제공될 수 있다.Further, in each of the third player P3 and the fourth player P4 playing in the second play space PA2, the auxiliary computing device 300, the wearable display device 400 and the input device 500 may be provided have.
일 예로 도 16에 도시된 바와 같이 제3 플레이어(P3)에게는 제2-1보조 컴퓨팅 장치(300b), 제2-1 착용형 디스플레이 장치(400b) 및 제2-1 입력 장치(500b)가 제공될 수 있다. 또한 도 16에 도시된 바와 같이 제4 플레이어(P4)에게는 제2-2보조 컴퓨팅 장치(300b'), 제2-2 착용형 디스플레이 장치(4002') 및 제2-2 입력 장치(500b')가 제공될 수 있다.For example, as shown in FIG. 16, the second-first auxiliary computing device 300b, the second-first wearing display device 400b, and the second-first input device 500b are provided to the third player P3 . 16, the second-second auxiliary computing device 300b ', the second-second wearing display device 4002', and the second-second input device 500b 'are connected to the fourth player P4, May be provided.
또한 플레이어(P) 각각에게 제공되는 보조 컴퓨팅 장치(300), 착용형 디스플레이 장치(400) 및 입력 장치(500) 중 적어도 하나에는 마커(M)가 제공될 수 있다.Also, at least one of the auxiliary computing device 300, the wearable display device 400, and the input device 500 provided for each of the players P may be provided with a marker M. [
일 예로 플레이어(P) 각각에게 제공되는 착용형 디스플레이 장치(400)에는 마커(M)가 제공될 수 있다.The wearable display device 400 provided to each player P as an example may be provided with a marker M. [
제1 플레이 공간(PA1)에는 제1 디텍팅 장치(100a)가 제공될 수 있다.A first detaching device 100a may be provided in the first play space PA1.
제1 디텍팅 장치(100a)는 제1 플레이 공간(PA1)에 대한 제1 디텍팅 정보를 획득할 수 있다.The first detecting device 100a may obtain the first detecting information for the first play space PA1.
제1 디텍팅 장치(100a)는 제1 디텍팅 정보를 제1 서버(200a)에 제공할 수 있다.The first detection device 100a may provide the first detection information to the first server 200a.
제2 플레이 공간(PA2)에는 제2 디텍팅 시스템(100b)이 제공될 수 있다.A second detaching system 100b may be provided in the second play space PA2.
제2 디텍팅 시스템(100b)은 제2 플레이 공간(PA2)에 대한 제2 디텍팅 정보를 획득할 수 있다.The second detection system 100b may obtain the second detection information for the second play space PA2.
제2 디텍팅 시스템(100b)은 제2 디텍팅 정보를 제2 서버(200b)에 제공할 수 있다.The second detection system 100b may provide the second detection information to the second server 200b.
제1 서버(200a) 및 제2 서버(200b)는 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어 그룹에 포함된 플레이어들에 대한 디텍팅 정보 및 제2 서버(200b)는 제1 서버(200a)로 제2 플레이 공간(PA2)에서 플레이하는 제2 플레이어 그룹에 포함된 플레이어들에 대한 디텍팅 정보를 획득할 수 있다.The first server 200a and the second server 200b are connected to the first server 200a through the first server 200a and the second server 200b, 200a in the second play space PA2 to obtain detec- tion information for the players included in the second player group.
제1 서버(200a)는 제2 서버(200b)로 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어 그룹에 포함된 플레이어들에 대한 디텍팅 정보를 제공할 수 있다.The first server 200a may provide the second server 200b with detaching information for the players included in the first player group playing in the first play space PA1.
제2 서버(200b)는 제1 서버(200a)로 제2 플레이 공간(PA2)에서 플레이하는 제2 플레이어 그룹에 포함된 플레이어들에 대한 디텍팅 정보를 제공할 수 있다.The second server 200b may provide the first server 200a with detec- tion information for the players included in the second player group that is played in the second play space PA2.
제1 서버(200a)는 제1 플레이어 그룹의 플레이어들이 착용한 보조 컴퓨팅 장치(300)들에 제1 플레이어 그룹 및 제2 플레이어 그룹의 플레이어들에 대한 디텍팅 정보를 제공할 수 있다.The first server 200a may provide detec- tion information for the first player group and the players of the second player group to the auxiliary computing devices 300 worn by the players of the first player group.
제2 서버(200b)는 제2 플레이어 그룹의 플레이어들이 착용한 보조 컴퓨팅 장치(300)들에 제1 플레이어 그룹 및 제2 플레이어 그룹의 플레이어들에 대한 디텍팅 정보를 제공할 수 있다.The second server 200b may provide detaching information for the players of the first player group and the second player group to the auxiliary computing devices 300 worn by the players of the second player group.
제1 플레이어 그룹 및 제2 플레이어 그룹에 포함된 플레이어가 착용한 보조 컴퓨팅 장치(300)는 획득한 제1 플레이어 그룹 및 제2 플레이어 그룹의 플레이어에 대한 디텍팅 정보에 기초하여 보조 컴퓨팅 장치(300)와 연결된 착용형 디스플레이 장치(400)로 가상 환경에 대한 이미지를 제공할 수 있다.The auxiliary computing device 300 worn by the player included in the first player group and the second player group is not able to receive the auxiliary computing device 300 based on the acquired detection information for the players of the first player group and the second player group, The wearable display device 400 coupled to the display device 400 may provide an image of the virtual environment.
도 17은 일 실시예에 따른 분할 공간 정합을 나타내는 예시도이다.17 is an exemplary diagram illustrating a subspace matching according to an embodiment.
도 17을 참조하면 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)이 제공될 수 있다.Referring to FIG. 17, a first play space PA1 and a second play space PA2 may be provided.
또한 제1 플레이 공간(PA1)에는 제1 플레이어 그룹이 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어 그룹이 플레이할 수 있다.Also, the first player group can play in the first play space PA1, and the second player group can play in the second play space PA2.
일 예로 제1 플레이 공간(PA1)에는 제1 플레이어(P1) 및 제2 플레이어(P2)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제3 플레이어(P3) 및 제4 플레이어(P4)가 플레이할 수 있다.For example, the first player P1 and the second player P2 can play in the first play space PA1, the third player P3 and the fourth player P4 can play in the second play space PA2, Can play.
가상 환경에는 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1) 및 제2 플레이어(P2), 제2 플레이 공간(PA2)에서 플레이하는 제3 플레이어(P3) 및 제4 플레이어(P4)에 대응하는 캐릭터가 제공될 수 있다.The virtual environment includes a first player P1 and a second player P2 playing in the first play space PA1, a third player P3 and a fourth player P4 playing in the second play space PA2, A character corresponding to the character can be provided.
가상 환경(VW)에서 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)는 제1 플레이 공간(PA1)에서의 제1 플레이어(P1)의 위치에 대응되는 가상 위치에 제공될 수 있다.The first character C1 corresponding to the first player P1 in the virtual environment VW may be provided at a virtual position corresponding to the position of the first player P1 in the first play space PA1.
도 17을 참조하여 설명하면 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1)의 현실 위치 정보가 PA1(Xa, Ya, Za)일 때 가상 환경(VW)에서 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)는 가상 환경(VW)의 (Xc, Yc, Zc)에 제공될 수 있다.Referring to FIG. 17, when the first player P1 playing in the first play space PA1 is PA1 (Xa, Ya, Za), the first player P1 in the virtual environment VW, The first character C1 corresponding to the virtual environment VW may be provided at (Xc, Yc, Zc) in the virtual environment VW.
또한 제2 플레이 공간(PA2)에서 플레이하는 제2 플레이어(P2)의 현실 위치 정보가 (Xb, Yb, Zb)일 때 가상 환경(VW)에서 제2 플레이어(P2)에 대응하는 제2 캐릭터(C2)는 가상 환경(VW)의 (Xd, Yd, Zd)에 제공될 수 있다.The second character P2 corresponding to the second player P2 in the virtual environment VW when the actual position information of the second player P2 playing in the second play space PA2 is (Xb, Yb, Zb) C2 may be provided to (Xd, Yd, Zd) of the virtual environment VW.
또한 가상환경에서 제1 플레이 공간(PA1)에서 플레이하는 플레이어에 대응하는 캐릭터가 제공되는 가상 영역과 제2 플레이 공간(PA2)에서 플레이하는 플레이어에 대응하는 캐릭터가 제공되는 가상 영역은 서로 구분되어 제공될 수 있다.In addition, in the virtual environment, the virtual area provided with the character corresponding to the player playing in the first play space PA1 and the virtual area provided with the character corresponding to the player playing in the second play space PA2 are separately provided .
도 17을 참조하여 설명하면 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1)의 현실 위치 정보가 PA1(Xa, Ya, Za)일 때 가상 환경(VW)에서 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)는 제1 가상 영역(VA1)의 VA1(Xc, Yc, Zc)에 제공될 수 있다.Referring to FIG. 17, when the first player P1 playing in the first play space PA1 is PA1 (Xa, Ya, Za), the first player P1 in the virtual environment VW, The first character C1 corresponding to the first virtual area VA1 may be provided to VA1 (Xc, Yc, Zc) of the first virtual area VA1.
또한 제2 플레이 공간(PA2)에서 플레이하는 제2 플레이어(P2)의 현실 위치 정보가 PA2(Xb, Yb, Zb)일 때 가상 환경(VW)에서 제2 플레이어(P2)에 대응하는 제2 캐릭터(C2)는 제2 가상 영역(VA2)의 VA2(Xd, Yd, Zd)에 제공될 수 있다.The second character P2 corresponding to the second player P2 in the virtual environment VW when the actual position information of the second player P2 playing in the second play space PA2 is PA2 (Xb, Yb, Zb) (C2) may be provided to VA2 (Xd, Yd, Zd) in the second virtual area VA2.
보조 컴퓨팅 장치(300)는 가상환경에서의 캐릭터의 위치에 기초하여 플레이어 별로 가상 카메라 위치를 획득할 수 있다,The secondary computing device 300 may obtain a virtual camera position for each player based on the location of the character in the virtual environment,
일 예로 보조 컴퓨팅 장치(300)는 제1 캐릭터의 위치에 기초하여 제1 플레이어의 가상 카메라 위치를 획득할 수 있다.As an example, the secondary computing device 300 may obtain the virtual camera position of the first player based on the position of the first character.
또한 보조 컴퓨팅 장치(300)는 가상 카메라의 위치에 기초하여 가상 이미지를 획득할 수 있다.The secondary computing device 300 may also obtain a virtual image based on the location of the virtual camera.
일 예로 보조 컴퓨팅 장치(300)는 제1 플레이어의 가상 카메라 위치에 기초하여 제1 플레이어에게 제공할 시야를 획득할 수 있으며, 가상 환경에서 제1 플레이어의 시야에 대응하는 영역을 제1 플레이어에게 제공할 가상 이미지로 획득할 수 있다.As an example, the secondary computing device 300 may obtain a view to provide to the first player based on the virtual camera position of the first player, and may provide an area corresponding to the field of view of the first player to the first player in the virtual environment You can acquire a virtual image to do.
도 18은 일 실시예에 따른 분한 공간 정합에서 거리 관계를 나타내는 예시도이다.18 is an exemplary view showing a distance relationship in the divided space matching according to an embodiment.
도 18을 참조하면 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)이 제공될 수 있다.Referring to FIG. 18, a first play space PA1 and a second play space PA2 may be provided.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 독립적으로 제공될 수 있다.The first play space PA1 and the second play space PA2 may be provided independently.
일 예로 도 18에 도시된 바와 같이 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 미리 정해진 거리만큼 이격되어 제공될 수 있다.For example, as shown in FIG. 18, the first play space PA1 and the second play space PA2 may be provided at predetermined distances.
또한 제1 플레이 공간(PA1)에는 제1 플레이어(P1)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 플레이할 수 있다.Also, the first player P1 can play in the first play space PA1, and the second player P2 can play in the second play space PA2.
또한 가상 환경(VW)에는 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1) 및 제2 플레이어(P2)에 대응하는 제2 캐릭터(C2)가 제공될 수 있다.In the virtual environment VW, the first character C1 corresponding to the first player P1 and the second character C2 corresponding to the second player P2 may be provided.
현실 세계에서 제1 플레이어(P1)와 제2 플레이어(P2)간의 현실 거리(RD)와 가상 환경에서의 제1 캐릭터(C1)와 제2 캐릭터(C2)와의 가상 거리(VD)는 서로 상이할 수 있다.The actual distance RD between the first player P1 and the second player P2 in the real world and the virtual distance VD between the first character C1 and the second character C2 in the virtual environment are different from each other .
일 예로 제1 플레이어(P1)의 현실 세계에서의 좌표가 (1,1,1)이고, 제2 플레이어(P2)의 현실 세계에서의 좌표가(1, 11,1)로 제2 플레이어(P2)가 제1 플레이어(P1)으로부터 Y축으로 10만큼 이격되어 위치한 경우 가상 환경에서 제1 캐릭터(C1)의 좌표는 (1,1,1)로 제공되고, 제2 캐릭터(C2)의 좌표는 (1, 5,1)로 제공되어 가상 환경에서는 제1 캐릭터(C1)와 제2 캐릭터(C2)가 Y축으로 5만큼 이격되어 제공됨으로써 제1 플레이어(P1)와 제2 플레이어(P2)간의 현실 거리(RD)와 가상 환경에서의 제1 캐릭터(C1)와 제2 캐릭터(C2)와의 가상 거리(VD)는 서로 상이하게 제공될 수 있다.For example, assuming that the coordinates of the first player P1 in the real world are (1, 1, 1) and the coordinates of the second player P2 in the real world are (1, 11, 1) Is located at a distance of 10 from the first player P1 in the Y axis, the coordinates of the first character C1 are provided as (1,1,1) in the virtual environment, and the coordinates of the second character C2 are (1, 5, 1). In the virtual environment, the first character (C1) and the second character (C2) are spaced apart from each other by 5 in the Y axis, The virtual distance VD between the real distance RD and the first character C1 and the second character C2 in the virtual environment can be provided differently from each other.
따라서, 착용형 디스플레이 장치(400)를 통하여 제1 플레이어에게 출력되는 가상 이미지에서 제1 플레이어가 바라보는 제2 캐릭터(C2)와의 거리는 현실 세계에서 제1 플레이어(P1)와 제2 플레이어(P2)간의 거리와 상이할 수 있다.Therefore, the distance between the first character and the second character C2 viewed by the first player in the virtual image output to the first player through the wearable display device 400 is determined by the distance between the first player P1 and the second player P2 in the real world, Lt; / RTI >
일 예로 현실 세계에서의 제1 플레이어(P1)과 제2 플레이어(P2)가 Y축으로 10만큼 이격되어 위치한 경우 착용형 디스플레이 장치(400)를 통하여 제공되는 가상 이미지에서 제2 캐릭터(C2)는 Y축으로 5만큼 이격되어 제공될 수 있다.For example, when the first player P1 and the second player P2 in the real world are spaced apart by 10 in the Y axis, the second character C2 in the virtual image provided through the wearable display device 400 And may be provided spaced apart by 5 on the Y axis.
도 19는 일 실시예에 따른 분할 공간 정합에서 시야의 정합을 나타내는 예시도이다.FIG. 19 is an exemplary view showing the matching of the field of view in the subspace matching according to an embodiment. FIG.
도 19를 참조하면 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)이 제공될 수 있다.Referring to FIG. 19, a first play space PA1 and a second play space PA2 may be provided.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 독립적으로 제공될 수 있다.The first play space PA1 and the second play space PA2 may be provided independently.
일 예로 도 19에 도시된 바와 같이 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 제1 방향으로 미리 정해진 거리만큼 이격되어 제공될 수 있다.For example, as shown in FIG. 19, the first play space PA1 and the second play space PA2 may be provided at a predetermined distance in the first direction.
도 19에 도시된 바와 같이 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)이 제1 방향으로 이격 되어 있더라도, 가상 환경에서는 제2 방향으로 제공될 수 있다.As shown in FIG. 19, even if the first play space PA1 and the second play space PA2 are spaced apart from each other in the first direction, they can be provided in the second direction in the virtual environment.
일 예로 도 19에 도시된 바와 같이 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)이 제1 방향으로 이격되어 있더라도 가상 환경에서는 도 19에 도시된 가상 환경(VW)와 같이 두개의 플레이 공간(PA)이 가상 환경에서는 수평방향으로 정합되어 제공될 수 있다.19, even if the first play space PA1 and the second play space PA2 are spaced apart in the first direction, the virtual environment VW shown in FIG. 19, for example, The space PA can be provided in the horizontal direction in the virtual environment.
또한 제1 플레이 공간(PA1)에는 제1 플레이어(P1)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 플레이할 수 있다.Also, the first player P1 can play in the first play space PA1, and the second player P2 can play in the second play space PA2.
제1 플레이어(P1)이 제1 방향과 수직인 제2 방향으로 시선을 둔 경우 제2 방향에 제2 플레이어(P2)가 위치하지 않더라도 제1 플레이어(P1)에게 제공되는 가상 환경의 시야(VOF)에서는 제2 캐릭터(C2)가 제공될 수 있다.Even if the second player P2 is not positioned in the second direction when the first player P1 is gazing in the second direction perpendicular to the first direction, the field of view (VOF) of the virtual environment provided to the first player P1 The second character C2 may be provided.
일 예로 제1 플레이어(P1)가 제1 방향과 수직인 제2 방향으로 착용형 디스플레이 장치(400)를 지향하는 경우 현실 세계에서는 제2 방향에 제2 플레이어(P2)가 위치하지 않더라도 착용형 디스플레이 장치(400)를 통하여 제1 플레이어(P1)에게 제공되는 가상 이미지(VI)에는 제2 캐릭터(C2)가 제공될 수 있다.For example, when the first player P1 directs the wearable display device 400 in a second direction perpendicular to the first direction, in the real world, even if the second player P2 is not positioned in the second direction, The second character C2 may be provided to the virtual image VI provided to the first player P1 through the device 400. [
도 20은 일 실시예에 따른 분할 공간 정합에서 이동을 나타내는 예시도이다.20 is an exemplary diagram illustrating movement in a subspace matching according to an embodiment;
도 20을 참조하면 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)이 제공될 수 있다.Referring to FIG. 20, a first play space PA1 and a second play space PA2 may be provided.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 독립적으로 제공될 수 있다.The first play space PA1 and the second play space PA2 may be provided independently.
또한 제1 플레이 공간(PA1)에는 제1 플레이어(P1)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 플레이할 수 있다.Also, the first player P1 can play in the first play space PA1, and the second player P2 can play in the second play space PA2.
또한 가상 환경(V1)에서는 제1 플레이 공간(PA1)에 대응하는 제1 가상 환경 영역(VA1) 및 제2 플레이 공간(PA2)에 대응하는 제2 가상 환경 영역(VA2)이 제공될 수 있다.In the virtual environment V1, the first virtual environment area VA1 corresponding to the first play space PA1 and the second virtual environment area VA2 corresponding to the second play space PA2 may be provided.
제1 가상 환경 영역(VA1) 및 제2 가상 환경 영역(VA2)는 전체 가상 환경에서 임의의 공간이 분할되어 제공되는 것일 수 있다.The first virtual environment area VA1 and the second virtual environment area VA2 may be those in which an arbitrary space is provided in an entire virtual environment.
제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1) 대응하는 제1 캐릭터(C1)는 제1 가상 환경 영역(VA1)에서 이동할 수 있다.The first character C1 corresponding to the first player P1 playing in the first play space PA1 can move in the first virtual environment area VA1.
제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1) 대응하는 제1 캐릭터(C1)는 제2 플레이 공간(PA2)에서 플레이하는 제2 플레이어(P2) 대응하는 제2 캐릭터(C1)가 제공되는 제2 가상 환경 영역(VA2)으로의 이동이 제한될 수 있다. The first character C1 corresponding to the first player P1 playing in the first play space PA1 corresponds to the second character P2 corresponding to the second player P2 playing in the second play space PA2 The movement to the second virtual environment area VA2 provided can be restricted.
제2 플레이 공간(PA2)에서 플레이하는 제2 플레이어(P2) 대응하는 제2 캐릭터(C2)는 제2 가상 환경 영역(VA2)에서 이동할 수 있다.The second character C2 corresponding to the second player P2 playing in the second play space PA2 can move in the second virtual environment area VA2.
제2 플레이 공간(PA2)에서 플레이하는 제2 플레이어(P2) 대응하는 제2 캐릭터(C2)는 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1) 대응하는 제1 캐릭터(C1)가 제공되는 제1 가상 환경 영역(VA1)으로의 이동이 제한될 수 있다.The second character P2 corresponding to the second player P2 playing in the second play space PA2 corresponds to the first character P1 corresponding to the first player P1 playing in the first play space PA1 The movement to the first virtual environment area VA1 provided can be restricted.
현실 세계에서 제1플레이어(P1)로부터 제1 방향으로 이격된 제2플레이 공간(PA2)에 위치한 제2 플레이어(P2)가 제1 방향으로 이동하더라도 가상 환경(VW)에서는 제1 캐릭터(C1)로부터 제2 방향에 위치한 제2 캐릭터(C2)가 제1 방향으로 이동하는 영상이 제공될 수 있다.Even if the second player P2 located in the second play space PA2 spaced from the first player P1 in the first direction moves in the first direction in the real world, The second character C2 positioned in the second direction may move in the first direction.
일 예로 현실 세계에서 제1플레이어(P1)로부터 앞에 이격되어 제공되는 제2플레이 공간(PA2)에 위치한 제2 플레이어(P2)가 앞으로 이동하더라도 착용형 디스플레이 장치(400)를 통하여 제1 플레이어(P1)에게 제공되는 가상 이미지에서는 제1 캐릭터(C1)의 왼쪽에 위치한 제2 캐릭터(C2)가 앞으로 이동하는 가상 이미지가 제공될 수 있다.For example, even if the second player P2 located in the second play space PA2 provided in front of the first player P1 in the real world moves forward, the first player P1 , A virtual image in which the second character C2 positioned on the left of the first character C1 moves forward may be provided.
또한 현실 세계에서 제1플레이어(P1)로부터 제1 방향으로 이격된 제2플레이 공간(PA2)에 제2 플레이어(P2)가 제공되는 상태에서 제1 플레이어가 제2 방향으로 이동하는 경우 가상 환경(VW)에서는 제1 캐릭터(C1)가 제2 방향에 위치한 제2 캐릭터(C2)에게 이동하는 하도록 제공될 수 있다.When the first player moves in the second direction in a state where the second player P2 is provided in the second play space PA2 spaced from the first player P1 in the first direction in the real world, VW), the first character C1 may be provided to move to the second character C2 located in the second direction.
일 예로 현실 세계에서 제1플레이어(P1)로부터 제1 방향으로 이격된 제2플레이 공간(PA2)에 제2 플레이어(P2)가 제공되는 상태에서 제1 플레이어가 제2 방향으로 이동하는 경우 착용형 디스플레이 장치(400)를 통하여 제1 플레이어(P1)에게 제공되는 가상 이미지에서는 제2 캐릭터(C2)의 위치로 이동하는 가상 이미지가 제공될 수 있다.For example, when the first player moves in the second direction in a state where the second player P2 is provided in the second play space PA2 spaced apart from the first player P1 in the first direction in the real world, In the virtual image provided to the first player P1 through the display device 400, a virtual image moving to the position of the second character C2 may be provided.
다른 예로 현실 세계에서 제1플레이어(P1)로부터 제1 방향으로 이격된 제2플레이 공간(PA2)에 제2 플레이어(P2)가 제공되는 상태에서 제1 플레이어가 제2 방향으로 이동하는 경우 착용형 디스플레이 장치(400)를 통하여 제2 플레이어(P2)에게 제공되는 가상 이미지에서는 제1 캐릭터(C1)가 제2 방향으로 다가오는 가상 이미지가 제공될 수 있다.As another example, when the first player moves in the second direction in a state where the second player P2 is provided in the second play space PA2 spaced from the first player P1 in the first direction in the real world, In the virtual image provided to the second player P2 through the display device 400, a virtual image in which the first character C1 approaches in the second direction can be provided.
도 21은 일 실시예에 따른 분할 공간 정합에서 피격 상황을 나타내는 예시도이다.21 is an exemplary diagram illustrating a shot situation in a subspace matching according to an embodiment.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 독립적으로 제공될 수 있다.The first play space PA1 and the second play space PA2 may be provided independently.
또한 제1 플레이 공간(PA1)에는 제1 플레이어(P1)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 플레이할 수 있다.Also, the first player P1 can play in the first play space PA1, and the second player P2 can play in the second play space PA2.
또한 가상 환경(V1)에서는 제1 플레이 공간(PA1)에 대응하는 제1 가상 환경 영역(VA1) 및 제2 플레이 공간(PA2)에 대응하는 제2 가상 환경 영역(VA2)이 제공될 수 있다.In the virtual environment V1, the first virtual environment area VA1 corresponding to the first play space PA1 and the second virtual environment area VA2 corresponding to the second play space PA2 may be provided.
도 21을 참조하여 설명하면 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 제1 방향으로 이격되어 제공될 수 있다.Referring to FIG. 21, the first play space PA1 and the second play space PA2 may be provided in a first direction.
따라서, 제1 방향과 수직방향인 제3 방향으로는 플레이 공간(PA)이 제공되지 않아 제3 방향(VD3)에는 플레이어(P1)가 존재하지 않을 수 있다.Therefore, the player P1 may not exist in the third direction VD3 because the play space PA is not provided in the third direction perpendicular to the first direction.
도 21을 참조하여 설명하면 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1)는 소지한 입력 장치(400)를 제3 방향(RD3)으로 지향할 수 있으며, 입력 장치(400)를 조작하여 제3 방향(RD3)로 미리 정해진 이벤트를 발생할 것을 명령할 수 있다. Referring to FIG. 21, the first player P1 playing in the first play space PA1 can direct the held input device 400 in the third direction RD3, and the input device 400 To command to generate a predetermined event in the third direction RD3.
일 예로 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1)가 좌측을 향해 입력 장치(400)를 지향하고 입력 장치(400)에 제공되는 스위치를 눌려 좌측으로 발사할 수 있다.For example, the first player P1 playing in the first play space PA1 may direct the input device 400 toward the left side, and may push the switch provided to the input device 400 to the left side.
또한 제1 플레이어(P1)가 착용한 착용형 디스플레이 장치(400)를 통하여 제1 플레이어에게 제공되는 가상 이미지(VI)에는 제3 방향(RD3)으로 미리 정해진 이벤트가 발생하는 이미지가 제공될 수 있다.The virtual image VI provided to the first player through the wearable display device 400 worn by the first player P1 may be provided with an image in which a predetermined event occurs in the third direction RD3 .
일 예로 제1 플레이어(P1)가 착용한 착용형 디스플레이 장치(400)를 통하여 제1 플레이어에게 제공되는 가상 이미지(VI)에는 제1 캐릭터(C1)가 좌측으로 총을 지향하고 지향된 방향으로 총알이 발사되는 이미지가 제공될 수 있다.For example, in the virtual image VI provided to the first player through the wearable display device 400 worn by the first player P1, the first character C1 is moved to the left in the direction of the gun, An image to be fired may be provided.
앞서 도 21을 참조하여 설명한 바와 같이 현실 환경에서는 제3 방향(VD3)에는 플레이어(P1)가 존재하지 않아 제1 플레이어가 조준한 방향에는 다른 플레이어가 위치할 지 않을 수 있다.As described above with reference to FIG. 21, in the real environment, there is no player P1 in the third direction VD3, and other players may not be positioned in the direction that the first player aimed.
분할 공간 정합을 통하여 가상 환경(VW)에서는 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)가 총알을 발사한 방향에 제2 플레이어(P2)에 대응하는 제2 캐릭터(C2)가 위치할 수 있으며, 따라서, 제2 캐릭터(C2)는 제1 캐릭터(C1)이 발사한 총알에 피격될 수 있다.The second character C2 corresponding to the second player P2 is positioned in the direction in which the first character C1 corresponding to the first player P1 fires the bullet in the virtual environment VW through the divided space matching Thus, the second character C2 can be shot by the bullet emitted by the first character C1.
따라서, 현실 세계에서 제1 플레이어(P1)가 입력 장치(400)를 지향한 방향에 제2 플레이어(P2)가 위치하지 않더라도, 가상 환경(VW)에서 제1 캐릭터(C1)가 지향한 방향에 제2 캐릭터(C2)위치한 경우 제1 플레이어(P1)은 제2 플레이어(P2)를 피격할 수 있다.Therefore, even if the second player P2 is not positioned in the direction in which the first player P1 directs to the input device 400 in the real world, the first player C1 is not positioned in the direction in which the first character C1 is oriented in the virtual environment VW When the second character C2 is positioned, the first player P1 may hit the second player P2.
일 예로 현실 세계에서 제1 플레이어(P1)가 입력 장치(400)를 지향하여 총알 발사에 대한 명령을 입력한 경우 입력 장치(400)를 지향한 방향에 제2 플레이어(P2)가 위치하지 않더라도, 가상 환경(VW)에서 제1 캐릭터(C1)이 지향한 방향에 제2 캐릭터(C2)위치한 경우 제1 플레이어(P1)가 착용한 착용형 디스플레이 장치(400)를 통하여 제1 플레이어(P1)에게 제공되는 가상 이미지에는 제2 캐릭터(C2)가 제1 캐릭터(C1)이 발사한 총알에 피격되는 이미지가 제공될 수 있다.For example, in a real world, when the first player P1 directs the input device 400 to input a command for shooting a bullet, even if the second player P2 is not positioned in the direction toward the input device 400, When the second character C2 is positioned in the direction in which the first character C1 is oriented in the virtual environment VW, the first player P1 is notified to the first player P1 via the wearable display device 400 worn by the first player P1 The provided virtual image may be provided with an image in which the second character C2 is shot by the bullet emitted by the first character C1.
다른 예로 현실 세계에서 제1 플레이어(P1)가 입력 장치(400)를 지향하여 총알 발사에 대한 명령을 입력한 경우 입력 장치(400)를 지향한 방향에 제2 플레이어(P2)가 위치하지 않더라도, 가상 환경(VW)에서 제1 캐릭터(C1)이 지향한 방향에 제2 캐릭터(C2)위치한 경우 제2 플레이어(P2)가 착용한 착용형 디스플레이 장치(400)를 통하여 제2 플레이어(P2)에게 제공되는 가상 이미지에는 제1 캐릭터(C1)가 발사한 총알에 피격되는 이미지가 제공될 수 있다.As another example, if the first player P1 directs the input device 400 to input a command for shooting a bullet in the real world, even if the second player P2 is not positioned in the direction of the input device 400, If the second character C2 is positioned in the direction in which the first character C1 is oriented in the virtual environment VW, the second player P2 is notified to the second player P2 via the wearable display device 400 worn by the second player P2 The provided virtual image may be provided with an image shot by the bullet emitted by the first character C1.
도 22는 일 실시예예 따른 분할 공간 정합에서의 사운드 정합을 나타내는 예시도이다.22 is an exemplary diagram illustrating sound matching in a subspace matching according to one embodiment.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 독립적으로 제공될 수 있다.The first play space PA1 and the second play space PA2 may be provided independently.
도 22에 도시된 바와 같이 현실 세계에서는 제1 플레이 공간(PA1)로부터 제1 방향으로 이격된 위치에 제2 플레이 공간(PA2)이 제공될 수 있다.As shown in FIG. 22, in the real world, a second play space PA2 may be provided at a position apart from the first play space PA1 in the first direction.
또한 제1 플레이 공간(PA1)에는 제1 플레이어(P1)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 플레이할 수 있다.Also, the first player P1 can play in the first play space PA1, and the second player P2 can play in the second play space PA2.
또한 도 22에 도시된 바와 같이 제1 플레이어(P1)로부터 제1 방향으로 이격되어 제공되는 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 위치할 수 있다.As shown in FIG. 22, the second player P2 may be located in the second play space PA2 provided away from the first player P1 in the first direction.
현실 세계에서 제2 플레이어(P2)에 의해 발생한 소리는 제1 플레이어(P1)에게 제1 방향에서 발생한 소리로 인식될 수 있다.The sound generated by the second player P2 in the real world can be recognized as the sound generated in the first direction to the first player P1.
가상 환경(VW)에서는 제2 플레이어(P2)에 대응한 제2 캐릭터(C2)가 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)로부터 제3 방향(VD3)에 위치할 수 있으며, 제1 플레이어(PA1)에게 제공되는 제2 플레이어(P2)에 의해 발생한 소리는 제1 플레이어(PA1)가 제2 캐릭터(C2)가 위치한 제3 방향에서 발생한 소리로 인지하도록 출력되도록 제공될 수 있다.In the virtual environment VW, the second character C2 corresponding to the second player P2 may be positioned in the third direction VD3 from the first character C1 corresponding to the first player P1, The sound generated by the second player P2 provided to the first player PA1 may be provided to be output so that the first player PA1 recognizes the sound generated in the third direction in which the second character C2 is located .
일 예로 현실 세계에서 제1 플레이어(P1)으로부터 제1 방향으로 이격된 위치에 제2 플레이어(P2)가 위치하고, 가상 환경에서는 제1 캐릭터(C1)로부터 제3 방향으로 이격된 위치에 제2 캐릭터(C2)가 위치한 경우 현실 세계에서 제1 플레이어(P1)으로부터 제1 방향으로 이격된 제2 플레이어(P2)에 의해 발생한 소리는 착용형 디스플레이 장치(400)의 좌/우측에 착용형 디스플레이 음향 출력부(460) 중 가상 환경에서 제2 캐릭터(C2)가 위치한 제3 방향에 대응하는 좌측에 제공되는 착용형 디스플레이 음향 출력부(460)를 통해 출력되도록 제공될 수 있다.For example, in the real world, the second player P2 is located at a position spaced apart from the first player P1 in the first direction, and the second character P2 is positioned at a position spaced apart from the first character C1 in the third direction, The sound generated by the second player P2 spaced apart from the first player P1 in the first direction in the real world when the second player P2 is positioned on the left and right sides of the wearable display device 400, May be provided to be output through the wearable display sound output section 460 provided on the left side corresponding to the third direction in which the second character C2 is located in the virtual one of the part 460.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 환경에서의 제1 캐릭터(C1) 및 제2 캐릭터(C2)의 위치 관계에 기초하여 제1 플레이어(P1)에게 제2 캐릭터(C2)에 의해 발생한 소리에 대한 출력 음향 정보를 획득할 수 있다.According to one embodiment, the auxiliary computing device 300 may be configured to communicate with the first player P1 by the second character C2 based on the positional relationship of the first character C1 and the second character C2 in the virtual environment It is possible to obtain output sound information for the generated sound.
또한 일 실시예에 따르면 착용형 디스플레이 장치(400)는 착용형 디스플레이 음향 센서모듈(432)을 통하여 획득한 입력 음향 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.In addition, according to one embodiment, the wearable display device 400 may provide input acoustic information obtained through the wearable display acoustic sensor module 432 to the auxiliary computing device 300.
또한 착용형 디스플레이 장치(400)는 착용형 디스플레이 장치(400)에 부여된 식별 정보를 포함하는 입력 음향 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.The wearable display device 400 may also provide input acoustic information to the auxiliary computing device 300, including identification information imparted to the wearable display device 400.
또한 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)는 획득한 입력 음향 정보를 서버(200)로 제공할 수 있다.In addition, the auxiliary computing device 300 may provide the acquired input sound information to the server 200 by the wearable display device 400.
서버(200)는 입력 음향 정보에 포함된 착용형 디스플레이 장치(400)의 식별 정보에 기초하여 입력 음향 정보를 제공한 착용형 디스플레이 장치(400) 및/또는 플레이어(P)를 식별할 수 있다.The server 200 can identify the wearable display device 400 and / or the player P that provided the input sound information based on the identification information of the wearable display device 400 included in the input sound information.
서버(200)는 착용형 디스플레이 장치(400) 및/또는 플레이어(P)에 대한 식별 정보를 포함하는 입력 음향 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.The server 200 may provide input acoustic information to the secondary computing device 300 that includes identification information for the wearable display device 400 and /
보조 컴퓨팅 장치(300)는 입력 음향 정보, 입력 음향 정보를 제공한 플레이어(P)에 대응하는 캐릭터(C) 및 소리를 수신할 플레이어(P)에 대응하는 캐릭터(C)의 위치 관계에 기초하여 출력 음향 정보를 획득할 수 있다.The auxiliary computing device 300 generates the input sound information based on the positional relationship of the character C corresponding to the player P providing the input sound information and the input sound information and the character C corresponding to the player P receiving the sound The output sound information can be obtained.
일 예로 제1 플레이어(P1)가 제1 플레이 공간(PA1)의 PA1(Xa, Ya, Za)의 좌표에 위치하고 제2 플레이어(P2)가 제2 플레이 공간(PA2)의 PA2(Xb, Yb, Zb)에 위치하는 경우 보조 컴퓨팅 장치(300)는 제1 플레이어(P1)의 제1 플레이 공간(PA1)에서의 좌표에 기초하여 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)의 가상 환경에서의 좌표 VA1(Xa, Ya, Za)를 획득할 수 있으며, 제2 플레이어(P2)의 제2 플레이 공간(PA2)에서의 좌표에 기초하여 제2 플레이어(P2)에 대응하는 제2 캐릭터(C2)의 가상 환경에서의 좌표 VA2(Xb, Yb, Zb)를 획득할 수 있다.For example, when the first player P1 is positioned at the coordinates of PA1 (Xa, Ya, Za) of the first play space PA1 and the second player P2 is positioned at the coordinates of PA2 (Xb, Yb, Za) of the second play space PA2, Zb), the auxiliary computing device 300 calculates the virtual number of the first character C1 corresponding to the first player P1 based on the coordinates in the first play space PA1 of the first player P1 (Xa, Ya, Za) in the second environment P2 can be acquired and the second character P2 corresponding to the second player P2 can be obtained based on the coordinates in the second play space PA2 of the second player P2 The coordinates VA2 (Xb, Yb, Zb) in the virtual environment of the object C2 can be obtained.
일 예로 보조 컴퓨팅 장치(300)는 가상 환경에서의 제1 캐릭터(C1) 및 제2 캐릭터(C2)의 위치를 판단한 결과 제2 캐릭터(C2)가 제1 캐릭터(C1)의 좌측에 위치한 경우 제2 플레이어(P2)가 착용형 디스플레이 음향 센서모듈(432)를 통하여 입력한 소리가 3D 사운드를 통하여 착용형 디스플레이 음향 출력부(460)에서 제1 플레이어(P1)의 좌측에서 발생한 소리로 출력하도록 출력 음향 정보를 획득할 수 있다.For example, when the second character C2 is located on the left side of the first character C1 as a result of determining the positions of the first character C1 and the second character C2 in the virtual environment, 2 player P2 outputs the sound input through the wearable display sound sensor module 432 through the 3D sound to the sound generated from the left side of the first player P1 in the wearable display sound output section 460 Acoustic information can be obtained.
또한 보조 컴퓨팅 장치(300)는 획득한 음향 정보를 착용형 디스플레이 장치(400)로 제공할 수 있으며, 착용형 디스플레이 장치(400)는 획득한 출력 음향 정보에 기초하여 착용형 디스플레이 음향 센서모듈(432)을 통하여 소리 신호를 출력할 수 있다.The auxiliary computing device 300 may also provide the acquired acoustic information to the wearable display device 400 and the wearable display device 400 may provide the wearable display acoustic sensor module 432 To output a sound signal.
일 실시예에 따르면 보조 컴퓨팅 장치(300)가 플레이어(P)가 착용한 착용형 디스플레이 장치(400)에 제공되는 착용형 디스플레이 음향 센서모듈(432)을 통하여 입력된 소리를 다른 플레이어(P)에게 제공하기 위하여 출력 음향 정보를 획득하는 방식과 서버(200)에 별도로 연결된 음향 센서모듈(미도시)통하여 입력된 신호를 플레이어(P)들에게 제공하기 위하여 출력 음향 정보를 획득하는 방식은 서로 상이한 방식으로 제공될 수 있다.According to one embodiment, the auxiliary computing device 300 transmits the sound input through the wearable display sound sensor module 432 provided to the wearable display device 400 worn by the player P to the other player P A method of acquiring output sound information to provide the input signals to the players P through a sound sensor module (not shown) connected to the server 200 may be different from each other . ≪ / RTI >
일 실시예에 따르면 보조 컴퓨팅 장치(300)가 플레이어(P)가 착용한 착용형 디스플레이 장치(400)에 제공되는 착용형 디스플레이 음향 센서모듈(432)을 통하여 입력된 소리를 다른 플레이어(P)에게 제공하기 위하여 출력 음향 정보를 획득하는 방식은 상술한 바와 같이 플레이어(P)간의 위치 정보에 기초하여 소리의 방향을 포함하는 3D 사운드 기반의 출력 음향 정보가 획득될 수 있다.According to one embodiment, the auxiliary computing device 300 transmits the sound input through the wearable display sound sensor module 432 provided to the wearable display device 400 worn by the player P to the other player P The output sound information based on the 3D sound including the direction of the sound based on the position information between the players P can be obtained as described above.
또한 보조 컴퓨팅 장치(300)가 서버(200)에 별도로 연결된 음향 센서모듈(미도시)통하여 입력된 신호를 플레이어(P)들에게 제공하기 위하여 음향 정보를 획득하는 방식은 플레이어(P) 간의 소리를 제공하는 방식과 달리 소리의 방향을 포함하지 않는 2D 방식의 음향 정보가 획득될 수 있다.The manner in which the auxiliary computing device 300 acquires the sound information to provide the player P with a signal input through an acoustic sensor module (not shown) The acoustic information of the 2D system which does not include the direction of the sound can be obtained.
도 23은 일 실시예에 따른 동일 공간으로의 분할 공간 정합을 나타내는 도면이다.FIG. 23 is a diagram showing the division of space into the same space according to an embodiment. FIG.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 독립적으로 제공될 수 있다.The first play space PA1 and the second play space PA2 may be provided independently.
도 23에 도시된 바와 같이 현실 세계에서는 제1 플레이 공간(PA1)의 앞에 제2 플레이 공간(PA2)가 제공될 수 있다.As shown in FIG. 23, in the real world, a second play space PA2 may be provided in front of the first play space PA1.
또한 제1 플레이 공간(PA1)에는 제1 플레이어(P1)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 플레이할 수 있다.Also, the first player P1 can play in the first play space PA1, and the second player P2 can play in the second play space PA2.
도 23에 도시된 바와 같이 제1 플레이어(P1)의 앞에 제2 플레이어(P2)가 위치할 수 있다.The second player P2 may be positioned in front of the first player P1 as shown in FIG.
가상 환경(VW)에서 두개의 플레이 공간(PA)은 중첩되어 하나의 가상 환경(VW)로 제공될 수 있다.In the virtual environment VW, the two play spaces PA may overlap and be provided in one virtual environment VW.
일 예로 제1 플레이어(P1)이 제1 플레이 공간(PA1)의 중심에 위치하고, 제2 플레이어(P2)가 제2 플레이 공간(PA2)의 중심에 위치한 경우 가상 환경에서 제1 캐릭터(C1) 및 제2 캐릭터(C2)의 위치는 중첩될 수 있다.For example, when the first player P1 is located at the center of the first play space PA1 and the second player P2 is located at the center of the second play space PA2, the first characters C1 and / The position of the second character C2 can be overlapped.
따라서, 제1 플레이 공간(PA1)과 제2 플레이 공간(PA2)은 하나의 가상 공간(VA)를 공유하도록 제공될 수 있다.Therefore, the first play space PA1 and the second play space PA2 may be provided to share one virtual space VA.
일 예로 제1 플레이어(P1)가 제1 플레이 공간(PA1)의 (X, Y, Z)에 위치하고 제2 플레이어(P2)가 제2 플레이 공간(PA2)의 (X, Y, Z)에 위치하는 경우 가상 환경(VW)에서 제1 캐릭터(C1) 및 제2 캐릭터(C2)는 동일한 위치에 제공될 수 있다.For example, when the first player P1 is positioned at (X, Y, Z) in the first play space PA1 and the second player P2 is positioned at (X, Y, Z) The first character C1 and the second character C2 in the virtual environment VW may be provided at the same position.
제1 캐릭터(C1) 및 제2 캐릭터(C2)가 가상 환경에서 동일한 위치에 제공되는 경우 서로의 위치가 중첩되어 플레이에 지장을 주는 경우가 발생할 수 있다.When the first character C1 and the second character C2 are provided at the same position in the virtual environment, there may occur a case where the positions of the first character C1 and the second character C2 overlap each other and interfere with the play.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 제1 캐릭터(C1) 및 제2 캐릭터(C2)의 가상 환경에서의 좌표가 동일한 경우 제1 캐릭터(C1) 및 제2 캐릭터(C2)가 가상 환경에서 중첩되지 않도록 제1 캐릭터(C1)의 가상 환경에의 좌표 및 제2 캐릭터(C2)의 가상 환경에서의 좌표 중 적어도 하나를 보정할 수 있다.According to one embodiment, when the coordinates of the first character C1 and the second character C2 in the virtual environment are the same, the auxiliary computing device 300 transmits the first character C1 and the second character C2 to the virtual environment At least one of the coordinates of the first character C1 in the virtual environment and the coordinates of the second character C2 in the virtual environment can be corrected so as not to overlap in the virtual environment.
일 예로 보조 컴퓨팅 장치(300)는 제1 캐릭터(C1) 및 제2 캐릭터(C2)의 가상환경 좌표에서 미리 정해진 좌표값을 차감 또는 가산하여 제1 캐릭터(C1)의 가상 환경에의 좌표 및 제2 캐릭터(C2)의 가상 환경에서의 좌표를 보정할 수 있다.For example, the auxiliary computing device 300 subtracts or adds predetermined coordinate values in the virtual environment coordinates of the first character C1 and the second character C2 to calculate coordinates of the first character C1 in the virtual environment, 2 coordinates of the character C2 in the virtual environment can be corrected.
보다 구체적인 예를 들어 제1 캐릭터(C1) 및 제2 캐릭터(C2)의 가상 환경에서의 좌표가(10, 10, 10)인 경우 제1 캐릭터(C1)의 가상 환경에서의 좌표는 X축의 좌표값에 5를 차감하여 (5, 10, 10)으로 획득할 수 있으며, 제2 캐릭터(C2)의 가상 환경에서의 좌표는 X축의 좌표값에 5를 가산하여 (15, 10, 10)으로 획득할 수 있다.More specifically, for example, when the coordinates of the first character C1 and the second character C2 in the virtual environment are (10, 10, 10), the coordinates of the first character C1 in the virtual environment are coordinates (5, 10, 10), and the coordinate of the second character C2 in the virtual environment is obtained by adding 5 to the coordinate value of the X axis (15, 10, 10) can do.
다른 구체적인 예를 들어 제1 캐릭터(C1) 및 제2 캐릭터(C2)의 가상 환경에서의 좌표가(10, 10, 10)인 경우 우선 순위인 제1 캐릭터(C1)의 좌표 값은 보정하지 않을 수 있으며, 차순위인 제2 캐릭터(C2)의 가상 환경에서의 X축의 좌표값에 5를 가산하여 (15, 10, 10)의 좌표를 획득할 수 있다.In another concrete example, when the coordinates of the first character C1 and the second character C2 in the virtual environment are (10, 10, 10), the coordinate value of the first character C1, which is the priority, And the coordinates of (15, 10, 10) can be obtained by adding 5 to the coordinate value of the X axis in the virtual environment of the second character C2 which is the order of the second character.
도 24는 일 실시예예 따른 분할 공간 정합에서의 협동 오브젝트를 나타내는 도면이다.24 is a diagram illustrating a collaboration object in a subspace matching according to one embodiment.
도 24에 도시된 바와 같이 현실 세계에서는 제1 플레이 공간(PA1)의 앞에 제2 플레이 공간(PA2)가 제공될 수 있다.As shown in FIG. 24, in the real world, a second play space PA2 may be provided in front of the first play space PA1.
또한 제1 플레이 공간(PA1)에는 제1 플레이어(P1)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 플레이할 수 있다.Also, the first player P1 can play in the first play space PA1, and the second player P2 can play in the second play space PA2.
도 24에 도시된 바와 같이 제1 플레이어(P1)의 앞에 제2 플레이어(P2)가 위치할 수 있다.The second player P2 may be positioned in front of the first player P1 as shown in FIG.
가상 환경(VW)에서 두개의 플레이 공간(PA)은 중첩되어 하나의 가상 환경(VW)로 제공될 수 있다.In the virtual environment VW, the two play spaces PA may overlap and be provided in one virtual environment VW.
도 24에 도시된 바와 같이 제1 플레이어(P)는 오브젝트(OJ)를 소지할 수 있다.As shown in FIG. 24, the first player P may carry an object OJ.
제1 플레이어(P1)과 제2 플레이어(P2)가 이격 되어 있더라도 오브젝트(OJ)를 공유할 수 있다.The object OJ can be shared even if the first player P1 and the second player P2 are spaced apart from each other.
가상 환경(VW)에 제1 캐릭터(C1)이 오브젝트(OJ)를 소지하는 것으로 출력될 수 있다.The first character C1 can be output as having the object OJ in the virtual environment VW.
착용형 디스플레이 장치(400)를 통하여 제2 플레이어(P2)에게 제공되는 가상 미지에서는 제1 캐릭터(C1)가 오브젝트(OJ)를 소지하는 것으로 출력될 수 있다.In the virtual image presented to the second player P2 through the wearable display device 400, the first character C1 may be output as having the object OJ.
현실 세계에서는 제2 플레이어(P2)가 오브젝트(OJ)를 접촉할 수 없지만 가상 현실에서는 제2 캐릭터(C2)가 오브젝트(OJ)를 터치할 수 있다.In the real world, the second player P2 can not touch the object OJ, but in the virtual reality, the second character C2 can touch the object OJ.
또는 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)은 가상 현실에서 가상 오브젝트(OJ)를 소지할 수 있다.Alternatively, the first character C1 corresponding to the first player P1 may carry a virtual object OJ in the virtual reality.
제1 캐릭터(C1) 및 제2 캐릭터(C2)는 가상 환경에 제공되는 가상 오브젝트를 서로 공유할 수 있다.The first character C1 and the second character C2 can share virtual objects provided to the virtual environment.
일 실시예에 따르면 오브젝트(OJ)에는 마커가 제공될 수 있다.According to one embodiment, the object OJ may be provided with a marker.
서버(200)는 디텍팅 정보에 기초하여 플레이 공간(PA)에서의 오브젝트(OJ)의 위치를 판단할 수 있다.The server 200 can determine the position of the object OJ in the play space PA based on the detection information.
일 예로 서버(200)는 제1 플레이 공간(PA1)에 대한 디텍팅 장치(100)로부터 획득한 디텍팅 정보에 오브젝트(OJ)에 대응하는 패턴이 검출된 경우 제1 플레이 공간(PA1)에 오브젝트(OJ)가 제공된 것으로 판단할 수 있으며, 제1 플레이 공간(PA1) 상에서의 오브젝트(OJ)의 현실 위치 정보를 획득할 수 있다.For example, when a pattern corresponding to the object OJ is detected in the detec- tion information acquired from the detec- tor 100 for the first play space PA1, the server 200 stores the object in the first play space PA1, It is possible to determine that the object OJ is provided, and obtain the real position information of the object OJ on the first play space PA1.
또한 서버(200)는 오브젝트(OJ)의 현실 위치 정보에 기초하여 오브젝트(OJ)의 가상 위치 정보를 획득할 수 있다.In addition, the server 200 can acquire the virtual position information of the object OJ based on the real position information of the object OJ.
또한 서버(200)는 오브젝트(OJ)의 가상 위치 정보를 보조 컴퓨팅 장치(300)로 제공할 수 있다.The server 200 may also provide the virtual location information of the object (OJ) to the auxiliary computing device 300.
보조 컴퓨팅 장치(300)는 오브젝트(OJ)에 대응하는 가상 오브젝트를 렌더링할 수 있다. Secondary computing device 300 may render a virtual object corresponding to object OJ.
일 예로 보조 컴퓨팅 장치(300)는 오브젝트(OJ)에 대응하는 상자를 렌더링할 수 있으며, 렌더링된 상자를 포함하는 가상 이미지를 획득할 수 있다.As an example, the secondary computing device 300 may render a box corresponding to the object OJ and obtain a virtual image containing the rendered box.
보조 컴퓨팅 장치(300)는 오브젝트(OJ)의 유형에 기초하여 가상 오브젝트를 렌더링할 수 있다. Secondary computing device 300 may render the virtual object based on the type of object OJ.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 오브젝트(OJ)에 제공되는 마커(M) 패턴의 유형에 기초하여 오브젝트(OJ)의 유형을 판단할 수 있으며, 판단된 오브젝트(OJ)의 유형에 따라 가상 오브젝트를 렌더링할 수 있다.According to one embodiment, the secondary computing device 300 may determine the type of the object OJ based on the type of the marker M pattern provided to the object OJ, So that a virtual object can be rendered.
일 예로 보조 컴퓨팅 장치(300)는 오브젝트(OJ)에 제공되는 마커(M) 패턴의 유형에 기초하여 판단한 결과 축구공인 경우 미리 저장된 축구공 가상 오브젝트를 렌더링할 수 있다.For example, the secondary computing device 300 may render a pre-stored soccer ball virtual object if it is a soccer ball as a result of the determination based on the type of the marker (M) pattern provided to the object OJ.
또한 보조 컴퓨팅 장치(300)는 별도의 햅틱 장치와 연결될 수 있다.The secondary computing device 300 may also be coupled to a separate haptic device.
일 예로 보조 컴퓨팅 장치(300)는 사용자의 손에 장착되는 장갑 형태의 햅팁 장치 및 조끼 형태로 사용자의 몸에 착용되는 햅팅 장치와 연결될 수 있다.For example, the auxiliary computing device 300 may be connected to a glove-shaped haptic device mounted on the user's hand and a haptic device mounted on the user's body in the form of a vest.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 플레이어(P)와 가상 오브젝트의 접촉 여부에 기초하여 햅팁 장치를 통하여 플레이어(P)에게 햅틱 피드백을 제공할 수 있다.According to one embodiment, the auxiliary computing device 300 may provide haptic feedback to the player P via the haptic device based on whether the player P and the virtual object are in contact with each other.
보조 컴퓨팅 장치(300)는 가상 환경에서 가상 오브젝트와 플레이어(P)의 위치 관계를 판단할 수 있다.The auxiliary computing device 300 can determine the positional relationship between the virtual object and the player P in the virtual environment.
일 예로 보조 컴퓨팅 장치(300)는 현실 위치 정보 및 가상 위치 정보 중 적어도 하나에 기초하여 판단한 결과 플레이어(P) 의 손이 가상 오브젝트와 미리 정해진 거리 범위 내에 위치하는 경우 캐릭터(C)가 가상 오브젝트를 접촉한 것으로 판단할 수 있다.For example, when the hand of the player P is located within a predetermined distance range from the virtual object as a result of the determination based on at least one of the real position information and the virtual position information, the auxiliary computing device 300 may determine that the character C is a virtual object It can be judged that the contact has been made.
보조 컴퓨팅 장치(300)는 가상 환경에서 캐릭터(C)가 가상 오브젝트를 접촉한 것으로 판단한 경우 이에 대응하는 햅틱 피드백을 제공하도록 햅틱 장치를 제어할 수 있다.The secondary computing device 300 may control the haptic device to provide the corresponding haptic feedback if it determines that the character C has contacted the virtual object in the virtual environment.
도 25는 다른 실시예에 따른 분할 공간 정합을 나타내는 도면이다.25 is a diagram showing a divided space matching according to another embodiment.
도 25를 참조하면 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)이 제공될 수 있다.Referring to FIG. 25, a first play space PA1 and a second play space PA2 may be provided.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)는 하나의 플레이 공간(PA)가 영역이 분할되어 제공되는 것일 수 있다.In the first play space PA1 and the second play space PA2, one play space PA may be provided in a divided region.
플레이 공간(PA)에는 디텍팅 시스템(100)이 제공될 수 있다.The detachment system 100 may be provided in the play space PA.
디텍팅 시스템(100)은 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)에 대한 디텍팅 정보를 획득할 수 있다. Detecting system 100 may obtain detec- tion information for first play space PA1 and second play space PA2.
또한 제1 플레이 공간(PA1)에는 제1 플레이어 그룹이 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어 그룹이 플레이할 수 있다.Also, the first player group can play in the first play space PA1, and the second player group can play in the second play space PA2.
일 예로 제1 플레이 공간(PA1)에는 제1 플레이어(P1) 및 제2 플레이어(P2)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제3 플레이어(P3) 및 제4 플레이어(P4)가 플레이할 수 있다.For example, the first player P1 and the second player P2 can play in the first play space PA1, the third player P3 and the fourth player P4 can play in the second play space PA2, Can play.
가상 환경에는 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1) 및 제2 플레이어(P2), 제2 플레이 공간(PA2)에서 플레이하는 제3 플레이어(P3) 및 제4 플레이어(P4)에 대응하는 캐릭터가 제공될 수 있다.The virtual environment includes a first player P1 and a second player P2 playing in the first play space PA1, a third player P3 and a fourth player P4 playing in the second play space PA2, A character corresponding to the character can be provided.
가상 환경에서 제1 플레이어 그룹은 제1 플레이 공간(PA1)에 대응하는 캐릭터는 제1 층에 위치할 수 있으며, 제2 플레이어 그룹에 대응하는 캐릭터는 제2 플레이 공간(PA2)에 대응하는 제2 층에 위치할 수 있다.In the virtual environment, the character corresponding to the first play space PA1 may be located in the first layer, and the character corresponding to the second player group may be located in the second layer corresponding to the second play space PA2 Lt; / RTI > layer.
일 예로 가상 환경이 1층, 2층, 3층 및 4 층 등의 복수의 층에 제공되는 경우 제1 플레이어 그룹에 대응하는 캐릭터는 가상 환경의 2층에 제공될 수 있으며, 제2 플레이어 그룹에 대응하는 캐릭터는 3층에 제공될 수 있다.For example, when a virtual environment is provided in a plurality of layers such as a first floor, a second floor, a third floor and a fourth floor, a character corresponding to the first player group may be provided on the second floor of the virtual environment, The corresponding character can be provided on the third floor.
보다 구체적으로 설명하면 서버(2000)는 디텍팅 정보에 기초하여 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1)의 제1 플레이 공간(PA1)에서의 현실 위치 정보인 PA1(10, 10, 10)의 좌표를 획득할 수 있으며, 제2 플레이 공간(PA2)에서 플레이하는 제2 플레이어(P2)의 제2 플레이 공간(PA2)에서의 현실 위치 정보인 PA2(10, 10, 10)의 좌표를 획득할 수 있다. More specifically, the server 2000 determines whether the first player PA playing in the first play space PA1 is PA1 (10, 10 and 10 which are real position information in the second play space PA2 of the second player P2 playing in the second play space PA2, Can be obtained.
또한 보조 컴퓨팅 장치(300)는 서버(200)로부터 획득한 제1 플레이어(P1) 및 제2 플레이어(P2)의 현실 위치 정보에 기초하여 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1) 및 제2 플레이어(P2)에 대응하는 제2 캐릭터(C2)의 가상 위치 정보를 획득할 수 있다.The auxiliary computing device 300 further includes a first character C1 corresponding to the first player P1 based on the real position information of the first player P1 and the second player P2 acquired from the server 200, And virtual position information of the second character C2 corresponding to the second player P2.
보조 컴퓨팅 장치(300)는 제1 플레이 공간(PA1)이 제1층인 경우 제1 캐릭터(C1)의 가상 위치 정보를 VA1(10, 10, 10)으로 획득할 수 있으며, 제2 플레이 공간(PA2)이 제2 층인 경우 제2 캐릭터(C1)의 가상 위치 정보는 제2 플레이어(P2)의 제2 플레이 공간(PA2)에서의 현실 위치 정보인 PA2(10, 10, 10)에서 Z축의 좌표값을 제2 층에 대응되는 좌표값으로 변경한 VA1(10, 10, 20)으로 획득할 수 있다.The auxiliary computing device 300 can acquire the virtual position information of the first character C1 by the VA1 10,10 and 10 when the first play space PA1 is the first layer, ) Is the second layer, the virtual position information of the second character C1 is the coordinate value of the Z axis in the PA2 (10, 10, 10) which is the real position information in the second play space PA2 of the second player P2 (10, 10, 20) obtained by changing the coordinates of the first layer to the coordinates corresponding to the second layer.
따라서, 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)이 동일한 층에 제공되더라도 가상 환경에서 제1 플레이 공간(PA1)에 대응되는 제1 가상 영역(VA1) 및 제2 플레이 공간(PA2)에 대응되는 제2 가상 영역(VA2)은 서로 다른 층에 제공될 수 있다.Therefore, even if the first play space PA1 and the second play space PA2 are provided in the same layer, the first virtual space VA1 and the second play space PA2 corresponding to the first play space PA1 in the virtual environment, ) May be provided in different layers.
도 26은 다른 실시예에 따른 분할 공간 정합에서 다른 층으로의 이동을 나타내는 도면이다.Figure 26 is a diagram illustrating movement from one sub-space match to another in accordance with another embodiment.
도 26에 도시된 바와 같이 현실 세계에서는 플레이 공간(PA)가 제공될 수 있으며, 플레이 공간(PA)는 제1 플레이 공간(PA1), 제2 플레이 공간(PA2) 및 이동 영역(MA)을 포함할 수 있다.26, a play space PA may be provided in the real world, and the play space PA may include a first play space PA1, a second play space PA2, and a move region MA can do.
가상 환경에서는 제1 플레이 공간(PA1)에 대응하는 제1 가상 영역(VA1)이 제1 층에 제공될 수 있으며, 제2 플레이 공간(PA2)에 대응하는 제2 가상 영역(VA2)이 제2 층에 제공될 수 있다.In the virtual environment, the first virtual area VA1 corresponding to the first play space PA1 may be provided in the first layer and the second virtual area VA2 corresponding to the second play space PA2 may be provided in the second layer. Lt; / RTI > layer.
이동 영역(MA)을 통하여 제1 플레이어(P1)이 제1 플레이 공간(PA1)에서 제2 플레이 영역(PA2)로 이동하는 경우 가상 환경에 제공되는 제1 캐릭터(C1)는 제1 가상 영역(VA1)에서 제2 가상 영역(VA2)로 이동할 수 있다.When the first player P1 moves from the first play space PA1 to the second play area PA2 through the movement area MA, the first character C1 provided in the virtual environment is the first virtual area VA1 to the second virtual area VA2.
따라서, 가상 환경에 제공되는 제1 캐릭터(C1)는 가상 환경의 제1 층에서 제2 층으로 이동할 수 있다.Thus, the first character C1 provided in the virtual environment can move from the first layer to the second layer of the virtual environment.
일 예로 도 26에 도시된 바와 같이 가상 환경에는 제1 가상 영역(VA1) 및 제2 가상 영역(VA2)를 연결하는 가상 계단(Vstair)이 제공될 수 있다.For example, as shown in FIG. 26, a virtual step Vstair connecting the first virtual area VA1 and the second virtual area VA2 may be provided in the virtual environment.
제1 플레이어(P1)가 제1 플레이어(P1)이 제1 플레이 공간(PA1)에서 제2 플레이 영역(PA2)로 이동하는 경우 가상 환경에 제공되는 제1 가상 영역(VA1) 및 제2 가상 영역(VA2)를 연결하는 가상 계단(Vstair)을 따라 제1 캐릭터(C1)는 제1 가상 영역(VA1)에서 제2 가상 영역(VA2)로 이동할 수 있다.When the first player P1 moves from the first play space PA1 to the second play area PA2 while the first player P1 moves from the first play space PA1 to the second play area PA2, The first character C1 can move from the first virtual area VA1 to the second virtual area VA2 along the virtual step Vstair connecting the first virtual area VA2.
일 실시예에 따른 이동 영역(MA)를 통한 가상 환경에서의 다른 층으로의 이동에 있어서, 가상 환경에서 가상 환경에는 제1 가상 영역(VA1) 및 제2 가상 영역(VA2)를 연결하는 가상 계단(Vstair)이 제공 되는 것으로 한정되는 것은 아니며, 다양한 형태의 이동 수단이 제공될 수 있다.In the movement to another layer in the virtual environment via the movement area MA according to an embodiment, in the virtual environment, the virtual environment includes a virtual staircase connecting the first virtual area VA1 and the second virtual area VA2, (Vstair) is provided, but various types of moving means can be provided.
일 실시예에 따르면 가상 환경에는 이동 영역에 대응하는 가상 엘리베이터가 제공될 수 있다.According to one embodiment, the virtual environment may be provided with a virtual elevator corresponding to the moving area.
일 예로 제1 플레이어(P1)가 제1플레이 영역(PA1)에서 이동 영역(MA)로 이동하는 경우 가상 환경에서는 제1 캐릭터(C1)가 가상 환경에서 상기 이동 영역(MA)에 대응하는 영역에 제공되는 가상 엘리베이터에 탑승할 수 있다. 또한 가상 엘리베이터에는 플레이어가 원하는 층수를 선택할 수 있는 가상 오브젝트가 제공될 수 있다.For example, when the first player P1 moves from the first play area PA1 to the movement area MA in the virtual environment, the first character C1 moves to the area corresponding to the movement area MA in the virtual environment You can board the provided virtual elevator. Also, the virtual elevator may be provided with a virtual object that allows the player to select the desired number of floors.
보조 컴퓨팅 장치(300)는 제1 플레이어(P1)가 가상 환경에서 제공되는 원하는 층수에 대응하는 현실 세계의 위치에 손, 입력 장치(500) 들을 위치하거나, 입력 장치(500)를 지향하여 미리 정해진 선택을 입력하는 경우 해당 층수가 선택된 것으로 판단할 수 있다.The secondary computing device 300 may be configured to place the hand and input devices 500 at a location in the real world corresponding to the desired number of layers provided in the virtual environment or to direct the input device 500 to a predetermined When a selection is input, it can be determined that the number of layers is selected.
보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)로 가상 엘리베이터가 해당 층수로 이동하는 가상 이미지를 제공할 수 있다.The auxiliary computing device 300 may provide a virtual image to the wearable display device 400 such that the virtual elevator moves to that layer.
보조 컴퓨팅 장치(300)는 가상 환경에서 제2 플레이 영역(PA2)에 대응하는 가상 이미지를 획득할 수 있으며, 획득한 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.The auxiliary computing device 300 may acquire a virtual image corresponding to the second play area PA2 in the virtual environment and provide the acquired virtual image to the wearable display device 400. [
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 제1 플레이어(P1)가 이동 영역(MA)에서 제2 플레이 영역(PA2)로 이동하는 경우 제2 플레이 영역(PA2)에 대응하는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.According to one embodiment, the auxiliary computing device 300 wears a virtual image corresponding to the second play area PA2 when the first player P1 moves from the movement area MA to the second play area PA2 Type display device 400 according to the present invention.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 엘리베이터가 해당 층수로 이동한 경우 제2 플레이 영역(PA2)에 대응하는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.According to an exemplary embodiment, the auxiliary computing device 300 may provide a virtual image corresponding to the second play area PA2 to the wearable display device 400 when the virtual elevator moves to the corresponding layer.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 엘리베이터가 해당 층수로 이동하여 가상 엘리베이터의 도어가 개방되는 경우 제2 플레이 영역(PA2)에 대응하는 가상 이미지를 착용형 디스플레이 장치(400)로 제공할 수 있다.According to one embodiment, the auxiliary computing device 300 provides the virtual image corresponding to the second play area PA2 to the wearable display device 400 when the virtual elevator moves to the corresponding layer and the door of the virtual elevator is opened can do.
보조 컴퓨팅 장치(300)는 해당 층에 대응하는 가상 이미지를 제공할 수 있다.The secondary computing device 300 may provide a virtual image corresponding to that layer.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 엘리베이터가 3층으로의 이동하여 사용자가 제2 플레이 영역(PA2)로 이동하는 경우 3층에 대응하는 가상 이미지를 제공할 수 있다.According to one embodiment, the auxiliary computing device 300 may provide a virtual image corresponding to the third floor when the virtual elevator moves to the third floor and the user moves to the second playing area PA2.
일 실시예에 따르면 보조 컴퓨팅 장치(300)는 가상 엘리베이터가 3층으로의 이동하여 가상 엘리베이터의 도어가 개방되는 경우 3층에 대응하는 가상 이미지를 제공할 수 있다.According to one embodiment, the auxiliary computing device 300 may provide a virtual image corresponding to the third floor when the virtual elevator moves to the third floor and the door of the virtual elevator is opened.
보조 컴퓨팅 장치(300)는 가상 엘리베이터를 통하여 제공하는 복수의 층 중 적어도 일부 층에 대해서 다른 층과 상이한 가상 이미지를 제공할 수 있다.The auxiliary computing device 300 may provide a virtual image that is different from the other layers for at least some of the plurality of layers provided through the virtual elevator.
일 예로 제1 층 및 제2 층은 서로 다른 배경의 가상 환경이 제공되어 제1 층 및 제2 층에 대한 가상 이미지는 서로 상이할 수 있다.As an example, the first layer and the second layer may be provided with virtual environments of different backgrounds so that the virtual images for the first and second layers may be different from each other.
도 26을 참조하여 설명하면 제1 플레이어(P1)가 이동 영역(MA)에서 가상 엘리베이터에서 제2 층을 선택한 후 제2 플레이 영역(PA2)이동하는 경우 보조 컴퓨팅 장치(300)가 착용형 디스플레이 장치(400)로 제공하는 가상 이미지와 제1 플레이어(P1)가 이동 영역(MA)에서 가상 엘리베이터에서 제3 층을 선택한 후 제2 플레이 영역(PA2)이동하는 경우 보조 컴퓨팅 장치(300)가 착용형 디스플레이 장치(300)로 제공하는 가상 이미지는 서로 상이한 가상 이미지일 수 있다.26, when the first player P1 moves in the second play area PA2 after selecting the second layer in the virtual elevator in the moving area MA, the auxiliary computing device 300 moves to the wearable display device When the first player P1 moves to the second play area PA2 after selecting the third layer from the virtual elevator in the moving area MA, The virtual images provided to the display device 300 may be different virtual images.
또한 일 실시예에 따르면 이동 영역(MA)에는 리얼 오브젝트가 제공될 수 있다.Also, according to one embodiment, a real object may be provided in the moving area MA.
일 예로 이동 영역(MA)에 제공되는 리얼 오브젝트는 버튼, 스위치, 스틱 등과 같이 사용자가 선택을 입력할 수 있는 리얼 오브젝트가 제공될 수 있다.As an example, a real object provided in the moving area MA may be provided with a real object through which a user can input a selection, such as a button, a switch, a stick, and the like.
또한 리얼 오브젝트에는 마커가 제공될 수 있다.The real object may also be provided with a marker.
보조 컴퓨팅 장치(300)는 플레이어의 리얼 오브젝트 조작에 기초하여 제1 플레이 영역(PA1) 및 제2 플레이 영역(PA2) 중 적어도 하나의 플레이 영역(PA)에 대한 가상 공간을 변경할 수 있다.The auxiliary computing device 300 may change the virtual space for the play area PA of at least one of the first play area PA1 and the second play area PA2 based on the real object manipulation of the player.
도 26을 참조하여 설명하면 보조 컴퓨팅 장치(300)는 디텍팅 정보에 기초하여 제1 플레이어(P1)의 리얼 오브젝트 조작을 판단할 수 있다.Referring to FIG. 26, the auxiliary computing device 300 can determine the real object manipulation of the first player P1 based on the detection information.
일 예로 보조 컴퓨팅 장치(300)는 제1 플레이어(P1)가 이동 영역(MA)에 제공되는 리얼 오브젝트를 조작한 경우, 리얼 오브젝트의 조작 결과에 기초하여 제1 플레이 영역(PA1) 및 제2 플레이 영역(PA2) 중 적어도 하나의 플레이 영역(PA)에 적용할 가상 공간을 판단할 수 있다.For example, when the first player P1 manipulates a real object provided in the movement area MA, the auxiliary computing device 300 may generate a first play area PA1 and a second play area PA2 based on the manipulation result of the real object, It is possible to determine a virtual space to be applied to at least one play area PA of the area PA2.
보다 구체적인 예를 들어 리얼 오브젝트가 스위치인 경우 보조 컴퓨팅 장치(300)는 제1 플레이어(P1)가 누른 스위치에 기초하여 제1 플레이어(P1)이 선택한 층을 판단할 수 있으며, 제1 플레이어(P1)이 선택한 층에 대한 가상 이미지를 제1 플레이 영역(PA1) 및 제2 플레이 영역(PA2) 중 적어도 하나의 플레이 영역(PA)에 적용할 수 있다.More specifically, if the real object is a switch, the auxiliary computing device 300 can determine the layer selected by the first player P1 based on the switch pressed by the first player P1, May apply the virtual image for the selected layer to at least one play area PA of the first play area PA1 and the second play area PA2.
도 27은 다른 실시예에 따른 분할 공간 정합에서 위치 관계에 따른 피격을 나타내는 도면이다.FIG. 27 is a diagram showing a shot according to a positional relation in a subspace matching according to another embodiment. FIG.
도 27에 도시된 바와 같이 현실 세계에서는 플레이 공간(PA)가 제공될 수 있으며, 플레이 공간(PA)는 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)을 포함할 수 있다.As shown in FIG. 27, in the real world, a play space PA may be provided, and the play space PA may include a first play space PA1 and a second play space PA2.
가상 환경에서는 제1 플레이 공간(PA1)에 대응하는 제1 가상 영역(VA1)이 제1 층에 제공될 수 있으며, 제2 플레이 공간(PA2)에 대응하는 제2 가상 영역(VA2)이 제2 층에 제공될 수 있다.In the virtual environment, the first virtual area VA1 corresponding to the first play space PA1 may be provided in the first layer and the second virtual area VA2 corresponding to the second play space PA2 may be provided in the second layer. Lt; / RTI > layer.
도 27을 참조하여 설명하면 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1)는 소지한 입력 장치(400)를 제2 플레이 공간(PA1)에서 플레이하는 제2 플레이어(P2)가 위치한 제5 방향(RD5)으로 지향할 수 있으며, 입력 장치(400)를 조작하여 제3 방향(RD3)로 미리 정해진 이벤트를 발생할 것을 명령할 수 있다. Referring to FIG. 27, the first player P1 playing in the first play space PA1 has a second player P2, which plays the input device 400 possessed in the second play space PA1, It may be directed in the fifth direction RD5 and the input device 400 may be operated to command to generate a predetermined event in the third direction RD3.
일 예로 제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1)는 제2 플레이 공간(PA1)에서 플레이하는 제2 플레이어(P2)가 위치한 좌측을 향해 입력 장치(400)를 지향하고 입력 장치(400)에 제공되는 스위치를 눌려 좌측으로 총을 발사하는 이벤트를 발생할 것을 명령할 수 있다.For example, the first player P1 playing in the first play space PA1 directs the input device 400 toward the left where the second player P2 playing in the second play space PA1 is located, The user may command to generate an event to fire the gun to the left by depressing a switch provided on the switch 400.
보조 컴퓨팅 장치(300)는 제1 플레이어(P1)이 입력 장치(500)를 지향한 제5 방향(RD5)에 대응하는 가상 환경에서의 제5 방향(RD5)로 미리 정해진 이벤트가 발생하는 가상 이미지를 획득할 수 있다.The secondary computing device 300 may be configured to generate a virtual image in which a predetermined event occurs in a fifth direction RD5 in a virtual environment corresponding to a fifth direction RD5 in which the first player P1 has directed the input device 500. [ Can be obtained.
일 예로 보조 컴퓨팅 장치(300)는 제1 플레이어(P1)이 입력 장치(500)를 지향한 제5 방향(RD5)에 대응하는 가상 환경에서의 제5 방향(RD5)로 제1 캐릭터(C1)이 총을 발사하는 가상 이미지를 획득할 수 있다.The auxiliary computing device 300 may include a first character C1 in a fifth direction RD5 in a virtual environment corresponding to a fifth direction RD5 in which the first player P1 is oriented toward the input device 500. [ You can acquire a virtual image that fires this gun.
제1 플레이 공간(PA1)에서 플레이하는 제1 플레이어(P1)가 제2 플레이 공간(PA2)위치한 제2 플레이어(P2)의 방향으로 지향하여 총을 발사한 경우, 도 21에 도시된 바와 같이 현실 환경에서는 제1 플레이어(P1)가 제2 플레이어(P2)를 조준하여 총을 발사하였으나, 가상 환경(VW)에서는 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)는 제1 층에 위치하고, 제2 플레이어(P2)에 대응하는 제2 캐릭터(C2)는 제2 층에 위치할 수 있다.When the first player P1 playing in the first play space PA1 is directed in the direction of the second player P2 located in the second play space PA2 and fires the gun, The first player P1 targets the second player P2 and fires the gun but in the virtual environment VW the first character C1 corresponding to the first player P1 is located on the first floor , And the second character C2 corresponding to the second player P2 may be located in the second layer.
현실 세계에서 제1 플레이어(P1)가 입력 장치(400)를 지향한 방향에 제2 플레이어(P2)가 위치하더라도, 가상 환경(VW)에서 제1 캐릭터(C1)가 지향한 방향에 제2 캐릭터(C2)위치하지 않는 경우 제1 플레이어(P1)은 제2 플레이어(P2)를 피격할 수 없다.Even if the second player P2 is positioned in the direction in which the first player P1 directs the input device 400 in the real world, the second character P2 in the virtual environment VW, The first player P1 can not hit the second player P2 if the second player P2 is not positioned.
일 예로 현실 세계에서 제1 플레이어(P1)가 입력 장치(400)를 지향하여 총알 발사에 대한 명령을 입력한 경우 입력 장치(400)를 지향한 방향에 제2 플레이어(P2)가 위치하더라도, 가상 환경(VW)에서 제1 캐릭터(C1)이 지향한 방향에 제2 캐릭터(C2)가 위치하지 않는 경우 제1 플레이어(P1)가 착용한 착용형 디스플레이 장치(400)를 통하여 제1 플레이어(P1)에게 제공되는 가상 이미지에는 총알이 발사된 방향에 제2 캐릭터(C2)가 제공되지 않을 수 있다.For example, in a real world, when the first player P1 directs the input device 400 to input a command for shooting a bullet, even if the second player P2 is positioned in the direction toward the input device 400, If the second character C2 is not positioned in the direction in which the first character C1 is oriented in the environment VW, the first player P1 is allowed to move through the wearable display device 400 worn by the first player P1 The second character C2 may not be provided in the direction in which the bullet is fired.
다른 예로 현실 세계에서 제1 플레이어(P1)가 입력 장치(400)를 지향하여 총알 발사에 대한 명령을 입력한 경우 입력 장치(400)를 지향한 방향에 제2 플레이어(P2)가 위치하더라도, 가상 환경(VW)에서 제1 캐릭터(C1)이 지향한 방향에 제2 캐릭터(C2)위치하지 않는 경우 제2 플레이어(P2)가 착용한 착용형 디스플레이 장치(400)를 통하여 제2 플레이어(P2)에게 제공되는 가상 이미지에는 피격 당했을 때 제공되는 가상 이미지가 제공되지 않을 수 있다. 보다 구체적인 예를 들어 제2 플레이어(P2)에게 피격 당했을 때 제공되는 가상 이미지가 제공되지 않고 기존에 제공되던 가상 이미지가 제공될 수 있다.As another example, even if the first player P1 is directed to the input device 400 and the command for the bullet shooting is input in the real world, even if the second player P2 is positioned in the direction toward the input device 400, If the second character C2 is not positioned in the direction in which the first character C1 is oriented in the environment VW, the second player P2 can be moved through the wearable display device 400 worn by the second player P2, The virtual image provided to the user may not be provided with a virtual image provided when the user is hit. More specifically, for example, a virtual image provided when a second player P2 is shot is not provided, and a virtual image that has been previously provided can be provided.
도 28은 다른 실시예에 따른 분할 공간 정합에서의 소리 정합을 나타내는 도면이다.FIG. 28 is a diagram showing the sound matching in the divided space matching according to another embodiment. FIG.
제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 독립적으로 제공될 수 있다. The first play space PA1 and the second play space PA2 may be provided independently.
도 28에 도시된 바와 같이 현실 세계에서는 플레이 공간(PA)가 제공될 수 있으며, 플레이 공간(PA)는 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)을 포함할 수 있다.As shown in FIG. 28, in the real world, a play space PA may be provided, and the play space PA may include a first play space PA1 and a second play space PA2.
또한 제1 플레이 공간(PA1) 및 제2 플레이 공간(PA2)은 동일한 층으로 제공될 수 있다.Also, the first play space PA1 and the second play space PA2 may be provided in the same layer.
착용형 디스플레이 장치(400)를 통하여 제공되는 가상 환경에서는 제1 플레이 공간(PA1)에 대응하는 제1 가상 영역(VA1)이 제1 층에 제공될 수 있으며, 제2 플레이 공간(PA2)에 대응하는 제2 가상 영역(VA2)이 제2 층에 제공될 수 있다.In the virtual environment provided through the wearable display device 400, the first virtual area VA1 corresponding to the first play space PA1 may be provided in the first layer, and the first virtual space VA1 corresponding to the second play space PA2 may be provided A second virtual area VA2 may be provided in the second layer.
제1 플레이 공간(PA1)에는 제1 플레이어(P1)가 플레이할 수 있으며, 제2 플레이 공간(PA2)에는 제2 플레이어(P2)가 플레이할 수 있다.The first player P1 can play in the first play space PA1 and the second player P2 can play in the second play space PA2.
일 예로 도 22에 도시된 바와 같이 제1 플레이어(P1)의 좌측에 제2 플레이어(P2)가 위치할 수 있다.For example, as shown in FIG. 22, the second player P2 may be positioned on the left side of the first player P1.
일 실시예에 따르면 착용형 디스플레이 장치(400)의 착용형 디스플레이 음향 출력부(460)을 통하여 제공되는 소리의 방향은 현실 세계에서의 플레이어 간의 방향과 상이할 수 있다.According to one embodiment, the direction of the sound provided through the wearable display sound output portion 460 of the wearable display device 400 may be different from the direction between the players in the real world.
도 28을 참조하여 설명하면 현실 세계에서 제1 플레이어(PA1)에게 제2 플레이어(P2)에 의해 발생한 소리는 좌측에서 발생하는 소리로 인식될 수 있다.Referring to FIG. 28, a sound generated by the second player P2 to the first player PA1 in the real world can be recognized as a sound generated from the left.
따라서, 현실 세계 만을 고려한다면 제1 플레이어(PA1)에게 제공되는 제2 플레이어(P2)에 의해 발생한 소리는 제1 플레이어(PA1)에게 좌/우로 제공되는 착용형 디스플레이 음향 출력부(460) 중 좌측에 제공되는 착용형 디스플레이 음향 출력부(460)를 통하여 출력되도록 제공될 수 있다.Therefore, if only the real world is considered, the sound generated by the second player P2 provided to the first player PA1 is displayed on the left side of the wearable display sound output unit 460 provided to the first player PA1 to the left / To be output via the wearable display sound output 460 provided to the user.
도 28을 참조하면 착용형 디스플레이 장치(400)를 통하여 제공되는 가상 환경(V1)에서는 제1 플레이어(P1)에 대응하는 제1 캐릭터(C1)는 제1 층에 위치하고, 제2 플레이어(P2)에 대응한 제2 캐릭터(C2)는 제2 층에 위치할 수 있다.28, in the virtual environment V1 provided through the wearable display device 400, the first character C1 corresponding to the first player P1 is located in the first layer, The second character C2 corresponding to the second character may be located in the second layer.
따라서, 제1 플레이어(PA1)에게 제공되는 제2 플레이어(P2)에 의해 발생한 소리는 제1 플레이어(P1)의 위쪽에서 들리도록 제공될 수 있다.Therefore, the sound generated by the second player P2 provided to the first player PA1 can be provided to be heard above the first player P1.
도 29는 일 실시예에 따른 얼굴 정합을 나타내는 예시도이다.29 is an exemplary view showing face registration according to an embodiment.
일 실시예에 따르면 가상 환경에서 플레이어간에 서로를 구분하는 방법으로는 각각의 플레이어 및/또는 팀별로 서로 다른 색상의 가상 캐릭터로 제공하여 플레이어 및/또는 팀별로 서로를 식별할 수 있다.According to an embodiment, in a method of distinguishing players from each other in a virtual environment, each player and / or team may provide virtual characters of different colors to identify each player and / or team.
일 예로 제1 플레이어에 대응하는 제1 가상 캐릭터와 제2 플레이어에 대응하는 제2 가상 캐릭터의 색상을 서로 상이하게 제공함으로써 피아를 식별할 수 있게 할 수 있다.For example, the first virtual player character corresponding to the first player and the second virtual character corresponding to the second player character may be provided in different colors to identify the player.
또는 제1 팀에 소속된 플레이어에 대응하는 가상 캐릭터를 제1 색상으로 제공하고 제2 팀에 소속된 플레이어 대응하는 가상 캐릭터의 색상을 제2 색상으로 제공하여 제1 팀에 소속된 플레이어에 대응하는 가상 캐릭터 및 제2 팀에 소속된 플레이어에 대응하는 가상 캐릭터를 서로 식별할 수 있도록 제공할 수 있다.Or a virtual character corresponding to a player belonging to the first team in a first color and a color of a virtual character corresponding to a player belonging to the second team in a second color so as to correspond to the player belonging to the first team The virtual character and the virtual character corresponding to the player belonging to the second team can be discriminated from each other.
일 실시예에 따르면 가상 환경에서 각각의 플레이어 및/또는 팀을 서로를 구분하도록 각각의 플레이어 및/또는 팀에 대응하는 식별 정보를 제공하여 하나의 플레이어가 식별 정보에 기초하여 각각의 플레이어 및/또는 팀을 서로 식별할 수 있다.According to one embodiment, identification information corresponding to each player and / or team is provided so as to distinguish each player and / or team in a virtual environment so that one player can identify each player and / Teams can be identified from each other.
또는 제1 플레이어에 대응하는 제1 가상 캐릭터 및/또는 제1 가상 캐릭터와 인접한 미리 정해진 영역에 제1 플레이어 및/또는 제1 가상 캐릭터에 대한 식별 정보를 제공할 수 있으며, 제2 플레이어에 대응하는 제2 가상 캐릭터 및/또는 제2 가상 캐릭터와 인접한 미리 정해진 영역에 제2 플레이어 및/또는 제2 가상 캐릭터에 대한 식별 정보를 제공하여 제1 가상 캐릭터 및 제2 가상 캐릭터를 식별하도록 식별 정보를 제공할 수 있다.Or the identification information for the first player and / or the first virtual character in a predetermined area adjacent to the first virtual character and / or the first virtual character corresponding to the first player, Identification information for the second player and / or the second virtual character is provided in a predetermined area adjacent to the second virtual character and / or the second virtual character to provide the identification information so as to identify the first virtual character and the second virtual character can do.
또는 제1 팀에 소속된 플레이어에 대응하는 가상 캐릭터 및/또는 가상 캐릭터와 인접한 미리 정해진 영역에 제1 팀에 대한 식별 정보를 제공하고 제2 팀에 소속된 플레이어 대응하는 가상 캐릭터 및/또는 가상 캐릭터와 인접한 미리 정해진 영역에 제2 팀에 대한 식별 정보를 제공하여 제1 팀에 소속된 플레이어에 대응하는 가상 캐릭터 및 제2 팀에 소속된 플레이어에 대응하는 가상 캐릭터를 서로 식별할 수 있도록 제공할 수 있다.Or a virtual character corresponding to the player belonging to the first team and / or a predetermined area adjacent to the virtual character, identification information on the first team, and a virtual character corresponding to the player belonging to the second team and / The virtual character corresponding to the player belonging to the first team and the virtual character corresponding to the player belonging to the second team can be discriminated from each other by providing identification information for the second team in a predetermined area adjacent to the first team have.
이러한 색상을 이용한 각각의 플레이어를 식별하는 경우 플레이어에 부여된 색을 기억하지 않으면 어느 플레이어인지 식별하는데 곤란함이 있을 수 있다. When identifying each player using such a color, it may be difficult to identify which player is the player who does not remember the color assigned to the player.
일상생황에서 다른 사람을 인식하는 다양한 방법이 있을 수 있으나 주로 사용되는 것은 얼굴을 통한 인식일 수 있다. 즉, 다른 사람의 얼굴 특징을 통하여 서로를 식별하고 인식할 수 있다.There may be a variety of ways to recognize others in everyday life, but what is commonly used can be face recognition. That is, they can identify and recognize each other through facial features of other people.
이러한 얼굴 특징은 다양하게 제공될 수 있는데 일반적으로 게임에서는 가상 캐릭터 별로 획일적으로 제공되거나 가상 캐릭터 별로 얼굴 특징이 서로 상이할 뿐 플레이어에 따라 얼굴 특징이 서로 상이하게 제공되지 않는다. Such face features can be provided in a variety of ways. Generally, in a game, the virtual characters are provided uniformly or the face features are different from one another for each virtual character, but the face features are not provided differently from one player to another.
일 실시예에 따르면 플레이어 별로 얼굴 특징을 상이하게 제공함으로써 하나의 플레이어를 다른 플레이어와 용이하게 식별할 수 있다.According to one embodiment, one player can be easily distinguished from the other players by providing different facial features for each player.
또한 일 실시예에 따르면 가상 캐릭터의 얼굴 데이터에 플레이어의 얼굴 특징을 반영함으로써 해당 플레이어의 가상 캐릭터임을 보다 명확하게 식별할 수 있다.In addition, according to the embodiment, the face characteristic of the player is reflected in the face data of the virtual character, so that it is possible to more clearly identify the virtual character of the player.
도 30은 일 실시예에 따른 플레이 캐릭터 획득 방법을 나타내는 순서도이다.30 is a flowchart showing a play character acquisition method according to an embodiment.
도 30을 참조하면 플레이 캐릭터를 획득하는 방법은 플레이어 얼굴 데이터를 획득하는 단계(S200), 플레이어 얼굴 데이터에 기초하여 얼굴 특징값을 획득하는 단계(S210), 가상 캐릭터에 대한 정보를 획득하는 단계(S220), 얼굴 특징값에 기초하여 가상 캐릭터의 얼굴 데이터를 획득하는 단계(S230), 플레이 캐릭터를 저장하는 단계(S500), 플레이 캐릭터를 출력하는 단계(S240)을 포함할 수 있다.Referring to FIG. 30, a method for acquiring a play character includes acquiring player face data (S200), acquiring a face feature value based on player face data (S210), acquiring information about a virtual character S220), acquiring the face data of the virtual character based on the face feature value (S230), storing the play character (S500), and outputting the play character (S240).
일 실시예에 따르면 플레이어 얼굴 데이터를 획득하는 단계가 수행될 수 있다(S200).According to an embodiment, a step of acquiring player face data may be performed (S200).
일 실시예에 따르면 가상 환경 시스템에는 얼굴 센서부(800)가 제공될 수 있으며, 얼굴 센서부(800)를 통하여 플레이어의 얼굴 데이터를 획득할 수 있다.According to one embodiment, the virtual environment system may be provided with the face sensor unit 800 and the face data of the player through the face sensor unit 800 may be acquired.
서버(200)는 플레이어의 얼굴 특징값을 획득하기 위해서 플레이어의 얼굴 데이터를 획득할 수 있다.The server 200 may acquire the face data of the player to obtain the face characteristic value of the player.
도 31은 일 실시예에 따른 얼굴 센서부(800)를 통한 얼굴 데이터의 획득을 나타내는 도면이다.31 is a diagram showing acquisition of face data through the face sensor unit 800 according to an embodiment.
일 실시예에 따르면 플레이어의 얼굴 데이터를 획득하기 위한 얼굴 센서부(800)가 제공될 수 있으며, 얼굴 센서부(800)를 통하여 플레이어의 얼굴 데이터를 획득할 수 있다.According to an embodiment, a face sensor unit 800 for obtaining face data of a player can be provided, and face data of a player can be obtained through the face sensor unit 800. [
일 실시예에 따르면 얼굴 센서부(800)는 카메라 및 이미지 등으로 제공될 수 있다.According to one embodiment, the face sensor unit 800 may be provided as a camera, an image, or the like.
일 예로 얼굴 센서부(800)가 카메라로 제공되는 경우 카메라로 플레이어의 얼굴을 촬영하여 플레이어의 얼굴에 대한 얼굴 데이터를 획득할 수 있다.For example, when the face sensor unit 800 is provided as a camera, the face of the player can be captured by photographing the face of the player with the camera.
도 32는 일 실시예에 따른 플레이어의 얼굴 데이터를 나타내는 예시도이다.32 is an exemplary diagram showing face data of a player according to an embodiment.
도 32에 도시된 바와 같이 서버(200)는 얼굴 센서부(800)를 통하여 플레이어의 얼굴을 스캔한 얼굴 데이터를 획득할 수 있다.As shown in FIG. 32, the server 200 can acquire face data of the face of the player through the face sensor unit 800.
일 실시예에 따르면 서버(200)에 미리 저장된 얼굴 데이터 중 획득한 플레이어 식별 정보에 대응하는 얼굴 데이터를 획득할 수 있다.According to one embodiment, face data corresponding to the acquired player identification information among the face data stored in advance in the server 200 can be obtained.
도 33은 일 실시예에 따른 식별 정보를 이용한 미리 저장된 얼굴 데이터의 획득을 나타내는 도면이다.FIG. 33 is a diagram illustrating acquisition of previously stored face data using identification information according to an embodiment. FIG.
서버(200)는 얼굴 센서부(800)를 통하여 획득한 얼굴 데이터를 미리 저장할 수 있다.The server 200 may store the face data acquired through the face sensor unit 800 in advance.
또한 일 실시예에 따르면 얼굴 데이터는 별도의 얼굴 데이터 서버에 미리 저장될 수 있다.According to an embodiment, the face data may be stored in advance in a separate face data server.
일 실시예에 따르면 서버(200)는 ID 센서부(900)를 통하여 플레이어 식별 정보를 획득할 수 있다.According to one embodiment, the server 200 can acquire player identification information through the ID sensor unit 900. [
일 예로 서버(200)는 ID 센서부(900)에 제공되는 입력 장치를 통하여 플레이어가 입력한 플레이어 식별 정보를 획득할 수 있다. For example, the server 200 may acquire the player identification information input by the player through the input device provided in the ID sensor unit 900.
다른 예로 서버(200)는 ID 센서부(900)를 통하여 플레이어가 소지한 휴대용 기록 매체에 기록된 플레이어 식별 정보를 스캔하여 획득할 수 있다.As another example, the server 200 may scan and acquire player identification information recorded on a portable recording medium held by the player via the ID sensor unit 900. [
보다 구체적인 예를 들어 서버(200)는 ID 센서부(900)에 제공되는 바코드 리더기를 통하여 플레이어가 소지한 ID 카드에 기록된 바코드를 스캔하여 플레이어 식별 정보를 획득할 수 있다.More specifically, the server 200 may acquire player identification information by scanning a barcode recorded on the ID card held by the player via the barcode reader provided in the ID sensor unit 900. [
또한 서버(200)는 ID 센서부(900)를 통하여 플레이어가 입력한 플레이어 식별 정보를 획득할 수 있다. 또한 서버(200)는 미리 저장된 얼굴 데이터 중 플레이어 식별 정보에 대응하는 얼굴 데이터를 획득할 수 있다.In addition, the server 200 can acquire the player identification information inputted by the player through the ID sensor unit 900. [ In addition, the server 200 can acquire the face data corresponding to the player identification information among the face data stored in advance.
또한 별도의 얼굴 데이터 서버가 제공되는 경우 서버(200)는 얼굴 데이터 서버로 플레이어 식별 정보에 대응하는 얼굴 데이터의 전송을 요청할 수 있으며, 얼굴 데이터 서버로부터 플레이어 식별 정보에 대응하는 얼굴 데이터를 획득할 수 있다.If a separate face data server is provided, the server 200 can request the transmission of the face data corresponding to the player identification information to the face data server and acquire the face data corresponding to the player identification information from the face data server have.
일 실시예에 따르면 서버(200)는 휴대용 기록매체로부터 얼굴 데이터를 획득할 수 있다.According to one embodiment, the server 200 can acquire face data from a portable recording medium.
일 실시예에 따르면 서버(200)는 ID 센서부(900)를 통하여 플레이어가 소지한 휴대용 기록 매체에 기록된 얼굴 데이터를 획득할 수 있다.According to one embodiment, the server 200 can acquire the face data recorded on the portable recording medium held by the player through the ID sensor unit 900.
일 예로 서버(200)는 ID 센서부(900)를 통하여 플레이어가 소지한 휴대용 기록 매체에 기록된 얼굴 데이터를 스캔하여 획득할 수 있다.For example, the server 200 can scan the face data recorded on the portable recording medium held by the player through the ID sensor unit 900 and acquire the face data.
보다 구체적인 예를 들어 서버(200)는 ID 센서부(900)에 제공되는 바코드 리더기를 통하여 플레이어가 소지한 ID 카드에 기록된 바코드를 스캔하여 얼굴 데이터를 획득할 수 있다.More specifically, the server 200 may acquire facial data by scanning a barcode recorded on an ID card held by a player through a barcode reader provided in the ID sensor unit 900. [
일 실시예에 따르면 플레이어 얼굴 데이터에 기초하여 얼굴 특징값을 획득하는 단계가 수행될 수 있다(S210).According to an embodiment, a step of acquiring a face feature value based on player face data may be performed (S210).
얼굴 데이터의 특징값은 눈 색, 머리카락 색, 눈썹 색, 얼굴 피부 색, 코의 높이, 너비, 눈의 크기, 눈과 눈 사이의 거리, 눈의 위치 등에 대한 값을 획득할 수 있다Feature values of facial data can be obtained for eye color, hair color, eyebrow color, facial skin color, nose height, width, eye size, distance between eye and eye,
서버(200)는 미리 정해진 가상 캐릭터 얼굴 데이터 변수값에 획득한 얼굴 데이터의 특징값을 적용하여 가상 캐릭터에 대한 얼굴 데이터를 획득할 수 있다.The server 200 can acquire the face data of the virtual character by applying the characteristic value of the obtained face data to the predetermined virtual character face data variable value.
일 예로 얼굴 데이터는 코의 높이, 코의 노비, 눈의 크기, 눈과 눈 사이의 거리, 눈의 위치에 대한 변수를 포함할 수 있으며, 서버 저장부(220)에는 얼굴 데이터의 변수에 대한 변수값이 미리 저장될 수 있다, 서버 제어부(240)는 미리 저장된 얼굴 데이터의 변수값을 획득한 얼굴 데이터의 특징값으로 변경할 수 있다.For example, the face data may include variables such as the height of the nose, the nose of the nose, the size of the eyes, the distance between the eyes and the eye, and the position of the eyes. In the server storage unit 220, The server control unit 240 can change the variable value of the stored face data to the feature value of the acquired face data.
일 예로 획득한 얼굴 데이터의 코의 높이가 10cm 인 경우 서버 제어부(240)는 가상 캐릭터의 얼굴 데이터의 코의 높이 변수를 10cm로 설정할 수 있다.For example, when the height of the nose of the acquired face data is 10 cm, the server control unit 240 may set the nose height parameter of the virtual character's face data to 10 cm.
특징값이 서로 상이한 플레이어들 간의 가상 캐릭터의 얼굴 데이터는 서로 상이할 수 있다.The face data of the virtual character among the players having the feature values different from each other may be different from each other.
일 예로 제1 플레이어로부터 획득한 얼굴 데이터의 특징값과 제2 플레이어로부터 획득한 얼굴 데이터의 특징값이 서로 상이한 경우 제1 캐릭터의 얼굴 데이터 및 제2 캐릭터의 얼굴 데이터는 서로 상이할 수 있다.For example, when the feature value of the face data acquired from the first player is different from the feature value of the face data acquired from the second player, the face data of the first character and the face data of the second character may be different from each other.
또한 제1 캐릭터는 제1 플레이어로부터 획득한 특징값을 적용하여 얼굴 데이터를 획득하기 때문에 다른 플레이어가 제1 캐릭터를 볼 때 제1 플레이어의 특징적인 모습(예를 들어 코의 높이 등)을 통하여 제1 플레이어에 대응하는 캐릭터임을 식별할 수 있다.In addition, since the first character acquires the face data by applying the feature value acquired from the first player, when the other player views the first character, It is possible to identify the character corresponding to one player.
서버(200)는 획득한 특징값을 보조 컴퓨팅 장치(300)로 전송할 수 있다.The server 200 may transmit the acquired characteristic values to the auxiliary computing device 300. [
이상에서 설명된 특징값의 획득이 반드시 서버(200)에서 실행되는 것으로 정되는 것은 아니며, 선택에 따라 다양한 형태로 제공될 수 있다.The acquisition of the feature values described above is not necessarily performed in the server 200, and may be provided in various forms according to the selection.
일 예로 보조 컴퓨팅 장치(300)가 단계S100에서 획득한 얼굴 데이터를 획득하여 단계S200을 수행하여 특징값을 획득할 수 있다.For example, the auxiliary computing device 300 may acquire the feature value by acquiring the face data acquired in step S100 and performing step S200.
일 실시예에 따르면 가상 캐릭터에 대한 정보를 획득하는 단계가 수행될 수 있다(S220).According to an embodiment, the step of acquiring information on the virtual character may be performed (S220).
일 실시예에 따르면 미리 저장된 복수의 가상 캐릭터 중 선택된 캐릭터에 대한 정보를 획득할 수 있다.According to an embodiment, information on a selected character among a plurality of virtual characters stored in advance can be obtained.
일 실시예에 따르면 가상 환경 내에는 복수의 가상 캐릭터 중 적어도 하나의 캐릭터를 선택할 수 있는 단계가 제공될 수 있다.According to an embodiment, a step of selecting at least one character among a plurality of virtual characters in the virtual environment may be provided.
일 예로 게임 내에서 미리 정해진 스텝에서는 플레이어가 복수의 캐릭터에 대한 식별 정보가 제공될 수 있다. For example, in a predetermined step in the game, the player may be provided with identification information for a plurality of characters.
도 34는 일 실시예에 따른 가상 캐릭터의 선택을 나타내는 도면이다.34 is a diagram illustrating selection of a virtual character according to an embodiment.
도 34를 참조하여 설명하면 보조 컴퓨팅 장치(300)는 착용형 디스플레이 장치(400)를 통하여 가상 환경에서 복수의 가상 캐릭터에 대한 이미지를 제공하도록 제어할 수 있다.Referring to FIG. 34, the auxiliary computing device 300 can control the wearable display device 400 to provide images for a plurality of virtual characters in a virtual environment.
또한 도 34에는 도시 되지 않았지만, 복수의 가상 캐릭터 별로 각각에 대한 식별 정보가 제공될 수 있다.Although not shown in FIG. 34, identification information for each of a plurality of virtual characters may be provided.
또한 보조 컴퓨팅 장치(300)는 컨트롤러(500)를 통하여 적어도 하나의 가상 캐릭터에 대한 플레이어의 선택을 획득할 수 있다.The auxiliary computing device 300 may also obtain a selection of the player for the at least one virtual character via the controller 500.
일 예로 보조 컴퓨팅 장치(300)는 플레이어가 컨트롤러(500)를 지향한 방향에 대응하는 가상 캐릭터를 플레이어가 선택한 가상 캐릭터로 획득할 수 있다.For example, the auxiliary computing device 300 may acquire a virtual character corresponding to a direction in which the player has directed the controller 500 as a virtual character selected by the player.
다른 예로 보조 컴퓨팅 장치(300)는 플레이어가 컨트롤러(500)에 제공되는 미리 정해진 선택 버튼을 눌려 입력한 경우 플레이어가 미리 정해진 선택 버튼을 눌력 입력한 시점에 컨트롤러(500)가 지향하는 방향에 대응하는 가상 캐릭터를 플레이어가 선택한 가상 캐릭터로 획득할 수 있다.As another example, when the player depresses a predetermined selection button provided on the controller 500, the auxiliary computing device 300 may display the selection button corresponding to the direction in which the controller 500 is oriented when the player touches the predetermined selection button The virtual character can be obtained as a virtual character selected by the player.
보조 컴퓨팅 장치(300)는 선택된 가상 캐릭터에 대한 캐릭터 정보를 획득할 수 있다. The auxiliary computing device 300 may obtain the character information for the selected virtual character.
일 실시예에 따르면 캐릭터 정보는 캐릭터의 외형에 대한 정보로 가상 캐릭터의 얼굴 데이터를 제외한 몸체에 대한 데이터일 수 있다. 또는 캐릭터 정보는 캐릭터의 가상 캐릭터의 얼굴 데이터를 포함하되, 가상 캐릭터의 얼굴 데이터는 가상 캐릭터에 미리 부여된 기본 특징값이 설정된 얼굴 데이터가 제공될 수 있다.According to one embodiment, the character information may be data on the body excluding the face data of the virtual character as information on the appearance of the character. Alternatively, the character information may include face data of the virtual character of the character, and the face data of the virtual character may be provided with face data in which the basic character value previously assigned to the virtual character is set.
일 실시예에 따르면 얼굴 특징값에 기초하여 가상 캐릭터의 얼굴 데이터를 획득하는 단계가 수행될 수 있다(S230).According to an exemplary embodiment, a step of acquiring face data of a virtual character based on the face feature value may be performed (S230).
서버(200)는 플레이어의 얼굴 특징값에 기초하여 가상 캐릭터의 얼굴 데이터를 획득할 수 있다.The server 200 can acquire the face data of the virtual character based on the face characteristic value of the player.
일 실시예에 따르면 가상 캐릭터의 얼굴 데이터는 눈 색, 머리카락 색, 눈썹 색, 얼굴 피부 색, 코의 높이, 너비, 눈의 크기, 눈과 눈 사이의 거리, 눈의 위치 등에 대한 변수값을 포함할 수 있다.According to one embodiment, the face data of the virtual character includes variable values for eye color, hair color, eyebrow color, face skin color, nose height, width, eye size, distance between eyes, can do.
서버(200)는 가상 캐릭터의 얼굴 데이터에 포함된 변수값을 플레이어의 얼굴 데이터에 기초하여 획득한 특징값으로 변경하여 가상 캐릭터의 얼굴 데이터를 획득할 수 있다.The server 200 can acquire the face data of the virtual character by changing the variable value included in the face data of the virtual character to the characteristic value acquired based on the face data of the player.
일 예로 서버(200)는 가상 캐릭터의 얼굴 데이터에 포함된 코의 높이 변수값을 플레이어의 얼굴 데이터에서 획득한 변수값으로 변경하여 가상 캐릭터의 얼굴 데이터를 획득할 수 있다.For example, the server 200 may acquire face data of a virtual character by changing the height variable value of the nose included in the face data of the virtual character to a variable value obtained from the face data of the player.
일 실시예에 따르면 플레이 캐릭터를 저장하는 단계가 수행될 수 있다(S240).According to an embodiment, the step of storing the play character may be performed (S240).
서버(200)는 가상 캐릭터의 얼굴 데이터 및 가상 캐릭터의 몸체 데이터에 기초하여 가상 캐릭터를 획득할 수 있다.The server 200 can acquire the virtual character based on the face data of the virtual character and the body data of the virtual character.
또한 서버(200)는 가상 캐릭터를 서버 저장부(220)에 저장할 수 있다.In addition, the server 200 may store the virtual character in the server storage unit 220.
또한 서버(200)는 가상 캐릭터를 보조 컴퓨팅 장치(300)로 전송할 수 있다.In addition, the server 200 may transmit the virtual character to the auxiliary computing device 300.
일 예로 서버(200)는 제1 플레이어에 대응하는 제1 가상 캐릭터를 제2 플레이어가 사용하는 제2 보조 컴퓨팅 장치로 전송할 수 있다.For example, the server 200 may transmit the first virtual character corresponding to the first player to the second auxiliary computing device used by the second player.
다른 예로 서버(200)는 제2 플레이어에 대응하는 제2 가상 캐릭터를 제1 플레이어가 사용하는 제1 보조 컴퓨팅 장치로 전송할 수 있다.As another example, the server 200 may transmit a second virtual character corresponding to the second player to a first auxiliary computing device used by the first player.
또 다른 예로 서버(200)는 서버(200)와 연결된 제1 보조 컴퓨팅 장치 및 제2 보조 컴퓨팅 장치로 제1 가상 캐릭터 및 제2 가상 캐릭터를 전송할 수 있다.As another example, the server 200 may transmit the first virtual character and the second virtual character to the first auxiliary computing device and the second auxiliary computing device connected to the server 200. [
일 실시예에 따르면 플레이 캐릭터를 출력하는 단계가 수행될 수 있다(S250).According to an embodiment, the step of outputting the play character may be performed (S250).
일 실시예에 따르면 하나의 플레이어가 착용한 착용형 디스플레이 장치(400)를 통하여 다른 플레이어에 대응하는 가상 캐릭터의 이미지가 출력될 수 있다.According to one embodiment, an image of a virtual character corresponding to another player can be output through the wearable display device 400 worn by one player.
도 35는 일 실시예에 따른 플레이 캐릭터의 예시도이다.35 is an exemplary view of a play character according to an embodiment.
도 35에 도시된 바와 같이 가상 환경에서 출력되는 가상 캐릭터의 얼굴 데이터는 플레이어의 얼굴 데이터에 기초하여 획득된 특징값이 반영된 얼굴 데이터가 제공될 수 있다.As shown in FIG. 35, the face data of the virtual character output in the virtual environment may be provided with face data reflecting characteristic values obtained based on the face data of the player.
일 예로 제1 플레이어 및 제2 플레이어가 가상 환경을 플레이할 때, 가상 환경에서 제1 플레이어의 시야에 제2 플레이어에 대응하는 가상 캐릭터가 포함된 경우 제1 플레이어가 착용한 착용형 디스플레이 장치(400)를 통하여 제2 플레이어에 대응하는 가상 캐릭터가 출력될 수 있다.For example, when the first player and the second player play the virtual environment and the virtual character corresponding to the second player is included in the view of the first player in the virtual environment, the wearable display device 400 , The virtual character corresponding to the second player can be output.
또한 제2 플레이어의 시야에 제1 플레이어에 대응하는 가상 캐릭터가 포함된 경우 제2 플레이어가 착용한 착용형 디스플레이 장치(400)를 통하여 제1 플레이어에 대응하는 가상 캐릭터가 출력될 수 있다.Also, if a virtual character corresponding to the first player is included in the field of view of the second player, the virtual character corresponding to the first player can be output through the wearable display device 400 worn by the second player.
제1 착용형 디스플레이 장치를 통하여 상기 제2 플레이어에 대응하는 제2 플레이 캐릭터가 출력되는 경우 제2 플레이어에 대응하는 가상 캐릭터의 얼굴 데이터는 제2 플레이어의 특징값이 반영된 얼굴 데이터가 출력될 수 있다.When the second play character corresponding to the second player is output through the first wearable display device, the face data of the virtual character corresponding to the second player may be output with the face data reflecting the characteristic value of the second player .
또한 제2 착용형 디스플레이 장치를 통하여 상기 제1 플레이어에 대응하는 상기 제2 플레이 캐릭터가 출력되는 경우 제2 플레이어에 대응하는 가상 캐릭터의 얼굴 데이터는 제2 플레이어의 특징값이 반영된 얼굴 데이터가 출력될 수 있다. Also, when the second play character corresponding to the first player is outputted through the second wearable display device, the face data of the virtual character corresponding to the second player is outputted as the face data reflecting the characteristic value of the second player .
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (14)

  1. 분리된 복수의 공간에서 플레이하는 플레이어에게 상기 플레이어가 착용한 착용형 디스플레이 장치를 통하여 가상 환경의 적어도 일부에 대한 가상 이미지를 제공하는 가상 현실 제어 시스템으로,A virtual reality control system for providing a virtual image of at least a part of a virtual environment through a wearable display device worn by the player to a player playing in a plurality of separated spaces,
    제1 플레이 공간에 대한 디텍팅 정보를 획득하는 적어도 하나의 제1 디텍팅 장치;At least one first detection device for obtaining detection information for a first play space;
    제2 플레이 공간에 대한 디텍팅 정보를 획득하는 적어도 하나의 제2 디텍팅 장치;At least one second detecting device for obtaining detecting information for a second play space;
    제1 가상 이미지 및 제2 가상 이미지를 생성하는 적어도 하나의 보조 컴퓨팅 장치;At least one auxiliary computing device for generating a first virtual image and a second virtual image;
    상기 제1 플레이 공간에 위치한 제1 플레이어에게 상기 제1 가상 이미지를 출력하는 제1 착용형 디스플레이 장치; 및A first wearable display device for outputting the first virtual image to a first player located in the first play space; And
    상기 제2 플레이 공간에 위치한 제2 플레이어에게 상기 제2 가상 이미지를 출력하는 제2 착용형 디스플레이 장치;를 포함하고,And a second wearable display device for outputting the second virtual image to a second player located in the second play space,
    상기 보조 컴퓨팅 장치는,The secondary computing device comprises:
    상기 제1 디텍팅 정보에 기초하여 상기 제1 플레이어에 대한 제1 현실 위치 정보를 획득하고, 상기 제1 플레이어의 현실 위치 정보에 기초하여 상기 제1 플레이어에 대응하는 가상 환경에서의 위치 정보인 제1 가상 위치 정보를 획득하고,Acquiring first real position information on the first player based on the first detection information and generating first position information on the first player based on the first position information on the first player, 1 virtual location information,
    상기 제2 디텍팅 정보에 기초하여 상기 제2 플레이어에 대한 제2 현실 위치 정보를 획득하고, 상기 제2 플레이어의 현실 위치 정보에 기초하여 상기 제2 플레이어에 대응하는 상기 가상 환경에서의 위치인 제2 가상 위치 정보를 획득하고,Acquires second real position information on the second player based on the second detection information, and based on the real position information on the second player, 2 virtual location information,
    상기 제1 가상 이미지는 상기 가상 환경에서 상기 제1 가상 위치 정보에 기초하여 판단된 위치에서의 시야에 대응하는 영역에 대한 이미지이고,The first virtual image is an image for an area corresponding to a field of view at a position determined based on the first virtual position information in the virtual environment,
    상기 제2 가상 이미지는 상기 가상 환경에서 상기 제2 가상 위치 정보에 기초하여 판단된 위치에서의 시야에 대응하는 영역에 대한 이미지인 Wherein the second virtual image is an image for an area corresponding to a field of view at a position determined based on the second virtual position information in the virtual environment
    가상 환경 제어 시스템.Virtual environment control system.
  2. 제1 항에 있어서,The method according to claim 1,
    상기 제1 현실 위치 정보 및 상기 제2 현실 위치 정보에 기초하여 판단된 상기 제1 플레이어 및 상기 제2 플레이어의 거리는 상기 제1 가상 위치 정보 및 상기 제2 가상 위치 정보에 기초하여 판단된 상기 가상 환경에서의 상기 제1 캐릭터 및 상기 제2 캐릭터 사이의 거리와 서로 상이한The distance between the first player and the second player determined based on the first real position information and the second real position information is calculated based on the first virtual position information and the second virtual position information, The distance between the first character and the second character in the first character
    가상 환경 제어 시스템.Virtual environment control system.
  3. 제2 항에 있어서,3. The method of claim 2,
    상기 제1 현실 위치 정보, 상기 제2 현실 위치 정보, 상기 제1 가상 위치 정보 및 상기 제2 가상 위치 정보는 좌표값을 포함하고,Wherein the first real position information, the second real position information, the first virtual position information, and the second virtual position information include coordinate values,
    상기 제1 현실 위치 정보 및 상기 제2 현실 위치 정보의 좌표값의 차이는The difference between the coordinate values of the first real position information and the second real position information is
    상기 제1 가상 위치 정보 및 상기 제2 가상 위치 정보는 좌표값과 상이한Wherein the first virtual position information and the second virtual position information are different from the coordinate value
    가상 환경 제어 시스템.Virtual environment control system.
  4. 제1 항에 있어서,The method according to claim 1,
    상기 제1 플레이 공간 및 상기 제2 플레이 공간이 제1 방향으로 배열되어 제공되고, 상기 가상 환경에서 상기 제1 플레이 공간에 대응하는 제1 가상 영역 및 상기 제2 플레이 공간에 대응하는 제2 가상 영역은 상기 제2 방향으로 제공되는Wherein the first play space and the second play space are provided in a first direction and are arranged in a first virtual space corresponding to the first play space and a second virtual space corresponding to the second play space in the virtual environment, Is provided in the second direction
    가상 환경 제어 시스템.Virtual environment control system.
  5. 제4 항에 있어서,5. The method of claim 4,
    상기 제1 착용형 디스플레이 장치가 상기 제2 플레이어가 위치한 상기 제1 방향과 상이한 제2 방향으로 지향되는 경우, 상기 제1 가상 이미지는 상기 제1 플레이어에 대응하는 상기 제1 캐릭터를 포함하는Wherein when the first wearable display device is oriented in a second direction different from the first direction in which the second player is located, the first virtual image includes the first character corresponding to the first player
    가상 환경 제어 시스템.Virtual environment control system.
  6. 제4 항에 있어서,5. The method of claim 4,
    상기 제1 플레이어에게 부여되는 입력 장치를 포함하고,And an input device assigned to the first player,
    상기 입력 장치가 상기 제2 플레이어가 위치한 상기 제1 방향과 상이한 제2 방향으로 지향되어 미리 정해진 이벤트에 대한 명령이 획득되는 경우,When the input device is directed in a second direction different from the first direction in which the second player is located and an instruction for a predetermined event is obtained,
    상기 제1 가상 이미지는 상기 제1 플레이어에 대응하는 제1 캐릭터가 상기 미리 정해진 이벤트를 수행하는 가상 이미지이고,Wherein the first virtual image is a virtual image in which the first character corresponding to the first player performs the predetermined event,
    상기 제2 가상 이미지는 상기 미리 정해진 이벤트에 따라 상기 제2 플레이어에 대응하는 상기 제2 캐릭터에 부여되는 효과에 대한 가상 이미지인Wherein the second virtual image is a virtual image of an effect imparted to the second character corresponding to the second player in accordance with the predetermined event
    가상 환경 제어 시스템.Virtual environment control system.
  7. 제4 항에 있어서,5. The method of claim 4,
    상기 제1 착용형 디스플레이 장치는 소리를 출력하는 음향 출력부를 포함하고,Wherein the first wearable display device includes an acoustic output unit for outputting sound,
    상기 제1 방향에 위치한 상기 제2 플레이어 및 상기 제2 플레이어에 대응되는 제2 캐릭터에 의해 획득된 소리는The sound obtained by the second player located in the first direction and the second character corresponding to the second player is
    상기 음향 출력부를 통하여 상기 가상 환경에서 상기 제1 플레이어에 대응되는 제1 캐릭터로부터 상기 제2 캐릭터의 방향인 제2 방향에서 발생한 소리로 출력되는And outputting a sound generated in a second direction, which is the direction of the second character, from the first character corresponding to the first player in the virtual environment through the sound output unit
    가상 환경 제어 시스템.Virtual environment control system.
  8. 제1 항에 있어서,The method according to claim 1,
    상기 제1 플레이 공간 및 상기 제2 플레이 공간이 제1 방향으로 배열되어 제공되고, 상기 가상 환경은 상기 제1 플레이 공간 및 상기 제2 플레이 공간에 대응하는 가상 영역을 포함하는Wherein the first play space and the second play space are provided arranged in a first direction and the virtual environment includes a virtual area corresponding to the first play space and the second play space
    가상 환경 제어 시스템.Virtual environment control system.
  9. 제8 항에 있어서,9. The method of claim 8,
    상기 제1 현실 위치 정보 및 상기 제2 현실 위치 정보는 복수의 축에 대한 좌표값을 포함하고,Wherein the first real position information and the second real position information include coordinate values for a plurality of axes,
    상기 제1 현실 위치 정보 및 상기 제2 현실 위치 정보에서 동일한 축에 대한 좌표값이 동일한 경우If the coordinates of the same axis are the same in the first and second real position information
    상기 제1 가상 이미지에 제공되는 상기 제2 플레이어에 대응되는 제2 캐릭터는 상기 제1 플레이어에 대응되는 제1 캐릭터와 동일 선상으로 제공되는The second character corresponding to the second player provided in the first virtual image is provided in the same line as the first character corresponding to the first player
    가상 환경 제어 시스템.Virtual environment control system.
  10. 제9 항에 있어서,10. The method of claim 9,
    상기 제1 플레이어가 소지하는 오브젝트를 포함하고,An object held by the first player,
    상기 제2 가상 이미지는 상기 제1 캐릭터가 상기 오브젝트에 대응되는 가상 오브젝트를 소지한 이미지를 포함하고,Wherein the second virtual image includes an image in which the first character possesses a virtual object corresponding to the object,
    상기 제2 플레이어의 손이 상기 오브젝트의 위치에 대응되는 위치로 이동하는 경우 상기 제2 가상 이미지는 상기 제2 캐릭터가 상기 오브젝트에 대응되는 가상 오브젝트에 터치한 이미지로 제공되는When the hand of the second player moves to a position corresponding to the position of the object, the second virtual image is provided as an image touched to the virtual object corresponding to the object by the second character
    가상 환경 제어 시스템.Virtual environment control system.
  11. 분리된 복수의 공간에서 플레이하는 플레이어에게 가상 환경의 적어도 일부에 대한 가상 이미지를 제공하는 착용형 디스플레이 장치로,A wearable display device for providing a virtual image of at least part of a virtual environment to a player playing in a plurality of separated spaces,
    타플레이어에 대한 정보를 획득하는 통신부;A communication unit for acquiring information about the other player;
    상기 플레이어에게 가상 이미지를 출력하는 디스플레이부; 및A display unit for outputting a virtual image to the player; And
    상기 디스플레이부의 상기 가상 이미지의 출력을 제어하는 제어부;를 포함하되.And a control unit for controlling output of the virtual image of the display unit.
    상기 디스플레이부를 통하여 출력되는 상기 가상 이미지는 상기 착용형 디스플레이 장치를 착용한 플레이어가 플레이하는 제1 플레이 공간에 대응하는 제1 가상 영역에 대한 이미지 및 상기 플레이어를 제외한 적어도 하나의 상기 타플레이어가 플레이하는 제2 플레이 공간에 대응하는 제2 가상 영역에 대한 이미지를 포함하는 Wherein the virtual image output through the display unit includes an image for a first virtual area corresponding to a first play space played by a player wearing the wearable display device and an image for a first virtual area corresponding to at least one player An image for a second virtual area corresponding to the second play space
    착용형 디스플레이 장치.A wearable display device.
  12. 제1 항에 있어서,The method according to claim 1,
    상기 가상 이미지에 제공되는 상기 타플레이어에 대응되는 타플레이어의 캐릭터와 상기 플레이어에 대응되는 캐릭터간의 거리는 상기 플레이어와 상기 타플레이어간의 거리와 상이하게 제공되는The distance between the character of the other player corresponding to the other player and the character corresponding to the player provided in the virtual image is different from the distance between the player and the other player
    착용형 디스플레이 장치.A wearable display device.
  13. 제11 항에 있어서,12. The method of claim 11,
    상기 착용형 디스플레이 장치는 소리를 출력하는 음향 출력부를 포함하고,The wearable display device includes an acoustic output unit for outputting sound,
    상기 플레이어로부터 제1 방향에 위치한 상기 타플레이어 및 상기 타플레이어에 대응되는 상기 타플레이어의 캐릭터에 의해 획득된 소리는The sound obtained by the other player positioned in the first direction from the player and the character of the other player corresponding to the other player
    상기 음향 출력부를 통하여 상기 가상 환경에서 상기 제1 플레이어에 대응되는 제1 캐릭터로부터 상기 제2 캐릭터의 방향인 제2 방향에서 발생한 소리로 출력되는And outputting a sound generated in a second direction, which is the direction of the second character, from the first character corresponding to the first player in the virtual environment through the sound output unit
    착용형 디스플레이 장치.A wearable display device.
  14. 제11 항에 있어서,12. The method of claim 11,
    상기 가상 이미지는 상기 통신부와 연결된 보조 컴퓨팅 장치로부터 획득되는The virtual image is obtained from a secondary computing device connected to the communication unit
    착용형 디스플레이 장치.A wearable display device.
PCT/KR2018/016683 2017-12-26 2018-12-26 Virtual environment control system WO2019132521A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/958,524 US11517821B2 (en) 2017-12-26 2018-12-26 Virtual reality control system

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
US201762610455P 2017-12-26 2017-12-26
US62/610,455 2017-12-26
KR1020180097687A KR102181587B1 (en) 2017-12-26 2018-08-21 Virtual reality control system
KR1020180097682A KR102130892B1 (en) 2017-12-26 2018-08-21 Head mounted display and image providing method using the same
KR10-2018-0097687 2018-08-21
KR10-2018-0097682 2018-08-21
KR10-2018-0097686 2018-08-21
KR1020180097686A KR20190078475A (en) 2017-12-26 2018-08-21 Virtual reality control system
KR10-2018-0167749 2018-12-21
KR1020180167749A KR20190078524A (en) 2017-12-26 2018-12-21 Virtual reality control system

Publications (1)

Publication Number Publication Date
WO2019132521A1 true WO2019132521A1 (en) 2019-07-04

Family

ID=67064016

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/016683 WO2019132521A1 (en) 2017-12-26 2018-12-26 Virtual environment control system

Country Status (1)

Country Link
WO (1) WO2019132521A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09503082A (en) * 1993-09-23 1997-03-25 ヴァーチュアル ユニヴァース コーポレイション Virtual reality network
JPH10283151A (en) * 1997-04-10 1998-10-23 Nippon Telegr & Teleph Corp <Ntt> Virtual space display method
JP2002149581A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Virtual space sharing system by users
KR20150126938A (en) * 2013-03-11 2015-11-13 매직 립, 인코포레이티드 System and method for augmented and virtual reality
KR20170069790A (en) * 2015-12-11 2017-06-21 삼성전자주식회사 A method for processing an audio signal in a virtual realiity service and an electronic device therefor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09503082A (en) * 1993-09-23 1997-03-25 ヴァーチュアル ユニヴァース コーポレイション Virtual reality network
JPH10283151A (en) * 1997-04-10 1998-10-23 Nippon Telegr & Teleph Corp <Ntt> Virtual space display method
JP2002149581A (en) * 2000-11-09 2002-05-24 Nippon Telegr & Teleph Corp <Ntt> Virtual space sharing system by users
KR20150126938A (en) * 2013-03-11 2015-11-13 매직 립, 인코포레이티드 System and method for augmented and virtual reality
KR20170069790A (en) * 2015-12-11 2017-06-21 삼성전자주식회사 A method for processing an audio signal in a virtual realiity service and an electronic device therefor

Similar Documents

Publication Publication Date Title
WO2020130219A1 (en) Method of controlling robot
WO2016208984A1 (en) Mobile terminal capable of performing remote control of plurality of devices
WO2010151054A2 (en) Virtual world processing device and method
WO2019168383A1 (en) Electronic device
WO2019168380A1 (en) Electronic device
WO2016018029A1 (en) Mobile terminal and method of operating the same
AU2019430311B2 (en) Plurality of autonomous mobile robots and controlling method for the same
WO2016195156A1 (en) Mobile terminal and method for controlling same
WO2016017970A1 (en) Method and device for encrypting or decrypting content
WO2015142023A1 (en) Method and wearable device for providing a virtual input interface
WO2015178562A1 (en) Method and apparatus for providing notification
WO2015142002A1 (en) Method and device for sharing functions of smart key
WO2017105130A1 (en) Communication device and electronic device having same
WO2016003108A1 (en) Image forming apparatus, and position guidance method and image forming system therefor
WO2015005639A1 (en) System for providing augmented reality content by using toy attachment type add-on apparatus
WO2023059131A1 (en) Autonomous tennis training system
WO2011040769A2 (en) Surgical image processing device, image-processing method, laparoscopic manipulation method, surgical robot system and an operation-limiting method therefor
WO2022103236A1 (en) Player tracking method, player tracking device, and player tracking system
WO2021033808A1 (en) Mobile terminal and electronic device having mobile terminal
WO2019132521A1 (en) Virtual environment control system
WO2017090813A1 (en) Mobile terminal and control method therefor
WO2021080061A1 (en) Electronic pen sensing device and electronic appliance comprising same
WO2019078394A1 (en) Dart game device and dart game system for providing lesson image
WO2019078391A1 (en) Dart game device and dart game system
WO2022014958A1 (en) Electronic device comprising expandable display

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18894295

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18894295

Country of ref document: EP

Kind code of ref document: A1