WO2018016928A1 - Virtual reality implementation system and virtual reality implementation method thereof - Google Patents

Virtual reality implementation system and virtual reality implementation method thereof Download PDF

Info

Publication number
WO2018016928A1
WO2018016928A1 PCT/KR2017/007944 KR2017007944W WO2018016928A1 WO 2018016928 A1 WO2018016928 A1 WO 2018016928A1 KR 2017007944 W KR2017007944 W KR 2017007944W WO 2018016928 A1 WO2018016928 A1 WO 2018016928A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
wearable device
virtual
real object
location information
Prior art date
Application number
PCT/KR2017/007944
Other languages
French (fr)
Korean (ko)
Inventor
김계현
Original Assignee
김계현
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김계현 filed Critical 김계현
Publication of WO2018016928A1 publication Critical patent/WO2018016928A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera

Definitions

  • the present invention relates to a virtual reality realization system, and more specifically to realizing a high-resolution virtual space of a work of art through optical images, at the same time to implement a number of galleries and works using location-based information,
  • the present invention relates to a virtual reality realization system and a virtual reality realization method for providing an additional service and enabling virtual advertisements, so that a plurality of galleries and works can be viewed in a specific real space.
  • An object of the present invention is to provide a virtual reality realization system and a method for implementing virtual reality such that overlapping portions between real objects and virtually implemented virtual objects in a specific space displayed on a wearable device of a user are displayed according to the depth of view of the user. To provide.
  • Another object of the present invention is to implement a virtual reality system and a method for implementing a virtual reality for realizing a virtual space for an object, such as a work of art, a work of art through an optical image, and at the same time using a location-based information To provide.
  • the virtual reality implementation system of the present invention allows an overlapping portion between a real object and a virtually implemented virtual object in a specific space displayed on the wearable device of the user to be displayed according to the depth of view of the user.
  • a virtual reality implementation system of the present invention can realistically display the overlapping portions between real objects and virtual objects in a specific space on the display panel of the wearable device.
  • a virtual reality implementation system comprising: a display panel including a real object existing in a specific space defined through a plurality of location information transceiving sensors and a virtual object virtually implemented within the specific space.
  • a wearable device wearable by a user; Collecting location information of the real object and location information of the wearable device from the location information transceiving sensor and a plurality of optical motion sensors that detect movement of the user and the real object in the specific space, and transmit the location information to the wearable device;
  • a user computer for transmitting the image data of the virtual object and the image data of the virtual object;
  • the wearable is stored when the image data of the real object and the image data of the virtual object are stored and the location information of the real object and the location information of the wearable device are determined by partially overlapping the real object and the virtual object.
  • the display panel of the device may be configured to display an overlapping portion of the real object and the virtual object located at a short distance with the wearable device according to a depth of view between the image data of the real object and the image data of the virtual object.
  • a server transmitting image data of the real object and image data of the virtual object to the user computer.
  • the virtual reality implementation system At least one three-dimensional optical scanning device scanning the real object to generate three-dimensional image data and outputting three-dimensional image data;
  • the apparatus may further include a rendering computer configured to receive the 3D image data from the 3D optical scanning device and to perform a rendering operation to transmit image data of the real object to the server.
  • the virtual reality implementation system Further comprising a wide-angle IP camera for driving to change the shooting direction in response to the movement of the wearable device under the control of the server;
  • the wearable device displays an image captured by the wide-angle IP camera on the display panel.
  • the apparatus may further include a plurality of pressure sensors provided on a bottom surface of the specific space to further detect location information of the real object and the wearable device.
  • the wearable device In another embodiment, the wearable device;
  • the display apparatus further displays additional information about the real object and the virtual object, and when the additional information is selected, it is connected to an additional service corresponding to the additional information.
  • the server The image data of the real object and the image data of the virtual object are further displayed on the display panel of the wearable device in order to further display the real object and the virtual object in response to a three-dimensional angle of the user's gaze. to provide.
  • the position information transmission and reception sensor It is provided with any one of a GPS device, a communication network base station, a wireless communication repeater and a drone to recognize the location information of the real thing and the wearable device.
  • a virtual reality implementation method of a virtual reality implementation system is provided.
  • a virtual reality implementation method of a virtual reality implementation system comprising: defining a specific space using a plurality of location information transceiving sensors;
  • the location information transmitting and receiving sensor senses the location information of the real thing existing in the specific space and the location information of the wearable device worn by the user having a display panel displaying a virtual object virtually implemented in the specific space.
  • the position information of the real object and the position information of the wearable device may be obtained from the position information transceiving sensor and a plurality of optical motion sensors that detect movement of the user and the real object in the specific space through a user computer provided in the specific space.
  • the server determines the positional information of the real object and the positional information of the wearable device in the specific space and the real object and the virtual object partially overlap
  • the image data of the real object and the image are displayed on the display panel of the wearable device.
  • the overlapping portion of the real object and the virtual object located near the wearable device among the virtual objects is displayed according to the depth of view between the image data of the virtual object, and the image data of the real object and the virtual are displayed to the user computer. Transfer the image data of the object.
  • the method comprises; Scan the real object through at least one three-dimensional optical scanning device to generate three-dimensional image data and output three-dimensional image data;
  • a rendering computer receives the three-dimensional image data from the three-dimensional optical scanning device and performs a rendering operation to transmit the image data of the real object to the server;
  • the server may further include storing image data of the real object.
  • the virtual reality implementation system of the present invention determines the location information of the real object and the location information of the wearable device in a specific space, and when the real object and the virtual object partially overlap, the image of the real object on the display panel of the wearable device.
  • the wearable device can be realistically represented using a wearable device in various spaces. Convergent implementation of augmented reality is possible.
  • the virtual curator may tell the history of the artist, auction information, the history of the work, the intention of the creation of the work in a narrative manner, wearable device By selecting a menu displayed together on the display panel, the item may be purchased directly, or a virtual advertisement or an actual product advertisement displayed on the display panel may be selected to purchase the corresponding product.
  • the wide-angle IP camera by being applied to the guard post, linked to the wearable device, the wide-angle IP camera is activated, the service soldier of the guard post, while not actually going to the outer duty patrol, stays in the guard post, etc. As intended, there is a characteristic effect that the boundary work is possible through the images captured by each wide-angle IP camera.
  • FIG. 1 is an overall schematic diagram showing the configuration of a virtual reality implementation system according to the present invention
  • FIG. 2 is a view showing a user viewing a work by using a wearable device for a real object and a virtual object in a real gallery according to an embodiment of the present invention
  • FIG. 3 is a schematic diagram illustrating that a user utilizes a wearable device with respect to the virtual object illustrated in FIG. 2;
  • FIG. 4 is a schematic diagram illustrating that depths of view are differently set for real objects and virtual objects in the real gallery shown in FIG. 2;
  • FIG. 5 is a schematic view showing that the lens direction of the wide-angle IP camera is driven in the vertical direction in conjunction with the wearable device worn by the user according to another embodiment of the present invention
  • FIG. 6 is a schematic diagram showing the configuration of a virtual reality implementation system using a military drone according to another embodiment of the present invention
  • FIG. 7 is a schematic diagram showing that a close clip plane and a spaced clip plane from a camera are set based on a viewpoint according to the present invention
  • FIG. 8 is a view showing a wearable device in the form of a Google glass according to an embodiment of the present invention.
  • FIG. 9 is a view showing a schematic configuration of a gallery system of a virtual space using 3D according to an embodiment of the prior art.
  • FIG. 1 is an overall schematic diagram showing the configuration of a virtual reality implementation system according to the present invention.
  • an optical scan and a three-dimensional image of a subject to represent a virtual object constructed with a real object in order to implement a realistic virtual reality using the wearable device 100 is performed.
  • the virtual reality implementation system of the present invention includes a wearable device 100, a user computer 200, a server 300, a rendering computer 400, and a plurality of 3D optical scanning devices 500: 500a and 500b. And an optical IP camera 600.
  • a virtual reality implementation system is connected to the Internet using, for example, a wired or wireless communication network, and is connected to enable mutual data communication.
  • the wearable device 100 and the user computer 200 are located in a specific space S1.
  • the wearable device 100 includes a display panel worn by the user M, a display panel for outputting an image, a microphone for recording voice (for example, a holographic microphone, etc.), a speaker for outputting voice in stereo, headphones, and the like. It is provided.
  • the wearable device 100 includes various sensors, for example, a wide angle camera, an optical motion sensor, a gyroscope sensor, a position information transceiver, a pupil position tracking device, a pupil contraction / relaxation tracking device, and an illuminance sensor.
  • the wearable device 100 displays an image including a real object and a virtual object according to a virtual reality implemented using a display panel.
  • the user computer 200 is provided in a specific space S1 (eg, an actual gallery) and is connected to the wearable device 100 through a wireless communication network.
  • the user computer 200 includes a reader that reads optically readable optical recognition codes (or tags), and an optical motion sensor (eg, a laser motion tracking sensor) within a specific space defined by a plurality of location information transmission and reception sensors.
  • the location information of the wearable device 100 including the position, the direction, and the three-dimensional angle of the wearable device 100 is collected by using.
  • the reader reads an optical recognition code (or tag) that includes three-dimensional information about all subjects (eg, real objects including objects, creatures, etc.) existing in the defined space.
  • a plurality of location information transmission / reception sensors are installed in a specific space to define a space, and sense information about the position, direction, and three-dimensional angle of the wearable device 100 existing in the defined space.
  • the position information transmission and reception sensor detects a straight line distance to the wearable device 100.
  • the optical motion sensor detects information including position, shape, size, volume, etc. in real time for all subjects existing within a defined space. Also, the information detected by the reader and the optical motion sensor is used to correct an error of the subject.
  • a specific space is provided with a plurality of pressure sensors on the bottom surface, through which the position of the wearable device and the position of the existing subject are identified and corrected.
  • a specific space further includes a voice output device capable of independent left and right recording and output, through which outputs all sounds generated from a subject (for example, a real object or a virtual object) existing in the space, thereby positioning the sound source. Information can be measured to convey realistic and three-dimensional voice information.
  • the user computer 200 transmits image data and voice data to the wearable device 100 through a wireless communication network.
  • the user computer 200 receives image data of an actual object and image data of a virtual object from the server 300 through the Internet and provides the image data to the wearable device 100.
  • the server 300 stores image data of all subjects, that is, real objects and virtual objects, and voice data including sound effects of the real objects and virtual objects for various specific spaces S1 and S2.
  • the server 300 receives and stores image data about an optically scanned real object from a plurality of 3D optical scanning devices 500: 500a and 500b through the Internet.
  • the server 300 transmits image data and voice data to the user computer 200 through the Internet.
  • the server 300 computes a control signal to control the user computer 200, the rendering computer 400, and the wide-angle IP camera 600.
  • the server 300 remotely controls the photographing direction of the wide-angle IP camera 600 to be remotely changed in response thereto, and the image obtained through this is obtained.
  • the data is provided to the wearable device 100.
  • the server 300 is connected to the virtual wearable device 100, a mobile terminal, a computer, and the like located in the personal direct viewing space (S2) directly viewed by an individual to provide image data and voice data.
  • S2 personal direct viewing space
  • the server 300 receives a variety of information from the user computer 200 through the Internet, information about the position, direction, three-dimensional angle and shape, size of the user and all subjects of the wearable device 100 in a specific space It stores and analyzes in real time to provide an image in which the real and virtual reality is reproduced in real time through the display panel on the wearable device 100 is fused. In addition, the server 300 processes a realistic representation of a real object and a virtual object virtually realized according to the location information, the viewing range, and the depth of each of the waveable device 100 and the subject.
  • the server 300 processes masking so that a part of a relatively long subject overlaps with a subject in a relatively short distance so as not to be displayed according to a distance of each subject in the field of view to be implemented, or first displays a subject located in a short distance first. do.
  • the server 300 is a three-dimensional processing of the position and the moving path of the virtually implemented subject in the field of view to be implemented, it is possible to realistically implement the position, three-dimensional angle, perspective effect.
  • the rendering computer 400 receives the image data of the real object scanned from the 3D optical scanning device 500 through the Internet and converts the 3D image data into 2D image data displayed on the display panel of the wearable device 100.
  • the 3D rendering operation generates a 3D image data value, and transmits the 3D image data to the server 300 through the Internet.
  • 3D optical scanning device 500 is provided with a plurality of scanning the actual object to obtain the three-dimensional image data, and transmits it to the server 300 through the Internet.
  • the wide-angle IP camera 600 operates according to a driving signal received from the wearable device 100 or the like.
  • the wide-angle IP camera 600 is provided in various spaces and is remotely controlled to change the photographing direction according to the eyeline direction of the wearable device 100 through the server 300 to obtain image data of the corresponding space, and the server 300 To send.
  • the virtual reality realization system of the present invention may implement virtual reality and augmented reality by using the wearable device 100 in various spaces to realistically express real objects and virtual objects.
  • FIG. 2 is a view showing a user viewing a work by using a wearable device for a real object and a virtual object in a real gallery according to an embodiment of the present invention
  • FIG. 3 is a view of the virtual object shown in FIG.
  • FIG. 4 is a schematic diagram illustrating a user using a wearable device
  • FIG. 4 is a schematic diagram illustrating that depths of view are differently set for real objects and virtual objects in the actual gallery shown in FIG. 2
  • FIG. It is a schematic diagram which shows that the proximity clip surface and the spaced clip surface from the camera are set based on the viewpoint according to the invention.
  • the specific space S1 is an actual gallery, and defines the space by the plurality of location information transceiving sensors L1 to L8.
  • the user M wearing the wearable device 100 in the specific space S1 is disposed in the specific space S1 with a plurality of optical motion sensors I1 to I15 spaced apart at regular intervals along the edge of the prescribed space.
  • position information on the actual object (R) is provided on the bottom surface of the specific space (S1) with a pressure sensor (P1) to detect the user's position, movement, and the like.
  • the location information transceiving sensors L1 to L8 are provided with, for example, a Bluetooth becon.
  • the actual gallery S1 is defined as a predetermined space, and location information transceiving sensors L1 to L8 are installed to cover the entire area, and at least two adjacent location information transceiving sensors L1 to L8 are provided.
  • Optical motion sensors (I1 to I15) are installed between) so that a user (M), a real object (R), and a virtual object (V) moving in the real gallery (S1) are sensed or position data is detected as valid data. To be installed.
  • a plurality of pressure sensors P are mounted on the floor constituting the actual gallery S1 to sense actual position data of a user M or a real object R moving while applying pressure on the floor. It is provided.
  • the data value for the real object (R) can be secured by scanning by using a high-resolution 3D optical scanning device (500: 500a, 500b).
  • the secured data value is transmitted to the server 300 through the Internet and stored.
  • the user M may read the display screen of the wearable device 100. Is displayed.
  • the application principle of the virtual reality realization system in this embodiment is to cause the virtual object V, which is illustrated in a subject, for example, fish shape, to be realistically reproduced in reality, based on the positional information in a specific space S1.
  • all coordinates, sizes, etc. of all objects in the specific space S1 are recognized, and three-dimensional coordinates are assigned and displayed in the specific space S1. That is, the virtual reality realization system analyzes the location information of the object and the information of the field of view, thereby enabling the fusion of the virtual object V and the real object R to be realistic.
  • a real object R and a fish-like virtual object V are placed on a display panel of the wearable device 100 in a specific space S1.
  • the fish-like virtual object (V) is swimming in a specific space (S1), as shown in the user's eye (A) of Figure 3, behind the real object (R)
  • S1 Specific space
  • the virtual object V returns to the back of the real object R
  • an overlapping region Hi overlaps the real object R and the virtual object V, and thus the user's eyes may have a depth of view.
  • the image of the virtual object V of the overlapping portion is displayed as partly covered by the real object R, so that a virtual 3D image as if the virtual object exists is realized.
  • the virtual object V is the real object as shown in the user's eye A of FIG. 3.
  • the portion which is not visible overlapping with (R) is shown as in the user's line of sight B of FIG. 3.
  • the present invention is a technology in which virtual reality and augmented reality are fused, the fish-like virtual object (V) that was outside the user M's field of view as if the real thing is coming closer to the front of the user (M) Can be implemented virtually.
  • these data values are synthesized and displayed, and various additions to the virtual object V and the real object R are performed.
  • the information is displayed and various additional services can be received by selecting these additional information.
  • the data value for the real object R may be obtained by scanning in real time by the 3D optical scanning device 500 (500a, 500b), the optical motion sensors I1 to I15 installed in the real gallery S1,
  • the data value may be obtained by being sensed by the location information transmission / reception sensors L1 to L8 or may be obtained through the pressure sensor P located on the floor.
  • it is possible to reduce the error by comparing the data values obtained by using the above-described methods in combination.
  • the wearable device 100 measures coordinates, directions, and angle information on the three-dimensional space of the wearable device 100 using various sensors, and through this, the real objects R and the virtual objects V are measured.
  • the relative position between the users M, the real object R or the virtual object V, and the wearable devices 100 may be sensed, that is, three-dimensional spatial coordinates.
  • the sensor for detecting the 3D location information may include, for example, an IR sensor, an optical sensor, and the like. Therefore, the user's field of view is determined by the position of the wearable device 100 and the three-dimensional angle information.
  • a viewing frustum in which the user M is represented on the display through spatial position coordinates and angles is defined, and the subjects entering the viewing frustum at this time are defined.
  • the information about is realized realistically through the depth information process of the field of view. Since the user can see the real object and the background through the camera of the wearable device 100, the viewing frustum is a viewpoint, that is, which part of the entire screen is visible on the final screen in terms of the camera. This means that the visible area, that is, the determined display area. That is, the screen displayed on the display panel of the wearable device 100 becomes one screen between a near clip plane and a far clip plane in the viewing frustum according to the depth of the view.
  • the voice information generated by the object or the person who does not enter the field of view is implemented to be outputable, and the real space implemented by the virtual reality realization system of the present invention is virtual. It is implemented to match the space and its shape, width and height.
  • the present invention when the present invention is applied to the virtual gallery, when a plurality of users (M) wearing the wearable device 100 is viewed with the virtual curator in the actual gallery (S1), the various existing in the space of the actual gallery (S1) It is considered not to collide with each other users M, virtual curators and real objects R.
  • the virtual curator may tell the history of the artist, the auction information, the history of the work, the intention of the creation of the work in a narration manner.
  • the virtual curator like the curator of a real gallery, follows the audience and gives a detailed explanation of the work.
  • the item may be purchased directly.
  • a corresponding advertisement may be purchased by selecting a virtual advertisement displayed on the display panel of the wearable device 100 or an actual product advertisement, for example, a banner advertisement or a product advertisement such as a vehicle.
  • selecting a menu displayed together with the work on the display panel of the wearable device 100 it is possible to participate in the auction of the item.
  • the camera outputs images and sounds from the display panel of the wearable device 100 and has a device and a data communication device capable of informing a position to various spatial coordinate recognition sensors, and photographs the front of the device and transmits them in real time.
  • a device having a laser scanning equipment for measuring and recording the position of the pupil inside.
  • the sound is different from the sound coming from the right direction and the sound coming from the left direction.
  • the sound heard from left and right is set differently with respect to. Therefore, according to the relative positions of the user M wearing the wearable device 100 and the virtual object V in the space of the actual gallery S1, the sounds heard from the left and right sides of the wearable device 100 are mutually level of sound ( level) is set differently.
  • a user may selectively view all sides of the work at the front, back, side, and top and bottom.
  • the user's pupils placed inside the wearable device 100 may be checked to determine the preference for the virtual object (V) as an object. have.
  • perspective processing may be performed according to the depth of view to improve the realism.
  • the depth of view is processed three-dimensionally according to the positions where the plurality of real objects (R) and the virtual object (V) are placed in a specific space, so that the user's gaze feels a different distance depending on the direction of the arrow, It is determined by the user M how the image data of the virtual object V is obtained differently.
  • the actual real objects R are displayed by the depth of view, and the virtual object V is positioned behind the real object R such that a part of the virtual object V is placed on the real object R. If it is covered by, the part is processed invisible to the user M's field of view.
  • Such a virtual reality implementation system may be implemented as a virtual gallery system in which a specific space is defined, and also in various forms, for example, as shown in FIG. 2, a virtual gallery may also be implemented as a real gallery S1 in which a specific space is defined.
  • FIG. 5 is a schematic diagram illustrating driving of a lens direction of a wide-angle IP camera through a step motor in an up-down-left-left direction in conjunction with a wearable device worn by a user according to another exemplary embodiment of the present invention.
  • the wide-angle IP camera 600 of this embodiment is linked with the wearable device 100 worn by a user to remotely control the lens direction, that is, the photographing direction, of the wide-angle IP camera 600 through the step motor. That is, as the line of sight of the user wearing the wearable device 100 is changed up, down, left, and right, the photographing direction of the wide-angle IP camera 600 is driven up, down, left, and right.
  • the server 300 recognizes this through the Internet, and rotates the wide-angle IP camera 600 up, down, left, and right according to the movement of the wearable device 100 to change the shooting direction. do.
  • the wearable device 100 and the wide-angle IP camera 600 worn by the user M are connected to the server 300 through the Internet, respectively.
  • the situation in which the wide-angle IP camera 600 is linked to the wearable device 100 worn by the user M may be applied to various places, such as a stadium and a guard post.
  • the server 300 may be connected to the server 300 to drive the step motor of the wide-angle IP camera 600 to change the shooting direction according to the game situation. That is, as the user M wearing the wearable device 100 moves his or her head in up, down, left, and right directions, the lens direction of the wide-angle IP camera 600 is also driven up, down, left, and right through the step motor.
  • a plurality of wide-angle IP cameras 600 may be installed in the stadium.
  • the specific wide-angle IP camera 600 may allow a user M wearing the wearable device 100 among the plurality of wide-angle IP cameras 600 to output an image signal that is closer to or more vibrant. Can be selected. Therefore, in the field of view of the user M wearing the wearable device 100, a closer or more thrilling video signal transmitted from the specific wide-angle IP camera 600 can be viewed.
  • the wide-angle IP camera 600 when applied to the guard post, the wide-angle IP camera 600 is driven through the stepper motor in conjunction with the wearable device 100, through each of the wide-angle IP camera 600 installed in various places in the front, Even without actually going to the outside duty patrol, soldiers of guard posts can be on duty duty through the images taken by each wide-angle IP camera 600, as he intended, even while staying in the guard post.
  • FIG. 6 is a schematic diagram showing the configuration of a virtual reality implementation system using a military drone according to another embodiment of the present invention.
  • the virtual reality implementation system of this embodiment detects the location information of soldiers using military drones D1 to D4, and thereby implements the situation of soldiers in virtual reality.
  • Military drones (D1 ⁇ D4) are equipped with a position sensor and a heat sensor to detect the presence and location of each of the soldiers.
  • military drones (D1 ⁇ D4) can collect personal information, such as belonging, rank, class, etc. of allies (m1 ⁇ m4) wearing the wearable device 100 and biometric information of each of the allies (m1 ⁇ m4),
  • biomedical information may be monitored to provide unit status for unit units.
  • a plurality of military drones are used to detect the location of the enemy (e1-e3), weapons (t) or military equipment, and fight against the enemy (e1-e3).
  • Many allies (m1 ⁇ m4) soldiers collect information on various war situations from a plurality of military drones (D1 ⁇ D4) flying over the battlefield to use terrain information, location information of the enemy (e1 ⁇ e3) It can be recommended to determine the war situation and determine where to gather, targets to strike, effective defensive routes, attack routes and travel routes.
  • military drones D1 to D4 fly over a battlefield and receive current location information using a GPS receiver that receives its location information from a GPS satellite.
  • military drones (D1 to D4) transmit location information with other military drones (D1 to D4) adjacent to each other or exchange distance information calculated by using triangulation, etc. You can also determine the exact location for e1 ⁇ e3).
  • the military drones (D1 ⁇ D4) can be sent to the friendly forces (m1 ⁇ m4) wearing the wearable device 100, so as to transmit the location information about the enemy, various war situations, various sensors, for example, location And an information transmitting and receiving device, a thermal image sensor, an optical sensor, and the like.
  • friendly (m1 ⁇ m4) Using the military drones (D1 ⁇ D4) to determine the current position of the enemy (e1 ⁇ e3) and enemy tank (t), as well as the direction of attack on the enemy (e1 ⁇ e3), friendly (m1 ⁇ m4) Easily identify future paths or retreats of allies (m1 to m4) to enable rapid and safe unit movement.
  • each of the allies m1 to m4 does not expose its position to a number of enemy soldiers e1 to e3 or enemy tank t through the wearable device 100 that they wear. Can perform rapid and safe unit movements or operations.
  • Wi-Fi Wi-Fi
  • Bluetooth beacon etc.
  • the example of the communication network base station may be a certain space, not necessarily any room or office, for example, Seoul.
  • a specific space is a building
  • the location of the buildings is three-dimensionally scanned using a laser scanner, an IR scanner, a thermal scanner, and at the same time, the user is located at a communication base station, a Wi-Fi repeater, a Bluetooth beacon, etc.
  • a content such as a virtual object (V) swimming between the buildings.
  • FIG. 8 is a view showing a wearable device in the form of a Google glass according to an embodiment of the present invention.
  • the wearable device 100 of the present invention may be provided in various shapes, and may be configured in the form of transparent, translucent, opaque glass, or the like.
  • the wearable device 100 may be provided in the form of a Google Glass product.
  • the virtual reality implementation system of the present invention as applied to the virtual gallery system, a virtual curator is displayed, through which the writer's history, auction information, the history of the work, the creative intention of the work in a narrative manner
  • a virtual curator is displayed, through which the writer's history, auction information, the history of the work, the creative intention of the work in a narrative manner
  • the item may be purchased directly, and the corresponding product may be selected by selecting a virtual advertisement or an actual product advertisement displayed together with the artwork on the display panel.
  • the virtual reality implementation system of the present invention is applied to the guard post, the wide-angle IP camera 600 through the step motor in conjunction with the wearable device 100 is operated, without actually going to the outer duty patrol, soldiers of the guard post.
  • the boundary duty is possible through the images taken by each wide-angle IP camera 600 as intended by the state that actually stays in the guard post.
  • the virtual reality implementation system of the present invention is applied to military drones, as well as to determine the current position of the enemy and enemy tanks, as well as the direction of attack on the enemy, future movement route, retreat route and attack route of the friendly forces, etc. In this way, it is possible to move troops and carry out operations quickly and safely.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

The present invention relates to a virtual reality implementation system and a virtual reality implementation method thereof. In a virtual reality implementation system of the present invention, an actual object existing in a particular space and a virtual object virtually implemented and expressed in the particular space are displayed on a display panel of a wearable device. The particular space is defined by a plurality of location information transceiving sensors. A server stores, as three-dimensional images, image data of the actual object and image data of the virtual object and provides the image data to a user computer in the particular space. The server determines location information of a wearable device and location information of the actual object within the particular space. Then, when the actual object and the virtual object partially overlap, the server processes images such that the overlapping portion appears hidden or displayed to be seen on the display panel of the wearable device according to the visual field depth between image data of the actual object and image data of the virtual object. According to the present invention, a wearable device can be used in various spaces to express an actual object and a virtual object with a sense of reality, so as to implement a virtual reality and an augmented reality in a combined manner.

Description

가상 현실 구현 시스템 및 그의 가상 현실 구현 방법Virtual Reality Implementation System and its Virtual Reality Implementation Method
본 발명은 가상 현실 구현 시스템에 관한 것으로, 좀 더 구체적으로 예술작품을 광학 이미지를 통해 고해상도 가상공간을 구현함과 동시에, 위치기반의 정보를 이용하여 다수의 갤러리 및 작품을 구현하고, 개별 작품에 대한 부가적 서비스를 제공하며, 가상의 광고를 구현함으로써, 특히 특정한 실재 공간에서 다수의 갤러리 및 작품 관람이 가능할 수 있도록 하는 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법에 관한 것이다.The present invention relates to a virtual reality realization system, and more specifically to realizing a high-resolution virtual space of a work of art through optical images, at the same time to implement a number of galleries and works using location-based information, The present invention relates to a virtual reality realization system and a virtual reality realization method for providing an additional service and enabling virtual advertisements, so that a plurality of galleries and works can be viewed in a specific real space.
최근, 디지털 정보를 언제 어디서나 볼 수 있는 착용형 안경이 경량화되면서, 이를 활용하여 가상공간의 디지털 정보들 (예를들어, 지역 정보, 사진, 트윗, 지도, 광고, 숙박, 식당, 위키피디아 등)을 현장에서 즉시적으로 사용자에게 제공하고자 하는 시도가 많은 주목을 받고 있다.In recent years, wearable glasses that can see digital information anytime, anywhere has become lighter, by using it to digital information of virtual space (for example, local information, photos, tweets, maps, advertisements, accommodation, restaurants, Wikipedia, etc.) Attempts to provide users immediately in the field have received much attention.
이는, 기존의 정보 획득의 미디어로서 사용되고 있는 휴대용 인터넷 단말기를 대체할 수 있는 뉴 미디어로의 역할을 할 수 있다.This can serve as a new media that can replace the portable Internet terminal that is being used as a media of information acquisition.
즉, 현장의 사용자에게 관심 정보를 즉시적으로 제공할 수 있으며, 기존의 페이스 북/트위터/유투브와 같은 라이프 로깅 서비스를 언제 어디서나 즉각적으로 수행할 수 있으며, 다양한 정보를 손쉽게 획득 할 수 있을 것이다.In other words, it is possible to immediately provide information of interest to users in the field, and can instantly perform life logging services such as Facebook, Twitter, and YouTube anytime, anywhere, and obtain various information easily.
특히, 유저로 하여금 몰입감 있는 가상체험을 제공하는 기술들의 개발이 매우 절실하게 요구된다.In particular, there is a great need for the development of technologies that provide users with an immersive virtual experience.
이를 위해, 대한민국 등록특허 제10-1106857호에서는, 도 9에 도시된 바와 같이, 갤러리제공부(60)를 포함하는 가상 공간의 갤러리시스템에 있어서, 상기 갤러리제공부(60)는, 시스템 제어 프로그램부(80)의 제어신호에 따라 3차원의 가상 공간 갤러리를 제공하는 3D 가상현실프로그램(90)와; 관리서버(10)에서의 선택된 물품을 시스템 제어 프로그램부(80)의 제어신호에 따라 가상 공간의 갤러리에 전시하는 물품선택부(100)와; 가상 공간의 갤러리의 공간 거리를 조절해 주는 동서남북/상하방향키제공부(110)와; 가맹점단말기(40)로부터의 가상 공간의 갤러리의 대여 요청이 있으면 가상 공간의 갤러리를 대여해 주는 가상 공간의 갤러리대여부(120)와; 회원단말기(30)로부터의 전시된 물품의 자리이동 요청이 있으면, 가상 공간의 갤러리에 전시된 물품을 이동시키는 물품자리이동부(130)와; 가맹점단말기(40)로부터 가상 공간의 갤러리 대여 요청이 있으면, 사이버머니를 결재하는 사이버머니결재부(140)와; 회원단말기(30)로부터의 배경음악이 선택되면 음악을 송출하는 배경음악선택부(150)로 구성된 것을 특징으로 하는 '3디를 활용한 가상 공간의 갤러리시스템'이 제안되었다.To this end, in Republic of Korea Patent No. 10-1106857, as shown in Figure 9, in the gallery system of the virtual space including the gallery providing unit 60, the gallery providing unit 60, the system control program 3D virtual reality program 90 for providing a three-dimensional virtual space gallery in accordance with the control signal of the unit 80; An article selection unit 100 for displaying the selected article in the management server 10 in the gallery of the virtual space according to the control signal of the system control program unit 80; An east-west north-south / up-down key providing unit 110 for adjusting a spatial distance of the gallery of the virtual space; A gallery lending unit 120 of the virtual space that lends the gallery of the virtual space if a request is made to rent the gallery of the virtual space from the affiliated terminal 40; An item seat moving unit 130 for moving the goods displayed in the gallery of the virtual space when there is a request for a seat movement of the displayed goods from the member terminal 30; A cyber money payment unit 140 for charging the cyber money when there is a gallery rental request for the virtual space from the affiliated store terminal 40; When the background music from the member terminal 30 is selected, a 'gallery gallery of virtual space using 3D' has been proposed, which is composed of a background music selection unit 150 for transmitting music.
그러나, 상기와 같은 종래 기술에도 불구하고, 위치기반의 정보를 이용하여 다수의 갤러리 및 작품을 구현하고, 개별 작품에 대한 부가적 서비스를 제공하며, 가상의 광고를 구현할 수 있지는 못하였다.However, despite the prior art as described above, it was not possible to implement a plurality of galleries and works using location-based information, provide additional services for individual works, and implement virtual advertisements.
본 발명의 목적은 사용자의 웨어러블 디바이스에 표시되는 특정 공간 내의 실제 사물과 가상으로 구현된 가상 물체들 간의 중첩되는 부분이 사용자의 시야 깊이에 따라 표시되도록 하는 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법을 제공하는 것이다.SUMMARY OF THE INVENTION An object of the present invention is to provide a virtual reality realization system and a method for implementing virtual reality such that overlapping portions between real objects and virtually implemented virtual objects in a specific space displayed on a wearable device of a user are displayed according to the depth of view of the user. To provide.
본 발명의 다른 목적은 미술품, 예술 작품 등의 대상물을 광학 이미지를 통해 가상 공간을 구현하고, 동시에 위치 기반의 정보를 이용하여 가상 갤러리 시스템을 구현하기 위한 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법을 제공하는 것이다.Another object of the present invention is to implement a virtual reality system and a method for implementing a virtual reality for realizing a virtual space for an object, such as a work of art, a work of art through an optical image, and at the same time using a location-based information To provide.
본 발명의 또 다른 목적은 군사용 드론을 이용하여 가상의 군사 훈련 시스템을 구현하기 위한 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법을 제공하는 것이다.It is still another object of the present invention to provide a virtual reality implementation system and a virtual reality implementation method for implementing a virtual military training system using a military drone.
본 발명의 또 다른 목적은 웨어러블 디바이스를 이용하여 작품 관람, 광고, 쇼핑, 스포츠 관람, 군사용 등 다양한 분야에서 가상 현실과 증강 현실이 융합된 가상 현실 구현 시스템 및 그의 가상 현실 구현 방법을 제공하는 것이다.It is still another object of the present invention to provide a virtual reality realization system in which virtual reality and augmented reality are integrated in various fields such as viewing a work, advertising, shopping, sports, military, etc. using a wearable device, and a method of implementing the virtual reality.
상기 목적들을 달성하기 위한, 본 발명의 가상 현실 구현 시스템은 사용자의 웨어러블 디바이스에 표시되는 특정 공간 내의 실제 사물과 가상으로 구현된 가상 물체들 간의 중첩되는 부분이 사용자의 시야 깊이에 따라 표시되도록 하는데 그 한 특징이 있다. 이와 같은 본 발명의 가상 현실 구현 시스템은 웨어러블 디바이스의 디스플레이 패널 상에 특정 공간 내의 실제 사물과 가상 물체들 간의 중첩된 부분을 현실감있게 표시할 수 있다.In order to achieve the above objects, the virtual reality implementation system of the present invention allows an overlapping portion between a real object and a virtually implemented virtual object in a specific space displayed on the wearable device of the user to be displayed according to the depth of view of the user. There is one characteristic. Such a virtual reality implementation system of the present invention can realistically display the overlapping portions between real objects and virtual objects in a specific space on the display panel of the wearable device.
이 특징에 따른 본 발명의 가상 현실 구현 시스템은: 복수 개의 위치 정보 송수신 센서를 통해 규정되는 특정 공간에 존재하는 실제 사물과 상기 특정 공간 내에서 가상으로 구현되는 가상 물체가 표시되는 디스플레이 패널이 구비된 사용자가 착용 가능한 웨어러블 디바이스와; 상기 위치 정보 송수신 센서와 상기 특정 공간 내의 사용자 및 상기 실제 사물의 움직임을 감지하는 복수 개의 광학 모션 센서로부터 상기 실제 사물의 위치 정보와 상기 웨어러블 디바이스의 위치 정보를 수집하고, 상기 웨어러블 디바이스로 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 전송하는 사용자 컴퓨터 및; 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 저장하고, 상기 특정 공간 내의 실제 사물의 위치 정보와 상기 웨어러블 디바이스의 위치 정보를 판단하여 상기 실제 사물과 상기 가상 물체가 일부 중첩되면, 상기 웨어러블 디바이스의 상기 디스플레이 패널에 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터들 간의 시야 깊이에 따라 상기 실제 사물과 상기 가상 물체 중 상기 웨어러블 디바이스와 근거리에 위치하는 것의 중첩되는 부분이 표시되도록 처리하여, 상기 사용자 컴퓨터로 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 전송하는 서버를 포함한다.According to an aspect of the present invention, there is provided a virtual reality implementation system comprising: a display panel including a real object existing in a specific space defined through a plurality of location information transceiving sensors and a virtual object virtually implemented within the specific space. A wearable device wearable by a user; Collecting location information of the real object and location information of the wearable device from the location information transceiving sensor and a plurality of optical motion sensors that detect movement of the user and the real object in the specific space, and transmit the location information to the wearable device; A user computer for transmitting the image data of the virtual object and the image data of the virtual object; The wearable is stored when the image data of the real object and the image data of the virtual object are stored and the location information of the real object and the location information of the wearable device are determined by partially overlapping the real object and the virtual object. The display panel of the device may be configured to display an overlapping portion of the real object and the virtual object located at a short distance with the wearable device according to a depth of view between the image data of the real object and the image data of the virtual object. And a server transmitting image data of the real object and image data of the virtual object to the user computer.
이 특징의 한 실시예에 있어서, 상기 가상 현실 구현 시스템은; 상기 실제 사물을 스캐닝하여 3 차원의 이미지 데이터를 생성하고, 3 차원의 이미지 데이터를 출력하는 적어도 하나의 3 차원 광학 스캔 기기와; 상기 3 차원 광학 스캔 기기로부터 상기 3 차원의 이미지 데이터를 받아서 렌더링 연산 처리하여 상기 실제 사물의 이미지 데이터를 상기 서버로 전송하는 렌터링 컴퓨터를 더 포함한다.In one embodiment of this aspect, the virtual reality implementation system; At least one three-dimensional optical scanning device scanning the real object to generate three-dimensional image data and outputting three-dimensional image data; The apparatus may further include a rendering computer configured to receive the 3D image data from the 3D optical scanning device and to perform a rendering operation to transmit image data of the real object to the server.
다른 실시예에 있어서, 상기 가상 현실 구현 시스템은; 상기 서버의 제어를 받아서 상기 웨어러블 디바이스의 움직임에 대응하여 촬영 방향이 변경되도록 구동하는 광각 IP 카메라를 더 포함하되; 상기 웨어러블 디바이스는 상기 광각 IP 카메라로부터 촬영된 영상을 상기 디스플레이 패널에 표시한다.In another embodiment, the virtual reality implementation system; Further comprising a wide-angle IP camera for driving to change the shooting direction in response to the movement of the wearable device under the control of the server; The wearable device displays an image captured by the wide-angle IP camera on the display panel.
또 다른 실시예에 있어서, 상기 가상 현실 구현 시스템은; 상기 특정 공간의 바닥면에 구비되어 상기 실제 사물과 상기 웨어러블 디바이스의 위치 정보를 더 감지하는 복수 개의 압력 센서를 더 구비한다.In another embodiment, the virtual reality implementation system; The apparatus may further include a plurality of pressure sensors provided on a bottom surface of the specific space to further detect location information of the real object and the wearable device.
또 다른 실시예에 있어서, 상기 웨어러블 디바이스는; 상기 실제 사물과 상기 가상 물체에 대한 부가 정보를 더 표시하고, 상기 부가 정보가 선택되면, 상기 부가 정보에 대응하는 부가 서비스에 연결되도록 처리한다.In another embodiment, the wearable device; The display apparatus further displays additional information about the real object and the virtual object, and when the additional information is selected, it is connected to an additional service corresponding to the additional information.
또 다른 실시예에 있어서, 상기 서버는; 상기 웨어러블 디바이스의 상기 디스플레이 패널에 사용자의 시선에 따른 3 차원적 각도에 대응하여 상기 실제 사물과 상기 가상 물체를 더 표시되도록 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 상기 사용자 컴퓨터로 더 제공한다.In another embodiment, the server; The image data of the real object and the image data of the virtual object are further displayed on the display panel of the wearable device in order to further display the real object and the virtual object in response to a three-dimensional angle of the user's gaze. to provide.
또 다른 실시예에 있어서, 상기 위치 정보 송수신 센서는; 상기 실제 사물과 상기 웨어러블 디바이스의 위치 정보를 인식하는 GPS 장치, 통신망 기지국, 무선 통신 중계기 및 드론 중 어느 하나로 구비된다.In another embodiment, the position information transmission and reception sensor; It is provided with any one of a GPS device, a communication network base station, a wireless communication repeater and a drone to recognize the location information of the real thing and the wearable device.
본 발명의 다른 특징에 따르면, 가상 현실 구현 시스템의 가상 현실 구현 방법이 제공된다.According to another feature of the present invention, a virtual reality implementation method of a virtual reality implementation system is provided.
이 특징에 따른 본 발명의 가상 현실 구현 시스템의 가상 현실 구현 방법은: 복수 개의 위치 정보 송수신 센서를 이용하여 특정 공간을 규정짓고; 상기 위치 정보 송수신 센서를 통해 상기 특정 공간에 존재하는 실제 사물의 위치 정보와, 상기 특정 공간 내에서 가상으로 구현되는 가상 물체가 표시되는 디스플레이 패널이 구비된 사용자가 착용한 웨어러블 디바이스의 위치 정보를 감지하고; 상기 특정 공간 내에 구비된 사용자 컴퓨터를 통해 상기 위치 정보 송수신 센서와 상기 특정 공간 내의 사용자 및 상기 실제 사물의 움직임을 감지하는 복수 개의 광학 모션 센서로부터 상기 실제 사물의 위치 정보와 상기 웨어러블 디바이스의 위치 정보를 수집하여, 상기 웨어러블 디바이스로 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 전송하고; 그리고 서버가 상기 특정 공간 내의 실제 사물의 위치 정보와 상기 웨어러블 디바이스의 위치 정보를 판단하여 상기 실제 사물과 상기 가상 물체가 일부 중첩되면, 상기 웨어러블 디바이스의 상기 디스플레이 패널에 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터들 간의 시야 깊이에 따라 상기 실제 사물과 상기 가상 물체 중 상기 웨어러블 디바이스와 근거리에 위치하는 것의 중첩되는 부분이 표시되도록 처리하여, 상기 사용자 컴퓨터로 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 전송한다.According to an aspect of the present invention, there is provided a virtual reality implementation method of a virtual reality implementation system, comprising: defining a specific space using a plurality of location information transceiving sensors; The location information transmitting and receiving sensor senses the location information of the real thing existing in the specific space and the location information of the wearable device worn by the user having a display panel displaying a virtual object virtually implemented in the specific space. and; The position information of the real object and the position information of the wearable device may be obtained from the position information transceiving sensor and a plurality of optical motion sensors that detect movement of the user and the real object in the specific space through a user computer provided in the specific space. Collect and transmit image data of the real object and image data of the virtual object to the wearable device; When the server determines the positional information of the real object and the positional information of the wearable device in the specific space and the real object and the virtual object partially overlap, the image data of the real object and the image are displayed on the display panel of the wearable device. The overlapping portion of the real object and the virtual object located near the wearable device among the virtual objects is displayed according to the depth of view between the image data of the virtual object, and the image data of the real object and the virtual are displayed to the user computer. Transfer the image data of the object.
이 특징의 한 실시예에 있어서, 상기 방법은; 적어도 하나의 3 차원 광학 스캔 기기를 통해 상기 실제 사물을 스캐닝하여 3 차원의 이미지 데이터를 생성하고, 3 차원의 이미지 데이터를 출력하고; 렌터링 컴퓨터가 상기 3 차원 광학 스캔 기기로부터 상기 3 차원의 이미지 데이터를 받아서 렌더링 연산 처리하여 상기 실제 사물의 이미지 데이터를 상기 서버로 전송하고; 그리고 상기 서버는 상기 실제 사물의 이미지 데이터를 저장하는 것을 더 포함한다.In one embodiment of this aspect, the method comprises; Scan the real object through at least one three-dimensional optical scanning device to generate three-dimensional image data and output three-dimensional image data; A rendering computer receives the three-dimensional image data from the three-dimensional optical scanning device and performs a rendering operation to transmit the image data of the real object to the server; The server may further include storing image data of the real object.
상술한 바와 같이, 본 발명의 가상 현실 구현 시스템은 특정 공간 내의 실제 사물의 위치 정보와 웨어러블 디바이스의 위치 정보를 판단하여 실제 사물과 가상 물체가 일부 중첩되면, 웨어러블 디바이스의 디스플레이 패널에 실제 사물의 이미지 데이터와 가상 물체의 이미지 데이터들 간의 시야 깊이에 따라 중첩되는 부분이 갈려지거나 보이게 표시되도록 처리함으로써, 다양한 공간에서 웨어러블 디바이스를 이용하여 실제 사물과 가상 물체를 현실감있게 표현 가능하고, 이를 통해 가상 현실과 증강 현실의 융합적인 구현이 가능하다.As described above, the virtual reality implementation system of the present invention determines the location information of the real object and the location information of the wearable device in a specific space, and when the real object and the virtual object partially overlap, the image of the real object on the display panel of the wearable device. By overlapping or overlapping parts depending on the depth of field of view between the data and the image data of the virtual object, the wearable device can be realistically represented using a wearable device in various spaces. Convergent implementation of augmented reality is possible.
또 본 발명의 가상 현실 구현 시스템에 따르면, 특히 가상 갤러리 시스템에 적용됨에 따라, 가상의 큐레이터는 작가의 이력, 경매 정보, 작품에 대한 이력, 작품의 창작 의도 등을 나래이션 방식으로 들려주기도, 웨어러블 디바이스의 디스플레이 패널에 함께 표시되는 메뉴를 선택함으로써, 해당 품목을 직접 구매할 수도 있으며, 디스플레이 패널에 작품과 함께 표시되는 가상의 광고 또는 실제 상품 광고를 선택하여 해당 상품을 구매할 수도 있는 효과가 있다.In addition, according to the virtual reality implementation system of the present invention, in particular, as applied to the virtual gallery system, the virtual curator may tell the history of the artist, auction information, the history of the work, the intention of the creation of the work in a narrative manner, wearable device By selecting a menu displayed together on the display panel, the item may be purchased directly, or a virtual advertisement or an actual product advertisement displayed on the display panel may be selected to purchase the corresponding product.
또 본 발명에 따르면, 경비 초소에 적용됨으로써, 웨어러블 디바이스에 연동되어, 광각 IP 카메라가 작동됨으로써, 실제로 외곽 근무 순찰을 다니지 않고서도, 경비 초소의 근무 병사는 경비 초소 등에 머물러 있는 상태에서, 자신이 의도하는 대로 각각의 광각 IP 카메라가 촬영한 영상을 통하여 경계 근무가 가능한 특징적인 효과가 있다.In addition, according to the present invention, by being applied to the guard post, linked to the wearable device, the wide-angle IP camera is activated, the service soldier of the guard post, while not actually going to the outer duty patrol, stays in the guard post, etc. As intended, there is a characteristic effect that the boundary work is possible through the images captured by each wide-angle IP camera.
또한, 본 발명에 따르면, 군사용 드론에 적용됨에 따라, 적군 그리고, 적군 탱크의 현 위치를 파악함은 물론, 적군에 대한 공격 방향, 우리 아군의 향후의 이동 경로, 또는 아군의 퇴로를 용이하게 파악하여, 신속하고도 안전한 부대이동이 가능케 되는 또 다른 효과가 있다.In addition, according to the present invention, as applied to military drones, it is possible to easily grasp the current position of the enemy and the enemy tank, as well as the direction of attack on the enemy, the future movement path of our allies, or the retreat of the allies. There is another effect that enables rapid and safe unit movement.
도 1은 본 발명에 따른 가상 현실 구현 시스템의 구성을 나타낸 전체 개요도,1 is an overall schematic diagram showing the configuration of a virtual reality implementation system according to the present invention,
도 2는 본 발명의 일 실시예에 따른 실제 갤러리에서의 실제 사물과 가상의 물체에 대하여 사용자가 웨어러블 디바이스를 활용하여 작품 관람이 이루어지는 것을 나타낸 도면,2 is a view showing a user viewing a work by using a wearable device for a real object and a virtual object in a real gallery according to an embodiment of the present invention;
도 3은 도 2에 도시된 가상 물체에 대하여 사용자가 웨어러블 디바이스를 활용하는 것을 나타낸 개요도,3 is a schematic diagram illustrating that a user utilizes a wearable device with respect to the virtual object illustrated in FIG. 2;
도 4는 도 2에 도시된 실제 갤러리에서의 실제 사물과 가상 물체에 대하여 시야의 깊이가 각각 다르게 설정되는 것을 나타낸 모식도,FIG. 4 is a schematic diagram illustrating that depths of view are differently set for real objects and virtual objects in the real gallery shown in FIG. 2;
도 5는 본 발명의 다른 실시예에 따른 사용자가 착용한 웨어러블 디바이스에 연동되어 스텝 모터를 통한 광각 IP 카메라의 렌즈 방향을 상하 좌우 방향으로 구동되는 것을 나타낸 개요도,5 is a schematic view showing that the lens direction of the wide-angle IP camera is driven in the vertical direction in conjunction with the wearable device worn by the user according to another embodiment of the present invention;
도 6은 본 발명의 또 다른 실시예에 따른 군사용 드론을 이용한 가상 현실 구현 시스템의 구성을 나타낸 개요도,6 is a schematic diagram showing the configuration of a virtual reality implementation system using a military drone according to another embodiment of the present invention,
도 7은 본 발명에 따른 뷰포인트를 기준하여 카메라로부터 근접 클립면과 이격 클립면이 설정되는 것을 나타낸 모식도,7 is a schematic diagram showing that a close clip plane and a spaced clip plane from a camera are set based on a viewpoint according to the present invention;
도 8은 본 발명의 실시예에 따른 구글 글라스 형태의 웨어러블 디바이스를 나타낸 도면, 그리고8 is a view showing a wearable device in the form of a Google glass according to an embodiment of the present invention, and
도 9는 종래기술의 일 실시예에 따른 3D를 활용한 가상 공간의 갤러리 시스템의 개략적인 구성을 나타낸 도면이다.9 is a view showing a schematic configuration of a gallery system of a virtual space using 3D according to an embodiment of the prior art.
본 발명의 실시예는 여러 가지 형태로 변형될 수 있으며, 본 발명의 범위가 아래에서 서술하는 실시예로 인해 한정되어지는 것으로 해석되어서는 안된다. 본 실시예는 당업계에서 평균적인 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위해서 제공되는 것이다. 따라서 도면에서의 구성 요소의 형상 등은 보다 명확한 설명을 강조하기 위해서 과장되어진 것이다.The embodiments of the present invention may be modified in various forms, and the scope of the present invention should not be interpreted as being limited by the embodiments described below. This embodiment is provided to more completely explain the present invention to those skilled in the art. Therefore, the shape of the components in the drawings, etc. have been exaggerated to emphasize a more clear description.
이하 첨부된 도 1 내지 도 8을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to FIGS. 1 to 8.
도 1은 본 발명에 따른 가상 현실 구현 시스템의 구성을 나타낸 전체 개요도이다.1 is an overall schematic diagram showing the configuration of a virtual reality implementation system according to the present invention.
도 1을 참조하면, 본 발명의 가상 현실 구현 시스템은 웨어러블 디바이스(100)를 이용하여 현실감있는 가상 현실 구현을 위해, 실제 사물과 가상으로 구축된 가상 물체를 표현하고자 하는 피사체를 광학적 스캔 및 3 차원화하고, 실제 사물과 가상 물체를 보는 방향에 따라 실제 사물과 가상 물체가 중첩되는 부분을 현실감있게 표시하도록 처리한다.Referring to FIG. 1, in the virtual reality implementation system of the present invention, an optical scan and a three-dimensional image of a subject to represent a virtual object constructed with a real object in order to implement a realistic virtual reality using the wearable device 100 is performed. Process to display the overlapping part of the real object and the virtual object according to the direction of viewing the real object and the virtual object.
*이를 위해 본 발명의 가상 현실 구현 시스템은 웨어러블 장치(100)와, 사용자 컴퓨터(200)와, 서버(300)와, 렌더링 컴퓨터(400)와, 복수 개의 3D 광학 스캔 기기(500 : 500a, 500b) 및, 광학 IP 카메라(600)를 포함한다. 이러한 가상 현실 구현 시스템은 예를 들어, 유무선 통신망을 이용하여 인터넷에 접속되고, 상호 데이터 통신이 가능하도록 연결된다. 여기서 웨어러블 디바이스(100)와 사용자 컴퓨터(200)는 특정 공간(S1) 내에 위치한다.To this end, the virtual reality implementation system of the present invention includes a wearable device 100, a user computer 200, a server 300, a rendering computer 400, and a plurality of 3D optical scanning devices 500: 500a and 500b. And an optical IP camera 600. Such a virtual reality implementation system is connected to the Internet using, for example, a wired or wireless communication network, and is connected to enable mutual data communication. Here, the wearable device 100 and the user computer 200 are located in a specific space S1.
웨어러블 디바이스(100)는 사용자(M)가 착용하고, 이미지가 출력되는 디스플레이 패널과 음성을 녹음하는 마이크(예를 들어, 홀로포닉스 마이크 등)와, 음성을 스테레오로 출력하는 스피커, 헤드폰 등이 구비된다. 또 웨어러블 디바이스(100)는 다양한 센서들 예를 들어, 광각 카메라, 광학 모션 센서, 자이로스코프 센서, 위치 정보 송수신기, 동공 위치 추적 장치, 동공 수축/이완 추적 장치, 조도 센서 등이 구비된다. 이러한 웨어러블 디바이스(100)는 디스플레이 패널을 이용하여 구현된 가상 현실에 따른 실제 사물과 가상 물체가 포함된 영상을 표시한다.The wearable device 100 includes a display panel worn by the user M, a display panel for outputting an image, a microphone for recording voice (for example, a holographic microphone, etc.), a speaker for outputting voice in stereo, headphones, and the like. It is provided. In addition, the wearable device 100 includes various sensors, for example, a wide angle camera, an optical motion sensor, a gyroscope sensor, a position information transceiver, a pupil position tracking device, a pupil contraction / relaxation tracking device, and an illuminance sensor. The wearable device 100 displays an image including a real object and a virtual object according to a virtual reality implemented using a display panel.
사용자 컴퓨터(200)는 특정 공간(S1)(예를 들어, 실제 갤러리) 내에 구비되고 무선 통신망을 통해 웨어러블 디바이스(100)가 연결된다.The user computer 200 is provided in a specific space S1 (eg, an actual gallery) and is connected to the wearable device 100 through a wireless communication network.
사용자 컴퓨터(200)는 광학적으로 판독 가능한 광학 인식 코드(또는 태그)를 리딩하는 리더기와, 복수 개의 위치 정보 송수신 센서에 의해 규정되는 특정 공간 내에서 광학 모션 센서(예를 들어, 레이저 모션 트래킹 센서)를 이용하여 웨어러블 디바이스(100)의 위치, 방향 및 3 차원적인 각도 등을 포함하는 웨어러블 디바이스(100)의 위치 정보를 수집한다.The user computer 200 includes a reader that reads optically readable optical recognition codes (or tags), and an optical motion sensor (eg, a laser motion tracking sensor) within a specific space defined by a plurality of location information transmission and reception sensors. The location information of the wearable device 100 including the position, the direction, and the three-dimensional angle of the wearable device 100 is collected by using.
여기서 리더기는 규정된 공간 내에 존재하는 모든 피사체(예를 들어, 물건이나 생물 등이 포함된 실제 사물)에 대한 3 차원 정보를 포함하는 광학 인식 코드(또는 태그)를 판독한다.Here, the reader reads an optical recognition code (or tag) that includes three-dimensional information about all subjects (eg, real objects including objects, creatures, etc.) existing in the defined space.
위치 정보 송수신 센서는 복수 개가 특정 공간에 설치되어 공간을 규정짓고, 규정된 공간 내에 존재하는 웨어러블 디바이스(100)의 위치, 방향 및 3 차원적 각도에 대한 정보를 감지한다. 또 위치 정보 송수신 센서는 웨어러블 디바이스(100)와의 직선 거리를 감지한다. 광학 모션 센서는 규정된 공간 내에 존재하는 모든 피사체에 대해 실시간으로 위치, 모양, 크기 및 부피 등이 포함된 정보를 감지한다. 또 리더기와 광학 모션 센서에 의해 감지된 정보를 이용하여 피사체에 대한 오차를 보정한다.A plurality of location information transmission / reception sensors are installed in a specific space to define a space, and sense information about the position, direction, and three-dimensional angle of the wearable device 100 existing in the defined space. In addition, the position information transmission and reception sensor detects a straight line distance to the wearable device 100. The optical motion sensor detects information including position, shape, size, volume, etc. in real time for all subjects existing within a defined space. Also, the information detected by the reader and the optical motion sensor is used to correct an error of the subject.
또 특정 공간에는 바닥면에 복수 개의 압력 센서들을 구비하고, 이를 통해 웨어러블 디바이스의 위치와 존재하는 피사체의 위치를 파악 및 보정한다. 또 특정 공간에는 좌우 독립 녹음 및 출력이 가능한 음성 출력 장치를 더 구비하고, 이를 통해 공간 내에 존재하는 피사체(예를 들어, 실제 사물 또는 가상 물체)에서 발생되는 모든 소리를 출력하여, 소리 근원의 위치 정보를 가늠할 수 있어서 현실적이고 3 차원적인 음성 정보를 전달할 수 있다.In addition, a specific space is provided with a plurality of pressure sensors on the bottom surface, through which the position of the wearable device and the position of the existing subject are identified and corrected. In addition, a specific space further includes a voice output device capable of independent left and right recording and output, through which outputs all sounds generated from a subject (for example, a real object or a virtual object) existing in the space, thereby positioning the sound source. Information can be measured to convey realistic and three-dimensional voice information.
또 사용자 컴퓨터(200)는 무선 통신망을 통해 웨어러블 디바이스(100)로 이미지 데이터 및 음성 데이터를 전송한다. 또 사용자 컴퓨터(200)는 인터넷을 통하여 서버(300)로부터 실제 사물에 대한 이미지 데이터와 가상 물체에 대한 이미지 데이터를 받아서 웨어러블 디바이스(100)로 제공한다.In addition, the user computer 200 transmits image data and voice data to the wearable device 100 through a wireless communication network. In addition, the user computer 200 receives image data of an actual object and image data of a virtual object from the server 300 through the Internet and provides the image data to the wearable device 100.
서버(300)는 다양한 특정 공간(S1, S2)에 대한 모든 피사체 즉, 실제 사물 및 가상 물체의 이미지 데이터와, 실제 사물과 가상 물체에 대한 음향 효과 등이 포함된 음성 데이터를 저장한다. 서버(300)는 인터넷을 통하여 복수 개의 3D 광학 스캔 기기(500 : 500a, 500b)로부터 광학 스캐닝된 실제 사물에 대한 이미지 데이터를 전송받아서 저장한다. 서버(300)는 인터넷을 통하여 사용자 컴퓨터(200)로 이미지 데이터와 음성 데이터를 전송한다. 서버(300)는 사용자컴퓨터(200), 렌더링 컴퓨터(400) 및 광각 IP 카메라(600)를 제어하도록 제어 신호를 연산 처리한다.The server 300 stores image data of all subjects, that is, real objects and virtual objects, and voice data including sound effects of the real objects and virtual objects for various specific spaces S1 and S2. The server 300 receives and stores image data about an optically scanned real object from a plurality of 3D optical scanning devices 500: 500a and 500b through the Internet. The server 300 transmits image data and voice data to the user computer 200 through the Internet. The server 300 computes a control signal to control the user computer 200, the rendering computer 400, and the wide-angle IP camera 600.
또 서버(300)는 인터넷을 통하여 웨어러블 디바이스(100)로부터 사용자의 시선 방향이 변경되면, 이에 대응하여 원격지에 있는 광각 IP 카메라(600)의 촬영 방향이 변경되도록 원격 제어하고, 이를 통해 획득된 이미지 데이터를 웨어러블 디바이스(100)로 제공한다.In addition, when the gaze direction of the user is changed from the wearable device 100 through the Internet, the server 300 remotely controls the photographing direction of the wide-angle IP camera 600 to be remotely changed in response thereto, and the image obtained through this is obtained. The data is provided to the wearable device 100.
또 서버(300)는 개인이 직접 관람하는 개인 직접 관람 공간(S2)에 위치하는 가상 웨어러블 디바이스(100), 모바일 단말기 및 컴퓨터 등과 인터넷을 통하여 연결되어, 이미지 데이터와 음성 데이터를 제공한다.In addition, the server 300 is connected to the virtual wearable device 100, a mobile terminal, a computer, and the like located in the personal direct viewing space (S2) directly viewed by an individual to provide image data and voice data.
이러한 서버(300)는 인터넷을 통하여 사용자 컴퓨터(200)로부터 다양한 정보들을 전송받아서 특정 공간 내의 웨어러블 디바이스(100)의 사용자와 모든 피사체에 대한 위치, 방향, 3 차원적인 각도와 모양, 크기에 대한 정보를 저장하고, 실시간으로 분석하여 웨어러블 디바이스(100) 상의 디스플레이 패널을 통해 실시간으로 재생되는 실제 및 가상 현실이 융합된 영상을 제공한다. 또 서버(300)는 웨이러블 디바이스(100)와 피사체 각각의 위치 정보와 시야 범위 및 깊이에 따라 실존하는 실제 사물과 가상으로 구현된 가상 물체가 현실감있게 표현하도록 처리한다. 또 서버(300)는 구현되는 시야 내의 각 피사체의 거리에 따라 상대적으로 원거리에 있는 피사체가 상대적으로 근거리에 있는 피사체와 겹치는 부분이 표시되지 않도록 마스킹 처리하거나, 근거리에 위치하는 피사체가 우선 표시하도록 처리한다. 또 서버(300)는 구현되는 시야 내의 가상으로 구현된 피사체의 위치와 이동 경로가 3 차원적으로 처리되어 위치, 3 차원적 각도, 원근 효과 등을 현실감있게 구현 가능하다.The server 300 receives a variety of information from the user computer 200 through the Internet, information about the position, direction, three-dimensional angle and shape, size of the user and all subjects of the wearable device 100 in a specific space It stores and analyzes in real time to provide an image in which the real and virtual reality is reproduced in real time through the display panel on the wearable device 100 is fused. In addition, the server 300 processes a realistic representation of a real object and a virtual object virtually realized according to the location information, the viewing range, and the depth of each of the waveable device 100 and the subject. In addition, the server 300 processes masking so that a part of a relatively long subject overlaps with a subject in a relatively short distance so as not to be displayed according to a distance of each subject in the field of view to be implemented, or first displays a subject located in a short distance first. do. In addition, the server 300 is a three-dimensional processing of the position and the moving path of the virtually implemented subject in the field of view to be implemented, it is possible to realistically implement the position, three-dimensional angle, perspective effect.
*렌더링 컴퓨터(400)는 인터넷을 통하여 3D 광학 스캔 기기(500)으로부터 스캐닝된 실제 사물의 이미지 데이터를 전송받아서 3D 이미지 데이터를 웨어러블 디바이스(100)의 디스플레이 패널 상에 표시되는 2D 이미지 데이터로 변환하는 3D 렌더링 등으로 연산 처리하여 3D 이미지 데이터값을 생성하고, 이를 인터넷을 통해 서버(300)로 전송한다.The rendering computer 400 receives the image data of the real object scanned from the 3D optical scanning device 500 through the Internet and converts the 3D image data into 2D image data displayed on the display panel of the wearable device 100. The 3D rendering operation generates a 3D image data value, and transmits the 3D image data to the server 300 through the Internet.
3D 광학 스캔 기기(500)는 복수 개가 구비되어 실제 사물을 스캐닝하여 3 차원적 이미지 데이터를 획득하고, 이를 인터넷을 통하여 서버(300)로 전송한다.3D optical scanning device 500 is provided with a plurality of scanning the actual object to obtain the three-dimensional image data, and transmits it to the server 300 through the Internet.
그리고 광각 IP 카메라(600)는 웨어러블 디바이스(100) 등으로부터 전송받은 구동 신호에 따라 작동된다. 광각 IP 카메라(600)는 다양한 공간에 구비되어 서버(300)를 통해 웨어러블 디바이스(100)의 시선 방향에 따라 촬영 방향을 변경하도록 원격 제어받아서 해당 공간의 이미지 데이터를 획득하고, 이를 서버(300)로 전송한다.The wide-angle IP camera 600 operates according to a driving signal received from the wearable device 100 or the like. The wide-angle IP camera 600 is provided in various spaces and is remotely controlled to change the photographing direction according to the eyeline direction of the wearable device 100 through the server 300 to obtain image data of the corresponding space, and the server 300 To send.
따라서 본 발명이 가상 현실 구현 시스템은 다양한 공간에서 웨어러블 디바이스(100)를 이용하여 실제 사물과 가상 물체를 현실감있게 표현하도록 하여 가상 현실과 증강 현실을 구현할 수 있다.Therefore, the virtual reality realization system of the present invention may implement virtual reality and augmented reality by using the wearable device 100 in various spaces to realistically express real objects and virtual objects.
도 2는 본 발명의 일 실시예에 따른 실제 갤러리에서의 실제 사물과 가상의 물체에 대하여 사용자가 웨어러블 디바이스를 활용하여 작품 관람이 이루어지는 것을 나타낸 도면이고, 도 3은 도 2에 도시된 가상 물체에 대하여 사용자가 웨어러블 디바이스를 활용하는 것을 나타낸 개요도이고, 도 4는 도 2에 도시된 실제 갤러리에서의 실제 사물과 가상 물체에 대하여 시야의 깊이가 각각 다르게 설정되는 것을 나타낸 모식도이며, 그리고 도 7은 본 발명에 따른 뷰포인트를 기준하여 카메라로부터 근접 클립면과 이격 클립면이 설정되는 것을 나타낸 모식도이다.2 is a view showing a user viewing a work by using a wearable device for a real object and a virtual object in a real gallery according to an embodiment of the present invention, and FIG. 3 is a view of the virtual object shown in FIG. FIG. 4 is a schematic diagram illustrating a user using a wearable device, FIG. 4 is a schematic diagram illustrating that depths of view are differently set for real objects and virtual objects in the actual gallery shown in FIG. 2, and FIG. It is a schematic diagram which shows that the proximity clip surface and the spaced clip surface from the camera are set based on the viewpoint according to the invention.
먼저 도 2 내지 도 4를 참조하면, 이 실시예는 특정 공간(S1)이 실제 갤러리로, 복수 개의 위치 정보 송수신 센서(L1 ~ L8)들에 의해 공간을 규정한다. 또 특정 공간(S1)에는 복수 개의 광학 모션 센서(I1 ~ I15)들이 규정된 공간의 테두리를 따라 일정 간격 이격되게 배치되어, 특정 공간(S1) 내의 웨어러블 디바이스(100)를 착용한 사용자(M)와 실제 사물(R)에 대한 위치 정보를 감지한다. 또 특정 공간(S1)의 바닥면에는 압력 센서(P1)이 구비되어 사용자의 위치, 이동 등을 감지한다. 이 실시예에서 위치 정보 송수신 센서(L1 ~ L8)는 예를 들어, 블루투스 비콘(bluetooth becon) 등으로 구비된다.First, referring to FIGS. 2 to 4, in this embodiment, the specific space S1 is an actual gallery, and defines the space by the plurality of location information transceiving sensors L1 to L8. In addition, the user M wearing the wearable device 100 in the specific space S1 is disposed in the specific space S1 with a plurality of optical motion sensors I1 to I15 spaced apart at regular intervals along the edge of the prescribed space. And position information on the actual object (R). In addition, the bottom surface of the specific space (S1) is provided with a pressure sensor (P1) to detect the user's position, movement, and the like. In this embodiment, the location information transceiving sensors L1 to L8 are provided with, for example, a Bluetooth becon.
구체적으로, 실제 갤러리(S1)는 일정 공간으로 규정되고, 대체적으로 전 영역을 커버할 수 있도록 위치 정보 송수신 센서(L1 ~ L8)가 설치되고, 인접하는 적어도 2 개의 위치 정보 송수신 센서(L1 ~ L8) 사이에는 광학 모션 센서(I1 ~ I15)가 설치되어, 실제 갤러리(S1) 내에서 움직이는 사용자(M), 실제 사물(R) 그리고 가상 물체(V)가 센싱되거나, 유효한 데이터로서 위치 데이터를 감지하도록 설치된다.Specifically, the actual gallery S1 is defined as a predetermined space, and location information transceiving sensors L1 to L8 are installed to cover the entire area, and at least two adjacent location information transceiving sensors L1 to L8 are provided. Optical motion sensors (I1 to I15) are installed between) so that a user (M), a real object (R), and a virtual object (V) moving in the real gallery (S1) are sensed or position data is detected as valid data. To be installed.
또한 실제 갤러리(S1)를 구성하는 바닥면에는 다수의 압력 센서(P)들이 장착되어 바닥면 위를 압력을 가하면서 이동하는 사용자(M) 또는 실제 사물(R)의 실제의 위치 데이터를 센싱하도록 구비된다.In addition, a plurality of pressure sensors P are mounted on the floor constituting the actual gallery S1 to sense actual position data of a user M or a real object R moving while applying pressure on the floor. It is provided.
이 때, 실제 사물(R)에 대한 데이터값은 고해상도의 3D 광학 스캔 기기(500 : 500a, 500b)를 활용하여 스캐닝함으로써 확보될 수 있다. 그리고 확보된 데이터값은 인터넷을 통하여 서버(300)에 전송되어 저장된다.At this time, the data value for the real object (R) can be secured by scanning by using a high-resolution 3D optical scanning device (500: 500a, 500b). The secured data value is transmitted to the server 300 through the Internet and stored.
또한, 사용자(M)가 웨어러블 디바이스(100)를 사용하여 각각의 실제 사물(R)과 가상 물체(V)에 대한 3 차원적인 좌표값이 읽혀짐에 따라, 웨어러블 디바이스(100)의 디스플레이 화면에 표시된다.In addition, as the user M reads three-dimensional coordinate values of each of the real object R and the virtual object V using the wearable device 100, the user M may read the display screen of the wearable device 100. Is displayed.
이 실시예에서 가상 현실 구현 시스템의 적용 원리는 피사체 예를 들어, 물고기 형상으로 예시되는 가상 물체(V)가 현실 속에서 현장감있게 재현되도록 하는 것으로서, 특정 공간(S1) 내의 위치 정보를 기반으로 하여, 특정 공간(S1) 내에서의 모든 사물에 대한 좌표, 크기 등을 모두 인식하고, 이에 따라 특정 공간(S1) 내에서 3차원 좌표가 부여하여 표시되도록 처리한다. 즉, 가상 현실 구현 시스템은 대상물의 위치 정보와 시야의 정보를 분석하여 가상 물체(V)와 실제 사물(R)이 현실감있는 융합적인 구현이 가능하다.The application principle of the virtual reality realization system in this embodiment is to cause the virtual object V, which is illustrated in a subject, for example, fish shape, to be realistically reproduced in reality, based on the positional information in a specific space S1. In addition, all coordinates, sizes, etc. of all objects in the specific space S1 are recognized, and three-dimensional coordinates are assigned and displayed in the specific space S1. That is, the virtual reality realization system analyzes the location information of the object and the information of the field of view, thereby enabling the fusion of the virtual object V and the real object R to be realistic.
예를 들어, 도 3의 사용자 시선(B)에 도시된 바와 같이, 웨어러블 디바이스(100)의 디스플레이 패널 상에 실제 사물(R)과, 특정 공간(S1) 내에 물고기 형상의 가상 물체(V)가 실제 사물(R)의 앞쪽에 표시되고, 특정 공간(S1) 내에서 물고기 형상의 가상 물체(V)가 유영을 하다가, 도 3의 사용자 시선(A)에 도시된 바와 같이, 실제 사물(R) 뒤로 돌아가면, 가상 물체(V)가 실제 사물(R) 뒤로 돌아감에 따라 실제 사물(R)과 가상 물체(V)가 중첩되는 중첩 영역(Hi)이 발생되어, 사용자의 시선에는 시야의 깊이에 따라 해당 중첩 부분의 가상 물체(V)의 이미지는 실제 사물(R)에 의해 일부가 가려지는 것으로 표시 처리되어, 실제로 가상 물체가 존재하는 것과 같은 가상의 3D 이미지가 구현된다.For example, as shown in the user's eye B of FIG. 3, a real object R and a fish-like virtual object V are placed on a display panel of the wearable device 100 in a specific space S1. Displayed in front of the real object (R), the fish-like virtual object (V) is swimming in a specific space (S1), as shown in the user's eye (A) of Figure 3, behind the real object (R) When the virtual object V returns to the back of the real object R, an overlapping region Hi overlaps the real object R and the virtual object V, and thus the user's eyes may have a depth of view. Accordingly, the image of the virtual object V of the overlapping portion is displayed as partly covered by the real object R, so that a virtual 3D image as if the virtual object exists is realized.
*또 사용자(M)가 웨어러블 디바이스(100)를 착용한 상태에서, 실제 사물(R)의 후방으로 이동하게 되면, 도 3의 사용자 시선(A)에서와 같이, 가상 물체(V)가 실제 사물(R)과 중첩되어 보이지 않던 부분이 도 3의 사용자 시선(B)에서 처럼 보이게 된다.In addition, when the user M wears the wearable device 100 and moves to the rear of the real object R, the virtual object V is the real object as shown in the user's eye A of FIG. 3. The portion which is not visible overlapping with (R) is shown as in the user's line of sight B of FIG. 3.
또한 본 발명은 가상 현실과 증강 현실이 융합된 기술로서, 사용자(M)의 시야 밖에 있던 물고기 형상의 가상 물체(V)가 마치 실물이 점점 다가오는 것처럼, 사용자(M)의 전방으로 점점 튀어나오듯이, 가상으로 구현될 수 있다.In addition, the present invention is a technology in which virtual reality and augmented reality are fused, the fish-like virtual object (V) that was outside the user M's field of view as if the real thing is coming closer to the front of the user (M) Can be implemented virtually.
더욱이 물고기 형상의 가상 물체(V)와 실제 사물(R)은 웨어러블 디바이스(100)를 통해서 보게 되면, 이들 데이터값이 합성되어 표시되고, 가상 물체(V)와 실제 사물(R)에 대한 다양한 부가 정보가 표시되며, 이들 부가 정보를 선택하게 하여 다양한 부가 서비스를 받을 수도 있다.Furthermore, when the fish-like virtual object V and the real object R are viewed through the wearable device 100, these data values are synthesized and displayed, and various additions to the virtual object V and the real object R are performed. The information is displayed and various additional services can be received by selecting these additional information.
실제 사물(R)에 대한 데이터값은 3D 광학 스캔 기기(500 : 500a, 500b)에 의해 실시간으로 스캐닝되어 얻어질 수도 있고, 실제 갤러리(S1)에 설치되어 있는 광학 모션 센서(I1 ~ I15), 위치 정보 송수신 센서(L1 ~ L8)에 의하여 감지되어 데이타값이 얻어질 수도 있으며, 바닥에 위치한 압력 센서(P)를 통해 얻어질 수도 있다. 뿐만 아니라, 상술한 방법들을 복합적으로 사용하여 얻어진 데이타값을 비교하여 오차를 줄일 수 있도록 할 수 있다.The data value for the real object R may be obtained by scanning in real time by the 3D optical scanning device 500 (500a, 500b), the optical motion sensors I1 to I15 installed in the real gallery S1, The data value may be obtained by being sensed by the location information transmission / reception sensors L1 to L8 or may be obtained through the pressure sensor P located on the floor. In addition, it is possible to reduce the error by comparing the data values obtained by using the above-described methods in combination.
여기서, 웨어러블 디바이스(100)는 다양한 센서들을 이용하여 웨어러블 디바이스(100)의 3 차원 공간상 좌표, 방향, 그리고 각도 정보를 측정하고, 이를 통해 각각의 실제 사물(R)과 가상 물체(V)들 사이, 사용자(M)들 사이, 실제 사물(R) 또는 가상 물체(V)와 웨어러블 디바이스(100)들 사이의 상대적 위치 즉, 3 차원적 공간 좌표를 감지할 수 있다. 여기서 3 차원적 위치 정보를 감지하는 센서에는 예를 들어, IR 센서, 광학 감지 센서 등이 포함될 수 있다. 따라서 웨어러블 디바이스(100)의 위치, 3 차원 각도 정보에 의해 사용자의 시야가 결정된다.Here, the wearable device 100 measures coordinates, directions, and angle information on the three-dimensional space of the wearable device 100 using various sensors, and through this, the real objects R and the virtual objects V are measured. The relative position between the users M, the real object R or the virtual object V, and the wearable devices 100 may be sensed, that is, three-dimensional spatial coordinates. In this case, the sensor for detecting the 3D location information may include, for example, an IR sensor, an optical sensor, and the like. Therefore, the user's field of view is determined by the position of the wearable device 100 and the three-dimensional angle information.
동시에 이를 통해 도 7에 도시된 바와 같이, 사용자(M)가 공간적 위치 좌표 및 각도를 통해 디스플레이에 표현되는 시야 절두체(viewing frustum)가 정의되고, 이 때의 시야 절두체(viewing frustum) 내에 들어오는 피사체들에 대한 정보가 시야의 깊이 정보 프로세스를 통해 현실감있게 구현된다. 이는 사용자가 웨어러블 디바이스(100)의 카메라를 통해 실제 사물과 배경을 볼 수 있으므로, 시야 절두체(viewing frustum)는 뷰포인트(viewpoint) 즉, 카메라의 관점에서 전체 화면 중 어느 부분이 최종 화면에 보이는지를 알아내야 하는데, 이 보이는 영역 즉, 결정된 표시 영역을 의미한다. 즉, 웨어러블 디바이스(100)의 디스플레이 패널 상에 표시되는 화면은 시야 절두체 내에서 시야의 깊이에 따라 인접한 화면(near clip plane)과 먼 화면(far clip plane) 사이의 어느 한 화면이 된다.At the same time, through this, as shown in FIG. 7, a viewing frustum in which the user M is represented on the display through spatial position coordinates and angles is defined, and the subjects entering the viewing frustum at this time are defined. The information about is realized realistically through the depth information process of the field of view. Since the user can see the real object and the background through the camera of the wearable device 100, the viewing frustum is a viewpoint, that is, which part of the entire screen is visible on the final screen in terms of the camera. This means that the visible area, that is, the determined display area. That is, the screen displayed on the display panel of the wearable device 100 becomes one screen between a near clip plane and a far clip plane in the viewing frustum according to the depth of the view.
그리고 공간 상에 위치하지만 시야 내에 들어오지 않은 사물은 표시되지 않지만, 시야에 들어오지 않는 사물 또는 사람이 발생시키는 음성 정보는 출력 가능하게 구현되고, 본 발명의 가상 현실 구현 시스템에 의해 구현되는 실재 공간은 가상으로 구현되는 공간과 그 형태와 넓이, 높이 등이 일치되도록 구현된다.And although the object located in the space but not in the field of view is not displayed, the voice information generated by the object or the person who does not enter the field of view is implemented to be outputable, and the real space implemented by the virtual reality realization system of the present invention is virtual. It is implemented to match the space and its shape, width and height.
또 본 발명을 가상 갤러리에 적용한 경우, 웨어러블 디바이스(100)를 착용한 여러 명의 사용자(M)가 실제 갤러리(S1)에서 가상의 큐레이터와 함께 관람할 때, 실제 갤러리(S1) 공간 내에서 실존하는 여러 명의 사용자(M), 가상의 큐레이터 및 실제 사물(R)과 서로 충돌되지 않도록 고려된다. 이 때, 가상의 큐레이터는 작가의 이력, 경매 정보, 작품에 대한 이력, 작품의 창작 의도 등을 내래이션(narration) 방식으로 들려주기도 한다. 또한 가상의 큐레이터는 실제 갤러리의 큐레이터처럼, 관람자를 따라다니며 작품에 대한 디테일한 설명을 들려준다.In addition, when the present invention is applied to the virtual gallery, when a plurality of users (M) wearing the wearable device 100 is viewed with the virtual curator in the actual gallery (S1), the various existing in the space of the actual gallery (S1) It is considered not to collide with each other users M, virtual curators and real objects R. At this time, the virtual curator may tell the history of the artist, the auction information, the history of the work, the intention of the creation of the work in a narration manner. In addition, the virtual curator, like the curator of a real gallery, follows the audience and gives a detailed explanation of the work.
게다가, 웨어러블 디바이스(100)의 디스플레이 패널에 함께 표시되는 메뉴(menu)를 선택함으로써, 해당 품목을 직접 구매할 수도 있다. 또한, 웨어러블 디바이스(100)의 디스플레이 패널에 작품과 함께 표시되는 가상의 광고 또는 실제 상품 광고 예를 들어, 배너 광고, 차량 등의 상품 광고 등을 선택하여 해당 상품을 구매할 수도 있다. 또한, 웨어러블 디바이스(100)의 디스플레이 패널에 작품과 함께 표시되는 메뉴(menu)를 선택함으로써, 해당 품목의 경매에 참여할 수도 있다.In addition, by selecting a menu displayed together on the display panel of the wearable device 100, the item may be purchased directly. In addition, a corresponding advertisement may be purchased by selecting a virtual advertisement displayed on the display panel of the wearable device 100 or an actual product advertisement, for example, a banner advertisement or a product advertisement such as a vehicle. In addition, by selecting a menu displayed together with the work on the display panel of the wearable device 100, it is possible to participate in the auction of the item.
그리고, 웨어러블 디바이스(100)의 디스플레이 패널에서 이미지와 음향이 출력되며, 각종 공간상 좌표 인식 센서에 위치를 알릴 수 있는 장비 및 데이터 통신 장비를 가지고, 디바이스 전면의 실재를 촬영하여 실시간 전송할 수 있는 카메라를 지님과 동시에, 레이저 스캔 장비를 지니며 내부에 동공의 위치를 측정하고 기록할 수 있는 장치를 더 구비할 수 있다.In addition, the camera outputs images and sounds from the display panel of the wearable device 100 and has a device and a data communication device capable of informing a position to various spatial coordinate recognition sensors, and photographs the front of the device and transmits them in real time. At the same time, it may be further provided with a device having a laser scanning equipment for measuring and recording the position of the pupil inside.
또한, 음향에 대한 부분에 있어서, 웨어러블 디바이스(100)를 착용한 각각의 사용자(M)에 대하여, 우측 방향에서 음향이 들려오는 것과 좌측 방향에서 음향이 들려오는 것과는 서로 달리 들리므로, 사용자(M)에 대하여 좌우측으로부터 들리는 음향이 서로 다르게 설정된다. 따라서 실제 갤러리(S1) 공간 내에서의 웨어러블 디바이스(100)를 착용한 사용자(M)와 가상 물체(V)의 상대 위치에 따라, 웨어러블 디바이스(100)의 좌우측으로부터 들리는 음향은 서로 음향의 레벨(level)이 달리 설정된다.In addition, in terms of sound, for each user M wearing the wearable device 100, the sound is different from the sound coming from the right direction and the sound coming from the left direction. The sound heard from left and right is set differently with respect to. Therefore, according to the relative positions of the user M wearing the wearable device 100 and the virtual object V in the space of the actual gallery S1, the sounds heard from the left and right sides of the wearable device 100 are mutually level of sound ( level) is set differently.
그리고 가상 물체(V)인 작품을 실제 갤러리(S1) 상에서 감상 중에 사용자가 작품의 앞뒤, 옆, 상하의 모든 면을 임의로 이동하며 선택적으로 관람할 수 있다. 이 때, 가상 물체(V) 곁에서 관람하는 동안, 웨어러블 디바이스(100) 내부에 놓여져 있는 사용자(M)의 동공이 머물러있는 시간 등을 확인하여, 대상물인 가상 물체(V)에 대한 선호도를 파악할 수도 있다.In addition, while viewing a work as a virtual object V on a real gallery S1, a user may selectively view all sides of the work at the front, back, side, and top and bottom. At this time, while viewing the virtual object (V), the user's pupils placed inside the wearable device 100, such as the time the user stays, may be checked to determine the preference for the virtual object (V) as an object. have.
또 이 실시예의 가상 현실 구현 시스템은 도 4에 도시된 바와 같이, 실제 사물과 가상 물체의 시야의 깊이가 각각 다른 경우, 시야의 깊이에 따라 원근 처리하여 현실감을 향상시킬 수 있다.In addition, as shown in FIG. 4, in the virtual reality implementation system of this embodiment, when the depth of view of the real object and the virtual object is different from each other, perspective processing may be performed according to the depth of view to improve the realism.
여기서 시야의 깊이는 특정 공간 내에 위치하는 복수 개의 실제 사물(R)들과 가상 물체(V)가 놓여진 위치에 따라 3 차원적으로 처리되어 화살표 방향에 따라 사용자의 시선이 서로 다른 거리감을 느끼게 되므로, 사용자(M)에 의해 가상 물체(V)의 이미지 데이터가 어떻게 달리 얻어지느냐에 따라 결정된다. 예를 들어, 시야의 깊이에 의해 실제 실존하는 실제 사물(R)들이 표시되고, 가상 물체(V)는 실제 사물(R)의 뒤로 위치되어 가상 사물(V)의 일부가 실제 사물(R)에 의해 가려지게 되면, 해당 부분이 사용자(M)의 시야에는 보이지 않게 처리된다.Here, the depth of view is processed three-dimensionally according to the positions where the plurality of real objects (R) and the virtual object (V) are placed in a specific space, so that the user's gaze feels a different distance depending on the direction of the arrow, It is determined by the user M how the image data of the virtual object V is obtained differently. For example, the actual real objects R are displayed by the depth of view, and the virtual object V is positioned behind the real object R such that a part of the virtual object V is placed on the real object R. If it is covered by, the part is processed invisible to the user M's field of view.
이러한 가상 현실 구현 시스템은 특정 공간이 규정된 가상 갤러리 시스템으로 구현될 수 있으며, 또한 다양한 형태들 예를 들어, 도 2에 도시된 바와 같이, 특정 공간이 규정된 실제 갤러리(S1)로도 구현된다.Such a virtual reality implementation system may be implemented as a virtual gallery system in which a specific space is defined, and also in various forms, for example, as shown in FIG. 2, a virtual gallery may also be implemented as a real gallery S1 in which a specific space is defined.
도 5는 본 발명의 다른 실시예에 따른 사용자가 착용한 웨어러블 디바이스에 연동되어 스텝 모터를 통한 광각 IP 카메라의 렌즈 방향을 상하 좌우 방향으로 구동되는 것을 나타낸 개요도이다.FIG. 5 is a schematic diagram illustrating driving of a lens direction of a wide-angle IP camera through a step motor in an up-down-left-left direction in conjunction with a wearable device worn by a user according to another exemplary embodiment of the present invention.
도 5를 참조하면, 이 실시예의 광각 IP 카메라(600)는 사용자가 착용한 웨어러블 디바이스(100)와 연동되어 스텝 모터를 통한 광각 IP 카메라(600)의 렌즈 방향 즉, 촬영 방향을 원격 조절된다. 즉, 웨어러블 디바이스(100)를 착용한 사용자의 시선 방향이 상하 좌우로 변경됨에 따라 광각 IP 카메라(600)의 촬영 방향이 상하 좌우로 구동된다. 이는 웨어러블 디바이스(100)가 시선 방향을 움직이게 되면, 인터넷을 통하여 서버(300)가 이를 인식하고, 웨어러블 디바이스(100)의 움직임에 따라 광각 IP 카메라(600)를 상하 좌우로 회전시켜서 촬영 방향을 변경한다. 이 때, 사용자(M)가 착용한 웨어러블 디바이스(100)와 광각 IP 카메라(600)는 인터넷을 통하여 각각 서버(300)에 연결된다.Referring to FIG. 5, the wide-angle IP camera 600 of this embodiment is linked with the wearable device 100 worn by a user to remotely control the lens direction, that is, the photographing direction, of the wide-angle IP camera 600 through the step motor. That is, as the line of sight of the user wearing the wearable device 100 is changed up, down, left, and right, the photographing direction of the wide-angle IP camera 600 is driven up, down, left, and right. This is because when the wearable device 100 moves in the gaze direction, the server 300 recognizes this through the Internet, and rotates the wide-angle IP camera 600 up, down, left, and right according to the movement of the wearable device 100 to change the shooting direction. do. In this case, the wearable device 100 and the wide-angle IP camera 600 worn by the user M are connected to the server 300 through the Internet, respectively.
이러한 광각 IP 카메라(600)는 사용자(M)가 착용한 웨어러블 디바이스(100)에 연동되는 상황은 예를 들어, 경기장, 경비 초소 등 다양한 장소에 적용 가능하다.The situation in which the wide-angle IP camera 600 is linked to the wearable device 100 worn by the user M may be applied to various places, such as a stadium and a guard post.
예를 들어, 경기장에 적용된 경우, 웨어러블 디바이스(100)를 착용하고 있는 사용자(M)가 경기장 내에서 경기 상황에 따라 자신의 머리를 움직이게 되면, 머리에 착용되어 있는 웨어러블 디바이스(100)의 움직임이 감지됨에 따라, 서버(300)에 연결되어 광각 IP 카메라(600)의 스텝 모터를 구동시켜서 경기 상황에 따라 촬영 방향을 달리 하도록 할 수 있다. 즉, 웨어러블 디바이스(100)를 착용하고 있는 사용자(M)가 자신의 머리를 상하 좌우 방향으로 움직이게 됨에 따라 스텝 모터를 통해 광각 IP 카메라(600)의 렌즈 방향도 상하 좌우 방향으로 구동된다.For example, when applied to the stadium, when the user (M) wearing the wearable device 100 moves his head in accordance with the game situation in the stadium, the movement of the wearable device 100 worn on the head is As detected, the server 300 may be connected to the server 300 to drive the step motor of the wide-angle IP camera 600 to change the shooting direction according to the game situation. That is, as the user M wearing the wearable device 100 moves his or her head in up, down, left, and right directions, the lens direction of the wide-angle IP camera 600 is also driven up, down, left, and right through the step motor.
그리고 경기장에는 복수 개의 광각 IP 카메라(600)가 설치될 수 있다. 이 경우, 복수 개의 광각 IP 카메라(600)들 중에 웨어러블 디바이스(100)를 착용하고 있는 사용자(M)로 하여금, 보다 근접되거나 박진감 넘치는 영상 신호를 출력받을 수 있도록, 특정의 광각 IP 카메라(600)를 선택하도록 할 수 있다. 그러므로 웨어러블 디바이스(100)를 착용하고 있는 사용자(M)의 시야에는 해당 특정의 광각 IP 카메라(600)에서 전송된 보다 근접되거나 박진감 넘치는 영상 신호를 볼 수 있게 된다.In addition, a plurality of wide-angle IP cameras 600 may be installed in the stadium. In this case, the specific wide-angle IP camera 600 may allow a user M wearing the wearable device 100 among the plurality of wide-angle IP cameras 600 to output an image signal that is closer to or more vibrant. Can be selected. Therefore, in the field of view of the user M wearing the wearable device 100, a closer or more thrilling video signal transmitted from the specific wide-angle IP camera 600 can be viewed.
또 다른 예로서, 경비 초소에 적용된 경우, 웨어러블 디바이스(100)에 연동되어 스텝 모터를 통해 광각 IP 카메라(600)가 구동됨으로써, 전방 곳곳에 설치되어 있는 각각의 광각 IP 카메라(600)를 통하여, 실제로 외곽 근무 순찰을 다니지 않고서도, 경비 초소의 근무 병사는 경비 초소 등에 머물러 있는 상태에서도 자신이 의도하는 대로 각각의 광각 IP 카메라(600)가 촬영한 영상을 통하여 경계 근무가 가능하다.As another example, when applied to the guard post, the wide-angle IP camera 600 is driven through the stepper motor in conjunction with the wearable device 100, through each of the wide-angle IP camera 600 installed in various places in the front, Even without actually going to the outside duty patrol, soldiers of guard posts can be on duty duty through the images taken by each wide-angle IP camera 600, as he intended, even while staying in the guard post.
도 6은 본 발명의 또 다른 실시예에 따른 군사용 드론을 이용한 가상 현실 구현 시스템의 구성을 나타낸 개요도이다.6 is a schematic diagram showing the configuration of a virtual reality implementation system using a military drone according to another embodiment of the present invention.
도 6을 참조하면, 이 실시예의 가상 현실 구현 시스템은 군사용 드론(D1 ~ D4)을 이용하여 병사의 위치 정보를 감지하고, 이를 통해 병사들의 상황을 가상 현실로 구현한다. 군사용 드론(D1 ~ D4)에는 위치 센서와 열감지 센서를 구비하여 병사들 각각의 유무와 위치를 감지한다. 또 군사용 드론(D1 ~ D4)은 웨어러블 디바이스(100)를 착용한 아군(m1 ~ m4)의 소속, 계급, 병과 등의 개인 정보와 아군(m1 ~ m4)들 각각의 생체 정보를 수집할 수 있으며, 생체 정보를 모니터링하여 각 단위 부대의 부대장에게 아군의 상태를 제공할 수도 있다.Referring to FIG. 6, the virtual reality implementation system of this embodiment detects the location information of soldiers using military drones D1 to D4, and thereby implements the situation of soldiers in virtual reality. Military drones (D1 ~ D4) are equipped with a position sensor and a heat sensor to detect the presence and location of each of the soldiers. In addition, military drones (D1 ~ D4) can collect personal information, such as belonging, rank, class, etc. of allies (m1 ~ m4) wearing the wearable device 100 and biometric information of each of the allies (m1 ~ m4), In addition, biomedical information may be monitored to provide unit status for unit units.
예를 들어, 전쟁 시, 복수 개의 군사용 드론(D1 ~ D4)을 이용하여 적군(e1 ~ e3)의 위치와 무기(t)나 군사용 장비 등을 감지하고, 적군(e1 ~ e3)들과 맞서 싸우는 많은 아군(m1 ~ m4)의 병사들이 전쟁터 상공을 비행하는 복수 개의 군사용 드론(D1 ~ D4)들로부터 각종 전쟁 상황에 대한 정보를 수집하여 지형 정보, 적군(e1 ~ e3)의 위치 정보 등을 이용하여 전쟁 상황을 파악하고, 이를 통해 집결 장소, 타격 목표, 효과적인 방어 루트, 공격 루트 및 이동 루트 등을 결정하도록 추천할 수 있다.For example, during a war, a plurality of military drones (D1-D4) are used to detect the location of the enemy (e1-e3), weapons (t) or military equipment, and fight against the enemy (e1-e3). Many allies (m1 ~ m4) soldiers collect information on various war situations from a plurality of military drones (D1 ~ D4) flying over the battlefield to use terrain information, location information of the enemy (e1 ~ e3) It can be recommended to determine the war situation and determine where to gather, targets to strike, effective defensive routes, attack routes and travel routes.
즉, 군사용 드론(D1 ~ D4)들은 전쟁터 상공을 비행하며, GPS 위성으로부터 자신의 위치 정보를 전송받는 GPS 수신 장치를 이용하여 현재의 위치 정보를 전송받는다. 또 군사용 드론(D1 ~ D4)들은 상호 인접하는 다른 군사용 드론(D1 ~ D4)들과 위치 정보를 전송하거나 삼각 측량법 등을 이용하여 산출된 거리 정보를 상호 교환하여 아군(m1 ~ m4) 및 적군(e1 ~ e3)에 대한 정확한 위치를 파악할 수도 있다.That is, military drones D1 to D4 fly over a battlefield and receive current location information using a GPS receiver that receives its location information from a GPS satellite. In addition, military drones (D1 to D4) transmit location information with other military drones (D1 to D4) adjacent to each other or exchange distance information calculated by using triangulation, etc. You can also determine the exact location for e1 ~ e3).
또한 군사용 드론(D1 ~ D4)들은 웨어러블 디바이스(100)를 착용하고 있는 아군(m1 ~ m4)에게도 적군에 대한 위치 정보, 각종 전쟁 상황에 대한 정보를 전송할 수 있도록, 다양한 센서들 예를 들어, 위치 정보 송수신 기기, 열화상 센서 및 광학센서 등을 구비한다. 이러한 군사용 드론(D1 ~ D4)을 활용하여 적군(e1 ~ e3)과 적군 탱크(t) 등의 현재 위치를 파악함은 물론, 적군(e1 ~ e3)에 대한 공격 방향, 아군(m1 ~ m4)의 향후의 이동 경로 또는 아군(m1 ~ m4)의 퇴로를 용이하게 파악하여, 신속하고도 안전한 부대 이동이 가능하도록 한다.In addition, the military drones (D1 ~ D4) can be sent to the friendly forces (m1 ~ m4) wearing the wearable device 100, so as to transmit the location information about the enemy, various war situations, various sensors, for example, location And an information transmitting and receiving device, a thermal image sensor, an optical sensor, and the like. Using the military drones (D1 ~ D4) to determine the current position of the enemy (e1 ~ e3) and enemy tank (t), as well as the direction of attack on the enemy (e1 ~ e3), friendly (m1 ~ m4) Easily identify future paths or retreats of allies (m1 to m4) to enable rapid and safe unit movement.
따라서, 각각의 아군(m1 ~ m4)들은, 자신이 착용하고 있는 웨어러블 디바이스(100)를 통하여, 수많은 적군(e1 ~ e3) 또는 적군 탱크(t)에 대하여 자신의 위치를 노출시키지 않은 상태에서, 신속하고 안전한 부대 이동이나 작전을 수행할 수 있다.Accordingly, each of the allies m1 to m4 does not expose its position to a number of enemy soldiers e1 to e3 or enemy tank t through the wearable device 100 that they wear. Can perform rapid and safe unit movements or operations.
다른 예로서, 군사용 드론 대신에 통신망 기지국을 활용하는 경우, 특정 공간 상의 위치 정보를 감지하기 위하여 통신망 기지국, 와이파이(WiFi) 중계기, 블루투스 비콘 등을 이용하여 위치 정보를 판단하고 각각의 장치들 간의 삼각 측량법 등을 통해 특정 위치들 간의 거리 정보를 산출할 수 있다. 이 경우, 통신망 기지국을 예로 들은 것은 특정 공간을 꼭 어떤 방이나 사무실이 아닌, 예를 들면 서울시 등이 될 수 있음은 자명한 것이다.As another example, when using a network base station instead of a military drone, in order to detect the location information in a specific space using the network base station, Wi-Fi (WiFi) repeater, Bluetooth beacon, etc. to determine the location information and triangle between each device Distance information between specific locations may be calculated through a survey method. In this case, it is obvious that the example of the communication network base station may be a certain space, not necessarily any room or office, for example, Seoul.
또 다른 예로서, 특정 공간이 건물인 경우, 레이저 스캐너, IR 스캐너, 열화상 스캐너 등을 이용하여 건물들의 위치를 3 차원적으로 스캐닝하고, 동시에 사용자가 통신 기지국, 와이파이 중계기, 블루투스 비콘 등으로 위치 정보가 특정되면, 건물들 사이를 가상 물체(V)가 유영하는 등의 컨텐츠 구현이 가능하다.As another example, if a specific space is a building, the location of the buildings is three-dimensionally scanned using a laser scanner, an IR scanner, a thermal scanner, and at the same time, the user is located at a communication base station, a Wi-Fi repeater, a Bluetooth beacon, etc. If the information is specified, it is possible to implement a content such as a virtual object (V) swimming between the buildings.
그리고 도 8은 본 발명의 실시예에 따른 구글 글라스 형태의 웨어러블 디바이스를 나타낸 도면이다.8 is a view showing a wearable device in the form of a Google glass according to an embodiment of the present invention.
도 8을 참조하면, 본 발명의 웨어러블 디바이스(100)는 다양한 형상으로 구비될 수 있고, 투명, 반투명, 불투명 글라스 등의 형태로 구성할 수 있다. 예를 들어, 웨어러블 디바이스(100)는 구글 글라스(Google Glass) 제품 등의 형태로 구비될 수 있다.Referring to FIG. 8, the wearable device 100 of the present invention may be provided in various shapes, and may be configured in the form of transparent, translucent, opaque glass, or the like. For example, the wearable device 100 may be provided in the form of a Google Glass product.
상술한 본 발명의 가상 현실 구현 시스템은 특히, 가상 갤러리 시스템에 적용됨에 따라, 가상의 큐레이터가 표시되고, 이를 통해 작가의 이력, 경매 정보, 작품에 대한 이력, 작품의 창작 의도 등을 나래이션 방식으로 들려주기도, 웨어러블 디바이스(100)의 디스플레이 패널에 함께 표시되는 메뉴를 선택하게 함으로써, 해당 품목을 직접 구매할 수도 있으며, 디스플레이 패널에 작품과 함께 표시되는 가상의 광고 또는 실제 상품 광고를 선택하여 해당 상품을 구매할 수도 있는 효과가 있다.In particular, the virtual reality implementation system of the present invention, as applied to the virtual gallery system, a virtual curator is displayed, through which the writer's history, auction information, the history of the work, the creative intention of the work in a narrative manner In addition, by selecting a menu displayed together on the display panel of the wearable device 100, the item may be purchased directly, and the corresponding product may be selected by selecting a virtual advertisement or an actual product advertisement displayed together with the artwork on the display panel. There is also an effect that can be purchased.
또 본 발명의 가상 현실 구현 시스템은 경비 초소에 적용됨으로써, 웨어러블 디바이스(100)와 연동되어 스텝 모터를 통한 광각 IP 카메라(600)가 작동되어 실제로 외곽 근무 순찰을 다니지 않고서도, 경비 초소의 근무 병사가 실제로 경비 초소 등에 머물러 있는 상태에서 자신이 의도하는 대로 각각의 광각 IP 카메라(600)가 촬영한 영상을 통하여 경계 근무가 가능한 특징적인 효과가 있다.In addition, the virtual reality implementation system of the present invention is applied to the guard post, the wide-angle IP camera 600 through the step motor in conjunction with the wearable device 100 is operated, without actually going to the outer duty patrol, soldiers of the guard post There is a characteristic effect that the boundary duty is possible through the images taken by each wide-angle IP camera 600 as intended by the state that actually stays in the guard post.
또한 본 발명의 가상 현실 구현 시스템은 군사용 드론에 적용됨에 따라, 적군과 적군 탱크의 현재 위치를 파악함은 물론, 적군에 대한 공격 방향, 아군의 향후의 이동 루트, 퇴각 루트 및 공격 루트 등을 용이하게 파악하여, 신속하고도 안전한 부대 이동 및 작전 수행이 가능한 효과가 있다.In addition, as the virtual reality implementation system of the present invention is applied to military drones, as well as to determine the current position of the enemy and enemy tanks, as well as the direction of attack on the enemy, future movement route, retreat route and attack route of the friendly forces, etc. In this way, it is possible to move troops and carry out operations quickly and safely.
이상에서, 본 발명에 따른 가상 현실 구현 시스템의 구성 및 작용을 상세한 설명과 도면에 따라 도시하였지만, 이는 실시예를 들어 설명한 것에 불과하며, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 변화 및 변경이 가능하다.In the above, the configuration and operation of the virtual reality implementation system according to the present invention has been shown according to the detailed description and drawings, but this is merely described by way of example, and various changes and modifications without departing from the spirit of the present invention. This is possible.

Claims (9)

  1. 가상 현실 구현 시스템에 있어서:In a virtual reality implementation system:
    복수 개의 위치 정보 송수신 센서를 통해 규정되는 특정 공간에 존재하는 실제 사물과 상기 특정 공간 내에서 가상으로 구현되는 가상 물체가 표시되는 디스플레이 패널이 구비된 사용자가 착용 가능한 웨어러블 디바이스와;A wearable device that is wearable by a user, the display panel including a real object existing in a specific space defined by a plurality of location information transceiving sensors and a virtual object virtually embodied in the specific space;
    상기 위치 정보 송수신 센서와 상기 특정 공간 내의 사용자 및 상기 실제 사물의 움직임을 감지하는 복수 개의 광학 모션 센서로부터 상기 실제 사물의 위치 정보와 상기 웨어러블 디바이스의 위치 정보를 수집하고, 상기 웨어러블 디바이스로 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 전송하는 사용자 컴퓨터 및;Collecting location information of the real object and location information of the wearable device from the location information transceiving sensor and a plurality of optical motion sensors that detect movement of the user and the real object in the specific space, and transmit the location information to the wearable device; A user computer for transmitting the image data of the virtual object and the image data of the virtual object;
    상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 저장하고, 상기 특정 공간 내의 실제 사물의 위치 정보와 상기 웨어러블 디바이스의 위치 정보를 판단하여 상기 실제 사물과 상기 가상 물체가 일부 중첩되면, 상기 웨어러블 디바이스의 상기 디스플레이 패널에 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터들 간의 시야 깊이에 따라 상기 실제 사물과 상기 가상 물체 중 상기 웨어러블 디바이스와 근거리에 위치하는 것의 중첩되는 부분이 표시되도록 처리하여, 상기 사용자 컴퓨터로 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 전송하는 서버를 포함하는 것을 특징으로 하는 가상 현실 구현 시스템.The wearable is stored when the image data of the real object and the image data of the virtual object are stored and the location information of the real object and the location information of the wearable device are determined by partially overlapping the real object and the virtual object. The display panel of the device may be configured to display an overlapping portion of the real object and the virtual object located at a short distance with the wearable device according to a depth of view between the image data of the real object and the image data of the virtual object. And a server configured to transmit image data of the real object and image data of the virtual object to the user computer.
  2. 제 1 항에 있어서,The method of claim 1,
    상기 가상 현실 구현 시스템은;The virtual reality implementation system;
    상기 실제 사물을 스캐닝하여 3 차원의 이미지 데이터를 생성하고, 3 차원의 이미지 데이터를 출력하는 적어도 하나의 3 차원 광학 스캔 기기와;At least one three-dimensional optical scanning device scanning the real object to generate three-dimensional image data and outputting three-dimensional image data;
    상기 3 차원 광학 스캔 기기로부터 상기 3 차원의 이미지 데이터를 받아서 렌더링 연산 처리하여 상기 실제 사물의 이미지 데이터를 상기 서버로 전송하는 렌터링 컴퓨터를 더 포함하는 것을 특징으로 하는 가상 현실 구현 시스템.And a rendering computer configured to receive the 3D image data from the 3D optical scanning device and to perform a rendering operation to transmit image data of the real object to the server.
  3. 제 1 항에 있어서,The method of claim 1,
    상기 가상 현실 구현 시스템은;The virtual reality implementation system;
    상기 서버의 제어를 받아서 상기 웨어러블 디바이스의 움직임에 대응하여 촬영 방향이 변경되도록 구동하는 광각 IP 카메라를 더 포함하되;Further comprising a wide-angle IP camera for driving to change the shooting direction in response to the movement of the wearable device under the control of the server;
    상기 웨어러블 디바이스는 상기 광각 IP 카메라로부터 촬영된 영상을 상기 디스플레이 패널에 표시하는 것을 특징으로 하는 가상 현실 구현 시스템.The wearable device may display an image captured by the wide-angle IP camera on the display panel.
  4. 제 1 항에 있어서,The method of claim 1,
    상기 가상 현실 구현 시스템은;The virtual reality implementation system;
    상기 특정 공간의 바닥면에 구비되어 상기 실제 사물과 상기 웨어러블 디바이스의 위치 정보를 더 감지하는 복수 개의 압력 센서를 더 구비하는 것을 특징으로 하는 가상 현실 구현 시스템.And a plurality of pressure sensors provided on a bottom surface of the specific space to further detect location information of the real object and the wearable device.
  5. 제 1 항에 있어서,The method of claim 1,
    상기 웨어러블 디바이스는;The wearable device includes;
    상기 실제 사물과 상기 가상 물체에 대한 부가 정보를 더 표시하고, 상기 부가 정보가 선택되면, 상기 부가 정보에 대응하는 부가 서비스에 연결되도록 처리하는 것을 특징으로 하는 가상 현실 구현 시스템.And displaying additional information about the real object and the virtual object, and if the additional information is selected, processing to be connected to an additional service corresponding to the additional information.
  6. 제 1 항 내지 제 5 항 중 어느 한 항에 있어서,The method according to any one of claims 1 to 5,
    상기 서버는;The server;
    상기 웨어러블 디바이스의 상기 디스플레이 패널에 사용자의 시선에 따른 3 차원적 각도에 대응하여 상기 실제 사물과 상기 가상 물체를 더 표시되도록 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 상기 사용자 컴퓨터로 더 제공하는 것을 특징으로 하는 가상 현실 구현 시스템.The image data of the real object and the image data of the virtual object are further displayed on the display panel of the wearable device in order to further display the real object and the virtual object in response to a three-dimensional angle of the user's gaze. Virtual reality implementation system, characterized in that provided.
  7. 제 6 항에 있어서,The method of claim 6,
    상기 위치 정보 송수신 센서는;The location information transmission and reception sensor;
    상기 실제 사물과 상기 웨어러블 디바이스의 위치 정보를 인식하는 GPS 장치, 통신망 기지국, 무선 통신 중계기 및 드론 중 어느 하나로 구비되는 것을 특징으로 하는 가상 현실 구현 시스템.And a GPS device, a communication network base station, a wireless communication repeater, and a drone for recognizing location information of the real object and the wearable device.
  8. 가상 현실 구현 시스템의 가상 현실 구현 방법에 있어서:In the virtual reality implementation method of the virtual reality implementation system:
    복수 개의 위치 정보 송수신 센서를 이용하여 특정 공간을 규정짓고;Defining a specific space using a plurality of location information transceiving sensors;
    상기 위치 정보 송수신 센서를 통해 상기 특정 공간에 존재하는 실제 사물의 위치 정보와, 상기 특정 공간 내에서 가상으로 구현되는 가상 물체가 표시되는 디스플레이 패널이 구비된 사용자가 착용한 웨어러블 디바이스의 위치 정보를 감지하고;The location information transmitting and receiving sensor senses the location information of the real thing existing in the specific space and the location information of the wearable device worn by the user having a display panel displaying a virtual object virtually implemented in the specific space. and;
    상기 특정 공간 내에 구비된 사용자 컴퓨터를 통해 상기 위치 정보 송수신 센서와 상기 특정 공간 내의 사용자 및 상기 실제 사물의 움직임을 감지하는 복수 개의 광학 모션 센서로부터 상기 실제 사물의 위치 정보와 상기 웨어러블 디바이스의 위치 정보를 수집하여, 상기 웨어러블 디바이스로 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 전송하고; 그리고The position information of the real object and the position information of the wearable device may be obtained from the position information transceiving sensor and a plurality of optical motion sensors that detect movement of the user and the real object in the specific space through a user computer provided in the specific space. Collect and transmit image data of the real object and image data of the virtual object to the wearable device; And
    서버가 상기 특정 공간 내의 실제 사물의 위치 정보와 상기 웨어러블 디바이스의 위치 정보를 판단하여 상기 실제 사물과 상기 가상 물체가 일부 중첩되면, 상기 웨어러블 디바이스의 상기 디스플레이 패널에 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터들 간의 시야 깊이에 따라 상기 실제 사물과 상기 가상 물체 중 상기 웨어러블 디바이스와 근거리에 위치하는 것의 중첩되는 부분이 표시되도록 처리하여, 상기 사용자 컴퓨터로 상기 실제 사물의 이미지 데이터와 상기 가상 물체의 이미지 데이터를 전송하는 것을 특징으로 하는 가상 현실 구현 시스템의 가상 현실 구현 방법.When the server determines the location information of the real object and the location information of the wearable device in the specific space and the real object and the virtual object partially overlap, the image data of the real object and the virtual on the display panel of the wearable device The overlapping portion of the real object and the virtual object located near the wearable device is displayed according to the depth of view between the image data of the object, and the image data of the real object and the virtual object are displayed to the user computer. The virtual reality implementation method of the virtual reality implementation system, characterized in that for transmitting the image data.
  9. 제 8 항에 있어서,The method of claim 8,
    상기 방법은;The method;
    적어도 하나의 3 차원 광학 스캔 기기를 통해 상기 실제 사물을 스캐닝하여 3 차원의 이미지 데이터를 생성하고, 3 차원의 이미지 데이터를 출력하고;Scan the real object through at least one three-dimensional optical scanning device to generate three-dimensional image data and output three-dimensional image data;
    렌터링 컴퓨터가 상기 3 차원 광학 스캔 기기로부터 상기 3 차원의 이미지 데이터를 받아서 렌더링 연산 처리하여 상기 실제 사물의 이미지 데이터를 상기 서버로 전송하고; 그리고A rendering computer receives the three-dimensional image data from the three-dimensional optical scanning device and performs a rendering operation to transmit the image data of the real object to the server; And
    상기 서버는 상기 실제 사물의 이미지 데이터를 저장하는 것을 더 포함하는 것을 특징으로 하는 가상 현실 구현 시스템의 가상 현실 구현 방법.The server may further include storing image data of the real object.
PCT/KR2017/007944 2016-07-22 2017-07-24 Virtual reality implementation system and virtual reality implementation method thereof WO2018016928A1 (en)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20160093043 2016-07-22
KR10-2016-0093043 2016-07-22
KR1020160138326A KR101696243B1 (en) 2016-07-22 2016-10-24 Virtual reality system and method for realizing virtual reality therof
KR10-2016-0138326 2016-10-24

Publications (1)

Publication Number Publication Date
WO2018016928A1 true WO2018016928A1 (en) 2018-01-25

Family

ID=57835444

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/007944 WO2018016928A1 (en) 2016-07-22 2017-07-24 Virtual reality implementation system and virtual reality implementation method thereof

Country Status (2)

Country Link
KR (1) KR101696243B1 (en)
WO (1) WO2018016928A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087237A (en) * 2018-06-29 2018-12-25 邓文婕 A kind of virtual helmet
CN111766959A (en) * 2019-04-02 2020-10-13 海信视像科技股份有限公司 Virtual reality interaction method and virtual reality interaction device
CN112099638A (en) * 2020-10-19 2020-12-18 深圳市瑞立视多媒体科技有限公司 Information processing method and device in virtual reality scene and computer equipment

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6919222B2 (en) * 2017-02-27 2021-08-18 セイコーエプソン株式会社 Display device and control method of display device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101106857B1 (en) * 2011-09-23 2012-01-20 여미옥 3-dimensional virtual-reality museum
KR101360999B1 (en) * 2013-08-09 2014-02-10 코리아디지탈 주식회사 Real time data providing method and system based on augmented reality and portable terminal using the same
KR101454445B1 (en) * 2013-10-16 2014-10-27 백명섭 System for exhibiting and dealing be made three dimensions galley
KR20150126938A (en) * 2013-03-11 2015-11-13 매직 립, 인코포레이티드 System and method for augmented and virtual reality
KR101638550B1 (en) * 2014-06-25 2016-07-12 경북대학교 산학협력단 Virtual Reality System using of Mixed reality, and thereof implementation method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101106857B1 (en) * 2011-09-23 2012-01-20 여미옥 3-dimensional virtual-reality museum
KR20150126938A (en) * 2013-03-11 2015-11-13 매직 립, 인코포레이티드 System and method for augmented and virtual reality
KR101360999B1 (en) * 2013-08-09 2014-02-10 코리아디지탈 주식회사 Real time data providing method and system based on augmented reality and portable terminal using the same
KR101454445B1 (en) * 2013-10-16 2014-10-27 백명섭 System for exhibiting and dealing be made three dimensions galley
KR101638550B1 (en) * 2014-06-25 2016-07-12 경북대학교 산학협력단 Virtual Reality System using of Mixed reality, and thereof implementation method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109087237A (en) * 2018-06-29 2018-12-25 邓文婕 A kind of virtual helmet
CN111766959A (en) * 2019-04-02 2020-10-13 海信视像科技股份有限公司 Virtual reality interaction method and virtual reality interaction device
CN111766959B (en) * 2019-04-02 2023-05-05 海信视像科技股份有限公司 Virtual reality interaction method and virtual reality interaction device
CN112099638A (en) * 2020-10-19 2020-12-18 深圳市瑞立视多媒体科技有限公司 Information processing method and device in virtual reality scene and computer equipment
CN112099638B (en) * 2020-10-19 2024-02-06 瑞立视多媒体科技(北京)有限公司 Information processing method and device in virtual reality scene and computer equipment

Also Published As

Publication number Publication date
KR101696243B1 (en) 2017-01-13

Similar Documents

Publication Publication Date Title
US11789523B2 (en) Electronic device displays an image of an obstructed target
CN107782314B (en) Code scanning-based augmented reality technology indoor positioning navigation method
EP3165939B1 (en) Dynamically created and updated indoor positioning map
JP6615732B2 (en) Information processing apparatus and image generation method
KR102060453B1 (en) Image display system, control method of image display system, image transmission system and head mounted display
WO2018016928A1 (en) Virtual reality implementation system and virtual reality implementation method thereof
US11734898B2 (en) Program, information processing method, and information processing terminal
CN107844196A (en) Video processing equipment, method for processing video frequency and processing system for video
CN105393284A (en) Space carving based on human physical data
KR20200060361A (en) Information processing apparatus, information processing method, and program
CN106920260A (en) Three-dimensional inertia blind-guiding method and device and system
CN112558008B (en) Navigation method, system, equipment and medium based on optical communication device
EP3729235B1 (en) Data processing
WO2017142130A1 (en) Image processing method for providing virtual reality, and virtual reality device
US20150269777A1 (en) Optically Composited Augmented Reality Pedestal Viewer
US20190304101A1 (en) Data Processing
EP4365887A1 (en) Image display system and image display method
KR20230132001A (en) Method and apparatus for processing a smart object information based Infrared
CN116107527A (en) Information display method, processing device and information display system
JP2020154009A (en) Information display system and wearable device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17831400

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17831400

Country of ref document: EP

Kind code of ref document: A1