WO2022029356A1 - Sistema de generación de gráficos en tres dimensiones - Google Patents

Sistema de generación de gráficos en tres dimensiones Download PDF

Info

Publication number
WO2022029356A1
WO2022029356A1 PCT/ES2021/070593 ES2021070593W WO2022029356A1 WO 2022029356 A1 WO2022029356 A1 WO 2022029356A1 ES 2021070593 W ES2021070593 W ES 2021070593W WO 2022029356 A1 WO2022029356 A1 WO 2022029356A1
Authority
WO
WIPO (PCT)
Prior art keywords
mobile
respect
reference element
graphics generation
coordinate system
Prior art date
Application number
PCT/ES2021/070593
Other languages
English (en)
French (fr)
Inventor
Ioritz HONTECILLAS ASCASIBAR
Original Assignee
Hontecillas Ascasibar Ioritz
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hontecillas Ascasibar Ioritz filed Critical Hontecillas Ascasibar Ioritz
Priority to EP21769760.6A priority Critical patent/EP4047458A1/en
Publication of WO2022029356A1 publication Critical patent/WO2022029356A1/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0464Positioning

Definitions

  • the present invention relates to a three-dimensional graphics generation system and a method for moving a moving object relative to a fixed object in a virtual environment represented by three-dimensional graphics generation software.
  • 3D graphics generation systems The use of three-dimensional or 3D graphics generation systems is known.
  • a 3D graphic designer works in a three-dimensional environment, but nevertheless uses two-dimensional or 2D input peripherals such as mice or graphics tablets that make it difficult to define the position and movement of objects. an object rendered using the 3D graphics generation system.
  • US20020175897A1 describes a hands-free input device comprising a processor module that calculates the position and orientation angles of a user's head.
  • the input device comprises an accessory for the user's head and a monitoring unit.
  • the monitoring unit is located in a monitor.
  • the headgear and monitoring unit comprise infrared emitters and an array of photodetectors positioned around the infrared emitters to receive the infrared beam radiated by the other unit.
  • the processor module receives and combines the output signals from the photodetectors to calculate the position and orientation of the user's head with respect to the monitoring unit located on the monitor.
  • the object of the invention is to provide a three-dimensional graphics generation system, and a method for moving a mobile object with respect to a fixed object in a virtual environment represented by three-dimensional graphics generation software, according to is defined in the claims.
  • the three-dimensional graphics generation system of the invention comprises graphics generation software and an input peripheral.
  • the input peripheral comprises a reference element and a mobile element, both elements being located in a real environment and the mobile element being configured to be moved with respect to the reference element by a user, and at least one sensor configured to emit a signal representative of a distance, a position and an orientation of the mobile element with respect to the reference element in real time.
  • the graphics generation system comprises processing means configured to receive the signal representative of the distance, position and orientation of the mobile element with respect to the reference element and transmit said distance, position and orientation to the graphics generation software in real time. .
  • the graphics generation software is configured to represent at least one fixed object and at least one moving object in a virtual environment, and to move the moving object relative to the fixed object in real time by replicating the movement of the moving element relative to the moving element. based on the distance, position and orientation of the mobile element with respect to the reference element received from the processing means.
  • the reference element of the system of the invention is configured to be dynamically associated to different fixed virtual objects, and the mobile element is configured to be dynamically associated to different mobile virtual objects.
  • a second aspect of the invention refers to a method for moving a mobile object with respect to a fixed object in a virtual environment represented by three-dimensional graphics generation software that comprises a movement stage in which a mobile element is moved by a user with respect to a reference element, both elements being located in a real environment, a capture and processing stage data in which a sensor emits a signal representative of the distance, position and orientation of the moving element with respect to the reference element, and processing means receive the signal and transmit the distance, position and orientation of the moving element with respect to the reference element to the graphics generation software in real time, and a representation step in which the graphics generation software represents in real time the movement of the mobile object with respect to the fixed object by replicating the movement of the mobile element with with respect to the reference element as a function of the distance, position and orientation of the mobile element with respect to the reference element received from the processing means.
  • the method of the invention comprises a reference element association stage in which the reference element is associated with the fixed object, and a mobile element association stage in which the mobile element is associated with the mobile object, both association stages being prior to the movement stage.
  • the positioning or movement of any mobile object with respect to any fixed object in the virtual environment represented by the 3D graphics generation software can be carried out in a simple way by the user. user, simply by replicating the movement of the moving element with respect to the reference element in the real environment, without the need to enter the position, or the trajectory of the movement of the moving object manually by the user through commands in the graphics generation software in 3D.
  • Figure 1 shows an embodiment of the three-dimensional graphics generation system of the invention with the reference element in a first position.
  • Figure 2 shows the embodiment of Figure 1, where an additional fixed object and an additional mobile object are shown in the virtual environment.
  • Figure 3 shows the embodiment of Figure 1, with the reference element in a second position.
  • Figures 1 to 3 refer to an embodiment of the three-dimensional graphics generation system according to the invention.
  • the three-dimensional graphics generation system of the invention comprises a three-dimensional or 3D graphics generation software and a three-dimensional or 3D input peripheral.
  • the input peripheral comprises a reference element 1 and a mobile element 2, both elements being located in a real environment 3 and the mobile element 2 being configured to be moved with respect to the reference element 1 by a user.
  • the input peripheral comprises at least one sensor configured to emit a signal representative of a distance, a position and an orientation of the mobile element 2 with respect to the reference element 1 in real time.
  • the graphics generation system comprises processing means configured to receive the signal representative of the distance, position and orientation of the mobile element 2 with respect to the reference element 1 and transmit said distance, position and orientation to the graphics generation software in real time.
  • the graphics generation software is configured to represent at least one fixed object 4 and at least one mobile object 5 in a virtual environment 6, and to move in real time the mobile object 5 with respect to the fixed object 4 replicating the movement of the element mobile element 2 with respect to the reference element 1 as a function of the distance, position and orientation of the mobile element 2 with respect to the reference element 1 received from the processing means.
  • the reference element 1 of the system of the invention is configured to be dynamically associated to different fixed virtual objects
  • the mobile element 2 is configured to be dynamically associated to different mobile virtual objects
  • real environment 3 is understood as a real physical space in which Both the reference element 1 and the mobile element 2 are placed, both the reference element 1 and the mobile element 2 being real objects with which the user can interact.
  • virtual environment 6 is understood as a virtual space that represents an environment, real or imaginary, in which a plurality of virtual objects are represented.
  • Virtual objects are objects represented in the virtual environment 6, but which are not part of the real environment 3.
  • the user of the input peripheral is a 3D graphic designer.
  • the user by using the graphics generation software, can create both the virtual environment 6 and the virtual objects represented in said virtual environment 6 by using the commands, primitives, or options available in said software.
  • Graphics generation is also configured to allow interaction with virtual objects. Examples of such interactions include move, resize, rotate, etc. virtual objects in the virtual environment 6.
  • the graphics generation software is a 3D graphics generation software.
  • 3D graphics generation software Currently there are numerous 3D graphics generation and animation software such as Cinema 4D, 3D Studio Max, Maya, etc.
  • the 3D graphics generation system is valid for use with computer-aided design or CAD software for 3D modeling such as AutoCAD, Solidworks, Catia, Siemens NX, etc.
  • CAD software for 3D modeling
  • the above examples are not intended to be a limitation of the invention, and the system of the invention can be used with any software with a three-dimensional interface that requires moving and/or rotating objects in a three-dimensional environment.
  • the input peripheral of the graphics generation system of the invention comprises at least one sensor configured to emit a signal representative of the distance, position and orientation of the mobile element 2 with respect to the reference element 1 in real time.
  • the use of inertial measurement units, accelerometers, gyroscopes, etc. is known. to determine the orientation of an object, as well as the use of distance sensors, such as photosensors, ultrasonic sensors configured to measure distances based on the time it takes for a signal to arrive, etc. to determine the distance between one object and another, and the position of one object relative to another.
  • the use of cameras is also known, so that by processing The images captured by these cameras determine the distance, position and orientation of one object with respect to another.
  • the signal emitted by the sensor is received by the processing means and can be transmitted by cable or wirelessly.
  • the sensor emits a signal representative of the distance, position and orientation of the mobile element 2 with respect to the reference element 1 in real time, which is received by the processing means, which transmit said distance, position and orientation to the software. graphics generation in real time.
  • the processing means comprise at least one processor configured to execute the commands of a computer program of the input peripheral, at least one memory configured to store the computer program and at least other data associated with the execution of the program, and interfaces of input and output configured to communicate with input and output peripherals.
  • the processing means are configured to execute the 3D graphics generation software, and to execute the computer program associated with the input peripheral.
  • the computer program associated with the input peripheral is a plugin or code fragment configured to extend the functions of a program or a tool, which in the case of the invention is the generation software of 3D graphics.
  • this configuration is not intended to be a limitation of the invention, and in other embodiments of the invention the communication between the computer program associated with the input peripheral, the processing means configured to execute the commands of said program, and the software 3D graphics generation can be another.
  • the computer program associated with the input peripheral when executed by the processing means, is configured to receive the signal representative of the distance, position and orientation of the mobile element 2 with respect to the reference element 1 and transmit said distance, position and orientation to real-time graphics generation software.
  • Figure 1 shows an embodiment of the graphics generation system of the invention.
  • the reference element 1 is cube-shaped and the moving element 2 is cylinder-shaped.
  • the reference element 1 and the mobile element 2 can have other shapes that allow the reference element 1 to remain stationary, resting for example on a surface, and the mobile element 2 can be moved by a user, grasped for example with one hand.
  • the graphics generation software is configured to render at least one object fixed object 4 and at least one mobile object 5 in a virtual environment 6, both the fixed object 4 and the mobile object 5 being virtual objects represented in the virtual environment 6 by means of the graphics generation software.
  • the virtual environment 6 is displayed on a display system configured to display a three-dimensional or 3D virtual environment 6 to the user.
  • the display system is a screen 7, but in other embodiments it could be a monitor connected to a personal computer, a television, a mobile screen, virtual reality glasses, or any other device. capable of displaying a 6-dimensional or 3D virtual environment.
  • the 3D graphics generation software is configured to represent at least one fixed object 4 and a mobile object 5 in a virtual environment 6.
  • the graphics generation software comprises a coordinate system universals with respect to which it positions the fixed object 4 and the mobile object 5, as well as the rest of the virtual objects, if any, in the virtual environment 6.
  • the reference element 1 and the mobile element 2 are shown in the real environment 3, and the fixed object 4 and the mobile object 5 in the virtual environment 6 that is represented on the screen 7.
  • the fixed object 4 is a teapot and the mobile object 5 is a light source.
  • the generation software The graphics module replicates this movement in real time in the virtual environment 6, moving the mobile object 5 with respect to the fixed object 4 in the same way that the user moves the mobile element 2 with respect to the reference element 1 in the real environment 3.
  • the user that is, the 3D graphic designer, can easily see how the way the teapot is illuminated changes, and how the shadow cast by the teapot changes as the light source moves.
  • the lights and shadows have not been shown in the Figures, only the objects have been shown.
  • the user does not need to modify the position of the light source with respect to the teapot by means of commands, but can naturally position the mobile element 2 with respect to the reference element 1 in different positions, seeing the effect in real time of said position changes on the screen 7.
  • This application of the graphics generation system of the invention is not intended to be a limitation, and the system can be used in any other application.
  • the user If the user then wants to position an additional movable object 5' relative to the fixed object 4, the user will be able to maintain the association that he had previously made in which he associated the reference element 1 with the fixed object 4, and now associate the mobile element 2 with the additional mobile object 5'. In the same way, instead of maintaining the association previously made, the user could re-associate the reference element 1 with the fixed object 4.
  • the graphics generation software will replicate said movement in real time in the virtual environment 6, in this case moving the additional mobile object 5' with respect to the fixed object 4 in the same way that the user moves the mobile element 2 with respect to reference element 1 in real environment 3.
  • the user If the user then wants to position an additional mobile object 5' with respect to the additional fixed object 4', the user must maintain the association that he had previously made in which he associated the mobile element 2 with respect to the additional mobile object 5', and associate in this case the reference element 1 with the additional fixed object 4'. In the same way, instead of maintaining the association previously made, the user could re-associate the mobile element 2 with the additional mobile object 5'.
  • the graphics generation software will replicate said movement in real time in the virtual environment 6, moving in this case the additional mobile object 5 ' with respect to the additional fixed object 4' in the same way that the user moves the mobile element 2 with respect to the reference element 1 in the real environment 3.
  • association of the reference element 1 with the fixed object 4, and the association of the mobile element 2 with the mobile object 5 can be carried out by commands of the 3D graphics generation software.
  • said associations can be made by means of a selector located on the reference element, a selector located on the mobile element, or by means of another technical solution known in the state of the art.
  • the user can associate the reference element 1 with any fixed object 4 represented in the virtual environment 6 so that said association is dynamic, that is, at a later time the user can associate the reference element 1 with any other fixed object 4.
  • the user can associate the mobile element 2 with any mobile object 5 represented in the virtual environment 6 so that said association be dynamic, that is, at a later time the user can associate the mobile element 2 with any other mobile object 5.
  • a fixed virtual object, or a fixed object 4 is any virtual object represented in the environment virtual 6 with respect to which another virtual object moves.
  • a mobile virtual object, or a mobile object 5 is any virtual object represented in the virtual environment 6 that moves relative to another virtual object.
  • the reference element 1 comprises the sensor, said sensor being configured to emit the signal representative of the distance, position and orientation of the mobile element 2 with respect to the reference element 1.
  • the input peripheral comprises an additional element in the real environment 3 comprising the sensor.
  • the sensor is arranged in the additional element, which is an element other than the reference element 1 and different from the mobile element 2.
  • the moving element 2 comprises the sensor.
  • the mobile element 2 is a smartphone.
  • the smartphone is configured to emit the signal representative of the distance, position and orientation of the smartphone with respect to the reference element 1.
  • the reference element 1 is an object displayed in augmented reality
  • the mobile element 2 is an electronic device configured to display the reference element 1 in augmented reality
  • the mobile element 2 comprising a code of sensor program executable in said mobile element 2 configured to emit the signal representative of the distance, position and orientation of the mobile element 2 with respect to the reference element 1 shown in said electronic device in real time.
  • the sensor is said sensor program code.
  • the electronic device comprises a processing unit, and non-transient computer readable medium configured to store sensor program code, the processing unit configured to execute said sensor program code.
  • the electronic device comprises a network I/O interface configured to communicate the electronic device with other computer systems through a data network or wirelessly.
  • the reference element 1 shown in the electronic device is the reference element 1 that is configured to be dynamically associated to the different fixed virtual objects 4.
  • the electronic device can be an electronic tablet, a smartphone, augmented reality glasses, or any other electronic device known in the state of the art capable of displaying at least one object in augmented reality.
  • algorithms are known to determine the distance, position and orientation of an electronic device in which an object is displayed in augmented reality with respect to said object, therefore, the person skilled in the art would know how to implement a code sensor program based on one of these algorithms.
  • the input peripheral comprises a scale selector configured so that the user can select a scale, so that the distance between the fixed object 4 and the mobile object 5 in the virtual environment 6 is the distance between the mobile element 2 and the reference element 1 on said scale.
  • the distance between the reference element 1 and the mobile element 2 which is normally tens of centimeters in the real environment 3, may not be adequate.
  • the scale selector the user can define the necessary scale so that, depending on what it represents in the virtual environment 6, the distance of tens of centimeters between the reference element 1 and the mobile element 2 in the real environment 3 corresponds to a distance of kilometers, millimeters, etc., on that scale in the virtual environment 6.
  • the fixed object 4 is a point in the virtual environment 6.
  • the graphics generation system of the invention allows the reference element 1 to be associated with a point in the virtual environment 6, so that the movement of the element mobile 2 with respect to the reference element 1 will be represented in the virtual environment 6 as the movement of the mobile object 5 with respect to said point, where the point in the virtual environment 6 is defined by its position with respect to the universal coordinate system of the graphics generation software.
  • the reference element 1 has an associated reference coordinate system 11
  • the fixed object 4 has an associated X,Y,Z coordinate system 41 that represents the coordinate system reference element 11 in the virtual environment 6.
  • the fixed object 4 and the associated X,Y,Z coordinate system 41 remain stationary, changing the coordinate system position reference 11 in the real environment 3.
  • the signal emitted by the sensor is a signal representative of the distance, position and orientation of the mobile element 2 with respect to the reference coordinate system 11 of the reference element 1
  • the graphics generation software is configured to move in real time the moving object 5 with respect to the X,Y,Z coordinate system 41 of the fixed object 4 replicating the movement of the element mobile 2 with respect to the reference coordinate system 11 of the reference element 1 as a function of the distance, position and orientation of the mobile element 2 with respect to reference element 1 received from the processing means.
  • the reference element 1 has an X axis, a Y axis, and a Z axis associated with each other, and which intersect at a point or origin, defining between the three axes the system of reference coordinates 11 based on which the mobile element 2 is positioned in the real environment 3.
  • each fixed object 4 represented in the virtual environment 6 has an associated X axis, a Y axis, and a Z axis perpendicular to each other. yes, and that intersect at a point or origin, defining between the three axes a coordinate system X, Y, Z 41 based on which the mobile object 5 is positioned or moves in the virtual environment 6 by using the system of the invention.
  • the coordinate system X,Y,Z 41 associated with the fixed object 4 represents in the virtual environment 6 the reference coordinate system 11 of the reference element 1 .
  • Figure 1 shows this embodiment of the graphics generation system, where the reference element 1 is associated with the fixed object 4 and the mobile element 2 is associated with the mobile object 5, the reference element 1 being in a first position.
  • Figure 3 shows this embodiment of the graphics generation system of the invention with the reference element 1 in a second position, where the user has rotated the reference element 1 180° around the X axis of its reference coordinate system 11, from such that the Y-axis and Z-axis of reference coordinate system 11 point away from where they were pointing before rotating reference element 1. Therefore, when rotating reference element 1 , the reference coordinate system 11 changes position in real environment 3.
  • the mobile object 5 changes position in the virtual environment 6 from the first position shown in Figure 1 to a second position shown in Figure 3, without the mobile element 2 having moved in real environment 3, simply changing the position of the reference element 1 from the position shown in Figure 1 to the one shown in Figure 3.
  • the moving object 5 will move under the stationary object 4 across the X-axis of its X,Y,Z coordinate system 41.
  • the processing means are configured to apply a compensation value previously defined by the user to the least one axis of the reference coordinate system 11 to the position of the mobile element 2 with respect to the reference element 1.
  • a compensation value on the X axis of the reference coordinates 11 equal to 5
  • the graphics generation software will represent the mobile object in the position (15,10,10) with respect to the X,Y,Z coordinate system 41.
  • the definition of the compensation value in each of the axes of the reference coordinate system 11 by the user can be done through software commands 3D graphics generation.
  • said associations can be made by means of a selector located on the reference element 1, a selector located on the mobile element 2, or by means of another technical solution known in the state of the art.
  • the invention also relates to an input peripheral that forms part of the three-dimensional graphics generation system according to the invention.
  • a second aspect of the invention relates to a method for moving a mobile object 5 with respect to a fixed object 4 in a virtual environment 6 represented by three-dimensional graphics generation software that comprises a movement stage in which a mobile element 2 is moved by a user with respect to a reference element 1, both elements being located in a real environment 3.
  • the method of the invention comprises a data capture and processing stage in which a sensor emits a representative signal of the distance, position and orientation of the mobile element 2 with respect to the reference element 1, and processing means receive the signal and transmit the distance, position and orientation of the mobile element 2 with respect to the reference element 1 to the software graphics generation in real time.
  • the method of the invention comprises a representation stage in which the graphics generation software represents in real time the movement of the mobile object 5 with respect to the fixed object 4, replicating the movement of the mobile element 2 with respect to the reference element 1 in function of the distance, the position and the orientation of the mobile element 2 with respect to the reference element 1 received from the processing means.
  • the method of the invention is characterized in that it comprises an association stage of a reference element 1 in which the reference element 1 is associated with the fixed object 4, and an association stage of the mobile element 2 in which the mobile element 2 with the mobile object 5, both association stages being prior to the movement stage.
  • the method of the invention comprises a scale selection stage, where the user selects a scale such that the distance between the fixed object 4 and the mobile object 5 in the virtual environment 6 is the distance between the element mobile 2 and the reference element 1 on said scale.
  • the fixed object 4 is a point in the virtual environment 6.
  • the method of the invention comprises a reference element 1 positioning step before the movement step in which the user positions the reference element 1 in the real environment 3, where the reference element 1 has associated with a reference coordinate system 11, and where the fixed object 4 has an associated X,Y,Z coordinate system 41 that represents the reference coordinate system 11 in the virtual environment 6, so that when positioning the element of reference 1 in the real environment 3, the fixed object 4 and the associated X,Y,Z coordinate system 41 remain immobile, changing the position of the reference coordinate system 11 in the real environment 3, and where in the stage representation, the graphics generation software represents in real time the movement of the mobile object 5 with respect to the X,Y,Z coordinate system 41 of the fixed object 4 replicating the movement of the mobile element 2 with respect to the reference coordinate system 11 of the reference element 1 as a function of the distance, position and orientation of the mobile element 2 with respect to the reference element 1 received from the processing means, the sensor being configured to emit a signal representative of the distance, position and orientation of the mobile element 2 with respect to the reference coordinate system 11 of the reference element 1 .
  • the method of the invention comprises a compensation value selection step, where the user selects a compensation value in at least one axis of the reference coordinate system 11 to the position of the mobile element 2 with respect to the reference element 1 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Sistema de generación de gráficos en tres dimensiones que comprende un software de generación de gráficos y un periférico de entrada, comprendiendo el periférico de entrada un elemento de referencia (1) y un elemento móvil (2), estando ambos elementos situados en un entorno real (3), estando el software de generación de gráficos configurado para representar al menos un objeto fijo (4) y al menos un objeto móvil (5) en un entorno virtual (6), y para mover en tiempo real el objeto móvil (5) con respecto al objeto fijo (4) replicando el movimiento del elemento móvil (2) con respecto al elemento de referencia (1), estando el elemento de referencia (1) configurado para ser asociado dinámicamente a distintos objetos virtuales fijos (4), y el elemento móvil (2) para ser asociado dinámicamente a distintos objetos virtuales móviles (5).

Description

DESCRIPCIÓN
Sistema de generación de gráficos en tres dimensiones
SECTOR DE LA TÉCNICA
La presente invención se relaciona con un sistema de generación de gráficos en tres dimensiones y un método para mover un objeto móvil con respecto a un objeto fijo en un entorno virtual representado mediante un software de generación de gráficos en tres dimensiones.
ESTADO ANTERIOR DE LA TÉCNICA
Es conocida la utilización de sistemas de generación de gráficos en tres dimensiones o 3D. Al trabajar con un software de generación de gráficos 3D, un diseñador gráfico 3D trabaja en un entorno tridimensional, pero sin embargo utiliza periféricos de entrada en dos dimensiones o 2D tales como ratones o tabletas gráficas que dificultan la definición de la posición y el movimiento de un objeto representado mediante el sistema de generación de gráficos en 3D.
US20020175897A1 describe un dispositivo de entrada manos libres que comprende un módulo procesador que calcula los ángulos de posición y orientación de la cabeza de un usuario. Para ello, el dispositivo de entrada comprende un accesorio para la cabeza del usuario y una unidad de monitoñzación. La unidad de monitoñzación está situada en un monitor. El accesorio para la cabeza y la unidad de monitoñzación comprenden emisores de infrarrojo y un array de fotodetectores situados alrededor de los emisores de infrarrojo para recibir el haz de infrarrojo irradiado por la otra unidad. El módulo procesador recibe y combina las señales de salida de los fotodetectores para calcular la posición y orientación de la cabeza del usuario respecto a la unidad de monitoñzación situada en el monitor. EXPOSICIÓN DE LA INVENCIÓN
El objeto de la invención es el de proporcionar un sistema de generación de gráficos en tres dimensiones, y un método para mover un objeto móvil con respecto a un objeto fijo en un entorno virtual representado mediante un software de generación de gráficos en tres dimensiones, según se define en las reivindicaciones.
El sistema de generación de gráficos en tres dimensiones de la invención comprende un software de generación de gráficos y un periférico de entrada. El periférico de entrada comprende un elemento de referencia y un elemento móvil, estando ambos elementos situados en un entorno real y estando configurado el elemento móvil para ser movido con respecto al elemento de referencia por un usuario, y al menos un sensor configurado para emitir una señal representativa de una distancia, una posición y una orientación del elemento móvil respecto al elemento de referencia en tiempo real.
El sistema de generación de gráficos comprende medios de procesamiento configurados para recibir la señal representativa de la distancia, la posición y la orientación del elemento móvil respecto al elemento de referencia y transmitir dicha distancia, posición y orientación al software de generación de gráficos en tiempo real.
El software de generación de gráficos está configurado para representar al menos un objeto fijo y al menos un objeto móvil en un entorno virtual, y para mover en tiempo real el objeto móvil con respecto al objeto fijo replicando el movimiento del elemento móvil con respecto al elemento de referencia en función de la distancia, la posición y la orientación del elemento móvil con respecto al elemento de referencia recibidos de los medios de procesamiento.
El elemento de referencia del sistema de la invención está configurado para ser asociado dinámicamente a distintos objetos virtuales fijos, y el elemento móvil está configurado para ser asociado dinámicamente a distintos objetos virtuales móviles.
Un segundo aspecto de la invención de refiere a un método para mover un objeto móvil con respecto a un objeto fijo en un entorno virtual representado mediante un software de generación de gráficos en tres dimensiones que comprende una etapa de movimiento en la que un elemento móvil es movido por un usuario con respecto a un elemento de referencia, estando ambos elementos situados en un entorno real, una etapa de captura y procesamiento de datos en la que un sensor emite una señal representativa de la distancia, la posición y la orientación del elemento móvil respecto al elemento de referencia, y unos medios de procesamiento reciben la señal y transmiten la distancia, la posición y la orientación del elemento móvil respecto al elemento de referencia al software de generación de gráficos en tiempo real, y una etapa de representación en la que el software de generación de gráficos representa en tiempo real el movimiento del objeto móvil con respecto al objeto fijo replicando el movimiento del elemento móvil con respecto al elemento de referencia en función de la distancia, la posición y la orientación del elemento móvil con respecto al elemento de referencia recibidos de los medios de procesamiento.
El método de la invención comprende una etapa de asociación de un elemento de referencia en la que se asocia el elemento de referencia con el objeto fijo, y una etapa de asociación del elemento móvil en la que se asocia el elemento móvil con el objeto móvil, siendo ambas etapas de asociación anteriores a la etapa de movimiento.
Mediante el sistema de generación de gráficos en tres dimensiones de la invención, el posicionamiento o el movimiento de cualquier objeto móvil con respecto a cualquier objeto fijo en el entorno virtual representado mediante el software de generación de gráficos en 3D puede realizarse de forma sencilla por el usuario, simplemente replicando el movimiento del elemento móvil con respecto al elemento de referencia en el entorno real, sin necesidad de introducir la posición, o la trayectoria del movimiento del objeto móvil de forma manual por el usuario mediante comandos en el software de generación de gráficos en 3D.
Estas y otras ventajas y características de la invención se harán evidentes a la vista de las figuras y de la descripción detallada de la invención.
DESCRIPCIÓN DE LOS DIBUJOS
La Figura 1 muestra una realización del sistema de generación de gráficos en tres dimensiones de la invención con el elemento de referencia en una primera posición.
La Figura 2 muestra la realización de la Figura 1 , en donde en el entorno virtual se muestran un objeto fijo adicional y un objeto móvil adicional. La Figura 3 muestra la realización de la Figura 1 , con el elemento de referencia en una segunda posición.
EXPOSICIÓN DETALLADA DE LA INVENCIÓN
Las Figuras 1 a 3 se refieren a una realización del sistema de generación de gráficos en tres dimensiones según la invención.
El sistema de generación de gráficos en tres dimensiones de la invención comprende un software de generación de gráficos en tres dimensiones o 3D y un periférico de entrada en tres dimensiones o 3D. El periférico de entrada comprende un elemento de referencia 1 y un elemento móvil 2, estando ambos elementos situados en un entorno real 3 y estando configurado el elemento móvil 2 para ser movido con respecto al elemento de referencia 1 por un usuario. El periférico de entrada comprende al menos un sensor configurado para emitir una señal representativa de una distancia, una posición y una orientación del elemento móvil 2 respecto al elemento de referencia 1 en tiempo real.
El sistema de generación de gráficos comprende medios de procesamiento configurados para recibir la señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al elemento de referencia 1 y transmitir dicha distancia, posición y orientación al software de generación de gráficos en tiempo real.
El software de generación de gráficos está configurado para representar al menos un objeto fijo 4 y al menos un objeto móvil 5 en un entorno virtual 6, y para mover en tiempo real el objeto móvil 5 con respecto al objeto fijo 4 replicando el movimiento del elemento móvil 2 con respecto al elemento de referencia 1 en función de la distancia, la posición y la orientación del elemento móvil 2 con respecto al elemento de referencia 1 recibidos de los medios de procesamiento.
El elemento de referencia 1 del sistema de la invención está configurado para ser asociado dinámicamente a distintos objetos virtuales fijos, y el elemento móvil 2 está configurado para ser asociado dinámicamente a distintos objetos virtuales móviles.
En el contexto de la invención se entiende por entorno real 3 un espacio físico real en el que se sitúan tanto el elemento de referencia 1 como el elemento móvil 2, siendo tanto el elemento de referencia 1 como el elemento móvil 2 objetos reales con los que el usuario puede interaccionar.
En el contexto de la invención se entiende por entorno virtual 6 un espacio virtual que representa un entorno, real o imaginario, en el que se representan una pluralidad de objetos virtuales. Los objetos virtuales son objetos representados en el entorno virtual 6, pero que no forman parte del entorno real 3.
En el contexto de la invención el usuario del periférico de entrada es un diseñador gráfico 3D. El usuario, mediante la utilización del software de generación de gráficos, puede crear mediante la utilización de los comandos, primitivas, u opciones disponibles en dicho software, tanto el entorno virtual 6 como los objetos virtuales representados en dicho entorno virtual 6. El software de generación de gráficos está configurado también para permitir la interacción con los objetos virtuales. Ejemplos de dichas interacciones incluyen mover, redimensionar, rotar, etc. los objetos virtuales en el entorno virtual 6.
En el contexto de la invención el software de generación de gráficos es un software de generación de gráficos en 3D. En la actualidad existen numerosos softwares de generación de gráficos y de animación en 3D tales como Cinema 4D, 3D Studio Max, Maya, etc. El sistema de generación de gráficos en 3D es válido para su utilización con software de diseño asistido por ordenador o CAD para modelado 3D tales como AutoCAD, Solidworks, Catia, NX de Siemens, etc. Sin embargo los ejemplos anteriores no pretenden ser una limitación de la invención, y el sistema de la invención su puede utilizar con cualquier software con un interface tridimensional que requiera mover y/o rotar objetos en un entorno tridimensional.
El periférico de entrada del sistema de generación de gráficos de la invención comprende al menos un sensor configurado para emitir una señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al elemento de referencia 1 en tiempo real. En el estado de la técnica es conocida la utilización de unidades de medición inercial, acelerómetros, giroscopios, etc. para determinar la orientación de un objeto, así como la utilización de sensores de distancia, tales como fotosensores, sensores ultrasónicos configurados para medir distancias en base al tiempo que tarda en llegar una señal, etc. para determinar la distancia entre un objeto y otro, y la posición de un objeto respecto al otro. También es conocida la utilización de cámaras, de modo que mediante el procesamiento de las imágenes captadas por dichas cámaras se determinan la distancia, la posición y la orientación de un objeto con respecto a otro. La señal emitida por el sensor es recibida por los medios de procesamiento y puede ser transmitida por cable, o de forma inalámbrica.
El sensor emite una señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al elemento de referencia 1 en tiempo real, la cual es recibida por los medios de procesamiento, los cuales transmiten dicha distancia, posición y orientación al software de generación de gráficos en tiempo real. Los medios de procesamiento comprenden al menos un procesador configurado para ejecutar los comandos de un programa de ordenador del periférico de entrada, al menos una memoria configurada para almacenar el programa de ordenador y al menos otros datos asociados a la ejecución del programa, e interfaces de entrada y salida configurados para comunicarse con periféricos de entrada y salida. En una realización de la invención los medios de procesamiento están configurados para ejecutar el software de generación de gráficos en 3D, y para ejecutar el programa de ordenador asociado al periférico de entrada. En una realización del sistema de la invención, el programa de ordenador asociado al periférico de entrada es un plugin o fragmento de código configurado para ampliar las funciones de un programa o una herramienta, que en el caso de la invención es el software de generación de gráficos en 3D. Sin embargo, esta configuración no pretende ser una limitación de la invención, y en otras realizaciones de la invención la comunicación entre el programa de ordenador asociado al periférico de entrada, los medios de procesamiento configurados para ejecutar los comandos de dicho programa, y el software de generación de gráficos en 3D puede ser otra. El programa de ordenador asociado al periférico de entrada, al ejecutarse por los medios de procesamiento, está configurado para recibir la señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al elemento de referencia 1 y transmitir dicha distancia, posición y orientación al software de generación de gráficos en tiempo real.
La Figura 1 muestra una realización del sistema de generación de gráficos de la invención. En esta realización el elemento de referencia 1 tiene forma de cubo y el elemento móvil 2 tiene forma de cilindro. Sin embargo, en otras realizaciones el elemento de referencia 1 y el elemento móvil 2 pueden tener otras formas que permitan que el elemento de referencia 1 permanezca inmóvil, apoyado por ejemplo sobre una superficie, y el elemento móvil 2 pueda ser movido por un usuario, asido por ejemplo con una mano.
El software de generación de gráficos está configurado para representar al menos un objeto fijo 4 y al menos un objeto móvil 5 en un entorno virtual 6, siendo tanto el objeto fijo 4 como el objeto móvil 5 objetos virtuales representados en el entorno virtual 6 mediante el software de generación de gráficos. El entorno virtual 6 es mostrado en un sistema de visualization configurado para mostrar un entorno virtual 6 tridimensional o en 3D al usuario. En la realización mostrada en la Figura 1 el sistema de visualization es una pantalla 7, pero en otras realizaciones podría ser un monitor conectado a un ordenador personal, un televisor, la pantalla de un móvil, unas gafas de realidad virtual, o cualquier otro dispositivo capaz de mostrar un entorno virtual 6 tridimensional o en 3D.
El software de generación de gráficos en 3D está configurado para representar al menos un objeto fijo 4 y un objeto móvil 5 en un entorno virtual 6. Para ello, en una realización de la invención, el software de generación de gráficos comprende un sistema de coordenadas universales respecto del cual posiciona el objeto fijo 4 y el objeto móvil 5, así como el resto de objetos virtuales si los hubiera, en el entorno virtual 6.
En la realización de la Figura 1 se muestran el elemento de referencia 1 y el elemento móvil 2 en el entorno real 3, y el objeto fijo 4 y el objeto móvil 5 en el entorno virtual 6 que está representado en la pantalla 7. En dicha realización el objeto fijo 4 es una tetera y el objeto móvil 5 es un foco de luz. Al asociar el usuario el elemento de referencia 1 con el objeto fijo 4 y el elemento móvil 2 con el objeto móvil 5, cuando el usuario mueve en el entorno real 3 el elemento móvil 2 con respecto al elemento de referencia 1 , el software de generación de gráficos replica en tiempo real dicho movimiento en el entorno virtual 6, moviendo el objeto móvil 5 con respecto al objeto fijo 4 del mismo modo que el usuario mueve el elemento móvil 2 con respecto al elemento de referencia 1 en el entorno real 3. De este modo el usuario, es decir, el diseñador gráfico 3D puede ver de forma sencilla cómo cambia el modo en que la tetera es iluminada, y cómo cambia la sombra proyectada por la tetera según mueve el foco de luz. Por claridad, las luces y sombras no se han mostrado en las Figuras, se han mostrado solamente los objetos. Para ello, el usuario no necesita modificar mediante comandos la posición del foco de luz con respecto a la tetera, sino que puede posicionar de forma natural el elemento móvil 2 con respecto al elemento de referencia 1 en distintas posiciones, viendo en tiempo real el efecto de dichos cambios de posición en la pantalla 7. Esta aplicación del sistema de generación de gráficos de la invención no pretende ser una limitación, y el sistema puede ser utilizado en cualquier otra aplicación.
Si a continuación el usuario quiere posicionar un objeto móvil adicional 5’ con respecto al objeto fijo 4, el usuario podrá mantener la asociación que previamente había realizado en la que asociaba el elemento de referencia 1 con el objeto fijo 4, y asociar ahora el elemento móvil 2 con el objeto móvil adicional 5’. Del mismo modo, en lugar de mantener la asociación que previamente había realizado, el usuario podría volver a asociar el elemento de referencia 1 con el objeto fijo 4. Así, cuando el usuario mueva en el entorno real 3 el elemento móvil 2 con respecto al elemento de referencia 1 , el software de generación de gráficos replicará en tiempo real dicho movimiento en el entorno virtual 6, moviendo en este caso el objeto móvil adicional 5’ con respecto al objeto fijo 4 del mismo modo que el usuario mueve el elemento móvil 2 con respecto al elemento de referencia 1 en el entorno real 3.
Si a continuación el usuario quiere posicionar un objeto móvil adicional 5’ con respecto al objeto fijo adicional 4’, el usuario deberá mantener la asociación que previamente había realizado en la que asociaba el elemento móvil 2 con respecto al objeto móvil adicional 5’, y asociar en este caso el elemento de referencia 1 con el objeto fijo adicional 4’. Del mismo modo, en lugar de mantener la asociación que previamente había realizado, el usuario podría volver a asociar el elemento móvil 2 con el objeto móvil adicional 5’. Así, cuando el usuario mueva en el entorno real 3 el elemento móvil 2 con respecto al elemento de referencia 1 , el software de generación de gráficos replicará en tiempo real dicho movimiento en el entorno virtual 6, moviendo en este caso el objeto móvil adicional 5’ con respecto al objeto fijo adicional 4’ del mismo modo que el usuario mueve el elemento móvil 2 con respecto al elemento de referencia 1 en el entorno real 3.
En una realización del sistema de generación de gráficos, la asociación del elemento de referencia 1 con el objeto fijo 4, y la asociación del elemento móvil 2 con el objeto móvil 5 puede realizarse mediante comandos del software de generación de gráficos en 3D. Sin embargo, en otras realizaciones del periférico de entrada, dichas asociaciones se pueden realizar mediante un selector situado en el elemento de referencia, un selector situado en el elemento móvil, o mediante otra solución técnica conocida en el estado de la técnica.
Mediante el sistema de generación de gráficos de la invención, el usuario puede asociar el elemento de referencia 1 con cualquier objeto fijo 4 representado en el entorno virtual 6 de modo que dicha asociación sea dinámica, es decir, en un momento posterior el usuario puede asociar el elemento de referencia 1 con cualquier otro objeto fijo 4. Mediante el sistema de generación de gráficos de la invención, el usuario puede asociar el elemento móvil 2 con cualquier objeto móvil 5 representado en el entorno virtual 6 de modo que dicha asociación sea dinámica, es decir, en un momento posterior el usuario puede asociar el elemento móvil 2 con cualquier otro objeto móvil 5. En el contexto de la invención, un objeto virtual fijo, o un objeto fijo 4 es cualquier objeto virtual representado en el entorno virtual 6 con respecto al cual se mueve otro objeto virtual. En el contexto de la invención, un objeto virtual móvil, o un objeto móvil 5 es cualquier objeto virtual representado en el entorno virtual 6 que se mueve con respecto a otro objeto virtual. Todo ello permite que el posicionamiento, o el movimiento de cualquier objeto móvil 5 con respecto a cualquier objeto fijo 4 en el entorno virtual 6 representado mediante el software de generación de gráficos en 3D pueda realizarse de forma sencilla por el usuario, replicando el movimiento del elemento móvil 2 con respecto al elemento de referencia 1 en el entorno real 3, sin necesidad de introducir la posición, o el movimiento del objeto móvil 5 de forma manual por el usuario mediante comandos del software de generación de gráficos en 3D.
En una realización del sistema de generación de gráficos, el elemento de referencia 1 comprende el sensor, estando dicho sensor configurado para emitir la señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al elemento de referencia 1 .
En otra realización del sistema de generación de gráficos, el periférico de entrada comprende un elemento adicional en el entorno real 3 que comprende el sensor. En esta realización el sensor está dispuesto en el elemento adicional, el cual es un elemento distinto al elemento de referencia 1 y distinto al elemento móvil 2.
En una realización del sistema de generación de gráficos el elemento móvil 2 comprende el sensor.
En una realización del sistema de generación de gráficos el elemento móvil 2 es un teléfono inteligente. En esta realización el teléfono inteligente está configurado para emitir la señal representativa de la distancia, la posición y la orientación del teléfono inteligente respecto al elemento de referencia 1.
En una realización del sistema de generación de gráficos el elemento de referencia 1 es un objeto mostrado en realidad aumentada, y el elemento móvil 2 es un dispositivo electrónico configurado para mostrar el elemento de referencia 1 en realidad aumentada, comprendiendo el elemento móvil 2 un código de programa sensor ejecutable en dicho elemento móvil 2 configurado para emitir la señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al elemento de referencia 1 mostrado en dicho dispositivo electrónico en tiempo real. En dicha realización, el sensor es dicho código de programa sensor. El dispositivo electrónico comprende una unidad de procesamiento, y un medio legible por ordenador no transitorio configurado para almacenar el código de programa sensor, estando la unidad de procesamiento configurada para ejecutar dicho código de programa sensor. El dispositivo electrónico comprende una interfaz de E/S de red configurada para comunicar el dispositivo electrónico con otros sistemas informáticos a través de una red de datos o de forma inalámbrica. El elemento de referencia 1 mostrado en el dispositivo electrónico es el elemento de referencia 1 que está configurado para ser asociado dinámicamente a los distintos objetos virtuales fijos 4. El dispositivo electrónico puede ser una tableta electrónica, un teléfono inteligente, unas gafas de realidad aumentada, o cualquier otro dispositivo electrónico conocido en el estado de la técnica capaz de visualizar al menos un objeto en realidad aumentada. En la actualidad, son conocidos los algoritmos para determinar la distancia, la posición y la orientación de un dispositivo electrónico en el que se muestra un objeto en realidad aumentada con respecto a dicho objeto, por tanto, el experto en la materia sabría implementar un código de programa sensor basado en uno de dichos algoritmos.
En una realización del sistema de generación de gráficos, el periférico de entrada comprende un selector de escala configurado para que el usuario pueda seleccionar una escala, de modo que la distancia entre el objeto fijo 4 y el objeto móvil 5 en el entorno virtual 6 sea la distancia entre el elemento móvil 2 y el elemento de referencia 1 en dicha escala. Dependiendo de aquello que se represente en el entorno virtual 6, la distancia entre el elemento de referencia 1 y el elemento móvil 2, que normalmente en el entorno real 3 es de decenas de centímetros, puede no ser adecuada. Mediante el selector de escala, el usuario puede definir la escala necesaria para que, en función de lo que represente en el entorno virtual 6, la distancia de decenas de centímetros entre el elemento de referencia 1 y el elemento móvil 2 en el entorno real 3 se corresponda con una distancia de kilómetros, de milímetros, etc., en dicha escala en el entorno virtual 6.
En una realización del sistema de generación de gráficos el objeto fijo 4 es un punto en el entorno virtual 6. En ocasiones, existe la necesidad de posicionar o mover un objeto virtual en el entorno virtual 6 con respecto a un punto de dicho entorno virtual 6, y no con respecto a un objeto virtual. El sistema de generación de gráficos de la invención permite asociar el elemento de referencia 1 con un punto del entorno virtual 6, de modo que el movimiento del elemento móvil 2 con respecto al elemento de referencia 1 se representará en el entorno virtual 6 como el movimiento del objeto móvil 5 con respecto a dicho punto, en donde el punto en el entorno virtual 6 viene definido por su posición con respecto al sistema de coordenadas universales del software de generación de gráficos.
En una realización del sistema de generación de gráficos de la invención el elemento de referencia 1 tiene asociado un sistema de coordenadas de referencia 11 , y el objeto fijo 4 tiene asociado un sistema de coordenadas X,Y,Z 41 que representa el sistema de coordenadas de referencia 11 en el entorno virtual 6. En esta realización, al mover el elemento de referencia 1 en el entorno real 3, el objeto fijo 4 y el sistema de coordenadas X,Y,Z 41 asociadas permanecen inmóviles, cambiando el sistema de coordenadas de referencia 11 de posición en el entorno real 3. En esta realización la señal emitida por el sensor es una señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al sistema de coordenadas de referencia 11 del elemento de referencia 1 , y el software de generación de gráficos está configurado para mover en tiempo real el objeto móvil 5 con respecto al sistema de coordenadas X,Y,Z 41 del objeto fijo 4 replicando el movimiento del elemento móvil 2 con respecto al sistema de coordenadas de referencia 11 del elemento de referencia 1 en función de la distancia, la posición y la orientación del elemento móvil 2 con respecto a elemento de referencia 1 recibidos de los medios de procesamiento.
En esta realización del sistema de generación de gráficos, el elemento de referencia 1 tiene asociados un eje X, un eje Y, y un eje Z perpendiculares entre sí, y que intersecan en un punto u origen, definiendo entre los tres ejes el sistema de coordenadas de referencia 11 en base al cual el elemento móvil 2 se posiciona en el entorno real 3. Del mismo modo, cada objeto fijo 4 representado en el entorno virtual 6 tiene asociados un eje X, un eje Y, y un eje Z perpendiculares entre sí, y que intersecan en un punto u origen, definiendo entre los tres ejes un sistema de coordenadas X, Y, Z 41 en base al cual el objeto móvil 5 se posiciona o se mueve en el entorno virtual 6 mediante la utilización del sistema de la invención. De este modo, cuando se asocia el elemento de referencia 1 al objeto fijo 4, el sistema de coordenadas X,Y,Z 41 asociado al objeto fijo 4 representa en el entorno virtual 6 el sistema de coordenadas de referencia 11 del elemento de referencia 1.
La Figura 1 muestra esta realización del sistema de generación de gráficos, en donde el elemento de referencia 1 está asociado al objeto fijo 4 y el elemento móvil 2 está asociado al objeto móvil 5, estando el elemento de referencia 1 en una primera posición. La Figura 3 muestra esta realización del sistema de generación de gráficos de la invención con el elemento de referencia 1 en una segunda posición, en donde el usuario ha girado el elemento de referencia 1 180° alrededor del eje X de su sistema de coordenadas de referencia 11 , de tal modo que el eje Y y el eje Z del sistema de coordenadas de referencia 11 apuntan en sentido contrario a donde apuntaban antes de girar el elemento de referencia 1. Por tanto, al girar el elemento de referencia 1 , el sistema de coordenadas de referencia 11 cambia de posición en el entorno real 3. Sin embargo, el movimiento del elemento de referencia 1 en el entorno real 3, y el cambio de posición de su sistema de coordenadas de referencia 11 no tienen efecto en el entono virtual 6, en donde el objeto fijo 4 no se mueve, y el sistema de coordenadas X,Y,Z 41 asociado a dicho objeto fijo 4 permanecen en la misma posición, tal y como se muestra en la Figura 3. Es por ello que, si inicialmente el elemento móvil 2 estaba posicionado en unas coordenadas (50, 60, 70) con respecto al sistema de coordenadas de referencia 11 asociadas al elemento de referencia 1 , una vez el elemento de referencia 1 se gira 180° alrededor del eje X de dicho sistema de coordenadas de referencia 11 , si el elemento móvil 2 no se mueve, estará posicionado en unas coordenadas (50, -60, -70) con respecto al sistema de coordenadas de referencia 11. Por todo ello, el objeto móvil 5 cambia de posición en el entorno virtual 6 de la primera posición mostrada en la Figura 1 a una segunda posición mostrada en la Figura 3, sin que en el entorno real 3 se haya movido el elemento móvil 2, simplemente cambiado de posición el elemento de referencia 1 de la posición mostrada en la Figura 1 a la mostrada en la Figura 3. Así, en la realización mostrada en la Figura 3, si el usuario mueve el elemento móvil 2 por encima del elemento de referencia 1 de un lado al otro del eje X de su sistema de coordenadas de referencia 11 , en el entorno virtual 6, el objeto móvil 5 se moverá por debajo del objeto fijo 4 de un lado a otro del eje X de su sistema de coordenadas X,Y,Z 41.
Todo ello permite que el posicionamiento, o el movimiento del objeto móvil 5 con respecto al objeto fijo 4 en el entorno virtual 6 representado mediante el software de generación de gráficos en 3D pueda realizarse de forma sencilla por el usuario, replicando el movimiento del elemento móvil 2 con respecto al elemento de referencia 1 en el entorno real 3, de modo que en el caso en que dicho movimiento no resulte natural o fácil de realizar en el entorno real 3 al usuario, el usuario puede modificar la posición del sistema de coordenadas de referencia 11 cambiando de posición el elemento de referencia 1.
En una realización del sistema de generación de gráficos, los medios de procesamiento están configurados para aplicar un valor de compensación previamente definido por el usuario en al menos un eje del sistema de coordenadas de referencia 11 a la posición del elemento móvil 2 con respecto al elemento de referencia 1. Así, si el usuario del sistema define por ejemplo un valor de compensación en el eje X de las coordenadas de referencia 11 igual a 5, si en un momento el elemento móvil 2 está posicionado en las coordenadas (10,10,10) con respecto al sistema de coordenadas de referencia 11 asociadas al elemento de referencia 1 , el software de generación de gráficos representará el objeto móvil en la posición (15,10,10) con respecto al sistema de coordenadas X,Y,Z 41. La definición del valor de compensación en cada uno de los ejes del sistema de coordenadas de referencia 11 por el usuario puede realizarse mediante comandos del software de generación de gráficos en 3D. Sin embargo, en otras realizaciones del sistema, dichas asociaciones se pueden realizar mediante un selector situado en el elemento de referencia 1 , un selector situado en el elemento móvil 2, o mediante otra solución técnica conocida en el estado de la técnica.
La invención se refiere también a un periférico de entrada que forma parte del sistema de generación de gráficos en tres dimensiones según la invención.
Un segundo aspecto de la invención se refiere a un método para mover un objeto móvil 5 con respecto a un objeto fijo 4 en un entorno virtual 6 representado mediante un software de generación de gráficos en tres dimensiones que comprende una etapa de movimiento en la que un elemento móvil 2 es movido por un usuario con respecto a un elemento de referencia 1 , estando ambos elementos situados en un entorno real 3. El método de la invención comprende una etapa de captura y procesamiento de datos en la que un sensor emite una señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al elemento de referencia 1 , y unos medios de procesamiento reciben la señal y transmiten la distancia, la posición y la orientación del elemento móvil 2 respecto al elemento de referencia 1 al software de generación de gráficos en tiempo real. El método de la invención comprende una etapa de representación en la que el software de generación de gráficos representa en tiempo real el movimiento del objeto móvil 5 con respecto al objeto fijo 4 replicando el movimiento del elemento móvil 2 con respecto al elemento de referencia 1 en función de la distancia, la posición y la orientación del elemento móvil 2 con respecto al elemento de referencia 1 recibidos de los medios de procesamiento. El método de la invención se caracteriza porque comprende una etapa de asociación de un elemento de referencia 1 en la que se asocia el elemento de referencia 1 con el objeto fijo 4, y una etapa de asociación del elemento móvil 2 en la que se asocia el elemento móvil 2 con el objeto móvil 5, siendo ambas etapas de asociación anteriores a la etapa de movimiento. En una realización, el método de la invención comprende una etapa de selección de escala, en donde el usuario selecciona una escala de modo que la distancia entre el objeto fijo 4 y el objeto móvil 5 en el entorno virtual 6 es la distancia entre el elemento móvil 2 y el elemento de referencia 1 en dicha escala.
En una realización del método de la invención, el objeto fijo 4 es un punto en el entorno virtual 6.
En una realización, el método de la invención comprende una etapa de posicionamiento del elemento de referencia 1 antes de la etapa de movimiento en la que el usuario posiciona el elemento de referencia 1 en el entorno real 3, en donde el elemento de referencia 1 tiene asociado un sistema de coordenadas de referencia 11 , y en donde el objeto fijo 4 tiene asociado un sistema de coordenadas X,Y,Z 41 que representa el sistema de coordenadas de referencia 11 en el entorno virtual 6, de modo que al posicionar el elemento de referencia 1 en el entorno real 3, el objeto fijo 4 y el sistema de coordenadas X,Y,Z 41 asociadas permanecen inmóviles, cambiando el sistema de coordenadas de referencia 11 de posición en el entorno real 3, y en donde en la etapa de representación, el software de generación de gráficos representa en tiempo real el movimiento del objeto móvil 5 con respecto al sistema de coordenadas X,Y,Z 41 del objeto fijo 4 replicando el movimiento del elemento móvil 2 con respecto al sistema de coordenadas de referencia 11 del elemento de referencia 1 en función de la distancia, la posición y la orientación del elemento móvil 2 con respecto al elemento de referencia 1 recibidos de los medios de procesamiento, estando el sensor configurado para emitir una señal representativa de la distancia, la posición y la orientación del elemento móvil 2 respecto al sistema de coordenadas de referencia 11 del elemento de referencia 1 .
En una realización, el método de la invención comprende una etapa de selección de valores de compensación, en donde el usuario selecciona un valor de compensación en al menos un eje del sistema de coordenadas de referencia 11 a la posición del elemento móvil 2 con respecto al elemento de referencia 1 .
Todo lo descrito para el sistema de generación de gráficos de tres dimensiones se considera descrito también para el método asociado y viceversa.

Claims

REIVINDICACIONES
1. Sistema de generación de gráficos en tres dimensiones que comprende un software de generación de gráficos y un periférico de entrada, comprendiendo el periférico de entrada
- un elemento de referencia (1) y un elemento móvil (2), estando ambos elementos situados en un entorno real (3) y estando configurado el elemento móvil (2) para ser movido con respecto al elemento de referencia (1) por un usuario, y
- al menos un sensor configurado para emitir una señal representativa de una distancia, una posición y una orientación del elemento móvil (2) respecto al elemento de referencia (1) en tiempo real, comprendiendo el sistema de generación de gráficos medios de procesamiento configurados para recibir la señal representativa de la distancia, la posición y la orientación del elemento móvil (2) respecto al elemento de referencia (1) y transmitir dicha distancia, posición y orientación al software de generación de gráficos en tiempo real, y estando el software de generación de gráficos configurado para representar al menos un objeto fijo (4) y al menos un objeto móvil (5) en un entorno virtual (6), y para mover en tiempo real el objeto móvil (5) con respecto al objeto fijo (4) replicando el movimiento del elemento móvil (2) con respecto al elemento de referencia (1) en función de la distancia, la posición y la orientación del elemento móvil (2) con respecto al elemento de referencia
(1) recibidos de los medios de procesamiento, caracterizado porque el elemento de referencia (1) está configurado para ser asociado dinámicamente a distintos objetos virtuales fijos (4), y el elemento móvil (2) está configurado para ser asociado dinámicamente a distintos objetos virtuales móviles (5).
2. Sistema de generación de gráficos según la reivindicación 1 , en donde el elemento de referencia (1) comprende el sensor.
3. Sistema de generación de gráficos según la reivindicación 1 , que comprende un elemento adicional en el entorno real (3) que comprende el sensor.
4. Sistema de generación de gráficos según la reivindicación 1 , en donde el elemento móvil
(2) comprende el sensor.
5. Sistema de generación de gráficos según la reivindicación 4, en donde el elemento móvil (2) es un teléfono inteligente.
6. Sistema de generación de gráficos según la reivindicación 4, en donde el elemento de referencia (1) es un objeto mostrado en realidad aumentada, y el elemento móvil (2) es un dispositivo electrónico configurado para mostrar el elemento de referencia (1) en realidad aumentada, comprendiendo el elemento móvil (2) un código de programa sensor ejecutable en dicho elemento móvil (2) configurado para emitir la señal representativa de la distancia, la posición y la orientación del elemento móvil (2) respecto al elemento de referencia (1) mostrado en dicho dispositivo electrónico en tiempo real.
7. Sistema de generación de gráficos según cualquiera de las reivindicaciones anteriores, que comprende un selector de escala configurado para que el usuario pueda seleccionar una escala, de modo que la distancia entre el objeto fijo (4) y el objeto móvil (5) en el entorno virtual (6) sea la distancia entre el elemento móvil (2) y el elemento de referencia (1) en dicha escala.
8. Sistema de generación de gráficos según cualquiera de las reivindicaciones anteriores, en donde el objeto fijo (4) es un punto en el entorno virtual (6).
9. Sistema de generación de gráficos según cualquiera de las reivindicaciones anteriores, en donde el elemento de referencia (1) tiene asociado un sistema de coordenadas de referencia (11), y el objeto fijo (4) tiene asociado un sistema de coordenadas X,Y,Z (41) que representa el sistema de coordenadas de referencia (11) en el entorno virtual (6), de modo que, al mover el elemento de referencia (1) en el entorno real (3), el objeto fijo (4) y el sistema de coordenadas X,Y,Z (41) asociado permanecen inmóviles, cambiando el sistema de coordenadas de referencia (11) de posición en el entorno real (3), siendo la señal emitida por el sensor una señal representativa de la distancia, la posición y la orientación del elemento móvil (2) respecto al sistema de coordenadas de referencia (11) del elemento de referencia (1), y estando el software de generación de gráficos configurado para mover en tiempo real el objeto móvil (5) con respecto al sistema de coordenadas X,Y,Z (41) del objeto fijo (4) replicando el movimiento del elemento móvil (2) con respecto al sistema de coordenadas de referencia (11) del elemento de referencia (1) en función de la distancia, la posición y la orientación del elemento móvil (2) con respecto a elemento de referencia (1) recibidos de los medios de procesamiento.
10. Sistema de generación de gráficos según la reivindicación 9, en donde los medios de procesamiento están configurados para aplicar un valor de compensación previamente - 17 - definido por el usuario en al menos un eje del sistema de coordenadas de referencia (11) a la posición del elemento móvil (2) con respecto al elemento de referencia (1). Periférico de entrada que forma parte del sistema de generación de gráficos en tres dimensiones según cualquiera de las reivindicaciones anteriores. Método para mover un objeto móvil (5) con respecto a un objeto fijo (4) en un entorno virtual (6) representado mediante un software de generación de gráficos en tres dimensiones que comprende
- una etapa de movimiento en la que un elemento móvil (2) es movido por un usuario con respecto a un elemento de referencia (1), estando ambos elementos situados en un entorno real (3),
- una etapa de captura y procesamiento de datos en la que un sensor emite una señal representativa de la distancia, la posición y la orientación del elemento móvil (2) respecto al elemento de referencia (1), y unos medios de procesamiento reciben la señal y transmiten la distancia, la posición y la orientación del elemento móvil (2) respecto al elemento de referencia (1) al software de generación de gráficos en tiempo real, y
- una etapa de representación en la que el software de generación de gráficos representa en tiempo real el movimiento del objeto móvil (5) con respecto al objeto fijo (4) replicando el movimiento del elemento móvil (2) con respecto al elemento de referencia (1) en función de la distancia, la posición y la orientación del elemento móvil (2) con respecto al elemento de referencia (1) recibidos de los medios de procesamiento, caracterizado porque comprende
- una etapa de asociación de un elemento de referencia (1) en la que se asocia el elemento de referencia (1) con el objeto fijo (4), y
- una etapa de asociación del elemento móvil (2) en la que se asocia el elemento móvil (2) con el objeto móvil (5), siendo ambas etapas de asociación anteriores a la etapa de movimiento. Método según la reivindicación 12, que comprende una etapa de selección de escala, en donde el usuario selecciona una escala de modo que la distancia entre el objeto fijo (4) y el objeto móvil (5) en el entorno virtual (6) sea la distancia entre el elemento móvil (2) y el elemento de referencia (1) en dicha escala. - 18 -
14. Método según la reivindicación 12 o 13, que comprende una etapa de posicionamiento del elemento de referencia (1) antes de la etapa de movimiento en la que el usuario posiciona el elemento de referencia (1) en el entorno real (3), en donde el elemento de referencia (1) tiene asociado un sistema de coordenadas de referencia (11), y en donde el objeto fijo (4) tiene asociado un sistema de coordenadas X,Y,Z (41) que representa el sistema de coordenadas de referencia (11) en el entorno virtual (6), de modo que al posicionar el elemento de referencia (1) en el entorno real (3), el objeto fijo (4) y el sistema de coordenadas X,Y,Z (41) asociadas permanecen inmóviles, cambiando el sistema de coordenadas de referencia (11) de posición en el entorno real (3), y en donde en la etapa de representación, el software de generación de gráficos representa en tiempo real el movimiento del objeto móvil (5) con respecto al sistema de coordenadas X,Y,Z (41) del objeto fijo (4) replicando el movimiento del elemento móvil (2) con respecto al sistema de coordenadas de referencia (11) del elemento de referencia (1) en función de la distancia, la posición y la orientación del elemento móvil (2) con respecto al elemento de referencia (1) recibidos de los medios de procesamiento, estando el sensor configurado para emitir una señal representativa de la distancia, la posición y la orientación del elemento móvil (2) respecto al sistema de coordenadas de referencia (11) del elemento de referencia (1).
15. Método según la reivindicación 14, que comprende una etapa de selección de valores de compensación, en donde el usuario selecciona un valor de compensación en al menos un eje del sistema de coordenadas de referencia (11) a la posición del elemento móvil (2) con respecto al elemento de referencia (1).
PCT/ES2021/070593 2020-08-07 2021-08-05 Sistema de generación de gráficos en tres dimensiones WO2022029356A1 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP21769760.6A EP4047458A1 (en) 2020-08-07 2021-08-05 Three-dimensional graphics generation system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ES202030847A ES2894178B2 (es) 2020-08-07 2020-08-07 Sistema de generación de gráficos en tres dimensiones
ESP202030847 2020-08-07

Publications (1)

Publication Number Publication Date
WO2022029356A1 true WO2022029356A1 (es) 2022-02-10

Family

ID=77739087

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2021/070593 WO2022029356A1 (es) 2020-08-07 2021-08-05 Sistema de generación de gráficos en tres dimensiones

Country Status (3)

Country Link
EP (1) EP4047458A1 (es)
ES (1) ES2894178B2 (es)
WO (1) WO2022029356A1 (es)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020175897A1 (en) 1999-08-27 2002-11-28 Pelosi Michael J. 3D cursor or joystick device
US20150331576A1 (en) * 2014-05-14 2015-11-19 Purdue Research Foundation Manipulating virtual environment using non-instrumented physical object
US20190034076A1 (en) * 2016-02-12 2019-01-31 Purdue Research Foundation Manipulating 3d virtual objects using hand-held controllers
US20200241629A1 (en) * 2019-01-25 2020-07-30 Apple Inc. Manipulation of virtual objects using a tracked physical object

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5525177B2 (ja) * 2009-04-16 2014-06-18 任天堂株式会社 情報処理プログラム、および、情報処理装置
CN104281278A (zh) * 2013-07-09 2015-01-14 徐陈继 加速度感应器虚拟对象动作控制系统及方法
CN107613896A (zh) * 2015-03-12 2018-01-19 尼奥西斯股份有限公司 用于使用物理对象来操控虚拟环境中的相应虚拟对象的方法以及相关联装置和计算机程序产品
KR20230098927A (ko) * 2016-03-31 2023-07-04 매직 립, 인코포레이티드 포즈들 및 멀티-dof 제어기들을 사용하는 3d 가상 객체들과상호작용들
US20190056800A1 (en) * 2017-08-15 2019-02-21 Tin Moon Studios LLC Method and system for manipulating objects in 3d virtual space
US10409392B1 (en) * 2017-10-11 2019-09-10 Facebook Technologies, Llc Hand-held controller tracked by LED mounted under a concaved dome
US11353967B2 (en) * 2018-05-31 2022-06-07 Arkh Litho Holdings, LLC Interacting with a virtual environment using a pointing controller
US11100713B2 (en) * 2018-08-17 2021-08-24 Disney Enterprises, Inc. System and method for aligning virtual objects on peripheral devices in low-cost augmented reality/virtual reality slip-in systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020175897A1 (en) 1999-08-27 2002-11-28 Pelosi Michael J. 3D cursor or joystick device
US20150331576A1 (en) * 2014-05-14 2015-11-19 Purdue Research Foundation Manipulating virtual environment using non-instrumented physical object
US20190034076A1 (en) * 2016-02-12 2019-01-31 Purdue Research Foundation Manipulating 3d virtual objects using hand-held controllers
US20200241629A1 (en) * 2019-01-25 2020-07-30 Apple Inc. Manipulation of virtual objects using a tracked physical object

Also Published As

Publication number Publication date
EP4047458A1 (en) 2022-08-24
ES2894178B2 (es) 2022-09-13
ES2894178A1 (es) 2022-02-11

Similar Documents

Publication Publication Date Title
US11847747B2 (en) Displaying a virtual image of a building information model
US20220366598A1 (en) Calibration system and method to align a 3d virtual scene and a 3d real world for a stereoscopic head-mounted display
JP6352426B2 (ja) ヘッドマウントディスプレイを使用して拡張ディスプレイを提供するデバイス、方法、及びシステム
JP6662914B2 (ja) 媒介現実
KR20150093831A (ko) 혼합 현실 환경에 대한 직접 상호작용 시스템
US10878285B2 (en) Methods and systems for shape based training for an object detection algorithm
EP3000020A1 (en) Hologram anchoring and dynamic positioning
US20180204387A1 (en) Image generation device, image generation system, and image generation method
US11269400B2 (en) Positioning system
CA3087738A1 (en) Systems and methods for augmented reality
JP2006252468A (ja) 画像処理方法、画像処理装置
US10559131B2 (en) Mediated reality
ES2894178B2 (es) Sistema de generación de gráficos en tres dimensiones
JP6253834B1 (ja) 仮想作業表示方法、仮想作業データ作成方法、及び3次元空間けがきデータ作成方法
ES2812851T3 (es) Dispositivo de previsualización
TWM563585U (zh) 用於虛擬實境環境的動作捕捉系統
US20240017412A1 (en) Control device, control method, and program
JP7465133B2 (ja) 情報処理装置、情報処理方法
US20240169659A1 (en) Wearable terminal device, program, and display method
JP2023017439A (ja) 安全装置
CN114366330A (zh) 一种混合现实系统及基于混合现实的标识物配准方法
Daphalapurkar et al. Motion Capture for Human-Centered Simulation Using Kinects
Bapat Integration of multiple vision systems and toolbox development

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21769760

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021769760

Country of ref document: EP

Effective date: 20220520

NENP Non-entry into the national phase

Ref country code: DE