ES2231035B1 - Sistema y procedimiento de comunicacion basada en realidad virtual. - Google Patents
Sistema y procedimiento de comunicacion basada en realidad virtual.Info
- Publication number
- ES2231035B1 ES2231035B1 ES200302543A ES200302543A ES2231035B1 ES 2231035 B1 ES2231035 B1 ES 2231035B1 ES 200302543 A ES200302543 A ES 200302543A ES 200302543 A ES200302543 A ES 200302543A ES 2231035 B1 ES2231035 B1 ES 2231035B1
- Authority
- ES
- Spain
- Prior art keywords
- virtual
- agent
- virtual reality
- server
- environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/131—Protocols for games, networked simulations or virtual reality
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
- Computer And Data Communications (AREA)
Abstract
Sistema y procedimiento de comunicación basada en realidad virtual. Sistema y procedimiento de comunicación entre seres humanos basados en realidad virtual. El sistema posibilita y agiliza la comunicación y colaboración entre interlocutores distantes geográficamente, posibilitando que su identidad y privacidad sea mantenida en un entorno compartido. El entorno de realidad virtual está formado por escenarios virtuales colaborativos en los que se muestran objetos. El sistema representa el comportamiento y habilita la comunicación e interacción de los interlocutores humanos en los escenarios virtuales. Los autómatas poseen un mecanismo de generación de comportamiento inteligente e interacción. Es posible el enlace entre el entorno virtual y datos provenientes de canales externos. El procedimiento de comunicación mejora la calidad de los contenidos de la comunicación humana basada en medios electrónicos, así como la comodidad de la experiencia comunicativa y los niveles perceptivos de captaciónde la información.
Description
Sistema y procedimiento de comunicación basada en
realidad virtual.
La presente invención se refiere a un sistema y
un procedimiento de comunicación entre seres humanos basados en
realidad virtual. El sistema constituye una plataforma de
comunicación que posibilita y agiliza la colaboración entre
interlocutores distantes geográficamente que mantienen su identidad
y privacidad en un entorno compartido.
El entorno de realidad virtual está formado por
escenarios virtuales colaborativos, sus cualidades y objetos
básicos; la representación, comportamiento y vías de comunicación e
interacción de los interlocutores humanos en los escenarios
virtuales; los autómatas y su sistema de generación de
comportamiento inteligente e interacción; el enlace entre el entorno
virtual y datos provenientes de canales externos; y un interfase
básico de conexión. El procedimiento de comunicación mejora la
calidad de los contenidos de la comunicación humana basada en
medios electrónicos, así como la comodidad de la experiencia
comunicativa y los niveles perceptivos de captación de la
información.
Son conocidos sistemas de comunicación basados en
telefonía tradicional y multiconferencia de voz, vídeoconferencia
estándar, por red dedicada o por Internet, mensajería electrónica,
foros y chats de Internet, chats avanzados (rooms) por Internet
basados en representaciones tridimensionales de los personajes con
movilidad activada por sentencias incluyendo a veces canales de
voz, redes multimedia permitiendo a varios interlocutores reunirse
en cónclaves representados por ordenador con diálogo basado en voz,
intercambio de datos y eventual representación facial mediante
vídeoconferencia, autómatas y agentes inteligentes en Internet con
gesticulación facial y corporal realista orientados principalmente
a puntos de información o a la atención al usuario, y entornos
colaborativos en red con posibilidad de interaccionar en grupo
mediante representaciones más o menos caracterizadas de los
participantes, permitiendo conversación en grupos reducidos a
través de servidores públicos o privados y con interacción con el
entorno compartido, orientados principalmente a juegos en red.
En general, podemos decir que la realidad virtual
(RV) tal cual hoy se conoce, está asociada fundamentalmente al
concepto de simulación sensorial humana interactiva, principalmente
atendiendo a los aspectos visual y sonoro a nivel perceptivo,
aunque se avanza rápidamente en otros sentidos del ser humano. En
este sentido, existen una multiplicidad de motores gráficos y
software de sonido que permiten crear un entorno gráfico y sonoro
compartido por muchos usuarios conectados a una red informática o a
Internet. Estos entornos permiten que los usuarios queden
representados por avatares (representaciones gráficas de los seres
humanos conectados a la red), permitiéndoles colaborar hablando
entre ellos y realizando acciones básicas de movilidad y activación
de comportamiento de objetos gráficos compartidos. Esto, unido al
uso de dispositivos de inmersión en RV como los datagloves o los
head mounted displays nos permite hablar de los escenarios de
realidad virtual compartidos como una realidad palpable.
Normalmente, los motores gráficos que permiten
esta experiencia, trabajan en un entorno de red, en el cual los
usuarios ocupan pcs conectados remotamente a los servidores, y son
actualizados constantemente con cualquier información necesaria
para mantener perfectamente coherente el entorno gráfico y sonoro
compartido.
Muchos de estos motores pueden ser modificados
por sus compradores, permitiendo personalizar su comportamiento
local y de red, incluyendo nuevas funciones gráficas y de
comportamiento.
La representación básica de los objetos gráficos
constitutivos del escenario virtual es de carácter bidimensional o
tridimensional, conteniendo su superficie canales de color e
imágenes aplicadas simultáneamente pero con niveles de
transparencia variables. La representación gráfica de los objetos
del escenario virtual puede tener en cuenta las últimas técnicas de
iluminación y optimización de velocidad de cálculo de los
fotogramas, llegando a niveles de realismo e interacción muy altos.
También puede hacer uso de técnicas de superposición de imágenes o
vídeos bidimensionales en el espacio tridimensional para la
simulación de efectos como el cielo o dinámica de partículas
posicional.
Además, el escenario virtual puede ser
representado mediante técnicas de estereoscopia haciendo uso de
herramientas software estándar, permitiendo la visualización
tridimensional del mismo mediante la exposición de dos imágenes
alternadas en tiempo, del mismo escenario pero visto desde dos
ángulos distintos (correspondientes al paralaje de los ojos), a
frecuencias de cálculo que permitan evitar la sensación de parpadeo
de la imagen. Existen distintos dispositivos de visualización que
permiten al espectador percibir esta estereoscopia como una
sensación de profundidad en la imagen.
La visualización de este tipo de entorno
estereoscópico haciendo uso de las gafas de RV, junto con las
técnicas de sonido posicional envolvente, permite un alto grado de
sensación de inmersión. Adicionalmente, otros dispositivos permiten
acercar el resto de sentidos humanos a la realidad sintética.
Los objetos en el entorno virtual tienen varias
características en lo relativo a su movilidad: jerarquía de
subpiezas, variación posicional y de orientación, morfología
variable y detección de colisión.
Tratándose de un objeto tridimensional, la
morfología puede estar basada en una jerarquía de dependencias de
subpiezas que conforman el objeto completo. Esta jerarquía es
utilizada para la aplicación de giros encadenados de las subpiezas.
La jerarquía de subpiezas puede obedecer a giros encadenados
predefinidos o calculados en tiempo real, comunicados y activados
por eventos, haciendo uso de técnicas de cinemática directa o
inversa. En cualquier caso, las posiciones intermedias entre dos
ángulos consecutivos comunicados para una misma unión de dos
subpiezas, pueden ser interpoladas en el sistema local, definiendo
un número calculado de subángulos de giro que será el que defina el
movimiento final de la subjerarquía de subpiezas dependientes,
dotándolo de mayor fluidez local en la visualización, e
independencia frente a problemas de comunicaciones con el sistema
remoto en la transmisión de los ángulos principales en el caso de
ser comunicados por el sistema remoto.
Un objeto puede tener definido un movimiento
bidimensional o tridimensional, basado normalmente en su centro de
masa, a ser representado en el espacio virtual, comunicado y
activado por eventos. En cualquier caso, las posiciones intermedias
entre dos posiciones consecutivas comunicadas para un mismo objeto,
pueden ser interpoladas en el sistema local, definiendo un número
calculado de subposiciones que será el que defina el movimiento del
objeto, dotándolo de mayor fluidez e independencia frente a
problemas de comunicaciones con el sistema remoto. El procedimiento
de generación de posiciones comunicadas, puede obedecer al
seguimiento de una curva situada en el escenario tridimensional
correspondiente a una ruta preestablecida, o bien un camino generado
en tiempo real según algún procedimiento asociado al propio
objeto.
La forma de cualquier objeto bidimensional o
tridimensional, puede ser variada en tiempo real en base a datos
comunicados normalmente al sistema local. Dicho cambio de forma
puede obedecer a criterios predefinidos en el diseño de la
morfología variable del objeto, o a criterios calculados, pero en
cualquier caso, queda definido como una variación de la posición
relativa entre los vértices que conforman la morfología
bidimensional o tridimensional del objeto, y/o una variación en su
número.
Los objetos tridimensionales pueden definir un
comportamiento predefinido frente al contacto con otros objetos
tridimensionales, que puede implicar un cambio de trayectoria de
los movimientos de los objetos en colisión, de su velocidad y
aceleración, de los giros de las subpiezas o de la morfología de los
objetos.
Un objeto del escenario puede tener asociado uno
o más canales de audio conteniendo cada uno sonido, predefinido o
comunicado en tiempo real desde un sensor o sistema remoto. Los
sonidos correspondientes serán reproducidos a través de altavoces
externos del sistema local según eventos. Mediante procedimiento
predefinido para ese objeto y haciendo uso de la posición relativa
entre el avatar Interlocutor y el objeto emisor, ambos en el mismo
espacio virtual, los canales de sonido se ubicarán automáticamente
en el espacio virtual de forma posicional, y dicho posicionamiento
se tendrá en cuenta en la reproducción en los altavoces externos
del sistema local, permitiendo un efecto panorámico envolvente y
cambiante según la orientación de la cabeza del Interlocutor en el
espacio virtual con respecto a las posiciones de los canales. El
área de acción del sonido emitido por cada canal es definido
mediante un cono de intensidad, que eventualmente puede convertirse
en una esfera, y que representa la máxima intensidad de volumen en
su vértice, y la mínima en sus extremos. Fuera de este cono, el
sonido correspondiente a dicho foco o canal no se reproduce.
Adicionalmente, el cono puede verse recortado puntualmente en su
acción en el escenario virtual, por interposición de objetos
especiales que poseen la capacidad de amortiguar o eliminar la
intensidad sonora más allá de ellos según sus características de
insonorización.
Actualmente, existen varios estándares
homologados por los distintos países de cara a facilitar
transacciones bancarias a través de redes de comunicaciones. La
dificultad en su puesta en marcha y uso suele ser inversamente
proporcional a los niveles de seguridad facilitados por el sistema
de pago. En las transacciones bancarias realizadas remotamente por
usuarios, el sistema transaccional se instala sobre redes TCP/IP
(Internet), WAP (comunicaciones móviles) o sistemas propietarios
(como cajeros automáticos).
El establecimiento de infraestructuras basadas en
clave pública permite garantizar la confidencialidad, cifrando los
datos que viajan por la red, la autenticidad, mediante el uso de
firmas digitales, y el no repudio de los datos. Dentro de la
logística de implantación de un sistema tal, intervienen distintos
niveles de servicio:
- Autoridad de certificación (CA). La CA emite
certificados para las partes que intervienen, dando fe de que quien
nos presenta una clave pública es quien dice ser.
- Directorio. Se trata de una base de datos donde
se publican los certificados, que estarán disponibles para
cualquier entidad.
- Sistema de revocación de certificados. Se
encarga de resolver casos de robo, pérdida o suspensión de claves
privadas.
En un sistema de banca por red, se distinguen dos
funcionalidades o fases principales: autentificación de usuario y
autorización de transacciones.
A través del protocolo SSL (o TLS), un usuario
que dispone de un certificado digital de operación bancaria se
puede acreditar frente al sistema, mientras que el sistema se
acredita frente al usuario a través de su propio certificado de
servidor. Este protocolo garantiza la confidencialidad e integridad
de los datos. En sistemas móviles, el protocolo utilizado es el
WTLS.
El sistema bancario guarda las órdenes de
transacción firmadas digitalmente por sus ordenantes mediante clave
de firma digital, utilizando los estándares PKCS#7 y S/MIME en
mensajería segura.
En la autentificación, un usuario entrega al
servidor un desafio-respuesta firmado digitalmente
con su clave privada. El servidor verifica la corrección del
certificado y asocia el identificador o alias presente en dicho
certificado a un contrato de banca de un cliente.
La autorización de una transacción se realiza
cuando el usuario devuelve la orden firmada digitalmente, y el
servidor la valida y la guarda.
En operaciones de venta minorista (de comerciante
a cliente final), un estándar extendido son las transacciones
basadas en SET (Secure Electronic Transaction), que emula de forma
electrónica segura el pago de bienes y/o servicios mediante tarjeta
de crédito y débito. En este caso, aparecen tres nuevos procesos
interlocutores:
- Merchant SET o Comerciante SET. Entidad
encargada de gestionar el pago por un comprador. Se le suele llamar
POS (Point of Sale) o tpv (terminal punto de venta), y simula el
funcionamiento de los sistemas transaccionales.
- Cardholder SET o Titular SET. Actúa en nombre
del titular de la tarjeta para realizar el pago. Se le suele llamar
Wallet o Cartera.
- Gateway SET o Pasarela SET. Hace de puente
entre el aceptador y el sistema financiero.
Cada uno de estos interlocutores necesita un
certificado para operar en la transacción. Dichos certificados son
generados por las CA SET (Autoridades de certificación SET), que
normalmente son instituciones financieras capaces de emitir
tarjetas (emisores) o instituciones asociadas (como bancos) que
solicitan emisión de tarjetas.
Un proceso de compra basado en SET comprende las
fases de solicitud de compra del cliente al proveedor indicando
marca de la tarjeta, petición definitiva de compra del cliente al
proveedor y solicitud de autorización del proveedor a la pasarela
de pago de si el comprador puede hacerse cargo de dicho pago. A
través de la firma dual, el cliente en su solicitud de compra
incluye datos protegidos para el proveedor y para la pasarela, de
tal forma que el proveedor sólo podrá ver datos de la compra
(pedido, modo de pago o cantidad), y la pasarela datos del pago
(número de tarjeta, modo de pago o cantidad).
Otro estándar es el basado en transacciones SSL,
lo que se llama punto de venta virtual o tpv. En éste método, no se
firma digitalmente la orden de transacción que emite el comprador,
eliminando de esta forma, la necesidad de que dicho comprador posea
un certificado digital. Al igual que en el sistema SET, el
proveedor no tiene acceso al número de tarjeta de crédito/débito, ya
que es la pasarela la que solicita directamente la autentificación
al comerciante.
Finalmente, los sistemas de
mini-pago o dinero electrónico permiten evitar las
altas comisiones de las transferencias basadas en tarjeta de crédito
o débito. Dentro de la opción de mini-pago (o
micropago), existen varias modalidades: billetera electrónica,
tarjetas chip de recarga o tarjeta monedero con valor
preestablecido. La filosofía en cualquier caso es la misma, disponer
de un balance previamente pagado a través de recursos estándar
(como tarjeta de crédito o contrato telefónico) para realizar pagos
reducidos. Un servicio intermediario realiza la gestión del cobro
del importe global del balance cuando se compra o recarga la
billetera o tarjeta.
La siguiente invención define una forma concreta
de unir tecnologías, y un conjunto de reglas de comportamiento y
uso de herramientas por parte de los interlocutores, que permite la
creación de una plataforma única de interacción y cooperación muy
avanzada, posibilitando la sustitución de la reunión convencional
en un número de casos bien definido. El perfil industrial de
utilización de este sistema, dadas las limitaciones médicas por uso
prolongado de los dispositivos de inmersión de realidad virtual,
está orientado a comunicaciones no demasiado largas, en donde los
niveles de concentración, captación de información y interlocución
son muy altos debido a la adaptación del entorno colaborativo a la
necesidad de interlocución concreta. El procedimiento de
comunicación determina una representación sensorial correcta del
entorno colaborativo, de cara a conseguir los niveles de inmersión,
relajación y humanización adecuados en la plataforma virtual que
permitan una concentración y productividad humana por encima de lo
normal, en el mencionado límite de tiempo de la comunicación.
El procedimiento de comunicación se basa en un
entorno de escenarios virtuales en donde coexisten y se comunican
los Interlocutores. Un escenario virtual representa un espacio
volumétrico virtual creado mediante ordenador, en el que se sitúan
objetos. Los objetos son los principales elementos constituyentes
del escenario virtual de colaboración, y pueden ser de tres tipos:
canales de datos con representación virtual, agentes inteligentes y
objetos virtuales. Un espacio virtual lo constituye un espacio
sensorial creado artificialmente mediante tecnología. Este espacio
es disfrutado por agentes inteligentes, mediante dispositivos de
inmersión, que guarda unos requerimientos mínimos de credibilidad
en contraste con la realidad sensible conocida por el agente
usuario.
Los agentes son humanos o inteligencias
artificiales, conectados por red desde pcs, a servidores de
espacios colaborativos. En el caso de humanos, el interfase de
conexión entre el pc y el humano se realiza haciendo uso de sistemas
hardware de entrada/salida (como tracker posicional, visores
estereoscópicos, guantes de datos o sensores eléctricos y
térmicos). En el caso de inteligencias artificiales (IAs), el
interfase de conexión se realiza a través de emuladores software de
señales típicas del interfase humano, activados y dirigidos por la
propia inteligencia artificial.
Los canales de datos reproducen datos grabados
previamente o captados en tiempo real a través de sensores
conectados a los pcs locales. Tienen una representación sensorial
(como estructura tridimensional, sonido o imagen) que los
identifica en el entorno virtual, y un lenguaje de diálogo utilizado
por su agente usuario, de cara a realizar su función: ser
reproducidos.
Los objetos virtuales tienen igualmente
representación sensorial, pero no están asociados directamente a
información proveniente de sensores, basando su comportamiento en
funciones programadas, activadas bajo eventos del entorno
colaborativo identificados mediante sensores software programados, o
activadas bajo un lenguaje de comunicación propio utilizado por su
agente usuario.
Los agentes poseen inventarios personales de
canales de datos y objetos virtuales que pueden ser expuestos,
intercambiados, vendidos o dejados en el escenario virtual. Los
expositores del entorno virtual permiten la exposición directa de
canales de datos.
Los usuarios humanos se pueden organizar en
grupos de trabajo a través de formularios de red con acceso a los
servidores. Además, pueden enviar a través de la red, datos
pregrabados correspondientes a cualquier tipo de canal de datos
aceptado por el sistema, que pasarán a ser objetos de tipo canal
disponibles bien en su inventario, o bien en el inventario de los
usuarios de algún grupo de trabajo (objetos compartidos).
La conexión del usuario humano a un entorno
colaborativo se produce a través de un terminal conectado por red a
los servidores de entornos colaborativos, mediante un identificador
único y ciertos gestos RV asociados a él de forma unívoca.
Cualquier objeto del entorno virtual tiene
asociada una descripción detallada y datos de interés referentes al
funcionamiento y cualidades del objeto. Dicha descripción queda
formateada en un lenguaje de representación predefinido conocido
por los agentes, de cara a la identificación de las partes
constituyentes de la descripción. La descripción puede estar
organizada en secciones, cada una de ellas con un nivel de acceso
definido. Cada agente tiene asociados unos derechos de acceso que
son contrastados con los niveles de acceso de las secciones cuando
se produce una solicitud de información mediante el gesto de
activación adecuado, de cara definir sobre qué fragmentos se tendrá
acceso. La exposición del contenido informativo en el entorno
virtual se produce mediante una ventana emergente de información
legible. Adicionalmente, el agente puede activar el modo de lectura
automática, con el cual el texto explicativo es leído al agente
mediante un sintetizador de voz, con o sin la aparición de ventana
informativa.
Cualquier objeto tiene asociado un estado de
persistencia que es calculado en función de los valores de sus
niveles de potencial en cada momento. Los niveles de potencial son
contadores asociados a cada objeto, y dentro de cada objeto a cada
tipo de acción del mismo. Estos niveles de potencial tienen un valor
por defecto, que se va decrementando con el consumo realizado por
cada acción, en una cantidad definida por un valor decremental
asociado al tipo de nivel, junto con la intensidad apreciada de la
acción del objeto. El estado de persistencia del objeto es
calculado mediante una función matemática que tiene en cuenta los
distintos valores actuales de los niveles de potencial del objeto.
Cuando dicho estado de persistencia llega a ser nulo, el objeto ya
no puede continuar existiendo en el espacio virtual y es eliminado
del entorno. Los niveles de potencial pueden ser recargados hasta
topes máximos definidos para cada tipo de nivel. La forma de
hacerlo depende de cada objeto, y normalmente consistirá en
realizar un contacto posicional con objetos cargadores de potencial
del mismo tipo.
Los usuarios del sistema tienen la posibilidad de
utilizar dinero real, para adquisición de objetos virtuales o
canales de datos valorados. Cualquier objeto puede tener asociado
un valor económico.
La posesión de objetos por parte de un agente o
usuario registrado en el sistema, es reflejada en una base de datos
(BD) central protegida con sistemas seguros antiintrusismo a través
de un cortafuegos y de medidas locales de seguridad del propio
servidor de BD. Es en esta BD donde queda asociado un usuario a un
objeto concreto del entorno virtual. Las operaciones de adquisición
de objetos reales asociados a objetos virtuales, o directamente de
objetos virtuales, en las que interviene una operación de
transferencia bancaria real o de transferencia de dinero
electrónico, se caracterizan por varias fases de cara a identificar
la propiedad real del objeto:
- -
- El proceso de adquisición, se realiza previa culminación de la transacción bancaria (sistema SET o SSL) o transacción de dinero electrónico (sistema mini-pago). Dicha transacción es segura, y certifica el pago del valor del objeto a través de una cuenta asociada a la tarjeta del agente conectado (SET), de una cuenta asociada a la tarjeta utilizada por el agente (SSL), o de una billetera electrónica, tarjeta monedero o tarjeta chip asociada al cliente (mini-Pago).
- -
- Tratándose de objetos virtuales o canales de datos pregrabados descargables, la seguridad en la propiedad asignada en la BD se realiza siguiendo procedimientos semejantes a los utilizados en la compra de material descargable por web, en los portales de compra. En el caso de canales pregrabados, el material es descargable a pcs conectados en la red a través de la cuenta de conexión del usuario, a través de páginas web seguras. Además, su posesión dentro del entorno virtual está asegurada gracias a la seguridad prestada por el propio servidor de BD y su cortafuegos.
- -
- Tratándose de objetos reales, el proveedor del objeto real asociado al objeto virtual adquirido, certifica la entrega efectiva del objeto a su comprador, como en cualquier operación de compra por web.
Cada agente tiene asociado un inventario de
objetos poseídos por él. En general, un objeto es propiedad
exclusiva de un agente, y sólo éste podrá utilizarlo. Sin embargo,
bajo solicitud del propietario inicial a través de un formulario de
mantenimiento de inventario desde la red, o directamente desde el
escenario virtual a través de determinado gesto RV, un objeto puede
ser puesto a disposición de los agentes del grupo del propietario,
o de otro agente al que el propietario esté mirando.
Un objeto puede ser definido ocultable si una vez
inventariado puede ser retirada su información visual, auditiva y
sensorial, del escenario virtual mediante gesto RV. Un objeto puede
ser definido como interno o externo. Si es interno, es propiedad
permanente de su agente propietario, que no lo podrá excluir de su
inventario. Un objeto puede ser definido como destruible. En tal
caso, su propietario puede hacerlo desaparecer (tanto su
representación en el entorno virtual como el canal asociado en su
caso), con un gesto RV. Un objeto puede ser definido como
numerable. Esto implica la posesión de un número definido de
unidades del mismo objeto. Finalmente, un objeto puede ser definido
como duplicable. De este modo, se permite que un usuario poseedor
del mismo pueda ofrecer una copia a otro agente a través de un
proceso de intercambio.
La interacción de un agente con un objeto del
escenario virtual puede ser en varios sentidos: bien para obtener
información de un objeto, bien para activar su comportamiento, bien
para gestionar el inventario personal de objetos de tipo canal y
virtual. Cuando un humano mira un objeto a una distancia máxima
predefinida o calculada para cada objeto y dependiente del volumen
del mismo, y realiza cierto gesto RV, se calcula a qué secciones de
información detallada puede acceder según sus niveles de acceso, y
la información detallada del objeto visible según derechos y
debidamente clasificada en secciones emerge flotante delante del
Interlocutor. Esta mirada directa es calculada haciendo uso de la
posición del humano y de la orientación de su cabeza en el entorno
virtual, con respecto a la posición y orientación del objeto
mirado. Con un nuevo gesto RV, dicha información flotante
desaparecerá. Si el humano tiene activada la función de traducción,
el texto será leído por un sintetizador de voz.
Una IA también puede obtener información de un
objeto realizando una petición directa de información sobre el
mismo. En este caso, las secciones visibles no serán necesariamente
mostradas, siendo en cualquier caso enviadas a la IA para ser
procesadas directamente por la misma.
Cada agente posee un inventario personal
conteniendo objetos de tipo canal y virtual. Cada uno de estos
objetos puede ser mostrado a los interlocutores circundantes
mediante su modelo sensorial de muestra, que normalmente es el
mismo modelo tridimensional que representa al objeto en estado
libre, pero escalado automáticamente para poder ser mostrado a
otros agentes de una forma cómoda y puntual. Los objetos pueden ser
intercambiados libremente entre los agentes propietarios mediante
el proceso de intercambio, e incluso dejados físicamente en el
espacio virtual a disposición de otros agentes que quieran cogerlos
(estado libre). Los canales de datos pueden ser reproducidos en el
entorno virtual compartido en expositores preparados al efecto para
cada tipo de canal. En este sentido, un expositor puede ser por
ejemplo tanto una pantalla de vídeo virtual que expone vídeo
visible para los agentes circundantes, como una superficie fija o
móvil del entorno virtual, que reproduce calor en reproductores
externos (resistencias) acoplados al cuerpo del usuario humano del
agente que entra en contacto o en el ámbito de dicha superficie en
el entorno virtual.
El interfase de inventario representa una
reproducción gráfica bidimensional o tridimensional, sonora y
sensorial navegable que contiene la lista de objetos poseídos por
el agente. Mediante gestos RV se consigue su activación,
desactivación y la navegación por los ítems representativos de los
objetos del inventario. Cada paso de un ítem a otro es representado
mediante un efecto gráfico, sonoro y/o sensorial claramente
identificador del objeto seleccionado asociado.
Dicho interfase de inventario es sensible al
contexto, mostrando en cada momento sólo objetos del tipo adecuado
y ofreciendo un lenguaje de gestos RV también dependiente del
contexto. En este sentido, podemos decir que el inventario general
es manipulado a través de múltiples interfases dependientes del
contexto. Existen unas condiciones necesarias y suficientes para que
mediante un gesto RV genérico de acceso al inventario, se active
uno u otro interfase. Estas condiciones vienen expresadas en
términos de posicionamiento espacial y de orientación del agente
con respecto a otros elementos, como los expositores, y de estados
del entorno virtual y de sus objetos. Por ejemplo, un agente que
mire desde cerca a una pantalla de vídeo flotante en el espacio
virtual (contexto), cuando realice el gesto RV de activación de
inventario y si la pantalla está libre, activará el interfase
correspondiente a los objetos de tipo canal de vídeo e imagen en su
propiedad, ya que dicha situación de eventos y contexto posibilita
la acción. Otro ejemplo es el agente que activa el inventario sin
mirar a ningún expositor a distancia adecuada, estando en un espacio
virtual clasificado como oficina en el entorno virtual. En tal
caso, el subconjunto activado es el de objetos virtuales adecuados
para su uso en oficina. Cabe destacar que los contextos no tienen
por que ser excluyentes entre sí, por lo que estarán ordenados de
cara a la resolución del conflicto de selección del interfase
adecuado y, por tanto, de su lenguaje de uso.
Por tanto, los objetos quedan clasificados según
su tipo de objeto (como objetos virtuales de tipo vehículo o
canales de datos de tipo vídeo), y dichos tipos según el contexto
de uso posible, pudiendo cada tipo de objeto estar clasificado en
más de un contexto.
Hay que diferenciar claramente entre la
exposición de un canal de datos, la representación de muestra y la
representación virtual. La exposición se refiere a la proyección de
los datos del canal sobre un expositor, tenga o no salida a un
reproductor externo. La exposición de muestra es una representación
sensorial, normalmente gráfica tridimensional escalada, que
representa al objeto de cara a su muestra temporal a otros
interlocutores. Finalmente, la representación virtual es la
representación sensorial del objeto en estado libre en el entorno
virtual o en estado de uso mostrado por parte del agente
propietario.
Los usuarios humanos pueden enviar a través de la
red, vía plantillas de red accesibles desde pcs de sobremesa o
unidades móviles, datos pregrabados correspondientes a cualquier
tipo de canal de datos aceptado por el sistema, que pasarán a ser
objetos de tipo canal disponibles bien en su inventario, y
eventualmente en el inventario de los usuarios de algún grupo de
trabajo (objetos compartidos) y/o terceros.
Un agente puede enviar un mensaje (incluyendo por
ejemplo texto, voz y/o imagen o vídeo) a un usuario registrado en
el sistema. Para ello, accederá a su inventario bajo un gesto RV
que define un contexto de envío. La navegación por el inventario
permitirá escoger objetos propios de entre los admitidos en
mensaje, y adicionalmente grabar para el mensaje, mediante gesto RV,
sonido recibido actualmente por el propio agente (incluida su voz)
e imágenes vistas actualmente en el entorno virtual, o cualquier
otro tipo de información proveniente de sus sensores, en forma de
canal pregrabado. El destinatario se escogerá accediendo a la lista
de contactos propia, seleccionando uno o varios y finalmente
seleccionando el formato de envío (como sms o
e-mail). El sistema filtrará la información de
forma adecuada para su adaptación al tipo de mensaje seleccionado,
y lo enviará desde los servidores de mensajería.
Un objeto está en estado libre cuando no es
posesión de un agente, aunque si puede serlo de un usuario no
agente dado de alta en el sistema como proveedor de objetos. El
significado concreto es que su posesión puede ser automática sin
necesidad de interlocución con el propietario basada en un proceso
de intercambio.
Un objeto libre representado en el escenario
virtual, puede ser solicitado por un agente para su posesión
mediante mirada sostenida sobre el mismo incluyendo algún tipo de
gesto RV. Cuando un objeto es poseído, pasa al inventario del
propietario. Si el objeto tiene la propiedad de ocultable, al ser
inventariado su representación desaparece del escenario
virtual.
Un objeto libre puede tener asociado un precio de
adquisición y un propietario registrado en el sistema (no
necesariamente un agente). En tal caso, un agente con una cuenta
bancaria y tarjeta de crédito/débito, o con un billetero
electrónico o tarjeta chip/monedero, puede solicitar su posesión. El
propietario debe tener asociada una cuenta bancaria, y dar su
autorización para que el sistema opere por él en la gestión del
cobro (a través de los intermediarios oficiales según el método de
cobro utilizado). El sistema virtual le solicitará confirmación al
pagador siempre antes de realizar la operación de intercambio
bancario entre las cuentas o la operación de transferencia de dinero
electrónico. Si el comprador posee tarjeta de identificación segura
(SET) o se trata de una operación de mini-pago, la
transacción será automática. En otro caso, accederá momentáneamente
a un tpv virtual para insertar sus datos de tarjeta. La operación
puede ser revocada por la pasarela bancaria.
Adicionalmente, el objeto puede necesitar una
confirmación logística y de stock automática a través de mensajería
con el proveedor, antes de proceder al cobro, que se realizará a
través de un servidor logístico del sistema, conectado a los
proveedores. La BD mantiene registros asociados a la operación de
compra/venta, que podrán ser consultados asociados al ítem comprado
en el inventario propio, mediante gestos RV, para seguimiento del
estado logístico.
Cada objeto comprado puede motivar
automáticamente en el momento de la confirmación de la compra, el
envío electrónico de información necesaria al proveedor para, por
ejemplo, proceder a su entrega física en el mundo real. En este
caso, la información enviada identificará claramente a la operación
de compra venta y al destinatario.
Un objeto puede ser usado por su agente
propietario, activando el subconjunto de inventario propio del
contexto actual, y seleccionándolo para su uso mediante determinado
gesto RV. Cada representación de subconjunto de inventario tiene un
lenguaje de comunicación de gestos RV propio. Como hemos visto, la
activación del subconjunto depende directamente del contexto, es
decir, un canal de vídeo tendrá una forma de uso diferente a través
del subconjunto definido por el contexto de un expositor de vídeo,
que a través del subconjunto definido por el contexto de un
expositor de audio, en donde se permitirá exponer tan sólo el canal
de audio de dicho vídeo mediante un lenguaje apropiado para la
reproducción de datos de tipo audio.
Por tanto, el uso de un objeto inventariado de
tipo canal está asociado a los tipos de expositor donde se pueden
reproducir sus datos y al lenguaje de comunicación del subconjunto
de inventario definido por los mismos a través del contexto.
Cada tipo de objeto tiene asociada una cadena de
uso. Todos los objetos que tienen la misma cadena de uso, cuando
son usados por un mismo agente, son incompatibles entre sí, es
decir, sólo un objeto de cada cadena puede ser utilizado al mismo
tiempo. Una cadena de uso permite que con sólo un gesto RV asociado
a la cadena, se cambie secuencialmente el objeto usado dentro de
dicha cadena, de forma cíclica.
Pueden existir dependencias de uso entre objetos,
de forma que para que un objeto inventariado se pueda utilizar sea
necesario que exista otro objeto inventariado o no en el entorno
virtual. Al mismo tiempo, pueden existir dependencias de uso de un
objeto con respecto a eventos o estados del entorno colaborativo.
En tal caso, la posibilidad y forma de utilización del objeto puede
depender de elementos definitorios del estado actual del escenario
colaborativo.
Uno o varios objetos inventariados pueden ser
mostrados u ocultados por el propietario mediante selección desde
el interfase de inventario según gestos RV. Al mostrar los objetos,
estos se ubicarán en su representación de muestra alrededor del
propietario, en disposición y orientación predefinidas para ese
agente, admitiendo un número máximo de muestras simultáneas. Las
representaciones mostradas no tienen por qué tener las mismas
dimensiones o aspecto gráfico que el objeto representado, por lo
que existirá una asociación entre objetos a representar y
representaciones mostradas, y una definición de dichas
representaciones como objetos gráficos virtuales.
Uno o varios objetos inventariados pueden ser
mostrados por el propietario mediante su representación real, y ser
dejados en ubicaciones estáticas del escenario virtual, sin dejar
de estar inventariados. Diremos que son objetos inventariados
ubicados.
Un objeto inventariado externo puede ser en
cualquier momento excluido del inventario personal, bien dejándolo
libre en el entorno virtual, bien borrándolo definitivamente si es
destruible. Cada operación se activará mediante la selección del
objeto desde el interfase de usuario, y ejecución de determinado
gesto RV. Si el objeto estaba siendo usado o mostrado, dejará de
estarlo en tanto ya no es propiedad del agente.
Cuando el objeto es grupal, tan sólo puede ser
excluido por su propietario inicial, el que lo puso a disposición
de su grupo. Una vez excluido, desaparecerá del inventario de los
agentes del grupo y paralizará cualquier tipo de muestra o
exposición que se estuviese produciendo por parte del agente
propietario o de cualquier otro.
Los agentes pueden intercambiar entre sí objetos
de su propiedad (en el caso de objetos grupales, propiedad del
agente propietario inicial). Cuando un agente inicia una
negociación, lo hace lanzando una solicitud de negociación sobre
otro agente a través de un gesto RV. Si el interlocutor acepta la
negociación vía gesto RV, ambos acceden a una representación
ampliada de sus propios inventarios personales bajo un contexto de
negociación con su propio lenguaje de gestos, clasificada por tipos
de objeto, incluyendo dos representaciones adicionales en la misma,
además del navegador de objetos propios: sección de navegación de
interlocutor, y sección input.
La sección de navegación de interlocutor
representa un navegador manejable en base a gestos RV, que permite
pasar secuencialmente entre los distintos interlocutores actuales
con los que el agente está negociando un posible intercambio. La
sección input refleja una lista de objetos navegable mediante
gestos RV. Esta lista está asociada al actual interlocutor
seleccionado en la sección de interlocutor, y muestra los objetos
que dicho interlocutor desea intercambiar con el agente. Cada
objeto indica información relevante, como pequeña descripción,
unidades y valor monetario asociado. Finalmente, en la sección de
objetos propios, el agente marca aquellos que desea intercambiar con
el interlocutor actualmente seleccionado, incluyendo cantidades en
el caso de que estén numerados. Adicionalmente, un marcador en
dicha sección de objetos propios, marca el valor monetario
acumulado actual, correspondiente a los objetos valorados de la
sección input. Cualquier cambio de un agente sobre su sección de
objetos propios, queda reflejado inmediatamente en la sección input
del interlocutor asociado, y eventualmente en la sección de objetos
propios del mismo (importe de un nuevo elemento de negociación). El
sistema no permite que uno de los dos interlocutores ofrezca
objetos valorados económicamente, si posee en su sección input en
dicha negociación objetos valorados ofrecidos por su
interlocutor.
Un agente puede establecer un valor monetario
concreto para un objeto de su inventario y para una negociación
concreta, seleccionándolo y realizando un gesto RV que le permite
establecer un valor sobre la base de un scroll secuencial de
velocidad variable. Adicionalmente, el objeto puede poseer un valor
monetario previamente informado en el sistema. Igualmente, se puede
establecer un valor virtual.
Existen dos formas de iniciar una negociación de
intercambio entre dos agentes:
a) El agente A muestra objetos de su inventario
alrededor suyo o mediante objetos inventariados ubicados. El agente
B mira uno de estos objetos fijamente y realiza determinado gesto
RV. En tal caso, se activan automáticamente los interfases de
inventario correspondientes. En la sección input del agente B
aparece el artículo seleccionado, y en la sección de objetos propios
del agente A seleccionado, el mismo objeto. Adicionalmente, si el
objeto está valorado, aparecerá el marcador monetario asociado al
importe, en la sección de objetos propios del agente B.
Evidentemente, en este modo, en las secciones de navegación de
interlocutores aparece en cada agente su interlocutor
correspondiente.
b) El agente vendedor mira fijamente al agente
comprador, y realiza cierto gesto RV. En tal caso, se abren los
inventarios ampliados, sin selecciones previas en las secciones de
objetos propios ni en las de input. En las secciones de navegación
de interlocutores, aparece de nuevo el interlocutor contrario.
Si un agente C externo desea negociar con un
agente A que se encuentra en curso de otra negociación, lo hará por
el procedimiento indicado, y el agente A incorporará una nueva
entrada de tres secciones (propios, input, interlocutor)
correspondiente a la nueva negociación. El agente A podrá navegar
entre sus distintas negociaciones en curso mediante gestos RV.
Un agente puede autoexcluirse de una negociación
o excluir a la negociación actualmente seleccionada (a un
interlocutor), mediante gesto RV. En cualquier momento, mediante un
gesto RV un participante puede pedir cerrar la negociación
seleccionada. Esto provocará que el solicitado para cierre de
negociación reciba una solicitud de cierre indicando el
solicitante, forzando el cambio de la selección de su inventario
para que refleje la negociación asociada. Mediante gesto RV dicha
petición podrá ser aceptada por el solicitado, provocando el cambio
de objetos propuesto entre los inventarios de ambos negociadores, o
rechazada, volviendo al estado de negociación anterior.
Un objeto negociado puede ser copia del original
si tiene la característica de duplicable. En tal caso, el
intercambio como duplicado lo decide el poseedor mediante gesto RV,
quedando dicho objeto identificado como duplicado en las secciones
correspondientes. Realizado el intercambio, el objeto permanece en
el inventario origen como duplicable, y una copia suya es enviada
al inventario destino. En otro caso, el objeto intercambiado
desaparece del origen y figura en el destinatario como objeto
duplicable.
Un objeto negociado puede ser establecido como de
eliminación diferida, estableciendo mediante gesto RV su duración
en términos de número de usos o tiempo de vida. Si el interlocutor
adquiere el objeto, su uso o tiempo dependerán de estos valores.
Transcurrida la vida útil, desaparecerá del inventario del
adquiriente.
Un agente puede activar el modo de muestra de
negociación. En tal caso, dicho agente mostrará a cada interlocutor
en negociación, y sólo a él, todos los objetos seleccionados de su
sección de objetos propios en negociación con el mismo. Esto se
realizará a través de la visualización de las representaciones de
muestra de los objetos implicados.
Adicionalmente, un agente podrá activar la
funcionalidad de confidencialidad individual en negociación
seleccionada actual, que deberá ser aceptada por su interlocutor
asociado. En este modo, se filtra la interlocución oral de tal
forma que cuando estos dos interlocutores tienen en sus respectivos
selectores de interlocutor al otro, ambos se oyen entre sí pero los
demás no les oyen.
Cuando los objetos intercambiados son
exclusivamente objetos virtuales, la transacción se realiza
únicamente entre los inventarios de los negociadores.
Existen dos modalidades de intercambio:
- Intercambio de objetos sin valor asociado
- Intercambio de objetos, en los que un
interlocutor incluye objetos valorados económicamente.
Cuando en el intercambio uno de los
interlocutores cede dinero real al otro, bien para la compra de un
objeto virtual, o para dar orden de compra de un objeto real
representado por el objeto virtual intercambiado, es necesario hacer
uso de la negociación basada en transacción bancaria (SET, SSL) o
en transacción de dinero electrónico (mini-pago).
El agente que compra un artículo debe poseer una cuenta bancaria y
tarjeta de crédito/débito (SET, SSL), o una billetera electrónica o
tarjeta chip/monedero (mini-pago). El propietario
debe tener asociada una cuenta bancaria, y dar su autorización para
que el sistema opere por él en la gestión del cobro (a través de
los intermediarios oficiales según el método de cobro utilizado).
El sistema virtual solicitará al pagador confirmación siempre antes
de realizar la operación de intercambio bancario entre las cuentas
o intercambio de dinero electrónico. Si el comprador posee tarjeta
de identificación segura (SET) o se trata de una operación de
mini-pago, la transacción será automática. En otro
caso, accederá momentáneamente a un tpv virtual para insertar sus
datos de tarjeta. La operación puede ser revocada por la pasarela
bancaria.
Adicionalmente, el objeto puede necesitar una
confirmación logística y de stock automática a través de mensajería
con el proveedor, antes de proceder al cobro, que se realizará a
través de un servidor logístico del sistema, conectado a los
proveedores. La BD mantiene registros asociados a la operación de
compra/venta, que podrán ser consultados asociados al ítem comprado
en el inventario propio, mediante gestos RV, para seguimiento del
estado logístico.
Cada objeto comprado puede motivar
automáticamente en el momento de la confirmación de la compra, el
envío electrónico de información necesaria al proveedor para, por
ejemplo, proceder a su entrega física en el mundo real. En este
caso, la información enviada identificará claramente la operación de
compra/venta y al destinatario.
De forma genérica, los usuarios de la plataforma
de comunicación virtual quedan representados como Interlocutores
del escenario virtual mediante modelos gráficos realistas en tres
dimensiones que incluyen elementos de caracterización facial y
corporal individualizados o seleccionables, mediante una
expresividad corporal y ambiental comunicable y acotada
espacialmente y controlada por sensores y procesadores de señales
eléctricas corporales o externas, de señales magnéticas, de peso,
de temperatura, de presión, de fricción, de aceleración, de olor y
de gusto, y mediante una capacidad perceptiva del entorno virtual
facilitada por dispositivos de visualización inmersivos, de audición
posicional, de generación de impulsos eléctricos o magnéticos
aplicados sobre zonas del cuerpo, de generación de olor, de
generación de temperatura, de generación de presión, de generación
de sabor, de impulso de fluidos y partículas, y de movilidad
corporal asistida. Estos datos de tiempo real se comunican a través
de los canales de datos.
La plataforma de comunicación hace uso de
autómatas para dotar de comportamiento inteligente a elementos
autónomos que apoyan y humanizan la interacción con el entorno
virtual. Esto se consigue mediante un conjunto de autómatas
conectables de forma independiente y autónoma o controlados por
servidores de comportamiento, y eventualmente representados en el
escenario virtual mediante modelos gráficos que pueden coincidir o
no con representaciones humanoides como las descritas en el caso de
interlocutores, mediante un comportamiento controlado por un
sistema de generación de comportamiento basado en inteligencia
artificial, y mediante unos sensores informáticos programados en el
entorno virtual tanto a nivel cliente como servidor, que
proporcionan los datos necesarios para la toma de decisiones del
sistema de generación de comportamiento, y que podrán recibir datos
comunicados por sensores y procesadores de señal utilizados por los
humanos conectados al sistema.
Por tanto, existen dos usuarios potenciales de
los entornos virtuales aquí descritos: humanos e inteligencias
artificiales (IA). Los humanos vestirán dispositivos (sensores y
actuadores) de conexión para la inmersión virtual como gafas
estereoscópicas, auriculares, guantes de datos, trajes con sensores
y emisores de temperatura corporal o trackers posicionales.
Las IAs no necesitarán esta vestimenta ya que se
trata de programas conectados al entorno virtual mediante
interfaces software, pero sí tendrán que disponer de un software
que interprete el escenario virtual tal cual es comunicado a los pcs
clientes, reconociendo objetos, distancias, exposiciones de canales
de datos, etc. Al mismo tiempo, las IAs tendrán que expresarse en
el entorno virtual simulando el comportamiento humano y los datos
que reflejan ese comportamiento humano, es decir, las señales de
los dispositivos humanos.
A todos ellos los llamaremos indistintamente
agentes inteligentes, o agentes sin más. Los agentes disponen de un
conjunto de reglas de comportamiento que regulan la forma en que
pueden comunicarse y moverse dentro del entorno virtual, incluyendo
descripción de movilidad, comunicación con otros agentes y
comunicación con objetos virtuales y canales.
Un agente posee una identidad única en el espacio
colaborativo, que lo identifica de forma unívoca de cara al resto
de interlocutores. Este código inicialmente generado por el sistema
a solicitud del administrador del grupo del usuario, es introducido
por éste último cada vez que se conecta al sistema. En el caso de
los humanos, mediante gestos RV que se asocian con efectos gráficos
y sonoros, el usuario consigue trazar una secuencia de movimientos
y gestos (incluyendo por ejemplo digitación de notas musicales) que
lo identifica de forma exclusiva y le asocia su código único. Esta
secuencia de gestos se deduce directamente del propio código y es
comunicada al usuario para que sepa identificarse mediante
gestos.
De cara a la comunicación de datos procedentes de
sensores o destinados a reproductores, existen tres
aproximaciones:
a) aproximación cliente: la IA se comporta
como un humano más a nivel de cliente, con la única ayuda de un
interfase software que traduce sentencias salientes de la IA en
señales cliente típicas de los interfaces humanos, y que traduce
señales entrantes desde el entorno virtual, en sentencias
interpretables por la IA. Este interfase constituye el
"lenguaje" de interfase cliente para cualquier IA que quiera
conectarse a los entornos virtuales. Su coste computacional en un
servidor de IA es bajo, y trabaja sobre menos información del
entorno virtual que la siguiente opción. Esta aproximación es
completamente análoga a la humana a nivel de comunicaciones entre
el cliente y el servidor.
b) aproximación servidor: es semejante a
la anterior, pero el interfase se encuentra programado y se ejecuta
en el servidor de IA, y la comunicación entre éste y el cliente IA
se realiza en términos de sentencias salientes y entrantes
interpretables por la IA. Trabaja sobre toda la información deseada
del entorno virtual, pero su coste computacional en el servidor es
alto y debe ser adaptado dinámicamente según el nº de IAs
conectadas. Esta opción implica que el servidor disponga de un
subsistema de adaptación de las comunicaciones con el cliente, que
transforme las sentencias recibidas desde la IA a datos típicamente
humanos interpretables por el servidor de escenarios, y que
trasforme los datos típicamente humanos en sentencias
interpretables por la IA.
c) aproximación mixta: la información
elaborada por el servidor de IA a la IA es complementada por
cálculos directos del propio interfase local de la IA. En este
caso, existe un canal de entrada/salida correspondiente a datos
típicos humanos, y otro a sentencias directas de y para la IA.
Normalmente, el servidor se encargará de preparar información
sensorial genérica para todas las IAs, y un interfase local junto
con un envío selectivo, filtrarán la información relevante para
cada IA concreta.
Una vez conseguida esta emulación del
comportamiento humano, el tratamiento en el escenario virtual es
semejante para humanos y para IAs. En la presente invención, no se
analizan las posibilidades de uso de la información por parte de
las IAs. Naturalmente, los sensores e interfases a programar vendrán
de la mano de la propia complejidad de dichas IAs.
Los agentes pueden estar caracterizados en el
entorno virtual mediante su propia morfología, cinemática,
vestimenta y cara. Para ello, el sistema central acepta por red el
envío desde formularios preparados al efecto, de información gráfica
suficiente para la reconstrucción automática de un mapeado realista
de la cara del avatar que representa al agente, que puede incluir
la propia cinemática de la expresividad facial. La vestimenta puede
ser escogida de entre un amplio catálogo de mapeos de avatar, así
como la morfología del cuerpo y su cinemática, a través de estos
formularios de red (normalmente páginas de Internet).
Adicionalmente, técnicas existentes basadas en
reconocimiento de formas mediante sensores aplicados al cuerpo o
microcámaras, pueden ayudar al sistema a reconstruir en mucho más
detalle la morfología real del cuerpo y su movilidad, y la imagen
facial y su movilidad, en tiempo real. Estas informaciones podrán
ser enviadas directamente a través de canales de datos, o
preprocesadas en el cliente para adaptarlas a las necesidades de
rendimiento y representación del servidor sensorial asociado.
El avatar es la representación sensorial de un
agente en el entorno virtual. Incluye cualquier tipo de
caracterización gráfica, sonora y sensorial que identifica al
agente en el entorno colaborativo. En general, hablaremos
indistintamente de agente para expresar su avatar o para hablar de
la persona o IA que le dota de vida y comportamiento.
Los agentes pueden moverse libremente por el
entorno virtual. Para ello, el sistema descrito adapta la
configuración de sensores disponibles por el agente a sentencias de
movilidad ordenadas a su avatar. No existe una única asociación de
un determinado sensor a un determinado objetivo (por ejemplo el
guante de datos para mover las manos). Para ello, se define el
concepto genérico de gesto de realidad virtual o gesto RV. Existe
una asociación genérica entre situaciones detectadas en slots de
tiempo de canales de datos procedentes de sensores de cierto tipo,
y la activación de comportamientos del avatar agente y de sus
posibilidades de acción programadas para el entorno virtual. No
obstante, estas asociaciones se pueden redefinir para un agente
concreto, posibilitando tanto una configuración más personalizada,
como la posibilidad de interacción de personas con deficiencias
corporales o sensoriales. En cualquier caso, existen dos
aproximaciones para la detección de los gestos RV basados en canales
de datos:
a) aproximación cliente: los gestos RV se
identifican en el pc del agente.
b) aproximación servidor: los gestos RV se
identifican en el servidor sensorial.
La comunicación con los objetos se realiza
siempre a través de gestos RV (incluyendo éste concepto las
sentencias de voz). Cada objeto tiene su propio lenguaje de gestos
RV, que el agente debe conocer para comunicarse con él. Por
ejemplo, tal cual se vio en la definición de gesto RV, en el caso de
comunicación basada en voz, existirán dos aproximaciones:
a) aproximación cliente: en el pc cliente
existe el software apropiado para traducir sentencias de voz en
sentencias etiquetadas identificables directamente por el
objeto.
b) aproximación servidor: el canal de voz
es enviado al servidor sensorial, y es éste el que identifica las
etiquetas.
En este sentido, las representaciones de
inventario se consideran igualmente objetos, y su lenguaje de
comunicación depende, del contexto del agente en el entorno
virtual.
Los agentes se pueden comunicar entre sí mediante
sus canales de voz. Todo agente posee en su inventario un objeto de
tipo interno canal de voz, en uso constante, que le permite
comunicarse oralmente con el resto de usuarios del sistema haciendo
uso de las técnicas conocidas de diálogo por red.
Adicionalmente, el sistema descrito realiza un
filtrado de optimización de los canales comunicados a los clientes,
haciendo uso de técnicas de proximidad, evitando enviar datos de
voz a agentes distantes del agente usuario del pc origen del canal,
o que estén en ubicaciones distintas de la suya y que estén
definidas como aisladas acústicamente.
Un agente puede activar un nivel de diálogo. De
esta forma, sólo le oirán aquellos agentes que posean el mismo
nivel de diálogo. En cualquier momento, un usuario puede solicitar
un cambio al nivel de diálogo de otro agente, mirándolo y
realizando cierto gesto RV. Si dispone de dicho nivel de diálogo,
cambiará a él de forma automática. En cualquier momento se puede
pasar al nivel de diálogo estándar o cambiar de nivel mediante
gesto RV. Este filtro también se aplica de cara a evitar el envío
de canales a agentes que no poseen el nivel de diálogo
convenido.
Existen varias vías por las que un agente puede
acceder o no a determinadas situaciones o informaciones. Un agente
posee uno o varios niveles de diálogo. Estos niveles sirven para
restringir la audición de la voz de un agente en foros de agentes
que no poseen dicho nivel de diálogo. Un agente posee uno o varios
niveles de acceso a información. Estos niveles sirven para permitir
al agente el acceso a información de detalle de objetos, así como
su inventariado.
Finalmente, los agentes se pueden agrupar a
través de administración desde plantillas de red, de cara al
intercambio de canales de datos en modo grupal. Un agente puede
poner a disposición de los interlocutores de un grupo al que
pertenece, canales de su propiedad bien desde plantillas de red,
bien directamente desde el entorno virtual mediante gesto RV. De
esta forma, el canal es transmitido al resto de interlocutores en
modo invitado, permitiendo su uso, pero no ser dejado, borrado o
intercambiado.
En el entorno virtual existen canales que
representan un flujo de datos provenientes de sensores instalados
en el mundo real en pcs en red, o de almacenes remotos de datos.
Por ejemplo, imágenes, sonidos, señales eléctricas, campos
magnéticos, temperatura, humedad o presión. Cualquier objeto puede
tener definido uno o varios canales.
Los expositores son objetos especiales del
entorno virtual que reciben flujos de datos desde los canales, y
realizan acciones en el entorno virtual dependiendo de los mismos.
Las acciones pueden ser tanto la variación de sus atributos en el
entorno virtual (como color, mapeado, sonido, forma, ángulos o
posición) como la transmisión de información deducida de los datos
recibidos, a dispositivos de reproducción externos (como altavoces,
displays, resistencias eléctricas o inductores de campos
magnéticos). En cualquier caso, el acto de dichos canales dentro
del entorno virtual o fuera de él lo llamaremos reproducción del
canal.
Por tanto, un canal de datos puede proyectar su
información en el entorno virtual debidamente adaptada y
formateada, a través de los expositores, que como hemos visto, a su
vez pueden llevar asociados reproductores físicos externos de la
información recibida, conectados a los pcs de los agentes que tienen
visibilidad directa del expositor en el entorno virtual (como datos
sonoros a través de altavoces o vídeo a través de displays).
Los datos de un canal pueden ser previamente
almacenados, o recogidos en tiempo real desde los sensores. La
forma en que se activa la reproducción de un canal a través de un
expositor, depende de la programación del propio expositor.
Para ciertos canales cuyos datos son de carácter
numérico, se pueden obtener automáticamente valores intermedios
entre cualesquiera dos valores consecutivos mediante técnicas de
interpolación apropiadas para el tipo de información transmitida
por el canal, así como valores predichos según la tendencia de la
información del canal, ampliando el número de datos a reproducir en
el expositor. Tanto la adaptación de los datos de los sensores a
los reproductores, como la ampliación vía interpolación y
predicción, se pueden producir en tres momentos distintos: en el
momento de la toma a través de los sensores en el pc local, en el
momento en que los datos llegan al servidor sensorial en el propio
servidor, o en el momento en el que los datos llegan al pc que los
reproducirá. También se puede abordar una estrategia mixta que
reparta la carga de trabajo en dos o tres de estas fases.
Existe una asignación de cada tipo de canal a uno
o varios contextos. Un contexto define una situación del agente con
respecto al escenario virtual y sus objetos. Un ejemplo es el
contexto definido por un agente mirando una pantalla de vídeo a
cierta distancia corta. Un canal de tipo vídeo tendrá asignado este
contexto, aunque no necesariamente de forma exclusiva. Esto permite
que se active un interfase de inventario a petición del agente
mediante gesto RV, para el acceso a los canales de tipo vídeo
propiedad del mismo para su eventual reproducción en el expositor
pantalla de vídeo.
Como sabemos, los objetos de tipo canal de datos
quedan clasificados según el contexto de uso posible, pudiendo cada
tipo de canal estar clasificado en más de un tipo de contexto. Por
tanto, un canal de datos inventariado por un agente, puede ser
reproducido en varios tipos de expositor según el contexto. Los
canales anexados al agente tienen siempre asociado un expositor de
uso exclusivo para el agente. El resto de canales pueden ser
expuestos en expositores cuando éstos están libres, es decir,
cuando no están siendo utilizados por otros agentes. En el ejemplo
anterior, si el contexto hubiese sido semejante pero relativo a un
altavoz virtual en vez de una pantalla de vídeo virtual, y el canal
de vídeo tuviese también asociado dicho contexto, podría
reproducirse el sonido correspondiente al canal de vídeo en dicho
altavoz expositor, bajo solicitud del agente cumpliendo el contexto
y siempre que el altavoz no estuviese siendo usado por otro
agente.
En general, existen dos tipos de expositores: de
uso compartido y de uso exclusivo. Los de uso compartido necesitan
un control de peticiones de reproducción de los canales, ya que se
trata de recursos compartidos por varios agentes. En el caso de uso
exclusivo, el expositor está siempre a disposición del usuario, y
puede ser tanto un objeto local que sólo ve el propio agente en su
entorno virtual (un terminal de previsualización de vídeo antes de
exposición en comunidad, por ejemplo), o un objeto compartido al que
sólo él tiene acceso (como su propia movilidad corporal).
Los expositores se pueden agrupar en grupos de
expositores, que conforman una única unidad a nivel de reproducción
de iguales contenidos de forma simultánea, y a nivel de su control
de uso y exposición centralizada.
Existen varias formas de ordenar una reproducción
de un canal en el entorno virtual.
El agente activa voluntariamente la reproducción
de un canal (sea o no de tiempo real) a través del cumplimiento del
contexto adecuado para el reproductor, y haciendo uso de gestos RV
tanto para la activación del interface de inventario como de la
selección y uso del canal en el reproductor.
El agente no decide de forma unívoca la
reproducción del canal, sino que depende de otros factores. Dentro
de esta categoría, existen tres tipos de activación: continua,
temporizada y por detección de contexto.
Los datos del canal son constantemente
reproducidos en un expositor asociado al canal. A modo de ejemplo,
ciertos canales están asociados directamente al agente y en
permanente ejecución sobre expositores propios de su avatar, que
constantemente emiten la información recibida a través de sus
reproductores asociados. Dichos canales forman parte del inventario
personal del agente, pero no son separables del mismo (son objetos
internos). Los datos provenientes de estos canales anexados
producen cambios en el avatar, acciones del mismo y/o
reproducciones a través de los dispositivos externos asociados. Un
ejemplo de esto son los canales de voz, giros de la cabeza, datos
de expresividad facial, movilidad de manos y brazos a través del
dataglove o actividad cerebral. Sus expositores son la reproducción
de sonido desde la boca del avatar, los giros de los joints
jerárquicos de la estructura del avatar, la activación de órdenes
dictadas por el avatar a otros objetos basada en la identificación
de etiquetas correspondientes a patrones de actividad neuronal,
etc.
Los datos del canal son reproducidos en un
expositor asociado, en intervalos temporales definidos por una
programación temporal previamente establecida en el entorno
virtual. Es el caso, por ejemplo, de la salida periódica de datos
económicos (canal) captados desde un interfase software instalado en
los sistemas de gestión de una empresa, y representados en una
gráfica de gestión flotante (expositor) del entorno virtual, en la
frecuencia dictada por la periodicidad de la captación del
interfase.
Los datos del canal son reproducidos por
detección automática de un determinado contexto local o compartido
del entorno virtual. Dicho contexto es definido como una situación
concreta y detectable de los estados del entorno virtual y de sus
objetos. Por ejemplo, un agente al pasar por determinada zona,
define un contexto que activa la reproducción en una pantalla de
dicha zona de determinado vídeo, a nivel local, o determinado aviso
acústico de presencia audible para los agentes circundantes de la
misma zona, a nivel compartido.
Otro ejemplo de esto son los vehículos
(expositores) de desplazamiento espacial en el entorno virtual.
Cuando un interlocutor o autómata entra en interacción con un
vehículo, la posición y orientación del usuario se hace relativa a
la de dicho expositor móvil. Según la definición de la
funcionalidad del expositor vehículo, podemos diferenciar los
siguientes tipos:
- Guía automática: El vehículo se desplaza
de forma automática sin intervención del agente usuario. Dicho
vehículo dispone de un control de parada y marcha que permite al
usuario "subir" al mismo de forma cómoda.
- Guía manual: El vehículo se desplaza de
forma controlada por gestos RV del agente realizados a través del
interfase de inventario asociado al contexto definido por el
vehículo. El canal de datos representado en el vehículo lo
constituye el conjunto de informaciones dadas por el sensor del
guante de datos utilizado para dirigirlo.
- Guía mixta: el vehículo permite su uso
manual sólo en ciertas zonas de su recorrido, permitiendo en las
mismas desde el control exclusivo de la velocidad en un camino
preestablecido, hasta el control total dentro de los límites de la
zona.
Los expositores tienen su propio lenguaje de
comunicación para los agentes (contexto) y sus propias reglas de
control de solicitudes de exposición. Un vídeo reproducido en una
pantalla, por ejemplo, sólo podrá ser parado por el agente que
ordenó su reproducción.
En grupos de expositores, la activación basada en
cualquiera de sus instancias (expositor) activa la exposición del
resto de expositores del grupo. Cualquier operación relativa a
dicha exposición se realiza igualmente para todos los expositores.
La mencionada política de reglas de control se realiza de forma
transaccional, analizando todas las peticiones de control dirigidas
a los expositores del grupo como si fuesen referidas a un único
expositor.
Existen tres tipos de canales atendiendo a su
tipo de transmisión desde el objeto emisor al objeto expositor.
Canales pregrabados: los datos del canal están grabados previamente
y almacenados en el servidor sensorial y/o en el pc del agente.
Canales de tiempo real: los datos del canal son transmitidos desde
los módulos sensores al pc donde se reproducirán de forma inmediata
a través de los expositores asociados. Canales mixtos: los datos
del canal son almacenados en un servidor sensorial, y son
comunicados mediante técnicas de streamming cuando se activa su
reproducción.
Dentro de los datos de tiempo real comunicables o
almacenables, se incluye cualquier conjunto de señales físicas
procedentes de sensores analógicos ubicados en cualquier superficie
(incluyendo tejidos del cuerpo humano) o fluido físico real,
discretizadas a través de conversores
analógico-digitales, y posteriormente procesadas
por cualquier medio para su integración en un único canal de datos.
Los tipos básicos se detallan a continuación.
Es captada por sensores corporales como guantes
de datos, trackers de posicionamiento espacial y detección de
ángulos de orientación, sensores de torsión o microcámara de
lectura facial. La información comunicada en este caso representa
la expresividad corporal del agente conectado, y es representada
mediante variaciones de las propiedades del avatar que representa al
agente como giros de las articulaciones y modificaciones de la maya
que conforma la cara.
Es captada por micrófonos y procesada para su
compresión y espacialización según la posición relativa del objeto
que alberga el canal, su orientación, velocidad, etc. La
información comunicada en este caso representa la forma de onda
captada por el micrófono, el dispositivo externo lo constituyen los
auriculares del usuario local o altavoces conectados al equipo. La
reproducción en el dispositivo de salida incluye el proceso de
descompresión de los paquetes enviados.
Es captada por una cámara y normalmente
comprimida antes de su envío a cualquier sistema local. La
información comunicada en este caso representa una imagen o
secuencia de imágenes a determinada frecuencia de muestreo, el
dispositivo externo lo constituye por ejemplo el sistema de
visualización estándar del sistema local, que representará la
imagen o secuencia previa descompresión ubicando dicha
visualización normalmente en el espacio virtual designado por el
expositor del canal.
Es captada por dos o más cámaras separadas entre
sí a cierta distancia, y tratada al igual que la información
bidimensional, con la salvedad de que el conjunto de datos contiene
información correspondiente a varios canales de imagen, y no sólo
uno, y que su representación en el espacio virtual necesita
intercalar dos imágenes calculadas a partir de dichos canales,
mediante un proceso de reconstrucción tridimensional, y un
posterior proceso de reconstrucción del efecto estereoscópico
dentro del propio escenario virtual estereoscópico.
Se describe en la presente invención como
procesos previos conocidos y necesarios a la reconstrucción del
efecto estereoscópico dentro del propio escenario virtual
estereoscópico, cuando se desean representar objetos concretos
emergentes volumétricamente en el entorno virtual, procedentes de
tomas de imagen. Los métodos utilizados para reconstrucción
tridimensional se describen a continuación.
Dos cámaras realizan tomas desde distintos
ángulos (correspondientes al paralaje de los ojos humanos), de un
objeto situado delante de un fondo de color no reconocible en el
objeto. Las imágenes son procesadas (en el pc de los sensores, en
los servidores sensoriales o en los pcs destinatarios de la
reproducción) sustituyendo el color de fondo por un canal alfa
transparente. Finalmente, se obtienen en cada toma de las cámaras,
dos imágenes procesadas conteniendo las imágenes exclusivas del
objeto correspondientes a las visiones del ojo derecho e
izquierdo.
Dos cámaras realizan tomas desde distintos
ángulos (correspondientes al paralaje de los ojos humanos), de un
objeto situado en un entorno real. Un programa especial de
reconocimiento de formas (ejecutado en el pc de los sensores, en los
servidores sensoriales o en los pcs destinatarios de la
reproducción) identifica la forma del objeto deseado, y procesa las
imágenes para excluir de ellas cualquier imagen que no corresponda
a dicho objeto. Las zonas de imagen excluidas son transformadas en
canal alfa transparente. Finalmente, se obtienen en cada toma de
las cámaras, dos imágenes procesadas conteniendo las imágenes
exclusivas del objeto correspondientes a las visiones del ojo
derecho e izquierdo.
Más de dos cámaras son utilizadas de forma
semejante al proceso contextual sencillo explicado más arriba, con
la salvedad de que el programa deduce imágenes correspondientes a
más de dos ángulos a partir del análisis de los canales de imagen,
y las integra en una estructura que llamaremos textura
holográfica.
Dentro de la presente invención, se describe el
siguiente proceso de reconstrucción de un efecto estereoscópico
dentro de la estereoscopía propia del entorno virtual.
Actualmente existen motores estereoscópicos que
acceden a la estructura tridimensional de un escenario
proporcionada por motores gráficos 3D estándar, y extraen vistas
del ojo izquierdo y derecho, que alternan en una o dos pantallas
según el dispositivo de visualización estereoscópico utilizado.
Dentro de la estructura gráfica manejada por dichos motores,
existen componentes gráficos que pueden ser accedidos para ser
cambiados desde programas realizados a medida.
La invención define la existencia de un módulo
cambiador de objetos tipo textura concretos, localizados dentro de
la estructura generada por el motor estereoscópico para el driver
gráfico, justo después del cálculo de cada canal. Este
procedimiento implica un acceso directo a la estructura de datos
generada por el motor estereoscópico.
Dichos objetos corresponden a texturas utilizadas
para la reproducción en expositores de vídeo. El módulo cambiador
recibe cada cierto tiempo (definido principalmente por la capacidad
de generación de imágenes del sistema), dos imágenes
correspondientes a tomas de vídeo representando visiones del ojo
izquierdo y derecho sobre algún escenario virtual o real. El motor
estereoscópico se sincroniza con el módulo cambiador a través de una
señal enviada o captada del motor estereoscópico, de forma que el
cambiador modifica las texturas a la que accede el driver gráfico
haciendo que cuando éste último visualiza el canal izquierdo, la
textura accedida coincide con la de la imagen izquierda, y cuando
visualiza el derecho, la imagen derecha. Esto consigue un efecto de
visión estereoscópica dentro del propio entorno estereoscópico,
permitiendo ver por ejemplo vídeo estereoscópico en un expositor del
entorno virtual.
Como alternativa a este procedimiento, si el
motor estereoscópico accede a la estructura generada por el motor
gráfico, una vez para cada canal (izquierdo y derecho), el
cambiador puede alternar las texturas directamente sobre la
estructura tridimensional utilizada por el motor gráfico.
Las imágenes izquierda/derecha necesarias para
este proceso, pueden provenir de varias fuentes (vídeo 3d
pregrabado, canales descritos en la reconstrucción 3d o canales
estéreo sin reconstrucción). Se distinguen dos casos de cara a la
obtención de dichas imágenes:
1) Las imágenes del ojo izquierdo y derecho se
encuentran previamente preparadas. En tal caso, el cambiador hace
uso directo de ellas.
2) Las imágenes del ojo izquierdo y derecho han
de ser calculadas en base a una textura holográfica. En tal caso,
un proceso denominado calculador de perspectiva reconstruirá dichas
imágenes en base a la textura holográfica, localizando en ella el
conjunto de imágenes que representen de forma más cercana, a cada
uno de los dos ángulos (coordenadas cilíndricas o esféricas, según
el tipo de tomografla) informados al calculador desde el motor
estereoscópico, y deduciendo para cada
ojo-ángulo-conjunto, una imagen asociada al ojo y
correspondiente al ángulo mediante técnicas conocidas de
identificación e interpolación basadas en el conjunto (en el caso
de tomografla esférica, cada ángulo está formado realmente por dos
ángulos en coordenadas esféricas).
La imagen estereoscópica representada por la
secuencia de pares izquierda/derecha proveniente de las fuentes,
puede ser directamente proyectada en sistemas de visualización
estereoscópica suplantando la visión estereoscópica del escenario
virtual. Para ello, el sistema de visualización del escenario da
paso momentáneo a un sistema de visualización de estereoscopía
estándar basado en tren de parejas izquierda/derecha. Finalmente,
este sistema puede ser aplicado a fuentes de imagen sin proceso
previo de canal alfa.
Es captada por cualquier tipo de sensor (como
térmico o electromagnético), aplicado sobre fluidos, superficies, o
sobre el cuerpo de animales o personas; es discretizada en vectores
de información interpolables, y posteriormente traducida para su
representación en el dispositivo de salida local. La naturaleza del
sensor no necesariamente debe ser la misma que la del reproductor.
Un ejemplo de naturaleza equivalente es un sensor de temperatura
ubicado en un pedestal en lo alto de un edificio, que capta la
temperatura y la comunica a los interlocutores cercanos en el
entorno virtual a la propia representación virtual del pedestal.
Los interlocutores recogen dicho dato en sus sistemas locales y lo
representan mediante emisores de temperatura instalados en el
cuerpo físico. Un ejemplo de naturaleza dispar es el del mismo
sensor de temperatura, representado en el sistema local como una
tonalidad de color más o menos intensa de la imagen que representa
el cielo virtual donde se ubica la representación virtual del
sensor.
Dentro del propio entorno virtual, son
programados sensores que captan datos producidos en el propio
entorno virtual, y que son enrutados a canales de datos. Un ejemplo
de esto es la visión subjetiva de un agente dentro del entorno
virtual, visualizada en un expositor de vídeo por otro agente.
Se trata de una modalidad especial de sensores en
el entorno virtual. Su activación puede ser bajo demanda de agentes
o contextual, y consiste en la grabación de todos los eventos de
red y canales relativos a una zona concreta del escenario virtual,
durante un tiempo determinado. Estos datos son almacenados en
canales de datos debidamente clasificados, en un servidor
sensorial, junto con una copia del escenario virtual y de todos los
objetos circundantes a la mencionada zona. Un modo especial de
ejecución de entorno virtual permitirá a uno o varios agentes,
reproducir los eventos y canales guardados sobre el antiguo
escenario (como por ejemplo voces y exposiciones) a modo de acta
grabada en tridimensionalidad, participando en modo espectador (sin
interacción posible con dicha reproducción) con la posibilidad de
visualizar el evento desde cualquier ángulo y conversar con otros
agentes conectados al acta.
Una versión más relajada en recursos de este
mismo concepto implica la grabación exclusiva de imagen
estereoscópica y sonido desde un ángulo que abarca la zona de
interés de grabación de acta. Posteriormente, los agentes podrán
visualizarla a modo de proyección estereoscópica dentro del entorno
estereoscópico, o directamente mediante una visualización directa
de la estereoscopia del acta.
Tanto los pcs clientes como un servidor
sensorial, pueden tener instalados interfases software de conexión
con sistemas de gestión y bases de datos externos. Estos interfases
se programan a medida según el tipo de sistema de producción de
datos. En general, existirán varios objetos de tipo canal de
gestión, que permitirán la entrada de datos estructurados
procedentes de sistemas de producción externos, y serán los
interfases los que se adapten a estos formatos de canal. Los
expositores correspondientes a estos canales representan
sensorialmente modelos de información complejos que sirven al agente
para el entendimiento perceptivo de realidades informativas
complejas provenientes de los datos de gestión. Existen dos tipos
de aproximación: los datos extraídos son obtenidos en tiempo real,
o de forma temporizada basada en volcados batch de datos elaborados
por los interfases en determinados intervalos temporales del
día.
día.
El concepto es semejante al de sistemas de
gestión y bases de datos, con la diferencia de que los datos son
producidos por un sistema basado en IA.
Como hemos visto en la sección de posesión de
objetos y de intercambio comercial, un agente puede hacer uso de su
tarjeta de crédito/débito. El acceso a los interfases gráficos
necesarios para la comunicación con el banco, de cara a facilitar
la información adecuada para el pago (como el nº de tarjeta y la
fecha de caducidad) se realiza en dos entornos diferentes:
a) Entorno orientado por el sistema
virtual: El sistema virtual integra en la representación de los
inventarios, el acceso a representaciones navegables realizadas a
medida, que permiten al usuario realizar las fases propias de una
transacción tipo SET en completa seguridad. El sistema virtual no
recibe información confidencial alguna sobre la tarjeta utilizada,
ya que se homologa en sus procedimientos con la tecnología SET, que
asegura privacidad en este sentido. Existen canales de interconexión
entre los distintos interlocutores de un proceso de tipo SET.
b) Entorno orientado por tpv virtual: El
sistema virtual desconecta temporalmente al usuario del entorno
controlado para que facilite la información adecuada a través del
tpv virtual bajo una tecnología SSL segura. De nuevo, el sistema
virtual necesita mantener canales de comunicación con los
interlocutores legales de esta operación.
Los submundos son links realizados a sistemas
remotos de la red (como páginas web o escenarios vrml -virtual
reality modeling lenguaje-) que hacen uso puntual de los sistemas
de representación propios del sistema operativo y de programas
estándar del mercado, para facilitar el acceso momentáneo a otros
dominios de información de la red. El sistema de inmersión propio
de la invención posee una asociación de tipos de dominios externos
de información, y movilidad virtual asociada, manteniendo siempre
gestos RV para la vuelta al entorno virtual origen. Ejemplos de
estos links son los siguientes:
a) Links a mundos 3d creados en Internet:
Un ejemplo clásico es VRMIL. La tabla de asociación permitirá
utilizar un navegador vrml preparado con un protocolo de
comunicación con programas externos. La utilización se realiza
mediante gestos RV análogos a los utilizados en los entornos
virtuales. Mediante tecnología software de acceso local a los
recursos del sistema operativo, código adicional permite el acceso a
los dispositivos de inmersión y su adaptación y comunicación a
eventos del entorno vrml mediante interfases estándar de acceso
externo a la estructura del mundo vrml. Adicionalmente, se pueden
utilizar parcialmente los recursos de entorno colaborativo basado
en avatares del propio escenario virtual, para mediante los accesos
externos a la estructura del mundo vrml, representar opciones
básicas del entorno cooperativo dentro del propio mundo vrml
externo (representación de varios interlocutores del entorno
virtual en el mundo vrml externo, con interlocución oral posicional,
movilidad básica y representación facial).
b) Link a una navegación estándar por páginas
web, basada en movimiento de cursor y pulsación de varios
botones del guante de datos.
Los canales de datos suelen estar asociados a
conjuntos voluminosos de información, y precisan de procedimientos
de optimización de tránsito de red y de proceso, para evitar que un
usuario que no necesita acceder a un determinado canal, esté
recibiendo y procesando información referente al mismo. Para ello,
se utilizarán técnicas como la exclusión de interlocutores para la
recepción de determinado canal, basada en el radio volumétrico de
acción del expositor asociado. Si el canal precisa que cierta
información voluminosa esté previamente en el cliente antes de su
reproducción, se podrán utilizar técnicas de doble radio
volumétrico: de activación de envío de información por proximidad, y
de posibilidad de interacción con el canal por cercanía.
Adicionalmente, los canales pueden ser filtrados
por categorías de agentes. De esta forma, sólo los agentes que
posean determinada categoría, podrán acceder a determinados
canales, evitando siempre transmisiones de canales a usuarios de
categorías inadecuadas.
En general, un canal de tiempo real está
controlado por un controlador, de la siguiente forma:
- Una instancia software en un pc en red que toma
datos a través del sensor hardware o software conectado directa o
remotamente a él. El controlador es el identificador único en red
de la instancia software en el pc.
- Un agente que porta un sensor en el entorno
virtual, tomando datos del propio entorno virtual. En este caso, el
controlador es el identificador único del agente en el entorno
virtual.
El canal de tiempo real está asociado a la toma
de datos de un sensor hardware o software, éste a su vez
identificado de forma exclusiva en la red mediante un identificador
único, que será:
- Identificación genérica: El identificador del
controlador y el tipo de dispositivo, en el caso de dispositivos
sensores de una única ocurrencia posible por controlador.
- Identificación concreta: El identificador del
controlador y del dispositivo de cierto tipo dentro del
controlador, en el caso de varios dispositivos sensores de varias
ocurrencias posibles por controlador.
En cualquier caso, según la configuración de
asignaciones de canales a sensores del entorno virtual, un canal de
tiempo real es operativo cuando identifica su sensor como activo y
funcionando.
Los canales son propiedad de los agentes, en
tanto son reproducibles por ellos. Existen varios tipos de
asignación de canales a los agentes:
1. Asignación automática: Todo agente de
cierto tipo (humano o IA) posee una serie de canales
preestablecidos, necesarios para su interacción básica con el
entorno (como el canal de voz, el canal de tracker posicional de la
cabeza o el canal de gestos RV basados en dataglove). Estos canales
son de identificación genérica, y son asignados automáticamente al
agente que utiliza el mismo controlador para conectarse al entorno
virtual y para controlar el sensor.
2. Asignación por envío basado en
plantilla: Un agente puede poseer un canal enviando por red
mediante plantillas preparadas al efecto, contenidos de tipo canal
a modo de ficheros, que son almacenados en el servidor sensorial.
En éste último caso, dicho agente puede decidir en la plantilla o
directamente en el entorno virtual, si dicho canal es propiedad
exclusiva suya o desea que esté a disposición de los interlocutores
de su grupo o de terceros agentes.
3. Asignación interna de canal: Un agente
puede poseer un canal a través de una asignación directa realizada
desde el sistema de gestión del entorno virtual.
4. Asignación por intercambio/compra de
canal: Un agente puede comprar o alquilar un canal a otro
agente, incluyendo intercambio estándar y por adquisición directa
de objetos libres.
5. Canales ambientales: Los canales
ambientales son canales de datos propiedad del propio sistema
virtual que, a través de agentes basados en IA o automatismos, son
manejados y expuestos al resto de agentes para su disfrute
condicional (por ejemplo, mensajes visuales a agentes según su
proximidad al expositor o según el grupo del agente).
Los canales de tiempo real tienen la cualidad de
poder interactuar con los datos recibidos por los sensores hardware
o software prácticamente en el momento en que se producen dichas
tomas de datos.
En muchas ocasiones, el sensor dispone de
variables que configuradas desde el entorno virtual a través de
interfases adecuados, afectan a la toma de datos (como a la
orientación en sensores móviles, la frecuencia de las tomas o el
enfoque de una óptica). La forma en que el agente puede modular
dichos parámetros depende del lenguaje del expositor asociado,
pudiendo utilizar por ejemplo desde gestos RV hasta la misma voz
para su reconocimiento natural por un humano o agente portador del
sensor.
Los valores de un canal pueden ser transformados
mediante transformadores de señal (automáticos o manuales). Un
claro ejemplo de esto es la traducción simultánea entre idiomas en
canales de voz (por humanos, o por programas, según el estado de la
técnica en cada momento). El proceso de transformación puede ser de
varios tipos atendiendo a su momento de actuación:
a) De transformación previa en canales
pregrabados: Los datos son transformados antes de su
almacenamiento.
b) De transformación en tiempo real: Los
datos son transformados en el servidor sensorial adecuado, o en los
PCs clientes, justo antes de ser reproducidos en el expositor
asociado. Dentro de esta modalidad, tenemos tres alternativas:
- Asociados permanentemente al canal: En este
caso, siempre que el canal vaya a ser reproducido, se realizará
previamente la transformación.
- Asociados al expositor: En este caso, todo
canal reproducido a través de éste expositor, será transformado
previamente.
- Asociado al contexto: Bajo cierto contexto de
variables del sistema virtual (como la posición del agente
propietario del canal) se activará o no dicha transformación.
Los objetos virtuales son aquellos que tienen un
comportamiento fundamentalmente independiente de los canales de
datos, de forma que su comportamiento es considerado local (sin
apenas tráfico de red). Contribuyen en gran medida a dotar al
entorno virtual de una apariencia agradable y necesaria para el
desempeño de las funciones de interlocución asignadas a la
invención. Estos objetos suelen tener una existencia independiente
de los agentes conectados, aunque el sistema mantiene una
coherencia de sus representaciones y estados entre los PCs en
red.
Para conseguir una ambientación adecuada a los
sistemas de representación de tiempo real actuales (motores
gráficos), esta debe ser funcional, evitando incluir elementos
innecesarios. La funcionalidad básica que deben cubrir los objetos
virtuales es:
- Ambientación de la naturaleza. Los diseños
utilizados deben tener en cuenta el factor de visibilidad práctica,
evitando incluir diseños complejos en zonas de imposible acceso o
de visibilidad lejana.
- Ambientación de entornos de trabajo. Diseños
arquitectónicos convenientes para crear la sensación de inmersión
en un lugar de trabajo compartido. Los niveles de detalle
automáticos por distancia facilitados por los motores gráficos,
ayudarán a definir un nivel de detalle suficiente.
- Elementos de representación de objetos de
trabajo. Permitiendo por ejemplo que los canales queden
representados gráficamente mediante modelos adecuados.
- Elementos de transformación del estado de los
agentes. Esto permitirá que un agente recargue su nivel de
potencial (persistencia) o que salte a otro entorno virtual del
sistema.
Los elementos ambientales dotan al entorno
virtual de una sensación inmersiva agradable e intuitiva para el
ser humano, y dividen el espacio virtual en secciones
funcionalmente bien diferenciadas: como zonas de paseo, zonas de
trabajo o zonas de charla abierta. Los objetos básicos que componen
la ambientación son la orografía, los elementos arquitectónicos
navegables, los planos móviles, los fluidos, los efectos de
partículas y el sonido ambiental.
Orografia de distinta tipología (como montañas
nevadas, bosques o senderos) constituida por mayas orográficas
texturizadas con control de colisión frente a objetos móviles, en
las que se sitúan los elementos tridimensionales que las acompañan
(como árboles y vegetación).
Los edificios son estructuras tridimensionales
texturizadas ubicadas de forma adecuada en el espacio volumétrico
del escenario. El usuario puede desplazarse por ellos como si se
tratase de un edificio real, con pasillos, puertas, escaleras,
tabiques, ventanas abriendo vistas al escenario exterior,
mobiliario, decoración y demás diseños gráficos de apoyo a la
sensación de inmersión en un entorno arquitectónico compartido. Los
edificios quedan complementados mediante el uso de expositores,
como pantallas de exposición multimedia o ascensores.
Efectos gráficos especiales (como sol,
relámpagos, niebla o iluminación correspondiente a las fases del
día) creados mediante uso adecuado de niveles de transparencia,
objetos texturizados y planos de color situados en zonas concretas
del escenario.
Estancamientos de fluidos con su propia animática
de ondulación y oleaje variables (como ríos o mar) constituidos por
mayas multitexturizadas deformables en tiempo real tanto en sus
vértices como en la posición relativa de las texturas y en los
niveles de transparencia aplicados sobre ellas. Las características
gráficas y de movilidad dentro y fuera del fluido varían según la
configuración de dicho fluido.
Dinámica de partículas en tiempo real (como
lluvia o nieve) localizada en espacios cambiantes del escenario,
construida mediante objetos bidimensionales o tridimensionales
texturizados y ubicados tridimensionalmente en el espacio del
escenario y en tiempo real, y caracterizada por su tipo y dinámica
(gotas de lluvia, copos de nieve), su localización espacial como
agente atmosférico dentro del escenario, su dimensión volumétrica,
y sus tramos de intensidad desde el núcleo de la dimensión
volumétrica hasta los límites de la misma. Detectan colisión con
otros objetos.
Organizado mediante la ubicación de objetos
sonoros en el espacio tridimensional del escenario, con un ámbito
espacial de acción local definido por conos o esferas de intensidad
mínima y máxima, y por su ámbito funcional de acción.
Se trata de objetos cuya función es simplemente
representar sensorialmente un concepto: como la representación de
un canal de datos (una cinta de vídeo, por ejemplo), un árbol o una
piedra. Un canal de datos puede estar asociado por ejemplo a un
objeto de representación expuesto libremente en el escenario. Es
éste el objeto en el que se fija el agente para adquirir el canal,
ya que el canal no tiene representación propia.
Los objetos de representación pueden tener la
propiedad de número de copias del elemento que representan. Por
ejemplo, un monedero virtual representa una cantidad determinada de
unidades monetarias
virtuales.
virtuales.
El entorno virtual posee puertas de acceso a
otros entornos virtuales. Funcionan a modo de "teléfonos"
dentro del entorno virtual, desde los que se accede a otros
entornos virtuales gestionados por los servidores de espacios
virtuales objeto de la invención, sin más que pronunciar el nombre
de dichos entornos. Una vez dentro del entorno virtual, el usuario
está identificado, por lo que la conexión a otro entorno no precisa
necesariamente la identificación mediante la clave de usuario. No
obstante, un determinado entorno virtual puede no ser accesible por
definición para el agente solicitante del salto. El agente se
mantiene en el entorno virtual hasta que el nuevo entorno está
cargado y preparado, momento en el que se produce el salto.
Los agentes poseen potenciales definidos que
determinan su persistencia en el sistema. Los niveles de potencial
son asociados a cada agente y almacenados. Estos niveles varían por
interacción con los manipuladores de flujo de potencial presentes
del entorno virtual, que permiten a los agentes realizar operaciones
de carga, descarga y transmisión entre agentes. Su funcionalidad
define por tanto, bajo qué circunstancias del sistema (como el
contacto con el agente o cercanía) realizan variaciones en los
niveles de potencial del agente implicado, y en que cuantía.
El sistema de comunicación está constituido por
una red deservidores que proporcionan la funcionalidad basada en
realidad virtual. La red o granja de servidores está protegida
mediante un cortafuegos en su acceso a internet. A través de
internet se interconectan la granja de servidores con los usuarios
clientes conectados a escenarios, con los clientes inteligencias
artificiales, con los controladores de sensores y con los
administradores por web.
La granja de servidores está conformada por un
servidor de base de datos transaccional, por un servidor de
control, por servidores de escenarios virtuales, por servidores de
contenidos, por servidores sensoriales, por un servidor web, por
servidores bancarios, por servidores logísticos, por servidores de
inteligencias artificiales y por servidores de mensajería.
El servidor de base de datos transaccional posee
información de mantenimiento del sistema y se comunica con los PCs
clientes y con los servidores de la red local. El servidor de
control direcciona a los agentes y a los sensores remotos al
servidor de escenarios correspondiente. Los servidores de escenarios
virtuales proporcionan la actualización de los eventos de movilidad
y acción de los agentes conectados a través de PCs clientes de red.
Los servidores de contenidos almacenan y envían los objetos
virtuales y expositores que ambientan un escenario concreto, a los
agentes conectados a él y bajo control de los servidores de
escenarios. Los servidores sensoriales tratan en tiempo real
canales de datos con origen en sensores de red para envío inmediato
a los clientes bajo demanda o para envío aplazado bajo demanda. El
servidor web habilita la realización de operaciones remotas contra
la base de datos (BD) y el envío de ficheros. Los servidores
bancarios permiten la realización de transacciones bancarias de
clientes basadas en tarjeta de crédito o débito, mediante las
tecnologías SET y SSL, o la transferencia de dinero electrónico en
operaciones de mini-pago. Los servidores logísticos
procesan mensajes de entrada y salida. Los servidores de IA hacen
de interfase entre las IAs y los servidores de escenarios. Los
servidores de mensajería envían y reciben mensajes de los agentes
de entornos virtuales, a los servidores bancarios o a los servidores
logísticos.
El cortafuegos protege la granja de servidores de
posibles intrusiones desde internet. Las conexiones remotas de web
permiten administrar la BD a los usuarios habilitados. Los
controladores remotos de sensores son PCs conectados a sensores y a
la red. Las IAs son programas conectados por red que se comunican
emulando el comportamiento humano. Los agentes o clientes conectados
a escenarios se conectan a la granja de servidores a través de
internet, y utilizan un equipo básico de inmersión formado por
gafas estereoscópicas, tracker posicional de seis grados de
libertad, auriculares, micrófono, dos guantes de datos, un
escáner/impresora, una tableta digitalizadora y un lector de
tarjeta inteligente para transacciones bancarias seguras y para
pagos en dinero electrónico mediante tarjeta chip/monedero. El
terminal de conexión es un PC con una tarjeta gráfica muy potente
conectado por red a la granja de servidores; posee un soporte para
el head-mounted-display y para los
guantes de datos.
Para complementar la descripción que se está
realizando y con objeto de ayudar a una mejor comprensión de las
características del invento, de acuerdo con un ejemplo de
realización práctica del mismo, se acompaña como parte integrante de
dicha descripción, un conjunto de figuras en las que con carácter
ilustrativo y no limitativo, se han representado esquemas relativos
al sistema y al procedimiento de comunicación basados en realidad
virtual, de acuerdo con el objeto de la presente invención.
Figura 1. - Muestra el esquema de reconstrucción
del efecto estereoscópico dentro de la estereoscopia propia del
entorno virtual cuando las imágenes del ojo izquierdo y derecho se
encuentran previamente preparadas.
Figura 2. - Representa el esquema de
reconstrucción del efecto estereoscópico dentro de la es-
tereoscopia propia del entorno virtual cuando las imágenes del ojo izquierdo y derecho se calculan en base a una textura holográfica.
tereoscopia propia del entorno virtual cuando las imágenes del ojo izquierdo y derecho se calculan en base a una textura holográfica.
Figura 3. - Recoge el sistema de comunicación
basado en realidad virtual y la configuración en red del mismo.
Figura 4. - Vista frontal del equipo terminal
básico de conexión.
Figura 5. - Vista de perfil del equipo terminal
básico de conexión.
A la vista de la figura 1 puede observarse el
procedimiento de reconstrucción del efecto estereoscópico dentro de
la estereoscopía propia del entorno virtual cuando las imágenes del
ojo izquierdo (1) y derecho (2) se encuentran previamente
preparadas. El motor estereoscópico (4) trabaja sobre la estructura
de datos (7) generada por el motor gráfico (6) para cada fotograma
calculado por este último, deduciendo una nueva estructura de datos
(8, 9) para cada ojo, que contiene información sobre dicho
fotograma visto desde el ángulo del ojo en cuestión. Normalmente,
la separación y paralaje de los ojos son configurados por el propio
motor estereoscópico. Esta información deducida es la que se pasa al
driver gráfico de la tarjeta sincronizando la visualización
secuencial de los fotogramas deducidos (10) correspondientes al ojo
izquierdo y derecho. La visualización de ambos campos
correspondientes a un mismo fotograma original, se adapta al
dispositivo de salida para proporcionar el efecto estereoscópico.
Existen varios métodos para conseguir esta estereoscopia, como la
alternancia de fotogramas izquierdo/derecho sincronizada con
obturación de displays de cristal líquido interpuestos entre los
ojos y la imagen; alternancia de fotogramas izquierda/derecha
sincronizada con su visualización alternada en dos displays
diferentes (uno para cada ojo); o división de la imagen en dos
campos horizontales, uno para cada campo izquierda/derecha, de
forma que dos displays (uno para cada ojo) representan
continuamente su campo asociado.
La estructura de datos (7) es generada por el
motor gráfico a partir de la información facilitada por los
escenarios virtuales. El motor estereoscópico (4) accede a la
estructura de datos (7), y la descompone en dos estructuras
necesarias (8, 9) para su envío al driver de la tarjeta. En la
figura no se muestra el driver de la tarjeta, que actuaría en el
paso de las estructuras representadas (8, 9), a su visualización en
el/los display/s (10) (según método estereoscópico). La estructuras
(8, 9) son visualizadas mediante imágenes (11, 13),
correspondientes a las visiones del ojo izquierdo (12) y derecho
(14) de un mismo objeto del entorno virtual para el que el motor
estereoscópico ha calculado los dos campos correspondientes. En
dicha subestructura se mapea una imagen identificada por el módulo
cambiador (3). Sin embargo, antes de que la textura original
definida en el escenario virtual para ese objeto sea enviada al
driver de la tarjeta, es modificada por el cambiador de texturas
(3), que accede a las estructuras generadas por el motor
estereoscópico (4). Antes de que el driver de la tarjeta represente
el siguiente fotograma correspondiente a la imagen del ojo
izquierdo (estructura de ojo izquierdo calculada por el motor
estereoscópico), el cambiador se sincroniza previamente con una
señal del motor estereoscópico (5), y modifica la textura original
en dicha estructura para que coincida con la correspondiente a una
imagen del ojo izquierdo (1), proveniente de un canal de tiempo real
o pregrabado que coincide con una visión de un objeto real o del
escenario virtual, visto con el ojo izquierdo (12) (con o sin
proceso previo de dicha imagen). Antes de que el driver de la
tarjeta represente el siguiente fotograma correspondiente a la
imagen del ojo derecho (2), se realiza un proceso semejante, pero
utilizando la textura proveniente de un canal recogiendo imágenes
para el ojo derecho (14).
Se observa en la figura 2 el procedimiento de
reconstrucción del efecto estereoscópico dentro de la estereoscopia
propia del entorno virtual cuando las imágenes del ojo izquierdo
(1) y derecho (2) se calculan en base a una textura holográfica
(15). En este caso se reconstruyen dichas imágenes mediante un
proceso denominado calculador de perspectivas (16). Este calculador
recibe alternativamente desde el motor estereoscópico modificado,
dos ángulos calculados (17) correspondientes a los ángulos que
forman los vectores de mirada de cada ojo del avatar con respecto
al centro de una esfera o cilindro hipotético situado en el espacio
virtual que representa a la textura holográfica (según la
disposición que tuvieron las cámaras para la tomografia de
imágenes). Si se trata de una tomografia esférica, el ángulo (en
este caso son realmente dos ángulos para coordenadas esféricas)
representa un vector centrado en el centro de la esfera. Si se
trata de una tomografia cilíndrica, el ángulo representa un vector
perpendicular al eje del cilindro, centrado en el mismo. El
calculador determina el conjunto de imágenes de la textura
holográfica hipotéticamente mapeada sobre la esfera o cilindro
(realmente no se mapean en el entorno virtual), que rodean el punto
de colisión entre la superficie de la esfera o cilindro con el
vector. Mediante técnicas de interpolación y reconocimiento de
patrones, según el estado del arte, en base a ese conjunto de
imágenes se confecciona una sola imagen que representa el objeto
desde el ángulo preciso tratado. Esto se realiza para cada ojo, y a
su vez para cada fotograma.
El sistema de comunicación está recogido en la
figura 3, en la que se aprecia la granja de servidores (17)
conectada a internet (18) mediante un cortafuegos (19). Los
servidores (17) están así en conexión con los clientes (20, 21, 22,
23, 38, 39, 40). Estos pueden ser humanos usando un terminal de
conexión (24), formado por sensores (25) y actuadores (26),
inteligencias artificiales (27) emulando el comportamiento humano,
administradores de la BD (38) o controladores de sensores (39, 40).
La granja de servidores está constituida por un servidor de base de
datos transaccional (28), por un servidor de control (29), al menos
un servidor de escenarios virtuales (30), al menos un servidor de
contenidos (31), al menos un servidor sensorial (32), un servidor
web (33), al menos un servidor bancario (34), al menos un servidor
logístico (35), al menos un servidor de IA (36) y al menos un
servidor de mensajería (37). La granja de servidores hace posible
la comunicación entre los interlocutores mediante un procesamiento
distribuido de eventos, cálculos y datos.
El servidor de BD transaccional (28) se comunica
tanto con los PCs clientes como con los servidores de la red local.
Alberga información relevante para el mantenimiento del sistema,
como:
- Información sobre los agentes: como su
morfología, vestimenta de mapeo, cara, niveles de acceso
(conversación, información), inventario de objetos virtuales y
canales, objetos cedidos/vendi-
dos/recibidos/comprados, posición actual y última en cada escenario virtual, estados de potenciales, disponibilidad de tarjeta de identificación SET, o disponibilidad de tarjeta de crédito.
dos/recibidos/comprados, posición actual y última en cada escenario virtual, estados de potenciales, disponibilidad de tarjeta de identificación SET, o disponibilidad de tarjeta de crédito.
- Información sobre usuarios generales del
sistema: como tipología del usuario (proveedor, logístico,
agente).
- Información sobre los canales: como tipo
de canal, identificador de red, propietario, contextos admitidos,
objeto virtual de representación, objeto de muestra, precio real,
precio virtual, nº de unidades o tipo de gestión en compra.
- Información sobre los contextos:
Parámetros de detección del contexto basados en etiquetas.
- Información sobre tipos de expositores:
como el contexto asociado o los parámetros para la adaptación del
inventario del agente a su lenguaje de interacción.
- Información sobre expositores: como su
tipo, escenario virtual, posición o estado.
- Información sobre objetos virtuales:
como su tipo, escenario virtual, posición, estado, objeto de
representación, objeto de muestra, precio real, precio virtual o nº
de unidades.
- Información sobre metodologías de
compra: como tipo de gestión, interlocutores implicados y
método de comunicación de eventos.
- Información de seguimiento logístico:
como operaciones en curso por proveedor, metodología utilizada,
estado de las operaciones, objeto adquirido/vendido asociado a la
operación o interlocutores asociados a la operación.
El servidor de control (29) se encarga de enrutar
a los agentes y sensores remotos al servidor de escenarios
adecuado.
Los servidores de escenarios virtuales (30) se
encargan de mantener la comunicación básica de eventos de movilidad
y acción de los agentes conectados a través de PCs clientes de red,
para un escenario virtual concreto. Se comunican con el servidor de
control para facilitar un salto a otro escenario virtual.
Los servidores de contenidos (31) se encargan de
albergar y enviar los objetos virtuales y expositores que ambientan
un escenario concreto, a los agentes conectados a él y bajo control
de los servidores de escenarios. Tienen asociadas políticas de
actualización remota de los PCs clientes basada en la
disponibilidad de anchos de banda y el estado de los agentes
asociados (información facilitada por el servidor de BD).
Los servidores sensoriales (32) se encargan de
procesar en tiempo real, canales de datos provenientes de
conexiones externas en PCs remotos, de cara a su transmisión
inmediata a los clientes, bajo demanda, o almacén temporal para
envío bajo demanda. También se encargan del eventual proceso de
transformación de los datos y del filtrado de envío. Normalmente,
cada servidor estará orientado a un tipo de canal o a un conjunto
reducido de tipos de canal. Un caso práctico es el servidor de
sonido o de datos económicos facilitados en batch por una empresa
externa.
El servidor web (33) permite realizar operaciones
remotas contra la BD, y el envío de ficheros, permitiendo:
a) Administración de datos personales: a
través de una plantilla web se permite a un usuario del sistema,
cambiar sus datos personales en la BD central, como el nombre,
apellidos, dni, e-mail y dirección, pudiendo elegir
además la morfología a utilizar en el entorno virtual para su
representación como avatar, su vestimenta, su cinemática de
movimiento, y demás cualidades que le diferencian en el entorno
virtual, de entre una paleta preestablecida de posibilidades
contenidas en la BD. Además, puede enviar una imagen o secuencia de
imágenes que representa su cara, y que el sistema utilizará para un
mapeo automático sobre la cabeza del avatar escogido, cuando se
conecte al sistema virtual.
b) Administración de usuarios del grupo:
a través de una plantilla web se permite a un usuario administrador,
administrar a los usuarios de su grupo en el sistema virtual. Un
usuario debe haber sido dado de alta previamente en la BD para
poder acceder al entorno virtual y a la web de administración aquí
descrita. La BD proporciona a cada nuevo usuario una clave única de
acceso.
c) Administración de foros: a través de
una plantilla web se permite a un usuario, administrar foros
motivados por él, a celebrar en determinada ubicación de determinado
escenario virtual, con notificación automática a usuarios
seleccionados a través de mensajería electrónica. El convocante
puede decidir que un determinado foro promovido por él, sólo acepte
a los agentes de su grupo, o que cualquier participación de un
usuario necesite confirmación del convocante antes de ser aceptada.
El sistema virtual puede impedir el paso a la zona asociada al foro,
bien físicamente o mediante avisos acústicos por detección
contextual de presencia, si el agente no está inscrito.
d) Administración de canales propios: a
través de una plantilla web, el usuario puede enviar al servidor
sensorial tantos ficheros como desee. La plantilla controlará que
se traten de ficheros correspondientes a tipos de datos asociados a
canales válidos representables por expositores del entorno virtual.
A través de dicha plantilla, el usuario puede además borrar dichos
ficheros del servidor, descargarlos desde el servidor a local,
establecerlos como públicos para grupos determinados de agentes, o
establecer un valor de intercambio en dinero virtual o real. A
través de esta opción, los interlocutores pueden también asociar
canales de su propiedad a expositores concretos de escenarios
virtuales, y ordenar su proyección sin necesidad de actuar como
agentes conectados.
e) Suscripción a foros: a través de una
plantilla web se permite a un usuario válido cualquiera,
inscribirse a un foro de entre los convocados por los
administradores. Como hemos visto, puede necesitar confirmación.
f) Acceso al inventario de objetos
propios/recibi- dos/comprados: a través de una plantilla
web se permite a un usuario válido cualquiera, acceder a todos los
objetos de Inventario propios, cedidos por terceros agentes, o
comprados a terceros, mostrando descripciones de los mismos con
posibilidad de descarga en el caso de ser canales de datos
disponibles. Además, incluye información del estado de entrega si
se trata de una orden de compra que conlleve una logística de
entrega informada externamente.
g) Acceso al inventario de objetos
enviados/ven- didos: a través de una plantilla web se
permite a un usuario válido cualquiera, acceder a todos los objetos
de inventario enviados a terceros agentes, o vendidos a terceros,
mostrando descripciones de los mismos. Además, incluye información
del estado de entrega si se trata de una orden de venta que conlleve
una logística de entrega informada externamente.
h) Administración de órdenes de entrega: a
través de una plantilla web se permite a un usuario logístico,
administrar el estado de órdenes de entrega en operaciones de
compra/venta.
i) Administración de la agenda de
contactos: a través de una plantilla web un agente mantiene sus
contactos de interés de cara al envío y recepción de mensajería con
ellos, desde el propio entorno virtual hacia fuera y en sentido
inverso.
j) Acceso a actas: a través de plantilla
web, un agente accede a actas correspondientes a canales de
imagen/sonido que representan tomas temporales pasadas de
situaciones de escenarios virtuales.
Los servidores bancarios (34) realizan las
funciones de conexión con los interlocutores necesarios para la
realización de una transacción bancaria de cliente basada en
tarjeta de crédito/débito, haciendo uso de las tecnologías SET y
SSL, y para la realización de transferencias de dinero electrónico
en procesos de mini-pago. Poseen el software
necesario para realizar con seguridad dichas operaciones.
Los servidores logísticos (35) se encargan de
ordenar envío de mensajes, procesar mensajes entrantes, y realizar
las anotaciones asociadas a dichas operaciones en la BD.
Los servidores de IA (36) realizan operaciones de
cálculo sobre los datos de cada escenario virtual, de cara a
realizar la operación de conversión entre el lenguaje estándar de
comunicación basado en etiquetas y eventos utilizables por las
conexiones remotas de IAs, y el lenguaje principal de interacción y
acción utilizado en los servidores de escenarios. Hacen por tanto
de interfase entre las IAs y los servidores de escenarios.
El servidor de mensajería (37) se encarga del
envío y recepción de mensajes salientes/entrantes de/a agentes de
entornos virtuales, a los servidores bancarios, o a los servidores
logísticos.
El sistema de comunicación también admite
conexiones remotas de web (38). Estas son de usuarios que se
conectan al servidor web para realizar labores de administración
sobre la BD (personal logístico, agentes para envío o descarga de
ficheros).
Los controladores de sensores directos (39) y
remotos (40) son PCs conectados a sensores (41) y a la red. Poseen
el software apropiado para la captura y eventual tratamiento de los
datos de los sensores. Están asociados a algún expositor activo de
un determinado escenario virtual.
Las inteligencias artificiales (27) son programas
conectados por red, que utilizan para comunicarse el total de la
funcionalidad cliente de conexión a los escenarios virtuales (en
una emulación completa del comportamiento humano), o un subconjunto
de la misma complementado con funciones especiales de comunicación
de eventos y etiquetas, en una comunicación realizada con los
servidores de IA.
Algunos ejemplos de inteligencia artificiales son
la IA guía, la IA comercial, la IA organizadora de objetos, la IA
traductor, la IA informativa o la IA ambiental. En la IA guía un
avatar guiado por reglas, reconoce la presencia de un interlocutor
recién conectado, apuntado a un foro organizado para la fecha
actual, y le informa de tal evento mediante voz sintetizada basada
en lectura de texto calculado. Informa también de la forma de
llegar a la sala o habitáculo asociado al foro (reunión, debate), y
eventualmente le dirige hasta dicha zona, a solicitud de su
interlocutor. Acepta un pequeño árbol de diálogo básico con
interlocutores basado en identificación de etiquetas de voz habladas
por usuarios humanos, que le permite aconsejar la toma de cierto
vehículo para llegar a determinado edificio o zona solicitada por
voz, y eventualmente guiar al usuario hasta el vehículo o zona,
andando con él y emitiendo avisos acústicos de orientación según el
estado de orientación del huma-
no.
no.
La IA comercial toma posesión constante de un
expositor, en el que muestra de forma secuencial productos (en
formato dependiente del tipo de expositor) inventariados por él,
que tienen proveedores asociados. Recibida una petición de
negociación por parte de un agente humano, automatiza el diálogo
basado en interfase de negociación con el mismo, de cara a agilizar
la consecución de la compra del objeto seleccionado por el humano
(el mostrado en ese momento en el expositor). Adicionalmente,
ofrece un automatismo de diálogo basado en interfase de
negociación, que permite al humano acceder a través de su sección de
input, a los objetos vendibles propiedad de la IA. Al navegar por
ellos a través de la sección input, la IA los va mostrando en el
expositor.
Una IA organizadora de objetos recoge objetos
libres para su ordenación espacial en el entorno virtual.
Eventualmente, puede recibir peticiones de un agente humano para
ubicar un objeto de su propiedad inventariado expuesto, en cierta
zona pronunciada y
reconocida por la IA.
reconocida por la IA.
La IA traductora inicia su diálogo a solicitud de
un agente humano, y hasta que el agente humano no solicite la
conclusión, la IA recogerá el canal de voz de dicho humano en tomas
de cierto tiempo máximo marcadas por avisos acústicos, y a través
de un reconocedor de habla según el estado del arte, realizará una
traducción a texto que irá guardando en un documento que pondrá a
disposición automática del agente humano a través de una cesión
automática. Adicionalmente, a petición del agente humano basado en
gesto RV, el agente irá leyendo las traducciones parciales o el
total acumulado, en el lenguaje original u otro lenguaje previa
traducción al idioma destino basada en software según el estado del
arte. Esto permite que un agente disponga de un traductor para
comunicarse con otros agentes humanos. Opcionalmente, la IA
traductora puede operar con detección de varios canales procedentes
de varios interlocutores con traducción a varios idiomas y
confección de los respectivos textos para cada interlocutor en su
idioma. Para ello, el diálogo entre los interlocutores humanos debe
seguir unas pautas de cesión de la palabra que determinan
situaciones de cambio de interlocutor identificables por la IA.
Las IAs informativas se comunican con la BD para
ofrecer información a los agentes sobre conceptos asociados a
etiquetas orales. De esta forma, cuando un agente pronuncia ante
una IA informativa una etiqueta oral determinada, la IA localiza la
información asociada a la misma y la pronuncia mediante un
sintetizador de voz.
Las IAs ambientales se mueven y actúan de forma
básica por el escenario, bajo objetivos dinámicos orientados por
estados detectables del entorno virtual. Por ejemplo, un avatar
representando un animal que se mueve siguiendo senderos
concretos.
Los clientes conectados a escenarios (20, 21, 22)
están conectados a la granja de servidores. El servidor de control
identifica para cada agente, qué servidor de escenarios le dará
servicio. Cada cliente utiliza un equipo básico de inmersión
(sensores asociados a canales de asignación automática, y
actuadores), constituido por:
1) Un
head-mounted-display incluyendo en
una única pieza:
- a.
- Gafas estereoscópicas de realidad virtual de un alto nivel de inmersión y resolución gráfica (pixels y profundidad de color)
- b.
- Tracker posicional de cabeza, con 6 grados de libertad.
- c.
- Auriculares estéreo de gran precisión.
- d.
- Micrófono de gran sensibilidad.
2) Uno o dos guantes de datos (mano izquierda y
derecha), cada uno con 6 grados de libertad, con cinco
controladores de torsión de falanges de los dedos de la mano, y con
botones de asignación funcional
variable.
variable.
3) Un escáner/impresora de cilindro de alta
velocidad.
4) Una tableta digitalizadora de dimensiones
reducidas.
5) Un lector de tarjeta inteligente para la
identificación del agente en operaciones bancarias SET y para
posibilitar operaciones basadas en dinero electrónico
(mini-pago basado en tarjeta).
En las figuras 4 y 5 se muestra el terminal
básico de conexión, que consiste en un ordenador de altas
prestaciones (42) (un PC en una realización preferida) con una
tarjeta gráfica potente, conectado por red a la granja de
servidores. Dicho pc posee un soporte (43) para el head mounted
display (44) y para los guantes de datos (45). Cualquier elemento
receptor de ubicación estática necesario para la recogida de datos
desde los sensores, es ubicado de forma conveniente sobre soportes
regulables en altura (46) basados en el propio pc, permitiendo su
adaptación a las posiciones sentado y de pie del agente. Cualquier
otro elemento emisor o receptor necesario puede ser ubicado
espacialmente según conveniencia. Un escáner/impresora (47) queda
acoplado en lo alto del pc, y posee una bandeja delantera (48) para
la ubicación de los folios, sirviendo igualmente de apoyo para una
eventual escritura del usuario. Una pequeña tableta digitalizadora
(49) emerge del fondo de la cpu. El pc no dispone de teclado ni de
pantalla. Frontalmente, un display (50) reducido de texto sirve
para indicar al agente los mensajes necesarios.
El agente o usuario que desea utilizar el sistema
simplemente pulsa el botón de encendido y espera a que el display
le invite a ponerse el equipo de inmersión y a introducir su clave
de usuario. Cuando el agente se viste el equipo de inmersión le
aparece en su espacio visual un mensaje invitándole a introducir su
clave de usuario, acompañado de una invitación acústica hablada. La
clave consiste en una secuencia de flexiones de los dedos de las
manos. En otras realizaciones de la invención se puede utilizar
otro tipo de sensor para reconocimiento personal (como huellas
digitales, iris o reconocimiento facial). Si el agente posee una
tarjeta monedero o inteligente apropiada la puede introducir en el
lector de tarjetas (51), lo que le identifica en operaciones
bancarias para realizar compras en entorno de
mini-pago o SET. Una vez validado el acceso, el
sistema pregunta al agente en qué entorno virtual quiere aparecer.
Un reconocedor de voz basado en red neuronal identifica la
pronunciación del entorno requerido, que será traducido y
presentado ante los ojos del agente. En el entorno virtual podrá
charlar y trabajar con otros interlocutores conectados al mismo
entorno virtual proyectando por ejemplo en los expositores, canales
multimedia enviados previamente por Internet. Mediante los sensores
y reproductores de este terminal de conexión, escribir una nota en
la tabla digitalizadora y proyectarla en una pantalla virtual,
imprimir un documento de su propiedad, o escanear una carta y
enseñarla a otro interlocutor, se convierten en operaciones
sencillas y muy útiles para el agente en una emulación de la vida
real.
Claims (20)
1. Sistema de comunicación basada en realidad
virtual caracterizado porque comprende al menos un terminal
de conexión (24) que da servicio al cliente (20, 21, 22) conectado
a un escenario virtual, terminal que está conectado mediante
internet con una granja de servidores (17) a través de un
cortafuegos; que comprende al menos una conexión remota de
administración mediante web (38); pudiendo incluir al menos una
inteligencia artificial (27) y al menos un controlador de sensor
(39, 40), conectados a la red.
2. Sistema de comunicación basada en realidad
virtual según la reivindicación 1ª caracterizado porque el
terminal básico de conexión (24) comprende un ordenador (42) con
una tarjeta gráfica potente; una conexión a la red de datos a
través de un ordenador cliente (20, 21, 22); un soporte regulable en
altura (46); un soporte (43) para el
head-mounted-display (44) y para los
guantes de datos (45); un escáner e impresora (47); una tableta
digitalizadora (49); un display (50) para indicar al agente usuario
las indicaciones necesarias; y un lector de tarjetas (51).
3. Sistema de comunicación basada en realidad
virtual según reivindicación 1ª caracterizado porque la
granja de servidores comprende un servidor de base de datos
transaccional (28), un servidor de control (29), al menos un
servidor de escenarios virtuales (30), al menos un servidor de
contenidos (31), al menos un servidor sensorial (32), un servidor
web (33), al menos un servidor bancario (34), al menos un servidor
logístico (35), al menos un servidor de inteligencia artificial
(36) y al menos un servidor de mensajería (37).
4. Sistema de comunicación basada en realidad
virtual según reivindicación 3ª, caracterizado porque la
granja de servidores hace posible la comunicación entre los
interlocutores mediante un procesamiento distribuido de eventos,
cálculos y datos.
5. Sistema de comunicación basada en realidad
virtual caracterizado porque permite representar escenas
estereoscópicas dentro de un entorno estereoscópico, basándose en
tomas de tiempo real o pregrabadas.
6. Sistema de comunicación basada en realidad
virtual según reivindicación 5ª, caracterizado porque cuando
las imágenes del ojo izquierdo (1) y derecho (2) se encuentran
previamente preparadas, el motor estereoscópico (4) se sincroniza
con el módulo cambiador (3), de forma que el cambiador modifica las
texturas (7) a las que accede el driver gráfico haciendo que cuando
éste último visualiza el canal izquierdo, la textura accedida
coincide con la de la imagen izquierda, y cuando visualiza el
derecho, la textura coincide con la imagen derecha.
7. Sistema de comunicación basada en realidad
virtual según reivindicación 5ª, caracterizado porque las
imágenes del ojo izquierdo (1) y derecho (2) se calculan en base a
una textura holográfica (15) mediante un proceso calculador de
perspectivas (16), que recibe alternativamente desde el motor
estereoscópico dos ángulos calculados (17) correspondientes a los
ángulos que forman los vectores de mirada de cada ojo del avatar
con respecto al centro de una esfera o cilindro hipotético situado
en el espacio virtual que representa al textura holográfica;
proceso que determina el conjunto de imágenes de la textura
holográfica hipotéticamente mapeada sobre la esfera o cilindro, y
que mediante técnicas de interpolación y reconocimiento de
patrones, en base a ese conjunto de imágenes se confecciona una
sola imagen que representa el objeto desde el ángulo preciso
tratado; realizándose para cada ojo y para cada fotograma.
8. Procedimiento de comunicación basada en
realidad virtual caracterizado porque cuando el agente
usuario desea utilizar el sistema ha de conectar el terminal básico
de conexión (24) y esperar a que el display le invite a ponerse el
equipo de inmersión de realidad virtual.
9. Procedimiento de comunicación basada en
realidad virtual según reivindicación 8ª, caracterizado
porque cuando el agente se viste el equipo de inmersión le aparece
en su espacio visual un mensaje invitándole a introducir la clave de
reconocimiento personal, acompañado de una invitación acústica
hablada, donde la clave de reconocimiento personal está dada por
algún método de identificación personal basado en sensores.
10. Procedimiento de comunicación basada en
realidad virtual según reivindicación 9ª, caracterizado
porque el método básico de identificación de la clave consiste en
una secuencia de flexiones de los dedos de las manos detectados por
el guante de datos.
11. Procedimiento de comunicación basada en
realidad virtual según reivindicación 9ª, caracterizado
porque el agente introduce una tarjeta en el lector de tarjetas con
la que queda identificado y habilitado para realizar compras en
entorno SET o en el entorno mini-pago.
12. Procedimiento de comunicación basada en
realidad virtual según reivindicación 9ª, caracterizado
porque una vez validado el acceso el sistema solicita al agente que
pronuncie el entorno virtual al que quiere acceder, respuesta que
es identificada mediante reconocimiento de voz.
13. Procedimiento de comunicación basada en
realidad virtual según reivindicación 12ª, caracterizado
porque el sistema visualiza ante los ojos del agente el entorno
requerido, en donde podrá conversar y trabajar con otros
interlocutores conectados al mismo entorno virtual desde otros
lugares físicos.
14. Procedimiento de comunicación basada en
realidad virtual según reivindicación 13ª, caracterizado
porque mediante gestos de realidad virtual contextuales el agente
puede moverse por el entorno virtual y conversar, así como hacer
uso de expositores y canales, intercambiar objetos y comprar y
vender de forma segura.
15. Procedimiento de comunicación basada en
realidad virtual según reivindicación 13ª, caracterizado
porque se organizan foros desde intemet en ubicaciones concretas de
un entorno virtual, con control de presencia y acceso
restringido.
16. Procedimiento de comunicación basada en
realidad virtual según reivindicación 13ª, caracterizado
porque se graban actas tridimensionales de las reuniones virtuales,
siendo posible su posterior navegación y visualización.
17. Procedimiento de comunicación basada en
realidad virtual según reivindicación 13ª, caracterizado
porque el sistema de comunicación basado en realidad virtual se
alquila como negocio y se factura según el nivel de uso del
mismo.
18. Procedimiento de comunicación basada en
realidad virtual según reivindicación 13ª, por el que se visualizan
escenas estereoscópicas dentro de un entorno estereoscópico,
basándose en tomas de tiempo real o pregrabadas.
19. Procedimiento de comunicación basada en
realidad virtual según reivindicación 13ª, caracterizado
porque el usuario hace uso de páginas web para administrar su
aspecto, contactos, objetos en propiedad, foros convocados y
seguimiento logístico de compras, asociados a su representación y
acciones en los entornos virtuales.
20. Procedimiento de comunicación basada en
realidad virtual según reivindicación 14ª, caracterizado
porque las compras se basan en gestos y en actos naturales en el
entorno virtual, apoyadas en transacción bancaria y de dinero
electrónico, con mensajería automática de seguimiento logístico de
la entrega del producto real.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200302543A ES2231035B1 (es) | 2003-10-30 | 2003-10-30 | Sistema y procedimiento de comunicacion basada en realidad virtual. |
AT08000815T ATE552686T1 (de) | 2003-10-30 | 2004-10-20 | System zur kommunikation auf der basis virtueller realität |
PCT/ES2004/000453 WO2005043858A1 (es) | 2003-10-30 | 2004-10-20 | Sistema y procedimiento de comunicación basada en realidad virtual |
EP08000815A EP1924052B1 (en) | 2003-10-30 | 2004-10-20 | System for communication based on virtual reality |
EP04791372A EP1689143A1 (en) | 2003-10-30 | 2004-10-20 | Virtual-reality-based communication system and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200302543A ES2231035B1 (es) | 2003-10-30 | 2003-10-30 | Sistema y procedimiento de comunicacion basada en realidad virtual. |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2231035A1 ES2231035A1 (es) | 2005-05-01 |
ES2231035B1 true ES2231035B1 (es) | 2006-07-01 |
Family
ID=34530977
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200302543A Expired - Lifetime ES2231035B1 (es) | 2003-10-30 | 2003-10-30 | Sistema y procedimiento de comunicacion basada en realidad virtual. |
Country Status (4)
Country | Link |
---|---|
EP (2) | EP1689143A1 (es) |
AT (1) | ATE552686T1 (es) |
ES (1) | ES2231035B1 (es) |
WO (1) | WO2005043858A1 (es) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7925723B1 (en) | 2006-03-31 | 2011-04-12 | Qurio Holdings, Inc. | Collaborative configuration of a media environment |
US7782866B1 (en) | 2006-09-29 | 2010-08-24 | Qurio Holdings, Inc. | Virtual peer in a peer-to-peer network |
US7840903B1 (en) | 2007-02-26 | 2010-11-23 | Qurio Holdings, Inc. | Group content representations |
US7849420B1 (en) | 2007-02-26 | 2010-12-07 | Qurio Holdings, Inc. | Interactive content representations enabling content sharing |
US9098167B1 (en) | 2007-02-26 | 2015-08-04 | Qurio Holdings, Inc. | Layered visualization of content representations |
US8260266B1 (en) | 2007-06-26 | 2012-09-04 | Qurio Holdings, Inc. | Method and system for third-party discovery of proximity-based services |
US20100153453A1 (en) * | 2007-06-27 | 2010-06-17 | Karen Knowles Enterprises Pty Ltd | Communication method, system and products |
US9111285B2 (en) | 2007-08-27 | 2015-08-18 | Qurio Holdings, Inc. | System and method for representing content, user presence and interaction within virtual world advertising environments |
US8261307B1 (en) | 2007-10-25 | 2012-09-04 | Qurio Holdings, Inc. | Wireless multimedia content brokerage service for real time selective content provisioning |
US20100131876A1 (en) * | 2008-11-21 | 2010-05-27 | Nortel Networks Limited | Ability to create a preferred profile for the agent in a customer interaction experience |
US20110055135A1 (en) | 2009-08-26 | 2011-03-03 | International Business Machines Corporation | Deferred Teleportation or Relocation in Virtual Worlds |
CN103227962B (zh) * | 2013-03-29 | 2018-11-09 | 上海集成电路研发中心有限公司 | 识别与图像传感器所成线的距离的方法 |
CN113093917A (zh) * | 2015-09-28 | 2021-07-09 | 微软技术许可有限责任公司 | 统一的虚拟现实平台 |
ES2640790A1 (es) * | 2017-04-04 | 2017-11-06 | Stanislas Louis ALEXANDRE KARNKOWSKI | Procedimiento para la detección y representación virtual de actividades de acción |
WO2019213855A1 (zh) * | 2018-05-09 | 2019-11-14 | Fang Chao | 设备控制方法和系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0635392A (ja) * | 1992-07-20 | 1994-02-10 | Fujitsu Ltd | 立体表示装置 |
US6181343B1 (en) * | 1997-12-23 | 2001-01-30 | Philips Electronics North America Corp. | System and method for permitting three-dimensional navigation through a virtual reality environment using camera-based gesture inputs |
US6409599B1 (en) * | 1999-07-19 | 2002-06-25 | Ham On Rye Technologies, Inc. | Interactive virtual reality performance theater entertainment system |
AU2001234532A1 (en) * | 2000-01-21 | 2001-07-31 | Sorceron, Inc. | System and method for delivering rich media content over a network |
US7146233B2 (en) * | 2000-02-11 | 2006-12-05 | Sun Microsystems, Inc. | Request queue management |
WO2002100284A1 (en) * | 2001-06-13 | 2002-12-19 | Volume Interactions Pte Ltd | A guide system |
-
2003
- 2003-10-30 ES ES200302543A patent/ES2231035B1/es not_active Expired - Lifetime
-
2004
- 2004-10-20 EP EP04791372A patent/EP1689143A1/en not_active Withdrawn
- 2004-10-20 WO PCT/ES2004/000453 patent/WO2005043858A1/es not_active Application Discontinuation
- 2004-10-20 EP EP08000815A patent/EP1924052B1/en not_active Not-in-force
- 2004-10-20 AT AT08000815T patent/ATE552686T1/de active
Also Published As
Publication number | Publication date |
---|---|
EP1924052B1 (en) | 2012-04-04 |
EP1924052A2 (en) | 2008-05-21 |
EP1924052A3 (en) | 2010-06-02 |
ATE552686T1 (de) | 2012-04-15 |
ES2231035A1 (es) | 2005-05-01 |
WO2005043858A1 (es) | 2005-05-12 |
EP1689143A1 (en) | 2006-08-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Hadi et al. | The Metaverse: A new digital frontier for consumer behavior | |
Park et al. | A metaverse: Taxonomy, components, applications, and open challenges | |
Nayyar et al. | Virtual Reality (VR) & Augmented Reality (AR) technologies for tourism and hospitality industry | |
ES2231035B1 (es) | Sistema y procedimiento de comunicacion basada en realidad virtual. | |
US20200020172A1 (en) | Three-dimensional virtual environment | |
US9870636B2 (en) | Method for sharing emotions through the creation of three dimensional avatars and their interaction | |
CN105190484B (zh) | 个人全息告示牌 | |
US20170103440A1 (en) | Wearable augmented reality eyeglass communication device including mobile phone and mobile computing via virtual touch screen gesture control and neuron command | |
McMenemy et al. | A hitchhiker's guide to virtual reality | |
Moore et al. | Virtual reality in academic health sciences libraries: a primer | |
Kreutzer et al. | Next Stop Metaverse: A Quick Guide to Concepts, Uses, and Potential for Research and Practice | |
Capece et al. | Advanced systems and technologies for the enhancement of user experience in cultural spaces: an overview | |
CN117157128A (zh) | 为现实和虚拟相融合的融合空间提供经济管理系统的元宇宙系统 | |
Sonnen | Metaverse For Beginners 2023: The Ultimate Guide on Investing In Metaverse, Blockchain Gaming, Virtual Lands, Augmented Reality, Virtual Reality, NFT, Real Estate, Crypto And Web 3.0 | |
Kreutzer et al. | What We Need | |
US20230072623A1 (en) | Artificial Reality Device Capture Control and Sharing | |
NL2014682B1 (en) | Method of simulating conversation between a person and an object, a related computer program, computer system and memory means. | |
Colombo | unveiling the metaverse: paving the way for technological providers | |
CN117539349A (zh) | 一种基于区块链技术的元宇宙体验交互系统及方法 | |
Rehwoldt | Spooky Action At A Distance | |
Swain et al. | AN INTROSPECTION ON THE UPCOMING INTERNET ITERATION, THE METAVERSE: A SURVEY | |
Balbi et al. | Cultural Heritage for All with Virtual Reality: early findings of | |
Bhardwaj | Beyond the Realms: Navigating the Metaverse | |
Bali et al. | 4 Emerging World of the | |
Sarath et al. | Interactive Museum. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EC2A | Search report published |
Date of ref document: 20050501 Kind code of ref document: A1 |
|
FG2A | Definitive protection |
Ref document number: 2231035B1 Country of ref document: ES |
|
GC2A | Exploitation certificate registered application with search report |
Effective date: 20181024 |