ES2319087A1 - Sistema y metodo de captura, procesamiento y representacion de localizamiento tridimensional en tiempo real de una señal optica. - Google Patents
Sistema y metodo de captura, procesamiento y representacion de localizamiento tridimensional en tiempo real de una señal optica. Download PDFInfo
- Publication number
- ES2319087A1 ES2319087A1 ES200803206A ES200803206A ES2319087A1 ES 2319087 A1 ES2319087 A1 ES 2319087A1 ES 200803206 A ES200803206 A ES 200803206A ES 200803206 A ES200803206 A ES 200803206A ES 2319087 A1 ES2319087 A1 ES 2319087A1
- Authority
- ES
- Spain
- Prior art keywords
- dimensional
- cameras
- real time
- optical signal
- processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 17
- 230000003287 optical effect Effects 0.000 title claims description 15
- 238000012545 processing Methods 0.000 title claims description 11
- 230000004807 localization Effects 0.000 title claims 4
- 238000013519 translation Methods 0.000 title abstract description 3
- 238000012800 visualization Methods 0.000 claims abstract description 5
- 230000000007 visual effect Effects 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 6
- 239000010454 slate Substances 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 2
- 239000003550 marker Substances 0.000 claims 1
- 238000001228 spectrum Methods 0.000 claims 1
- 230000011664 signaling Effects 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000021317 sensory perception Effects 0.000 description 1
- 230000002459 sustained effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
- G01B11/005—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
-
- G06T7/2086—
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Sistema de captura y representación de posicionamientos tridimensionales en tiempo real. Cuenta con al menos dos cámaras (1, 2) separadas por unas distancias regulables (3), donde la intersección de sus campos visuales define un espacio tridimensional de trabajo (4) en el que se establecen unas coordenadas de referencia (5) y en el que se puede desplazar un señalizador luminoso (6) determinando un recorrido tridimensional (7); estando conectadas esas cámaras (1, 2) a un ordenador (8) que a su vez conecta con unos medios de visualización (9); de manera que empleando determinados algoritmos se reproducen en tiempo real y a través de los referidos medios de visualización (9) el aludido recorrido tridimensional (7).
Description
Sistema y método de captura, procesamiento y
representación de localizamiento tridimensional en tiempo real de
una señal óptica.
La presente invención, tal y como se expresa en
el enunciado de esta memoria descriptiva, se refiere a un sistema y
método de captura, procesamiento y representación de localizamiento
tridimensional en tiempo real, cuya finalidad consiste en capturar
y representar en tiempo real imágenes tridimensionales
proporcionadas por uno o varios señalizadores luminosos, de manera
que se pueda ir reproduciendo mediante unos medios de visualización
el recorrido de ese señalizador tridimensionalmente y
simultáneamente a su producción en el tiempo.
La invención es especialmente aplicable a la
constitución de una pizarra tridimensional carente de soporte
físico, de manera que los movimientos que hace con el señalizador
luminoso un usuario sean reproducidos simultánea y
tridimensionalmente en otro espacio físico real o virtual.
La invención se enmarca en el sector de
tecnologías de visión artificial y aunque presenta como principal
aplicación el campo de la docencia, concretamente como pizarra
tridimensional sin soporte físico, no se descartan otras
aplicaciones, pudiendo ser empleada en cualquier otro sector.
En los últimos años estamos asistiendo a un
avance espectacular en los conocimientos y aplicaciones de la
llamada "realidad virtual", siendo uno de los aspectos más
importantes del tratamiento digital de imágenes el análisis de
escenas a partir de múltiples cámaras. La visión artificial permite
adquirir y analizar imágenes sin contacto directo, con el fin de
extraer información deseada para fines tecnológicos, industriales,
recreativos u otros, permitiendo establecer relaciones entre el
mundo tridimensional y vistas tridimensionales del mismo.
La extracción de información métrica
tridimensional (X, Y, Z) a partir de las imágenes bidimensionales
tomadas por varias cámaras exige conocer cómo se sitúan las cámaras
respecto a la escena tridimensional. El proceso de calibración es
crucial para la definición de las coordenadas (X, Y, Z).
Dentro de las técnicas de calibración destacan
las propuestas por Tuceryan, Trucco y Zhang, los cuales proponen
maneras diferentes para determinar los parámetros de calibración a
partir de puntos 3D conocidos y sus correspondientes en el plano
imagen 2D. La correspondencia es extraída de forma manual,
centrando la atención en la exactitud de los parámetros de cámara
entregados (intrínsecos y extrínsecos).
Dentro del conjunto de estas metodologías se
conoce el método de Tsai que calcula parámetros intrínsecos tales
como distancia focal, coeficiente de distorsión, coordenadas del
centro óptico, intersección del eje óptico de la cámara con el
plano de la imagen y factor de escala; así como parámetros
extrínsecos tales como ángulos de rotación para la transformada
entre los ejes del mundo y de la cámara, y componentes del vector
de translación para la transformada entre los ejes de la cámara y
el mundo.
El referido método de Tsai presenta
inconvenientes relativos a que precisa de numerosas ecuaciones, al
presentar un gran número de parámetros necesarios para la
calibración, determinando un proceso laborioso en cuanto a variables
a tener en cuenta y en cuanto al proceso de cálculo.
Debido a que con una sola vista la información
de profundidad del espacio 3D se pierde en la proyección, para la
reconstrucción 3D son necesarias por lo menos dos vistas. La
triangulación consiste en inferir la información 3D a partir de los
rayos que van desde los centros ópticos de las imágenes respectivas
hasta los puntos proyectados. Como es sabido que el punto 3D que
produjo las correspondientes proyecciones pertenece a dichos rayos,
se busca entonces la intersección de ellos en el espacio.
No conocemos en el estado actual de la técnica
sistemas de captura y representación de posicionamientos
tridimensionales en tiempo real tales como el de la presente
invención.
Para lograr los objetivos indicados
anteriormente, la invención consiste en un sistema de captura,
procesamiento y representación de posicionamientos tridimensionales
en tiempo real, preferentemente aplicable a la constitución de una
pizarra tridimensional carente de soporte físico.
Novedosamente según la invención, el sistema de
la misma cuenta con al menos dos cámaras separadas por unas
distancias regulables, donde la intersección de sus campos visuales
define un espacio tridimensional de trabajo en el que se establecen
unas coordenadas de referencia y en el que se puede desplazar un
señalizador luminoso determinando un recorrido tridimensional;
estando conectadas esas cámaras a un ordenador que a su vez conecta
con unos medios de visualización; de manera que se reproduce en
tiempo real y a través de los referidos medios de visualización el
aludido recorrido tridimensional. Dichos medios de visualización
pueden ser medios convencionales existentes actualmente u otros que
aparezcan en el futuro.
Según una realización preferente de la
invención, el referido señalizador luminoso consiste en un diodo
led conectado a una batería.
En esa realización preferente de la invención,
el sistema cuenta con filtros extrínsecos, intrínsecos o una
combinación de ambos al objeto de regular las condiciones lumínicas
del referido espacio tridimensional de trabajo.
Además según diversas realizaciones de la
invención, las referidas cámaras pueden emplear sensores digitales,
ópticos, infrarrojos u otros.
Novedosamente según la invención, el método
consta de 4 etapas:
- a)
- La calibración de cámaras, debido a que la extracción de información métrica tridimensional (X, Y, Z) a partir de las imágenes bidimensionales tomadas por varias cámaras exige conocer cómo se sitúan las cámaras respecto a la escena tridimensional.
- Esta calibración responde a la exigencia anteriormente comentada de conocer la localización de las cámaras. Esta etapa se realiza de forma previa a la utilización de la invención, incluso podría venir efectuada desde fábrica para una posible solución comercial.
- Entre los algoritmos y metodologías que se mencionaron anteriormente para la calibración, hemos considerado emplear una variante simplificada de algoritmo de Tsai, esta permite trabajar definiendo un menor número de parámetros, reduciendo a siete los parámetros a definir en comparación de los once recomendados por Tsai. En concreto son los siguientes: F (distancia focal), Cx, Cy, Cz (componentes del vector CF), \Psi (Precisión), \theta (Nutación), \varphi (Rotación propia).
- b)
- La predicción del movimiento del señalizador que facilita la referida reproducción en tiempo real. Esta etapa se ejecuta simultáneamente a la utilización del sistema, reduce la carga computacional utilizando técnicas informáticas como la búsqueda de los pixeles cercanos y la similitud de estos.
- c)
- Cálculo de las coordenadas tridimensionales a tiempo real o en retardo según se desee. Esta etapa se efectúa cuando el señalizador ha sido captado por al menos dos cámaras y por tanto se conocen sus respectivos coordenadas bidimensionales imagen necesarios para esta operación junto con los parámetros de calibración calculados en la primera etapa.
- d)
- Exportación de coordenadas calculadas a cualquier sistema de visualización o herramienta computarizadas a tiempo real o en retardo según el deseo del usuario, presentando el trazado tridimensional seguido por el señalizador o con retardo y el uso de utilidades en estas herramientas como son formas, colores, tamaños, etc.
La presente invención presenta ventajas
relativas a que cada información 3D se captura a partir de dos o
más imágenes captadas de diferentes puntos de vista mediante
técnicas estereoscópicas, configurando un sistema de realidad
virtual o entorno virtual que permite al usuario o grupo de
usuarios interactuar con dicho sistema, proporcionando una
percepción sensorial natural de un mundo tridimensional. El sistema
de la invención permite extraer información mediante rastreo en
pixeles horizontal y verticalmente, para su posterior procesamiento
en el cálculo de información 3D.
La captura del posicionamiento dinámico
tridimensional de un señalizador en tiempo real y su representación
en sistemas de visualización computerizados abre un nuevo campo de
aplicaciones y usos. Existe un elevado número de soluciones que
permiten de una forma u otra la representación bidimensional
mediante pizarra computerizada, siendo la principal aplicación de
la invención una pizarra tridimensional sin soporte físico que
podría tener su principal uso comercial en los ámbitos de la
docencia y la tele-asistencia. La pizarra digital en
un aula constituye un importante instrumento para aumentar la
interacción entre profesor y alumno. La invención proporciona un
nuevo sistema de captura tridimensional con grandes posibilidades
de aplicabilidad directa como señalizador tridimensional en entornos
dinámicos multiplataforma computerizado.
El desarrollo de entornos o plataformas como
escritorios, programas o videojuegos donde se pueda incorporar este
sistema interfaz, para mejorar prestaciones y agilizar la velocidad
del sistema. Por otra parte, cuando se empleen más de dos cámaras
se aumenta el campo de trabajo del posible usuario y la precisión
del cálculo del posicionamiento tridimensional. Además, la invención
permite manejar utilidades asociadas al posicionamiento tales como
formas, colores, tamaños u otras características de objetos que se
quieran capturar y representar según distintas realizaciones de la
invención.
Cuenta con filtros extrínsecos o combinaciones
de filtros lumínicos a una distancia cercana al objetivo de la
cámara que regulan la luminosidad de filmación optimizando el
reconocimiento de la señal luminosa a las condiciones lumínicas de
la zona de trabajo e intrínsecos una optimización del reconocimiento
de la señal mediante tratamiento computarizado de las imágenes o
directamente un tratamiento informatizado de los drivers que
manejan las cámaras o una combinación de ambos filtros al objeto de
regular las condiciones lumínicas del referido espacio
tridimensional de trabajo.
Los requerimientos de la invención pueden
realizarse con un ordenador convencional, mediante programación,
así como con una tarjeta específica ensamblada a un ordenador
convencional.
A continuación para facilitar una mejor
comprensión de esta memoria descriptiva y formando parte integrante
de la misma, se acompaña una figura única en la que con carácter
ilustrativo y no limitativo se ha representado el objeto de la
invención.
Figura 1.- Representa esquemáticamente, mediante
un diagrama de bloques funcionales, un sistema de captura y
representación de posicionamientos tridimensionales en tiempo real,
realizados según la presente invención.
Seguidamente se realiza una descripción de un
ejemplo de la invención haciendo referencia a la numeración
adoptada en la Figura 1:
Así, el sistema de captura y representación de
posicionamientos tridimensionales en tiempo real del presente
ejemplo de la invención cuenta con dos cámaras 1 y 2 separadas por
una distancia regulable 3, tal y como se representa en la Figura 1.
No obstante, en otros ejemplos de la invención se puede emplear un
mayor número de cámaras para aumentar la precisión de cálculo de los
posicionamientos tridimensionales y el campo de trabajo de los
posibles usuarios.
La intersección de los campos visuales de la
primera cámara 1 y la segunda cámara 2 define un espacio
tridimensional de trabajo 4 en el que se establecen unas
coordenadas de referencia 5, según se ha representado en la figura
1. Los rayos epipolares (10) son las uniones entre el punto 3D o
señalizador luminoso en este caso y los centros ópticos o cámaras,
para cada cámara existe un rayo epipolar (10), de lo que se deduce
que al menos son necesarios 2 rayos epipolares (10).
Además, en este espacio tridimensional de
trabajo 4 se puede desplazar un señalizador luminoso 6 que
determina un recorrido tridimensional 7, tal y como muestra la
Figura 1.
En el presente ejemplo dicho señalizador
luminoso 6 consiste en un diodo led conectado a una batería.
Por otra parte, tal y como se aprecia en la
Figura 1, las cámaras 1 y 2 se encuentran conectadas a un ordenador
8 que a su vez conecta con unos medios de visualización 9. Dichos
medios 9 pueden ser dispositivos de representación tridimensional
conocidos actualmente u otros que puedan aparecer en el futuro.
Así, empleando algoritmo predicción de
movimiento sustentado en el análisis de pixeles más cercanos al
actual donde se sitúa el señalizador dentro de la imagen y en la
similitud de pixeles algoritmos se puede reproducir en tiempo real a
través de esos medios de visualización 9 el mencionado recorrido
tridimensional 7, tal y como se ilustra en la Figura 1.
En el presente ejemplo, entre esos algoritmos se
encuentra una variante simplificada del algoritmo de Tsai para
calibración de cámaras que permite trabajar definiendo un menor
número de parámetros; encontrándose además un algoritmo de
aceleración y predicción de trayectorias del señalizador 6 para
facilitar la referida reproducción en tiempo real.
En el presente ejemplo se ha previsto la
utilización de filtros extrínsecos e intrínsecos al objeto de
regular las condiciones lumínicas del espacio tridimensional de
trabajo 4.
Las cámaras 1 y 2 pueden emplear sensores
digitales, ópticos, infrarrojos u otros.
Claims (6)
1. Sistema de captura, procesamiento y
representación de localizamiento tridimensional en tiempo real de
una señal óptica, preferentemente aplicable a la constitución de
una pizarra tridimensional carente de soporte físico;
caracterizado porque cuenta con al menos dos cámaras (1, 2)
separadas por unas distancias regulables (3), donde la intersección
de sus campos visuales define un espacio tridimensional de trabajo
(4) en el que se establecen unas coordenadas de referencia (5) y en
el que se puede desplazar un señalizador luminoso (6) determinando
un recorrido tridimensional (7); estando conectadas esas cámaras
(1, 2) a un ordenador (8) que a su vez conecta con unos medios de
visualización (9); de manera se realiza un recorrido por puntos de
coordenadas conocidas y a través de los referidos medios de
visualización (9) la representación del aludido recorrido (7).
2. Sistema de captura, procesamiento y
representación de localizamiento tridimensional en tiempo real de
una señal óptica, según la reivindicación 1, caracterizado
por la captura de una señal dinámica en los distintos campos del
espectro electromagnético, visible, infrarrojo, etc. y porque
dichas cámaras (1, 3) emplean sensores digitales, ópticos,
infrarrojos u otros. Dicho señalizador luminoso (6) está conectado
a una batería.
3. Sistema de captura, procesamiento y
representación de localizamiento tridimensional en tiempo real de
una señal óptica, según la reivindicación 1, caracterizado
porque cuenta con filtros extrínsecos que son combinaciones de
filtros lumínicos a una distancia determinada del objetivo de la
cámara que regulan la luminosidad de filmación optimizando el
reconocimiento de la señal luminosa a las condiciones lumínicas de
la zona de trabajo y filtros intrínsecos que son optimización del
reconocimiento de la señal mediante tratamiento computarizado de
las imágenes o una combinación de ambos al objeto de regular las
condiciones lumínicas del referido espacio tridimensional de
trabajo (4).
4. Método de captura, procesamiento y
representación de localizamiento tridimensional en tiempo real de
una señal óptica, caracterizado porque comprende:
- a)
- Calibración de cámaras debido a que la extracción de información métrica tridimensional (X, Y, Z) a partir de las imágenes bidimensionales tomadas por varias cámaras exige conocer cómo se sitúan las cámaras respecto a la escena tridimensional.
- b)
- Predecir el movimiento del señalizador mediante la búsqueda de pixeles cercanos y la similitud éstos.
- c)
- Cálculo de las coordenadas tridimensionales a tiempo real o en retardo a partir de las respectivas coordenadas bidimensionales del señalizador determinados una vez que éste ha sido capturado por al menos dos cámaras.
- d)
- Exportan y representación estos datos a tiempo real o con retardo
5. Método de captura, procesamiento y
representación de localizamiento tridimensional en tiempo real de
una señal óptica según reivindicación 4, caracterizado
porque en la etapa a) de calibración se emplea una variante
simplificada del algoritmo de Tsai, es necesaria la realización de
esta previamente a la utilización de la invención, esta variante
permite trabajar definiendo un menor número de parámetros,
reduciendo a siete las variables a definir en comparación de los
once recomendados por Tsai, en concreto son los siguientes: F
(distancia focal), Cx, Cy, Cz (componentes del vector CF), \Psi
(Precisión), \theta (Nutación), \varphi (Rotación propia).
6. Método de captura, procesamiento y
representación de localizamiento tridimensional en tiempo real de
una señal óptica según la reivindicación 4, caracterizado
porque en la etapa d) de exportación a cualquier sistema de
visualización o herramienta computarizadas a tiempo real o en
retardo, presentando el trazado tridimensional seguido por el
señalizador o con retardo y el uso de utilidades en estas
herramientas como son formas, colores, tamaños, etc.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200803206A ES2319087B2 (es) | 2008-11-03 | 2008-11-03 | Sistema y metodo de captura, procesamiento y representacion de localizamiento tridimensional en tiempo real de una señal optica. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200803206A ES2319087B2 (es) | 2008-11-03 | 2008-11-03 | Sistema y metodo de captura, procesamiento y representacion de localizamiento tridimensional en tiempo real de una señal optica. |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2319087A1 true ES2319087A1 (es) | 2009-07-02 |
ES2319087B2 ES2319087B2 (es) | 2010-02-22 |
Family
ID=40560416
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200803206A Active ES2319087B2 (es) | 2008-11-03 | 2008-11-03 | Sistema y metodo de captura, procesamiento y representacion de localizamiento tridimensional en tiempo real de una señal optica. |
Country Status (1)
Country | Link |
---|---|
ES (1) | ES2319087B2 (es) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004045321A (ja) * | 2002-07-15 | 2004-02-12 | Mitsubishi Electric Corp | 位置計測システム |
WO2005088541A1 (de) * | 2004-03-08 | 2005-09-22 | Hendrik Fehlis | Echtzeit-bewegungsanalysevorrichtung |
US6950550B1 (en) * | 2000-07-07 | 2005-09-27 | Koji Kajimura | Tracing technique and recording media of object motion |
WO2005124687A1 (ja) * | 2004-06-16 | 2005-12-29 | The University Of Tokyo | 光学式モーションキャプチャシステムにおけるマーカトラッキング方法、光学式モーションキャプチャ方法及びシステム |
-
2008
- 2008-11-03 ES ES200803206A patent/ES2319087B2/es active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6950550B1 (en) * | 2000-07-07 | 2005-09-27 | Koji Kajimura | Tracing technique and recording media of object motion |
JP2004045321A (ja) * | 2002-07-15 | 2004-02-12 | Mitsubishi Electric Corp | 位置計測システム |
WO2005088541A1 (de) * | 2004-03-08 | 2005-09-22 | Hendrik Fehlis | Echtzeit-bewegungsanalysevorrichtung |
WO2005124687A1 (ja) * | 2004-06-16 | 2005-12-29 | The University Of Tokyo | 光学式モーションキャプチャシステムにおけるマーカトラッキング方法、光学式モーションキャプチャ方法及びシステム |
Also Published As
Publication number | Publication date |
---|---|
ES2319087B2 (es) | 2010-02-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11928838B2 (en) | Calibration system and method to align a 3D virtual scene and a 3D real world for a stereoscopic head-mounted display | |
CN104933718B (zh) | 一种基于双目视觉的物理坐标定位方法 | |
CN106705837B (zh) | 一种基于手势的物体测量方法及装置 | |
CN106898022A (zh) | 一种手持式快速三维扫描系统及方法 | |
WO2016184255A1 (zh) | 一种视觉定位装置及基于该装置的三维测绘系统及方法 | |
ES2626301T3 (es) | Procedimiento y equipo de procesamiento de imágenes para determinar los parámetros de una cámara | |
RU2013148372A (ru) | Автоматическая калибровка системы отсчета дополненной реальности | |
CN104036488A (zh) | 一种基于双目视觉的人体姿态动作研究方法 | |
CN103842036A (zh) | 利用照相机拍摄移动的被拍摄体并根据拍摄图像来获取被拍摄体的实际移动轨迹的方法及系统 | |
CN104331924B (zh) | 基于单摄像机sfs算法的三维重建方法 | |
CN104123751A (zh) | Kinect与关节臂结合的复合式测量和三维重建方法 | |
KR102374404B1 (ko) | 콘텐트를 제공하기 위한 디바이스 및 방법 | |
JP2017534940A (ja) | 3dシーンでオブジェクトを再現するシステム及び方法 | |
CN107193380B (zh) | 一种高精度虚拟现实定位系统 | |
ES2950961T3 (es) | Creación de variabilidad de datos de entrenamiento en aprendizaje automático para etiquetado de objetos a partir de imágenes | |
JP2019020997A (ja) | 情報処理装置及びその制御方法、並びに、プログラム | |
Schwarze et al. | An intuitive mobility aid for visually impaired people based on stereo vision | |
CN110433467A (zh) | 基于双目视觉和蚁群算法的捡乒乓球机器人运行方法及设备 | |
KR101641672B1 (ko) | 휴대단말기를 이용한 건축 모형 실행의 증강 현실 시스템 | |
CN109215128A (zh) | 物体运动姿态图像的合成方法及系统 | |
CN103948431A (zh) | 一种应用于手术导航标记点误差指示的示踪器设计方法 | |
ES2319087B2 (es) | Sistema y metodo de captura, procesamiento y representacion de localizamiento tridimensional en tiempo real de una señal optica. | |
CN116612256A (zh) | 一种基于NeRF的实时远程三维实景模型浏览方法 | |
CN108346183B (zh) | 一种用于ar基准定位的方法及系统 | |
Piérard et al. | I-see-3d! an interactive and immersive system that dynamically adapts 2d projections to the location of a user's eyes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EC2A | Search report published |
Date of ref document: 20090501 Kind code of ref document: A1 |
|
EC2A | Search report published |
Date of ref document: 20090702 Kind code of ref document: A1 |
|
FG2A | Definitive protection |
Ref document number: 2319087B2 Country of ref document: ES |