MXPA03011203A - Sistema interactivo de exhibicion de video. - Google Patents

Sistema interactivo de exhibicion de video.

Info

Publication number
MXPA03011203A
MXPA03011203A MXPA03011203A MXPA03011203A MXPA03011203A MX PA03011203 A MXPA03011203 A MX PA03011203A MX PA03011203 A MXPA03011203 A MX PA03011203A MX PA03011203 A MXPA03011203 A MX PA03011203A MX PA03011203 A MXPA03011203 A MX PA03011203A
Authority
MX
Mexico
Prior art keywords
image
pattern
source
camera
video
Prior art date
Application number
MXPA03011203A
Other languages
English (en)
Inventor
Bell Matthew
Original Assignee
Reactrix Systems Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=26856697&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=MXPA03011203(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Reactrix Systems Inc filed Critical Reactrix Systems Inc
Publication of MXPA03011203A publication Critical patent/MXPA03011203A/es

Links

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/26Projecting separately subsidiary matter simultaneously with main image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1012Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals involving biosensors worn by the player, e.g. for measuring heart beat, limb activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/10Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
    • A63F2300/1087Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
    • A63F2300/1093Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera using visible light
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/69Involving elements of the real world in the game world, e.g. measurement in live races, real video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)
  • Details Of Television Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Processing (AREA)
  • Position Input By Displaying (AREA)

Abstract

Se da a conocer un dispositivo que permite la interaccion facil y sin problemas, entre una persona y un sistema de exhibicion de computadora, que usa la persona (u otro movimiento y posicion del objeto) como entrada a la computadora. En algunas configuraciones, la exhibicion puede ser proyectada alrededor del usuario, asi que las acciones de la persona sean exhibidas alrededor de la misma. La camara de video y el proyector operan en diferentes longitudes de onda, asi que ellos no interferiran entre si. Uso de tal dispositivo incluyen, pero no se limitan a, los efectos de iluminacion interactivos para personas, en clubes o eventos, las exhibiciones de publicidad interactivas, etc. Los caracteres de computadora generados y los objetos virtuales pueden ser hechos reaccionar a los movimientos de los pasajeros, generando iluminacion ambiental interactiva para los espacios sociales, tal como en restaurante, vestibulos y parques, sistemas de video-juegos y crear espacios de informacion interactivos instalaciones de arte. La iluminacion y brillantez con cierto patron y el proceso de gradiente se pueden usar para mejorar la capacidad de detectar un objeto contra un fondo de imagenes de video.

Description

SISTEMA INTERACTIVO DE EXHIBICIÓN DE VIDEO REFERENCIAS CRUZADAS A SOLICITUDES RELACIONADAS Esta solicitud reclama la prioridad de la Solicitud de Patente Provisional de EE.UU., también pendiente, No. 60/296,189, presentada el 5 de junio del 2001, intitulada SISTEMA. INTERACTIVO DE EXHIBICIÓN DE VIDEO, QUE USA ENTRADAS DE VIDEO, la cual se incorpora aquí como referencia, como si se señalara por completo en este documento y para todo propósito .
ANTECEDENTES DE LA INVENCIÓN La presente invención se refiere, en general, a sistemas de proceso de imágenes y, más particularmente, a un sistema para recibir y procesar una imagen de un usuario humano, y permitir la interacción con las exhibiciones de video . El proceso de imágenes se usa en muchas áreas de análisis, educación, comercio y entretenimiento. Un aspecto del proceso de imágenes incluye la interacción de un ser humano y una computadora para detectar formas y movimientos humanos, y permitir la interacción con imágenes. Aplicaciones de tales procedimientos pueden usar maneras eficientes o de entretenimiento de interactuar con imágenes, para definir configuraciones digitales u otros datos, objetos animados, crear formas expresivas, etc. La detección de la posición y el movimiento de un cuerpo humano se refiere como la "captura de movimiento" . Con las técnicas de captura de movimiento, las descripciones matemáticas de los movimientos ejecutados por un humano se hacen entrar a una computadora u otro sistema de proceso. Los movimientos del cuerpo natural se pueden usar como entadas a la computadora para estudiar el movimiento atlético, la captura de datos para la reproducción o simulación ulterior, mejoras en el análisis para fines médicos, etc. Aunque la captura de movimiento suministra beneficios y ventajas, las técnicas de captura de movimiento tienden a ser complejas. Algunas técnicas requieren que el actor humano use trajes especiales con puntos de alta visibilidad en varios sitios. Otros acercamientos usan la radiofrecuencia u otros tipos de emisiones, múltiples sensores y detectores, pantallas azules, post-proceso extenso, etc. Las técnicas que dependen de la captura de imagen de luz visible sencilla no son usualmente exactas, en forma suficiente, para proporcionar la captura de movimiento bien definida y precisa. Algunas aplicaciones de captura de movimientos permiten que un actor, o usuario, interactúe con imágenes que son creadas y exhibidas por un sistema de computadora. Por ejemplo, un actor puede permanecer frente de una proyección de pantalla grande de video de varios objetos. El actor puede moverse, modificar y manipular o generar de otra manera, los objetos usando los movimientos del cuerpo. Diferentes efectos, basados en los movimientos de un actor, pueden ser computados por el sistema de proceso y exhibidos en la pantalla de exhibición. Por ejemplo, el sistema de computadora puede guiar una trayectoria del actor frente de la pantalla de exhibición y hacer una aproximación, o interpretación artística, de la trayectoria sobre la pantalla de video. Las imágenes con las cuales el actor interactúa pueden ser, por ejemplo, sobre el piso, pared u otra superficie; suspendidas tridimensionalmente en el espacio, exhibidas en uno o más monitores, pantallas de proyección u otros dispositivos. Cualquier tipo de dispositivo de exhibición o tecnología puede ser usado para presentar imágenes con las cuales un usuario puede controlar o interactuar.
En algunas aplicaciones, tal como el punto de ventas, anuncios al menudeo, promociones, sitios de entretenimiento de galerías, etc., es conveniente capturar el movimiento de un usuario sin entrenar (por ej emplo una persona que pasa por ahí) en una manera no obstructiva. Idealmente, el usuario no necesitará preparación o entrenamiento especiales y el sistema no usará indebidamente equipo costoso. Igualmente, en el método y sistema usado para capturar el movimiento, el actor debe, preferiblemente, ser invisible o no detectable al usuario. Muchas aplicaciones en el mundo real deben trabajar en ambientes donde hay un fondo complejo y que cambia, y objetos del primer plano, intervalos de tiempo cortos para la captura, condiciones de iluminación que cambian y otros factores que pueden hacer difícil la captura del movimiento.
BREVE COMPENDIO DE LA INVENCIÓN La presente invención permite la interacción entre un usuario y un sistema de exhibición de computadora, que usa el movimiento del usuario (u otro objeto) y lo coloca como entrada a una computadora. Esta computadora genera una exhibición que responde a la posición y movimiento del usuario. La exhibición generada puede incluir objetos o configuraciones que pueden moverse, modificarse o ser controlados de otra manera por los movimientos del cuerpo del usuario . En una modalidad preferida de la invención, las imágenes exhibidas son afectadas por las acciones del usuario en un tiempo real . La exhibición puede ser proyectada alrededor del usuario, de modo que las acciones del usuario creen efectos que emanen del usuario y afecten las áreas de exhibición próximas al usuario. O el usuario puede afectar los objetos de video, tal como por puntapiés, impulsos, movimientos, deformaciones, tocado, etc., en los detalles en las imágenes de video. La interferencia entre la luz usada para exhibir imágenes interactivas y la luz usada para detectar el usuario se minimiza usando la luz de longitudes de onda sustancialmente diferentes . En una modalidad, un usuario se ilumina con luz infrarroja, que no es visible al ojo humano. Una cámara, la cual es sensible a la luz infrarroja, se usa para capturar una imagen del usuario para el análisis de posición y movimiento. La luz visible se proyecta por un proyector sobre una pantalla, vidrio u otra superficie, para exhibir imágenes interactivas, objetos, patrones u otras configuraciones y efectos. La superficie de exhibición puede ser alineada alrededor del usuario, así que su presencia física dentro de la exhibición, corresponde a su presencia -virtual, dando la experiencia del toque físicamente e interactuando con los objetos virtuales. Un aspecto de la invención puede usar la iluminación en patrones, en lugar de la "inundación de luz" uniforme, no visible, sencilla. Con la iluminación en patrones, un patrón, tal como un tablero de damas, un patrón de puntos aleatorios, etc., se proyecta. El patrón se usa por procesos que ejecutan sobre una computadora para interpretar una imagen de cámara y para detectar un objeto desde un fondo y/o otros detalles en una escena. ?1 patrón puede ser generado como un fondo (de modo que no choque en un objeto que se va a detectar) o el patrón puede ser proyectado sobre toda la escena visible de la cámara, asi que se ilumina el fondo, primer plano y objetos que se van a detectar y se captura el movimiento. Una manera de lograr la iluminación en patrones incluye usar un conjunto de diodos emisores de luz (LED) u otra fuente de luz no visible en un proyector de transparencias . Otro acercamiento puede usar un haz láser infrarrojo, que se desvía, es obturado, explorado, etc., para producir un patrón.
Otra manera de lograr la iluminación en patrones es usar una "inundación de luz" regular, pero marca el patrón, antes mencionado en el área visible de la cámara usando tinta, tintes o pinturas que es oscura o altamente reflexiva en la frecuencia de recepción de la cámara. Esta tinta, tinte o pintura pueden hacerse invisibles al ojo human, para así mejorar la estética de la exhibición. Otro aspecto de la invención usa un acercamiento de gradiente para determinar la interacción de objeto - imagen. Una "imagen de influencia" se crea, por la creación de un aura de gradiente, o transición de escala gris, alrededor de un objeto detectado. Conforme el objeto detectado se mueve, el aura del gradiente se calcula en el tiempo real . Conforme el aura de gradiente choca en la imagen de video o articulo, la brillantez y gradiente en la región del artículo que ha chocado se calcula, la fuerza y dirección de interacción (por ejemplo, empujando el artículo) es una función de la brillantez y gradiente, respectivamente, de la región tropezada . En una modalidad, la invención proporciona un sistema para detectar un objeto y generar una exhibición en respuesta, el sistema comprende una primera fuente, para producir energía electromagnética en un primer intervalo de longitud de onda, un detector para detectar una reflexión de la primera fuente de energía electromagnética desde un objeto, un procesador acoplado al detector, para usar la reflexión detectada para generar una señal de exhibición, una segunda fuente, para producir energía electromagnética en un segundo intervalo de longitud de onda, en que la segunda fuente genera un exhibición visible, en respuesta a la señal exhibida, en que el primero y segundo intervalos de longitud de onda son diferentes . En otra modalidad, la invención proporciona un método para detectar un objeto en una imagen capturada por una cámara, el método comprende usar una iluminación de patrón para iluminar el fondo diferentemente del objeto; y usar un sistema de proceso para definir el objeto aparte del fondo . En otra modalidad, la invención proporciona un método para computar una interacción de un objeto con un artículo de video, el método comprende usar un procesador para determinar un gradiente para el objeto, usar un procesador para determinar un límite para el artículo de video; e identificar una interacción usando el gradiente y el límite .
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1 muestra una primera configuración de una modalidad preferida que usa un proyector y cámara coubicados ; la Figura 2 muestra una configuración de proyección superior; la Figura 3 muestra una configuración de proyección posterior; la Figura 4 muestra una configuración de proyección lateral; la Figura 5A ilustra un sujeto bajo la iluminación uniforme ; la Figura 5B ilustra un fondo bajo la iluminación de un patrón de puntos aleatorios; la Figura 5C ilustra un sujeto y fondo bajo iluminación de un patrón de puntos aleatorios; la Figura 5D muestra un resultado de detectar un sujeto desde un fondo, usando una iluminación de un patrón de puntos aleatorios; la Figura 6A muestra un usuario humano que interactúa con el objeto de video; y la Figura 6B ilustra una imagen de influencia.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN Varias configuraciones de la invención se describen abajo. En general, la presente invención usa una primera fuente de luz para iluminar un usuario u otro objeto. La primera fuente de luz emplea luz la cual no es visible a los humanos. Por ejemplo, se puede usar la luz infrarroja o ultravioleta. Una cámara, que es sensible a la luz en el intervalo de la longitud de onda de la primera fuente de luz, se usa para detectar un usuario, quién se ilumina por la primera fuente de luz. Una computadora (u otro sistema de proceso) se usa para procesar la imagen del objeto detectada y para generar imágenes para la exhibición. Una segunda fuente de luz (por ejemplo, un proyector, pantalla de video, etc.) se usa para exhibir las imágenes generadas de exhibición al usuario humano o espectadores . Las imágenes exhibidas son a longitudes de onda que minimizan la interferencia con la detección del objeto de la cámara. Típicamente, el espectro visible se usa para exhibir las imágenes . En una modalidad preferida, la exhibición rodea el usuario, de modo que la presencia virtual del usuario esté alineada con la presencia física de este usuario. Así, la escena virtual en la exhibición tiene una ubicación física alrededor del usuario, y el movimiento del usuario dentro de la exhibición causará un movimiento idéntico de la representación del usuario dentro de la escena virtual . Por ejemplo, el usuario puede tropezar en una ubicación física del objeto virtual y se sabe que esto causaría su representación visual para tocar el objeto virtual en el sistema de computadora. El uso del término "toque" o "tocado" en esta especificación, no significa el contacto físico con un objeto, tal . como una persona y un producto de imagen. Más bien, la noción de tocar significa que la posición y acción del objeto en el espacio físico se traslada en un efecto en una imagen generada, que incluye los efectos de los productos en movimiento en las imágenes generadas . Las imágenes o productos exhibidos pueden incluir objetos, patrones, configuraciones o cualquier patrón visual, efecto, etc. Aspectos de la invención pueden ser usados para aplicaciones, tal como la iluminación interactiva, efectos de las personas en clubes o eventos, las exhibiciones de anuncios interactivos, los caracteres y objetos virtuales que reaccionan a los movimientos de pasar por ellos, la iluminación del ambiente interactivo para espacios públicos, tal como restaurantes, galerías de compras, sitios de deportes, tiendas al menudeo, vestíbulos y parques, sistemas de juegos de video y exhibiciones interactivas de información, Otras aplicaciones son posibles y están dentro del ámbito de la invención. La Figura 1 muestra una modalidad de proyección frontal de la invención, que usa una cámara y proyector coubicados. En la Figura 1, , una persona 1 se ilumina por una lámpara infrarroja 2 (u otra luz no visible) . La imagen de la persona es fotografiada por una cámara infrarroja 3 (u otra luz no visible) . La señal es transmitida en tiempo real 4 a la computadora 5. Esta computadora ejecuta el algoritmo de detección del objeto y genera el efecto de video en tiempo real . El efecto es transmitido 6 en tiempo real a un proyector 7 de video. Esta proyector proyecta la imagen resultante sobre una pantalla 8 o alguna otra superficie. El efecto de video es luego exhibido 9 en la pantalla, en tempo real, y alineado con la persona. La Figura 2 muestra una configuración de proyección superior el sistema. El componente 10 incluye el sistema antes mencionado. Este componente 10 se muestra montado ahi verticalmente, pero la cámara, proyector y fuente de luz dentro de 10 pueden también ser montados horizontalmente y luego redirigidos hacia abajo con un espejo. Una persona que se mueve sobre el suelo 11 puede dejar la señal de video proyectada sobre el suelo alrededor ella 12. La sombra propia de la persona oscurece una cantidad mínima de la imagen, cuando el proyector se dirige hacia arriba. Las Figuras 3 y 4 muestran dos configuraciones alternativas más para la cámara y el proyector. En ambas figuras, la cámara 20 captura objetos, tal como una persona 22 en frente de una pantalla 23. El ángulo visto por la cámara se muestra en 21. En la Figura 3, un proyector 25 se coloca detrás de la pantalla. La luz repartida desde el proyector 24 puede ser vista sobre la pantalla desde ambos costados. En la Figura 4, el proyector 25 está en un ángulo oblicuo a la pantalla; su cono 24 de luz se muestra. Ambas de estas con iguraciones hacen más probable que no existan sombras, que obstruyan, la imagen proyectada. Como se describió en las configuraciones anteriores, una cámara de video se usa para capturar la escena en una ubicación particular para la entrada en la computadora. En la mayoría de las configuraciones del dispositivo, la cámara puede operar a una longitud de onda que no se usa por el exhibidor de video. En la mayoría de los casos, el exhibidor usará el espectro de luz visible. En este caso, la cámara debe fotografiar en una longitud de onda no visible, tal como la infrarroja, asi que la salida de exhibición de video no se detecta. La escena que se lleva a la cinta de video debe estar iluminada en la luz de la longitud de onda de la cámara. En el caso de la infrarroja, las fuentes que incluyen la luz del sol, una lámpara de calor o los LED infrarrojos, peden ser usados para iluminar la escena. Estas luces se pueden colocar en cualquier sitio; sin embargo, la vista de la cámara de sombras espurias de estas luces se puede minimizar colocando la fuente de luz en proximidad a la cámara. Una fuente de luz, tal como una o más luces, puede iluminar objetos con iluminación uniforme, en oposición a la iluminación discutida abajo. En una modalidad preferida, la señal de video se exporta en tiempo real a la computadora. Sin embargo, otras modalidades no necesitan lograr el tiempo real o el tiempo casi real y pueden procesar objetos o imágenes de video (es decir, imágenes de exhibición) en tiempos considerablemente antes de la exhibición de las imágenes . Este componente se diseña para ser modular, cualquier software (programa) de computadora que utilice LED entrada de video del componente previo y produzca los resultados en una exhibición de video, pueden ser usados aquí . Muchas veces este componente tendrá dos partes : la primera parte manej la detección de objetos móviles desde el fondo estático, mientras la segunda parte utiliza la información del objeto para generar una salida de video. Numerosos casos de cada parte serán descritos aquí; estos casos son simplemente tomados como ejemplos, y no intentan ser exhaustivos . En la primera parte, la imagen viva desde la cámara de video se procesa por tiempo real con el fin de separar los objetos móviles (por ejemplo las personas) del fono estático, independientemente de cuál sea este fondo. LED proceso puede hacerse como sigue : Primero, los marcos de entrada de la cámara de video son cubiertos a escalas grises para reducir la cantidad de datos y simplificar el proceso de detección, en seguida, ellos serán borrados levemente para reducir el ruido. Cualquier objeto que no se mueva por un período largo de tiempo, se presume será el fondo; por lo tanto, el sistema es capaz de adaptar finalmente para cambiar la iluminación o las condiciones del fondo. Una imagen modelo del fondo puede ser generada por numerosos métodos, cada uno de los cuales examina los marcos de entrada sobre un intervalo de tiempo. En un método, los últimos varios marcos de entrada (o un subconjunto de ellos) se examinan para generar un modelo del fondo, o a través del promedio, que genera la mediana, que detecta períodos de brillantez constante u otras heurísticas . La longitud de tiempo sobre el cual los marcos de entrada se examinan, determina el régimen al cual el modelo del fondo se adapta para cambiar en la imagen de entrada . En otro método, el modelo de fondo se genera en cualquier etapa de tiempo (o con menos frecuencia) computando un promedio pesado del marco actual y el modelo de fondo desde la etapa de tiempo previo. El peso del marco actual es relativamente pequeño en este cálculo; asi, los cambios en el fondo real se asimilan gradualmente en el modelo de fondo. Este peso puede ser sintonizado para cambiar el régimen al cual el modelo de fondo se adapta a cambios en la imagen de entrada . Un objeto de interés se presume difiere en brillantez del fondo. Con el fin de encontrar objetos en cada etapa de tiempo, la entrada de video actual se resta de la imagen de modelo del fondo. Si el valor absoluto de esta diferencia en una ubicación particular es mayor que un umbral particular, entonces esa ubicación se clasifica como un objeto; de otra manera, se clasifica como el fondo. La segunda parte puede ser cualquier programa que tome la clasificación de objeto / fondo de una imagen (posiblemente además de otros datos) como entrada y produce una imagen de video basada en esta entrada, posiblemente en tiempo real . Este programa puede tomar un número infinito de formas, y es así definido ampliamente como una aplicación de computadora. Por ejemplo, este componente puede ser tan sencillo como para producir una luz de zona en la configuración de los objetos detectados, o como complicados con un programa de pintura controlado a través de gestiones hechas por las personas que se detectan como objetos. Además, las aplicaciones pueden usar otras formas de entrada, tal como el sonido, temperatura, entrada de teclado etc., al igual que formas adicionales de salida, tal como audio, táctil, realidad virtual, aromática, etc. Una clase principal de aplicaciones incluye efectos especiales que usan la clasificación de objeto / fondo como entrada. Por ejemplo, estrellas, lineas u otras configuraciones pueden ser dibujadas en la imagen de video de salida en una porción aleatoria de las ubicaciones que se clasifican como "objetos" . Estas configuraciones pueden luego ser ajustadas para desvanecerse gradualmente con el tiempo, asi que personas que dejan ensayos transitorios de configuraciones detrás de ellos, conforme se mueven alrededor de los mismos. Los siguientes son ejemplos de otros efectos en la misma clase: - contornos y ondulaciones que rodean los objetos; una rejilla, la cual se deforma por la presencia de los objetos; - simuladores de llama y viento, y otros repliegues de la matriz aplicadas a los objetos; y - efectos especiales, que pulsan al batir de la música, que se detectan separadamente. Otra clase principal de aplicaciones permite que los objetos reales interactúen con objetos y caracteres virtuales. Por ejemplo, una imagen que muestra un grupo de patitos puede ser programada para seguir detrás de cualquier objeto real (por ejemplo una persona) que camine frente del exhibidor . Además, los juegos de computadora que pueden ser jugados por personas que se mueven frente de la cámara, desde otra clase de aplicaciones.
Sin embargo, esta lista no es exclusiva; este componente se diseña para ser programable y así puede operar cualquier aplicación. La salida del software del proceso desde el componente previo, se exhibe visualmente. Posibles exhibiciones incluyen, pero no se limitan a: proyectores de video, televisiones, exhibidores de plasma y presentaciones láser. La imagen exhibida puede estar alineada con el intervalo de entrada de la cámara de video, así que los efectos de video se alinean con las ubicaciones de las personas que los causan. Puesto que algunas configuraciones de la cámara de video pueden detectar objetos en luz no visible, se evita el problema de la interferencia de exhibición con la cámara. Existen numerosas posibles configuraciones para diferentes componentes. Por ejemplo, la cámara y un proyector de video pueden estar en la misma ubicación y apuntados en la misma dirección. La cámara y el proyector pueden luego apuntar a una pared, como se muestra en la Figura 1, apuntar al suelo, y dirigirse con un espejo, como se muestra en la Figura 2 o apuntar en cualquier otra superficie. Alternativamente, el proyector puede ser colocado detrás de la pantalla, como se muestra en la Figura 3, así que la exhibición es idéntica a aquélla de la Figura 1, pero la persona ya no está en el camino de la proyección, así que ellos no se funden como una sombra. La sombra puede también ser evitada, colocando el proyector en un ángulo oblicuo a la pantalla, como se muestra en la Figura 4. La exhibición de video puede también ser una TV de pantalla grande, exhibición de plasma o pared de video. Mientras las configuraciones, antes mencionadas, tienen todas la exhibición de video alineada con la entrada de video, no es necesario que la exhibición de video pueda ser colocada en cualquier part. La lista precedente no es exhaustiva, hay numerosas posibles configuraciones adicionales . El sistema general puede ser trabajado en red, que permite la información de visión y la información del estado del software del proceso será intercambiada entre los sistemas. Así, un objeto detectado en la señal de visión de un sistema puede afectar el software del proceso en otro sistema. Además, un artículo virtual en la exhibición de un sistema puede moverse a otros sistemas. Si la exhibición de múltiples sistemas están alineadas juntas, de manera que formen una exhibición grande sencilla, entonces los sistemas múltiples pueden ser hechos funcionar como si ellos fueran un sistema sencillo muy grande, con objetos de interacciones que se mueven inconsútilmente a través de los limites de exhibición. Un problema común con el sistema de visión es que, en casos donde hay iluminación ambiente no controlable (por ejemplo la luz del sol) de esta área de visión de la cámara desde un ángulo significantemente diferente de la cámara, los objetos se funden en sombras en el fondo. Estas sombras son suficientemente fuertes, que el sistema de visión puede confundirlas con objetos. Estas sombras pueden ser detectadas y removidas por estroboscopio de la fuente de luz de la cámara. Restando la imagen de entrada de la cámara, con la luz ambiente sola desde la imagen de entrada de la cámara, con tanto la luz ambiental como la luz de la cámara, el sistema suministra una imagen que captura la escena como si solamente la luz de la cámara se usara, eliminando así las sombras detectables de la luz ambiental . Exactitud adicional para detectar objetos con las imágenes capturadas por la cámara, pueden ser obtenidas usando la iluminación en patrones o marcas en patrones. Un inconveniente de usar un sistema de iluminación sencillo de inundación de luz para la visión de computadora, es que si los colores de objetos se ven por la cámara son muy similares, luego los objeto pueden ser difíciles de detectar.
Si la cámara opera en tipo monocromático es mucho más probable que el objeto y fondo se ven igual. Usando un objeto en patrones para cubrir el área visible de la cámara, puede mejorarse la detección del objeto. Si un patrón que contiene dos o más colores mezclados en proximidad estrecha se usa, es altamente improbable que otros objetos tengan una vista similar, puesto que al menos un color del patrón se mirará diferente del color de los objetos rodeantes. Si un objeto en patrones, tal como una pantalla, se usa como un fondo, antes del cual están los objetos que se van a detectar, entonces los objetos que pasan frente de la pantalla en patrones con detectados más fácilmente por el algoritmo de visión. Por ejemplo, en una aplicación de visión infrarroja, el objeto en patrones puede ser una estera de fondo que aparece blanca al ojo humano, pero contiene un patrón, de luz y oscuridad, de tipo tablero de ajedrez, que es invisible al ojo humano, pero visible a la cámara. Usando un patrón que no está en el espectro de luz visible, la estera en patrones no interferirá con la estética del sistema. El sistema de exhibición (por ejemplo, video de proyección) puede proyectar imágenes de salida sobre la estera, como se describió antes. Un proceso que se ejecuta en sistema de proceso, tal como un sistema de computadora, puede ser provisto con patrones de fondo, haciendo así la detección de un objeto frente de la estera más fácil, aunque el sistema puede aprender el fondo en patrones en la misma manera que el algoritmo de visión aprende cualquier otro fondo. Igualmente, la habilidad del sistema para adaptarse a cambio en la brillantez de la luz de fondo será afectada adversamente . Una iluminación con patrón puede también ser protegida de una fuente de luz sobre el área visible de la cámara. En tanto la cámara y la fuente de luz invisible están en ubicaciones desplazadas, diferentes, los efectos de paralaje causarán que la vista de la cámara del patrón proyectado sea distorsionada, conforme los objetos se mueven a través del área de visión de la cámara. Esta distorsión ayuda a hacer que los objetos tengan colores similares, que resaltan entre sí. Si la diferencia entre la dos imágenes vistas por la cámara se toman, el resultado mostrará la configuración de cualquier objeto que aparezca, desaparezca, o se mueva entre las dos imágenes. Si la imagen de un objeto frente del fono se resta de una imagen de un fondo solo, el resultado es una imagen que es cero, donde hay un fondo y no de cero donde hay otros objetos. Esta técnica puede ser usada en combinación con otros objetos de la invención, aquí discutida . Una fuente de luz en patrones puede ser lograda a través de varios recursos . Un método es usar un racimo de diodos emisores de luz infrarroja (LED) u otro tipo de fuente de luz no visible, en un proyector de transparencias. Un conjunto de lentes será usado para enfocar la fuente de luz a través de una transparencia que contiene un patrón deseado, fundiendo asi la imagen con patrón en el área de visión de la cámara. En otro método, un haz de láser infrarrojo puede ser iluminado en un generador de patrón de láser u otro dispositivo de dispersión, con el fin de producir un patrón de luz en el área de visión de la cámara, la luz puede ser desviada, obturada, explorada, etc., con el fin de lograr un patrón. Muchos otros acercamientos son posibles. Una fuente de luz en patrones es también útil para una visión de computadora de tres dimensiones (3D) . Las técnicas de visión de computadora 3D, tal como el algoritmo Marr-Poggio, toman como entrada dos imágenes de la misma escena, tomadas de ángulos levemente diferentes. Los patrones en las imágenes se hacen corresponder para determinar la cantidad de desplazamiento y así la distancia desde la cámara, en cada punto en la imagen. El desempeño de este algoritmo se degrada cuando comparte con objetos de color uniforme, debido a que el color uniforme hace difícil coincidir las secciones correspondientes en la pareja de imágenes. Así, la fuente de luz en patrones puede mejorar la estimación de distancia de algunos algoritmos de visión de computadora 3D. Las dos imágenes de entrada a estos algoritmos de visión 3D son generados usualmente usando una pareja de cámaras apuntadas a la escena. Sin embargo, es también posible usar sólo una cámara. La segunda imagen puede ser una versión totalmente sin distorsión del patrón proyectado, que se conocen adelante del tiempo. Esta imagen del patrón es esencialmente idéntica a lo que una segunda cámara vería si se colocada en la misma ubicación exacta como una fuente de salida con patrón. Así, la visión de la cámara sencilla y el patrón proyectado juntos pueden ser usados como una entrad al algoritmo de visión 3. Alternativamente, la segunda imagen puede ser una imagen de fondo sola, tomada desde la misma cámara . Mientras muchas diferentes clases de patrones se pueden usar, un patrón de puntos aleatoria de alta resolución tiene ciertas ventajas para la visión tanto 2D como 3D. debido a la forma aleatoria del patrón de puntos, cada sección dimensionada significantemente del patrón de puntos es altamente poco probable se mire en cualquier otra sección del patrón. Asi, el patrón exhibido, causado por la presencia de un objeto en el área de visión, es altamente poco probable se mire similar al patrón sin el objeto ahí. Esto minimiza la habilidad del algoritmo de visión para detectar los desplazamientos en el patrón y, por lo tanto, los objetos. Usando un patrón regular, tal como una rejilla, puede causar alguna dificultad, debido a que las diferentes secciones del patrón son idénticas, causando que el patrón desplazado a menudo se mire similar al patrón no desplazado. Las Figuras 5A-D muestran la utilidad de un patrón de puntos aleatorio en detectar un objeto. La Figura 5A muestra una imagen de una persona bajo iluminación normal. La persona tiene una brillantez similar a la del fondo, haciendo difícil la detección. En la Figura 5B, un patrón de puntos aleatorio se proyecta en el fondo desde una fuente de luz, cerca de la cámara. Cuando la persona se encuentra frente a este patrón, el patrón reflejado de la persona se desplaza, como se muestra en la Figura 5C. Tomando la diferencia entre las imágenes en las Figuras 5B y 5C, la imagen de la Figura 5D se obtiene, la cual define el área de imagen de la persona con una señal fuerte .
Otros acercamientos se pueden usar para mejorar la detección de objetos. Por ejemplo, una fuente de luz puede ser de tipo "estroboscopio" o activada y desactivada periódicamente, así que la detección de las sombras debidas a otras fuentes de luz (por ejemplo la luz ambiental) se hace más fácil . Una vez que un objeto se ha detectado y definido, la modalidad preferida usa un aura gradiente para determinar el grao y dirección de interacción del objeto con un articulo de imagen exhibido. La Figura 6A muestra un usuario humano que interactúa con un objeto de video. En la Figura 6A, el objeto 304 se ha detectado y se muestra en forma perfilada. Una representación del objeto dentro del proceso de computadora puede usar la definición de perfil ilustrada en la Figura 6A. La pantalla 302 de video exhibe varios artículos de imagen, tal como la imagen 306 de una bola. La Figura 6B ilustra una imagen de influencia para la región de 308 de la Figura 6A. En la Figura 6B, la imagen de perfil del pie 320 del usuario y la pierna inferior se usan para generar las áreas de perfil sucesivamente mayores . La región del área 320' de perfil original se asigna a un valor de brillantez de píxel grande, que corresponde al blanco. Cada área de perfil sucesiva 322, 324, 326, 328, 330, se asigna a un valor progresivamente menor, así que un punto alejado del área de perfil inicial (blanco), tendrá un valor de píxel menor. Nótese que cualquier número de áreas de perfil puede ser usado. Igualmente, el tamaño e incrementos de las áreas de perfil pueden variar, según sea deseado. Por ejemplo, es posible usar un gradiente continuo, más bien que áreas discretas. La recolección de todas las áreas de perfil se refiere como la "imagen de influencia." Esta imagen de influencia es comparada a diferentes artículos de imágenes. En la Figura 6B, el artículo 306 de bola choca en las áreas 326, 328 y 330 de gradiente. Como se conoce en el arte, las líneas de dirección se determinan en la dirección del gradiente del campo del valor de píxel , para las áreas chocadas. La Figura 6B muestra tres líneas de dirección de ejemplo dentro del artículo 306. Las líneas de dirección pueden ser combinadas, por ejemplo por promedio, o una línea sencilla seleccionada se puede usar. El proceso también detecta que el área de perfil más brillante chocada por el artículo, es el área 326 de perfil. Otros acercamientos son posibles. Por ejemplo, la brillantez y gradiente pueden ser promediados sobre cualquier punto en el área del articulo de imagen, o en un subcon unto de esos puntos. Igualmente, algunas modalidades pueden incluir la duración del contacto como un factor además de la brillantez y el gradiente . La interacción entre un objeto, tal como una persona, y un articulo en la pantalla se computa usando tanto la brillantez de las áreas de perfil chocada, como la dirección como se computa usando uno o más productos de dirección. La brillantez encontrada corresponde a la fuerza con la cual el usuario está tocando" el artículo. El gradiente corresponde a la dirección en (o desde, dependiendo del signo de cálculo) , en la cual el artículo está siendo tocado . Aunque la invención se ha discutido con referencia a modalidades específicas de la misma, esas modalidades son ilustrativas y no restrictivas de la invención. Por ejemplo, aunque las modalidades preferidas usan una cámara como un detector, diferentes tipos de dispositivos de detección se pueden emplear. La cámara puede ser digital o analógica. Una cámara estereofónica puede ser usadas, con el fin de proporcionar la información de la profundidad al igual que la posición. En casos donde el proceso y exhibición no se hacen en el tiempo real, la película y otros tipos de medios pueden ser usados y seguidos por una conversión digital, antes de la entrada de datos a un procesador. Los sensores o detectores de luz se pueden usar. Por ejemplo, un arreglo de fotodetectores puede ser usado en colocar la cámara. Otros detectores no considerados aqui se pueden usar con resultados adecuados . En general, cualquier tipo de dispositivo de exhibición se puede usar en la presente invención. Por ejemplo, aunque los dispositivos de video se lian descrito en varias modalidades y configuraciones, otros tipos de dispositivos de presentación visual pueden ser usados. Un arreglo de diodo emisor de luz (LED) , LED orgánico (OLED) , polímero que emite luz (LEP) , sistema electromagnético, de rayos catódicos, de plasma, mecánico u otro sistema de exhibición, pueden ser empleados . Se pueden emplear exhibidores de la realidad virtual, de tres dimensiones y otros tipos de exhibidores. Por ejemplo, un usuario puede usar gafas protectoras de imágenes o un sombrerete, de manera que ellos se sumerjan dentro del medio rodeante generado. En este acercamiento, el exhibidor generado puede alinearse con la percepción del usuario de su medio rodeante para crear una realidad aumentada o mejorada. Una modalidad puede permitir que un usuario interactúe con una imagen de un carácter. Este carácter puede ser generado por computadora, realizado por un actor humano, etc. El carácter puede reaccionar a las acciones del usuario y la posición el cuerpo. Las interacciones pueden incluir el habla, la co-manipulación de obj etos , etc .. Múltiples sistemas se pueden interconectar por medio, por ejemplo, de una red digital. Por ejemplo, Ethernet, Universal Serial Bus (USB) , IEE 1394 (Firewire) , etc., se pueden usar. Los enlaces de comunicación inalámbricos, tal como se definen por la 802.11b, etc., pueden ser empleados. Usando múltiples sistemas, los usuarios en diferentes ubicaciones geográficas pueden cooperar, competir o interactuar de otra manera entre sí a través de las imágenes generadas . Estas imágenes generadas por dos o más sistemas pueden ser "enlosadas" juntas, o combinadas de otra manera para producir exhibiciones conglomeradas. Otros tipos de iluminación, en oposición a la luz, se pueden usar. Por ejemplo, señales de radar, microondas u otras ondas electromagnéticas, pueden ser usadas ventajosamente en situaciones donde un objeto se detecta (por ejemplo, un objeto de metal) que es altamente reflexivo de dichas ondas. Es posible adaptar aspectos del sistema a otras formas de detección, tal como por usa ondas acústicas en el aire o el agua. Aunque los sistemas de computadora se han descrito para recibir y procesar las señales de imágenes de objetos y para generar señales de exhibición, cualquier otro tipo de sistema de proceso puede ser usado. Por ejemplo, un sistema de proceso que no use una computadora de propósitos generales, puede ser empleado. Los sistemas de proceso que usan diseños basados en sistemas de circuitos a la medida o casi a la medida, o chips, circuitos integrados específicos de aplicación (ASIC) , arreglos de compuerta programables en el campo (FPGAs) , multiprocesadores, asincrónicos o de cualquier tipo de diseño de arquitectura, o de metodología, pueden ser adecuaos para su empleo con la presente invención. Asi, el ámbito de la invención será determinado únicamente por las reivindicaciones anexas.

Claims (36)

  1. REIVINDICACIONES 1. Un sistema para detectar un objeto y generar una exhibición en respuesta, este sistema comprende: una primer fuente, para producir energía electromagnética en un primer intervalo de longitud de onda; un detector, para detectar una reflexión de la primera fuente de energía electromagnética de un objeto; un procesador acoplado al detector, para usar la reflexión detectada para generar una señal de exhibición; una segunda fuente, para producir energía electromagnética en un segundo intervalo de longitud de onda, en que esta segunda fuente genera una exhibición visible, en respuesta a la señal exhibida, donde el primero y segundo intervalos de longitudes de onda son diferentes.
  2. 2. El sistema de la reivindicación 1, en que la primera fuente produce luz, la cual no está en el espectro visible, y donde la segunda fuente produce luz que está dentro del espectro visible.
  3. 3. El sistema de la reivindicación 2, en que la primera fuente produce luz infrarroja.
  4. 4. El sistema de la reivindicación 1, en que la segunda fuente incluye un proyector de video.
  5. 5. El sistema de la reivindicación 4, en que el proyector de video proyecta imágenes desde arriba del obj eto .
  6. 6. El sistema de la reivindicación 4, en que el proyector de video proyecta imágenes desde una superficie adyacente al objeto.
  7. 7. El sistema de la reivindicación 6, en que la superficie es parte de un sistema de proyección posterior.
  8. 8. El sistema de la reivindicación 6, en que la superficie es parte de un sistema de proyección frontal.
  9. 9. El sistema de la reivindicación 1, en que el objeto incluye un usuario humano.
  10. 10. El sistema de la reivindicación 1, en que la primera fuente incluye un patrón de iluminación.
  11. 11. El sistema de la reivindicación 10, en que el patrón incluye un patrón de puntos aleatorios .
  12. 12. El sistema de la reivindicación 1, que además comprende : un conjunto de diodos emisores de luz infrarro a, para generar el patrón de iluminación.
  13. 13. El sistema de la reivindicación 1, que además comprende : un proceso para determinar una imagen de influencia, en que esta imagen de influencia incluye una 5 región alrededor de una imagen de objeto, derivada desde el objeto .
  14. 14. El sistema de la reivindicación 13 , en que la exhibición visible incluye un producto, dicho sistema además i comprende : 0 un proceso para determinar un gradiente de la imagen de influencia; y un proceso para usar el gradiente, para determinar la interacción entre el obj eto y el producto .
  15. 15. El sistema de la reivindicación 1, en que la 5 exhibición visible incluye una contribución de un carácter.
  16. 16. Un método para obtener una imagen de un usuario humano, en que este usuario humano está adyacente a una imagen exhibida, este método comprende: usar luz a una primera longitud de onda, para 0 iluminar el usuario humano; usar una cámara, responsiva a la luz en una primera longitud de onda, para detectar la imagen del usuario humano; y usar la luz en una segunda longitud de onda, diferente de la primera longitud de onda, para generar la imagen exhibida.
  17. 17. El método de la reivindicación 16, en que se usan múltiples cámaras .
  18. 18. El método de la reivindicación 17, en que al menos se usan dos cámaras para producir un efecto estereoscópico .
  19. 19. El método de la reivindicación 16, en que una pantalla de plasma se usa para generar la imagen exhibida.
  20. 20. El método de la reivindicación 16, en que la imagen exhibida incluye publicidad.
  21. 21. El método de la reivindicación 16, en que la imagen exhibida es parte de un juego de video.
  22. 22. El método de la reivindicación 16, que además comprende : tratar con estroboscopio la luz en una primera longitud de onda.
  23. 23. El método de la reivindicación 16, que' además comprende : interconectar múltiples sistemas, de manera que la información acerca de la detección de imagen y exhibición puedan ser transferidas entre los sistemas
  24. 24. El método de la reivindicación 23, que además comprende : usar la información transferida para crear una sola exhibición desde dos o más exhibiciones.
  25. 25. Un método para detectar un objeto en una imagen capturada con una cámara, este método comprende: usar una iluminación en patrones, para iluminar un fondo y no el objeto; y usar un sistema de proceso, para definir el objeto aparte del fondo.
  26. 26. El sistema de la reivindicación 25, en que la iluminación con patrón incluye un patrón de puntos aleatorios .
  27. 27. El sistema de la reivindicación 25, en que la iluminación con patrón incluye un patrón de tablero de damas.
  28. 28. El sistema de la reivindicación 25, en que la iluminación con patrón también ilumina el objeto.
  29. 29. Un método para la detección de un objeto en una imagen capturada con una cámara, este método comprende: usar un fondo con patrón; y usar un sistema de proceso para definir el objeto aparte del fondo.
  30. 30. Un método para computar una interacción de un objeto con un producto de video, este método comprende: usar un procesador para determinar un gradiente para el objeto; usar un procesador para determinar un límite para el producto de video; e identificar una interacción, usando el gradiente y el límite.
  31. 31. El sistema de la reivindicación 30, que además comprende : usar un procesador para determinar la brillantez de un área derivada del ob eto; identificar una interacción usando la brillantes del área y el límite.
  32. 32. El sistema de la reivindicación 30, en que la interacción es una persona que empuja el producto.
  33. 33. El sistema de la reivindicación 30, en que la interacción es una persona que toca el producto.
  34. 34. El sistema de la reivindicación 30, en que la interacción es una persona que deforma el producto.
  35. 35. El sistema de la reivindicación 30, en que la interacción es una persona que manipula el producto.
  36. 36. Un sistema para detectar un objeto y generar una salida en respuesta, dicho sistema comprende: una primera fuente, para producir la energía electromagnética en dico primer intervalo de longitud de onda; un detector, para detectar una reflexión de la primera fuente de energía electromagnética desde dicho ob eto ; un procesador, acoplado al detector, para emplear la reflexión detectada con el fin de generar una señal de exhibición; una segunda fuente, para producir energía electromagnética en un segundo intervalo de longitud de onda, donde esta segunda fuente genera una exhibición visible, en respuesta a la señal de exhibición, donde el primero y segundo intervalos de longitud de onda son diferentes; y una salida de la transmisión del sonido, para producir una frecuencia audible del sonido.
MXPA03011203A 2001-06-05 2002-06-04 Sistema interactivo de exhibicion de video. MXPA03011203A (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US29618901P 2001-06-05 2001-06-05
US10/160,217 US7259747B2 (en) 2001-06-05 2002-05-28 Interactive video display system
PCT/US2002/017843 WO2002100094A2 (en) 2001-06-05 2002-06-04 Interactive video display system

Publications (1)

Publication Number Publication Date
MXPA03011203A true MXPA03011203A (es) 2004-10-28

Family

ID=26856697

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA03011203A MXPA03011203A (es) 2001-06-05 2002-06-04 Sistema interactivo de exhibicion de video.

Country Status (14)

Country Link
US (2) US7259747B2 (es)
EP (1) EP1393549B1 (es)
JP (1) JP4077787B2 (es)
KR (1) KR100847795B1 (es)
CN (2) CN102033608B (es)
AT (1) ATE336860T1 (es)
BR (1) BR0210162A (es)
CA (1) CA2449300C (es)
DE (1) DE60213975T2 (es)
ES (1) ES2271272T3 (es)
IL (1) IL159207A0 (es)
MX (1) MXPA03011203A (es)
RU (1) RU2298294C2 (es)
WO (1) WO2002100094A2 (es)

Families Citing this family (545)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
US7009523B2 (en) * 1999-05-04 2006-03-07 Intellimats, Llc Modular protective structure for floor display
US6982649B2 (en) 1999-05-04 2006-01-03 Intellimats, Llc Floor display system with interactive features
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
US7088684B2 (en) * 2001-07-16 2006-08-08 International Business Machines Corporation Methods and arrangements for dynamically modifying subsource address multicast data distribution trees
US20030063052A1 (en) * 2001-09-28 2003-04-03 Rebh Richard G. Methods and systems of conveying information with an electroluminescent display
US6990639B2 (en) 2002-02-07 2006-01-24 Microsoft Corporation System and process for controlling electronic components in a ubiquitous computing environment using multimodal integration
US7710391B2 (en) * 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US20050122308A1 (en) * 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
EP1567234A4 (en) * 2002-11-05 2006-01-04 Disney Entpr Inc VIDEO INTERACTIVE ENVIRONMENT
US7671843B2 (en) * 2002-11-12 2010-03-02 Steve Montellese Virtual holographic input method and device
US20100262489A1 (en) * 2002-12-13 2010-10-14 Robert Salinas Mobile enabled advertising and marketing methods for computer games, simulations, demonstrations, and the like
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US6840627B2 (en) 2003-01-21 2005-01-11 Hewlett-Packard Development Company, L.P. Interactive display device
JP3849654B2 (ja) * 2003-02-21 2006-11-22 株式会社日立製作所 投射型表示装置
US8745541B2 (en) 2003-03-25 2014-06-03 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7665041B2 (en) 2003-03-25 2010-02-16 Microsoft Corporation Architecture for controlling a computer using hand gestures
US7428997B2 (en) * 2003-07-29 2008-09-30 Microvision, Inc. Method and apparatus for illuminating a field-of-view and capturing an image
IL157156A0 (en) * 2003-07-29 2004-08-31 Rafael Armament Dev Authority Predictive display for system having delayed feedback of a command issued
GB2406634A (en) * 2003-10-02 2005-04-06 Mathmos Ltd An object sensing lighting apparatus
CN1902930B (zh) * 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
KR100588042B1 (ko) * 2004-01-14 2006-06-09 한국과학기술연구원 인터액티브 프레젠테이션 시스템
JP4559092B2 (ja) * 2004-01-30 2010-10-06 株式会社エヌ・ティ・ティ・ドコモ 携帯通信端末及びプログラム
JP2005276139A (ja) * 2004-02-23 2005-10-06 Aruze Corp 情報入力装置
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7467380B2 (en) * 2004-05-05 2008-12-16 Microsoft Corporation Invoking applications with virtual objects on an interactive display
US20050265580A1 (en) * 2004-05-27 2005-12-01 Paul Antonucci System and method for a motion visualizer
EP1781893A1 (en) 2004-06-01 2007-05-09 Michael A. Vesely Horizontal perspective simulator
KR100616532B1 (ko) * 2004-06-07 2006-08-28 조열 광고 콘텐츠 제공방법
US7593593B2 (en) 2004-06-16 2009-09-22 Microsoft Corporation Method and system for reducing effects of undesired signals in an infrared imaging system
ATE532330T1 (de) * 2004-09-21 2011-11-15 Nikon Corp Projektoreinrichtung, mobiltelefon und kamera
US7433760B2 (en) 2004-10-28 2008-10-07 Accelerated Pictures, Inc. Camera and animation controller, systems and methods
US20060126925A1 (en) * 2004-11-30 2006-06-15 Vesely Michael A Horizontal perspective representation
US8508710B2 (en) * 2004-12-02 2013-08-13 Hewlett-Packard Development Company, L.P. Display panel
US7853041B2 (en) 2005-01-07 2010-12-14 Gesturetek, Inc. Detecting and tracking objects in images
US20070189544A1 (en) 2005-01-15 2007-08-16 Outland Research, Llc Ambient sound responsive media player
EP1851749B1 (en) * 2005-01-21 2012-03-28 Qualcomm Incorporated Motion-based tracking
WO2006085834A1 (en) * 2005-01-28 2006-08-17 Microvision, Inc. Method and apparatus for illuminating a field-of-view and capturing an image
US20060170871A1 (en) * 2005-02-01 2006-08-03 Dietz Paul H Anti-blinding safety feature for projection systems
KR100960577B1 (ko) * 2005-02-08 2010-06-03 오블롱 인더스트리즈, 인크 제스처 기반의 제어 시스템을 위한 시스템 및 방법
US7760962B2 (en) * 2005-03-30 2010-07-20 Casio Computer Co., Ltd. Image capture apparatus which synthesizes a plurality of images obtained by shooting a subject from different directions, to produce an image in which the influence of glare from a light is reduced
AU2006230860B2 (en) * 2005-04-05 2012-04-19 Google Llc Method and system supporting audited reporting of advertising impressions from video games
US9128519B1 (en) 2005-04-15 2015-09-08 Intellectual Ventures Holding 67 Llc Method and system for state-based control of objects
US20060241864A1 (en) * 2005-04-22 2006-10-26 Outland Research, Llc Method and apparatus for point-and-send data transfer within an ubiquitous computing environment
US8717423B2 (en) 2005-05-09 2014-05-06 Zspace, Inc. Modifying perspective of stereoscopic images based on changes in user viewpoint
WO2006121957A2 (en) 2005-05-09 2006-11-16 Michael Vesely Three dimensional horizontal perspective workstation
CN100359437C (zh) * 2005-05-11 2008-01-02 凌阳科技股份有限公司 交互式影像游戏系统
US20060262188A1 (en) * 2005-05-20 2006-11-23 Oded Elyada System and method for detecting changes in an environment
US20060267952A1 (en) * 2005-05-26 2006-11-30 Steve Alcorn Interactive display table top
US8081822B1 (en) 2005-05-31 2011-12-20 Intellectual Ventures Holding 67 Llc System and method for sensing a feature of an object in an interactive video display
JP2007017364A (ja) * 2005-07-11 2007-01-25 Kyoto Univ シルエット抽出装置及び該方法並びに3次元形状データ生成装置及び該方法
US20070018989A1 (en) * 2005-07-20 2007-01-25 Playmotion, Llc Sensory integration therapy system and associated method of use
FR2889303B1 (fr) * 2005-07-26 2008-07-11 Airbus France Sas Procede de mesure d'une anomalie de forme sur un panneau d'une structure d'aeronef et systeme de mise en oeuvre
US8625845B2 (en) * 2005-08-06 2014-01-07 Quantum Signal, Llc Overlaying virtual content onto video stream of people within venue based on analysis of the people within the video stream
TWI412392B (zh) * 2005-08-12 2013-10-21 Koninkl Philips Electronics Nv 互動式娛樂系統及其操作方法
US7911444B2 (en) 2005-08-31 2011-03-22 Microsoft Corporation Input method for surface of interactive display
US20070063981A1 (en) * 2005-09-16 2007-03-22 Galyean Tinsley A Iii System and method for providing an interactive interface
US8176101B2 (en) 2006-02-07 2012-05-08 Google Inc. Collaborative rejection of media for physical establishments
US7917148B2 (en) 2005-09-23 2011-03-29 Outland Research, Llc Social musical media rating system and method for localized establishments
US7697827B2 (en) 2005-10-17 2010-04-13 Konicek Jeffrey C User-friendlier interfaces for a camera
US8098277B1 (en) 2005-12-02 2012-01-17 Intellectual Ventures Holding 67 Llc Systems and methods for communication between a reactive video system and a mobile communication device
US20070145680A1 (en) * 2005-12-15 2007-06-28 Outland Research, Llc Shake Responsive Portable Computing Device for Simulating a Randomization Object Used In a Game Of Chance
AT503008B1 (de) * 2005-12-16 2008-09-15 Dobler & Stampfl Audite Oeg Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system
US7630002B2 (en) * 2007-01-05 2009-12-08 Microsoft Corporation Specular reflection reduction using multiple cameras
DE102006002602A1 (de) 2006-01-13 2007-07-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kalibrierungsverfahren und Kalibrierungssystem
JP5201999B2 (ja) * 2006-02-03 2013-06-05 パナソニック株式会社 入力装置、及びその方法
US9075441B2 (en) * 2006-02-08 2015-07-07 Oblong Industries, Inc. Gesture based control using three-dimensional information extracted over an extended depth of field
US8537112B2 (en) * 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US8407725B2 (en) 2007-04-24 2013-03-26 Oblong Industries, Inc. Proteins, pools, and slawx in processing environments
US8531396B2 (en) 2006-02-08 2013-09-10 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
US9910497B2 (en) * 2006-02-08 2018-03-06 Oblong Industries, Inc. Gestural control of autonomous and semi-autonomous systems
US8370383B2 (en) 2006-02-08 2013-02-05 Oblong Industries, Inc. Multi-process interactive systems and methods
US9823747B2 (en) 2006-02-08 2017-11-21 Oblong Industries, Inc. Spatial, multi-modal control device for use with spatial operating system
US8537111B2 (en) 2006-02-08 2013-09-17 Oblong Industries, Inc. Control system for navigating a principal dimension of a data space
ITRM20060136A1 (it) * 2006-03-10 2007-09-11 Link Formazione S R L Sistema multimediale interattivo
US8930834B2 (en) * 2006-03-20 2015-01-06 Microsoft Corporation Variable orientation user interface
EP2004299A2 (en) * 2006-03-22 2008-12-24 Home Focus Development Limited Interactive playmat
US8139059B2 (en) * 2006-03-31 2012-03-20 Microsoft Corporation Object illumination in a virtual environment
KR100742664B1 (ko) * 2006-05-10 2007-07-25 주식회사 플러 인터랙티브 영상의 디스플레이 시스템 및 방법
JP5167248B2 (ja) * 2006-05-11 2013-03-21 プライムセンス リミテッド 深度マップによるヒューマノイド形状のモデル化
US7724952B2 (en) * 2006-05-15 2010-05-25 Microsoft Corporation Object matting using flash and no-flash images
EP3117768B1 (en) 2006-05-19 2019-11-06 The Queen's Medical Center Motion tracking system and method for real time adaptive imaging and spectroscopy
US7735730B2 (en) 2006-05-24 2010-06-15 International Business Machines Corporation System and method for state-based execution and recovery in a payment system
US20070292033A1 (en) * 2006-06-19 2007-12-20 Chao-Wang Hsiung Passive and interactive real-time image recognition software method
US8001613B2 (en) * 2006-06-23 2011-08-16 Microsoft Corporation Security using physical objects
US20080040692A1 (en) * 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
JP5028038B2 (ja) * 2006-07-06 2012-09-19 クラリオン株式会社 車載表示装置および車載表示装置の表示方法
JP4707034B2 (ja) * 2006-07-07 2011-06-22 株式会社ソニー・コンピュータエンタテインメント 画像処理方法、入力インタフェース装置
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
US8972902B2 (en) * 2008-08-22 2015-03-03 Northrop Grumman Systems Corporation Compound gesture recognition
US8180114B2 (en) * 2006-07-13 2012-05-15 Northrop Grumman Systems Corporation Gesture recognition interface system with vertical display
US8589824B2 (en) * 2006-07-13 2013-11-19 Northrop Grumman Systems Corporation Gesture recognition interface system
US8234578B2 (en) * 2006-07-25 2012-07-31 Northrop Grumman Systems Corporatiom Networked gesture collaboration system
US7880770B2 (en) * 2006-07-28 2011-02-01 Accelerated Pictures, Inc. Camera control
WO2008014487A2 (en) * 2006-07-28 2008-01-31 Accelerated Pictures, Inc. Scene organization in computer-assisted filmmaking
US8432448B2 (en) * 2006-08-10 2013-04-30 Northrop Grumman Systems Corporation Stereo camera intrusion detection system
US7693331B2 (en) * 2006-08-30 2010-04-06 Mitsubishi Electric Research Laboratories, Inc. Object segmentation using visible and infrared images
WO2008058277A2 (en) * 2006-11-09 2008-05-15 Smartdrive Systems, Inc. Video event recorders having integrated illumination sources
EP2104905A4 (en) 2006-12-29 2010-12-29 Gesturetek Inc MANIPULATION OF VIRTUAL OBJECTS USING AN EXTENDED INTERACTIVE SYSTEM
US8212857B2 (en) 2007-01-26 2012-07-03 Microsoft Corporation Alternating light sources to reduce specular reflection
US8116518B2 (en) * 2007-02-15 2012-02-14 Qualcomm Incorporated Enhanced input using flashing electromagnetic radiation
US8005238B2 (en) 2007-03-22 2011-08-23 Microsoft Corporation Robust adaptive beamforming with enhanced noise suppression
US9171399B2 (en) * 2013-03-12 2015-10-27 Autodesk, Inc. Shadow rendering in a 3D scene based on physical light sources
WO2008124820A1 (en) * 2007-04-10 2008-10-16 Reactrix Systems, Inc. Display using a three dimensional vision system
US20080262909A1 (en) * 2007-04-18 2008-10-23 Microsoft Corporation Intelligent information display
WO2008134745A1 (en) 2007-04-30 2008-11-06 Gesturetek, Inc. Mobile video-based therapy
US8005237B2 (en) 2007-05-17 2011-08-23 Microsoft Corp. Sensor array beamformer post-processor
US7808532B2 (en) * 2007-05-29 2010-10-05 Microsoft Corporation Strategies for extracting foreground information using flash and no-flash image pairs
EP2017526A1 (en) * 2007-06-13 2009-01-21 Royal College Of Art Directable light
US20080316432A1 (en) * 2007-06-25 2008-12-25 Spotless, Llc Digital Image Projection System
US20110001935A1 (en) * 2007-06-25 2011-01-06 Spotless, Llc Digital image projection system
US8726194B2 (en) 2007-07-27 2014-05-13 Qualcomm Incorporated Item selection using enhanced control
US20090059094A1 (en) * 2007-09-04 2009-03-05 Samsung Techwin Co., Ltd. Apparatus and method for overlaying image in video presentation system having embedded operating system
CA2699628A1 (en) 2007-09-14 2009-03-19 Matthew Bell Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
US8218811B2 (en) 2007-09-28 2012-07-10 Uti Limited Partnership Method and system for video interaction based on motion swarms
US20090086027A1 (en) * 2007-10-01 2009-04-02 Benjamin Antonio Chaykin Method And System For Providing Images And Graphics
US8629976B2 (en) 2007-10-02 2014-01-14 Microsoft Corporation Methods and systems for hierarchical de-aliasing time-of-flight (TOF) systems
US7874681B2 (en) * 2007-10-05 2011-01-25 Huebner Kenneth J Interactive projector system and method
US8139110B2 (en) * 2007-11-01 2012-03-20 Northrop Grumman Systems Corporation Calibration of a gesture recognition interface system
US9377874B2 (en) * 2007-11-02 2016-06-28 Northrop Grumman Systems Corporation Gesture recognition light and video image projector
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20090124382A1 (en) * 2007-11-13 2009-05-14 David Lachance Interactive image projection system and method
KR101079598B1 (ko) * 2007-12-18 2011-11-03 삼성전자주식회사 디스플레이장치 및 그 제어방법
US8933876B2 (en) 2010-12-13 2015-01-13 Apple Inc. Three dimensional user interface session control
US8166421B2 (en) * 2008-01-14 2012-04-24 Primesense Ltd. Three-dimensional user interface
US9035876B2 (en) 2008-01-14 2015-05-19 Apple Inc. Three-dimensional user interface session control
CN102016877B (zh) * 2008-02-27 2014-12-10 索尼计算机娱乐美国有限责任公司 用于捕获场景的深度数据并且应用计算机动作的方法
US20090219253A1 (en) * 2008-02-29 2009-09-03 Microsoft Corporation Interactive Surface Computer with Switchable Diffuser
US7946922B2 (en) 2008-03-05 2011-05-24 Howard Hung Yin Advertising funded gaming system
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing
US8194233B2 (en) 2008-04-11 2012-06-05 Microsoft Corporation Method and system to reduce stray light reflection error in time-of-flight sensor arrays
US9952673B2 (en) 2009-04-02 2018-04-24 Oblong Industries, Inc. Operating environment comprising multiple client devices, multiple displays, multiple users, and gestural control
US9495013B2 (en) 2008-04-24 2016-11-15 Oblong Industries, Inc. Multi-modal gestural interface
US8723795B2 (en) 2008-04-24 2014-05-13 Oblong Industries, Inc. Detecting, representing, and interpreting three-space input: gestural continuum subsuming freespace, proximal, and surface-contact modes
US10642364B2 (en) 2009-04-02 2020-05-05 Oblong Industries, Inc. Processing tracking and recognition data in gestural recognition systems
US9740293B2 (en) 2009-04-02 2017-08-22 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9740922B2 (en) 2008-04-24 2017-08-22 Oblong Industries, Inc. Adaptive tracking system for spatial input devices
US9684380B2 (en) 2009-04-02 2017-06-20 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US8405727B2 (en) * 2008-05-01 2013-03-26 Apple Inc. Apparatus and method for calibrating image capture devices
CN101306249B (zh) * 2008-05-30 2011-09-14 北京中星微电子有限公司 动作分析装置和方法
US8595218B2 (en) 2008-06-12 2013-11-26 Intellectual Ventures Holding 67 Llc Interactive display management systems and methods
CN102112945B (zh) * 2008-06-18 2016-08-10 奥布隆工业有限公司 用于交通工具接口的基于姿态的控制系统
US8385557B2 (en) 2008-06-19 2013-02-26 Microsoft Corporation Multichannel acoustic echo reduction
US8345920B2 (en) * 2008-06-20 2013-01-01 Northrop Grumman Systems Corporation Gesture recognition interface system with a light-diffusive screen
US8325909B2 (en) 2008-06-25 2012-12-04 Microsoft Corporation Acoustic echo suppression
US8203699B2 (en) 2008-06-30 2012-06-19 Microsoft Corporation System architecture design for time-of-flight system having reduced differential pixel size, and time-of-flight systems so designed
US7515136B1 (en) 2008-07-31 2009-04-07 International Business Machines Corporation Collaborative and situationally aware active billboards
RU2461143C2 (ru) * 2008-08-13 2012-09-10 Александр Львович Шведов Способ создания эффекта виртуального присутствия с комбинированным видеоизображением
US8538084B2 (en) * 2008-09-08 2013-09-17 Apple Inc. Method and apparatus for depth sensing keystoning
WO2010027291A1 (ru) * 2008-09-08 2010-03-11 Rurin Oleg Stanislavovich Способ отображения информации
US8508671B2 (en) 2008-09-08 2013-08-13 Apple Inc. Projection systems and methods
US20100064213A1 (en) * 2008-09-10 2010-03-11 Zhou Ye Operation device for a graphical user interface
US8610726B2 (en) * 2008-09-26 2013-12-17 Apple Inc. Computer systems and methods with projected display
US8527908B2 (en) 2008-09-26 2013-09-03 Apple Inc. Computer user interface system and methods
US7881603B2 (en) * 2008-09-26 2011-02-01 Apple Inc. Dichroic aperture for electronic imaging device
US20100079426A1 (en) * 2008-09-26 2010-04-01 Apple Inc. Spatial ambient light profiling
JP5514219B2 (ja) * 2008-10-28 2014-06-04 コーニンクレッカ フィリップス エヌ ヴェ 三次元表示システム
US9586135B1 (en) 2008-11-12 2017-03-07 David G. Capper Video motion capture for wireless gaming
US10086262B1 (en) 2008-11-12 2018-10-02 David G. Capper Video motion capture for wireless gaming
US9383814B1 (en) 2008-11-12 2016-07-05 David G. Capper Plug and play wireless video game
GB2466497B (en) 2008-12-24 2011-09-14 Light Blue Optics Ltd Touch sensitive holographic displays
US8903191B2 (en) * 2008-12-30 2014-12-02 Intel Corporation Method and apparatus for noise reduction in video
US8681321B2 (en) 2009-01-04 2014-03-25 Microsoft International Holdings B.V. Gated 3D camera
KR20100084338A (ko) * 2009-01-16 2010-07-26 삼성전자주식회사 이미지 드로잉 방법 및 장치
US8682028B2 (en) 2009-01-30 2014-03-25 Microsoft Corporation Visual target tracking
US8565476B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8267781B2 (en) 2009-01-30 2012-09-18 Microsoft Corporation Visual target tracking
US8294767B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Body scan
US8577085B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US20100199231A1 (en) 2009-01-30 2010-08-05 Microsoft Corporation Predictive determination
US8577084B2 (en) 2009-01-30 2013-11-05 Microsoft Corporation Visual target tracking
US8295546B2 (en) 2009-01-30 2012-10-23 Microsoft Corporation Pose tracking pipeline
US9652030B2 (en) * 2009-01-30 2017-05-16 Microsoft Technology Licensing, Llc Navigation of a virtual plane using a zone of restriction for canceling noise
US7996793B2 (en) 2009-01-30 2011-08-09 Microsoft Corporation Gesture recognizer system architecture
US8565477B2 (en) 2009-01-30 2013-10-22 Microsoft Corporation Visual target tracking
US8448094B2 (en) 2009-01-30 2013-05-21 Microsoft Corporation Mapping a natural input device to a legacy system
US8487938B2 (en) 2009-01-30 2013-07-16 Microsoft Corporation Standard Gestures
US8588465B2 (en) 2009-01-30 2013-11-19 Microsoft Corporation Visual target tracking
US8624962B2 (en) * 2009-02-02 2014-01-07 Ydreams—Informatica, S.A. Ydreams Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US8773355B2 (en) 2009-03-16 2014-07-08 Microsoft Corporation Adaptive cursor sizing
US9256282B2 (en) 2009-03-20 2016-02-09 Microsoft Technology Licensing, Llc Virtual object manipulation
US8988437B2 (en) 2009-03-20 2015-03-24 Microsoft Technology Licensing, Llc Chaining animations
US8291328B2 (en) * 2009-03-24 2012-10-16 Disney Enterprises, Inc. System and method for synchronizing a real-time performance with a virtual object
US8375311B2 (en) * 2009-03-24 2013-02-12 Disney Enterprises, Inc. System and method for determining placement of a virtual object according to a real-time performance
ITRM20090153A1 (it) * 2009-04-01 2010-10-02 Stark Srl Modulo integrato di proiettore interattivo
US9313376B1 (en) 2009-04-01 2016-04-12 Microsoft Technology Licensing, Llc Dynamic depth power equalization
US9317128B2 (en) 2009-04-02 2016-04-19 Oblong Industries, Inc. Remote devices used in a markerless installation of a spatial operating environment incorporating gestural control
US10824238B2 (en) 2009-04-02 2020-11-03 Oblong Industries, Inc. Operating environment with gestural control and multiple client devices, displays, and users
US9377857B2 (en) 2009-05-01 2016-06-28 Microsoft Technology Licensing, Llc Show body position
US8660303B2 (en) 2009-05-01 2014-02-25 Microsoft Corporation Detection of body and props
US8253746B2 (en) 2009-05-01 2012-08-28 Microsoft Corporation Determine intended motions
US8649554B2 (en) 2009-05-01 2014-02-11 Microsoft Corporation Method to control perspective for a camera-controlled computer
US9898675B2 (en) 2009-05-01 2018-02-20 Microsoft Technology Licensing, Llc User movement tracking feedback to improve tracking
US8340432B2 (en) 2009-05-01 2012-12-25 Microsoft Corporation Systems and methods for detecting a tilt angle from a depth image
US8942428B2 (en) 2009-05-01 2015-01-27 Microsoft Corporation Isolate extraneous motions
US8181123B2 (en) 2009-05-01 2012-05-15 Microsoft Corporation Managing virtual port associations to users in a gesture-based computing environment
US8638985B2 (en) * 2009-05-01 2014-01-28 Microsoft Corporation Human body pose estimation
US9015638B2 (en) 2009-05-01 2015-04-21 Microsoft Technology Licensing, Llc Binding users to a gesture based system and providing feedback to the users
US9498718B2 (en) 2009-05-01 2016-11-22 Microsoft Technology Licensing, Llc Altering a view perspective within a display environment
US20100277470A1 (en) * 2009-05-01 2010-11-04 Microsoft Corporation Systems And Methods For Applying Model Tracking To Motion Capture
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
US8509479B2 (en) 2009-05-29 2013-08-13 Microsoft Corporation Virtual object
US8418085B2 (en) 2009-05-29 2013-04-09 Microsoft Corporation Gesture coach
US9182814B2 (en) 2009-05-29 2015-11-10 Microsoft Technology Licensing, Llc Systems and methods for estimating a non-visible or occluded body part
US8744121B2 (en) 2009-05-29 2014-06-03 Microsoft Corporation Device for identifying and tracking multiple humans over time
US9400559B2 (en) 2009-05-29 2016-07-26 Microsoft Technology Licensing, Llc Gesture shortcuts
US8693724B2 (en) 2009-05-29 2014-04-08 Microsoft Corporation Method and system implementing user-centric gesture control
US8625837B2 (en) 2009-05-29 2014-01-07 Microsoft Corporation Protocol and format for communicating an image from a camera to a computing environment
US9383823B2 (en) 2009-05-29 2016-07-05 Microsoft Technology Licensing, Llc Combining gestures beyond skeletal
US8379101B2 (en) 2009-05-29 2013-02-19 Microsoft Corporation Environment and/or target segmentation
US8856691B2 (en) 2009-05-29 2014-10-07 Microsoft Corporation Gesture tool
US8542252B2 (en) 2009-05-29 2013-09-24 Microsoft Corporation Target digitization, extraction, and tracking
US8320619B2 (en) 2009-05-29 2012-11-27 Microsoft Corporation Systems and methods for tracking a model
US8487871B2 (en) 2009-06-01 2013-07-16 Microsoft Corporation Virtual desktop coordinate transformation
US8223196B2 (en) * 2009-06-10 2012-07-17 Disney Enterprises, Inc. Projector systems and methods for producing digitally augmented, interactive cakes and other food products
JP5553546B2 (ja) * 2009-07-07 2014-07-16 キヤノン株式会社 画像投影装置、及びその制御方法
US8390680B2 (en) 2009-07-09 2013-03-05 Microsoft Corporation Visual representation expression based on player expression
US9159151B2 (en) 2009-07-13 2015-10-13 Microsoft Technology Licensing, Llc Bringing a visual representation to life via learned input from the user
TW201104494A (en) * 2009-07-20 2011-02-01 J Touch Corp Stereoscopic image interactive system
US8847984B2 (en) * 2009-07-27 2014-09-30 Disney Enterprises, Inc. System and method for forming a composite image in a portable computing device having a dual screen display
US8616971B2 (en) 2009-07-27 2013-12-31 Obscura Digital, Inc. Automated enhancements for billiards and the like
US8727875B2 (en) * 2009-07-27 2014-05-20 Obscura Digital, Inc. Automated enhancements for billiards and the like
US8992315B2 (en) * 2009-07-27 2015-03-31 Obscura Digital, Inc. Automated enhancements for billiards and the like
KR101276199B1 (ko) * 2009-08-10 2013-06-18 한국전자통신연구원 시청자 참여의 iptv 원격 방송 시스템 및 그 서비스 제공 방법
US8565479B2 (en) * 2009-08-13 2013-10-22 Primesense Ltd. Extraction of skeletons from 3D maps
US8264536B2 (en) 2009-08-25 2012-09-11 Microsoft Corporation Depth-sensitive imaging via polarization-state mapping
US9141193B2 (en) 2009-08-31 2015-09-22 Microsoft Technology Licensing, Llc Techniques for using human gestures to control gesture unaware programs
US8508919B2 (en) 2009-09-14 2013-08-13 Microsoft Corporation Separation of electrical and optical components
US8330134B2 (en) 2009-09-14 2012-12-11 Microsoft Corporation Optical fault monitoring
US8976986B2 (en) 2009-09-21 2015-03-10 Microsoft Technology Licensing, Llc Volume adjustment based on listener position
US8760571B2 (en) 2009-09-21 2014-06-24 Microsoft Corporation Alignment of lens and image sensor
US8428340B2 (en) 2009-09-21 2013-04-23 Microsoft Corporation Screen space plane identification
US9014546B2 (en) 2009-09-23 2015-04-21 Rovi Guides, Inc. Systems and methods for automatically detecting users within detection regions of media devices
US8619128B2 (en) 2009-09-30 2013-12-31 Apple Inc. Systems and methods for an imaging system using multiple image sensors
US8502926B2 (en) * 2009-09-30 2013-08-06 Apple Inc. Display system having coherent and incoherent light sources
US8452087B2 (en) 2009-09-30 2013-05-28 Microsoft Corporation Image selection techniques
US8723118B2 (en) 2009-10-01 2014-05-13 Microsoft Corporation Imager for constructing color and depth images
US8564534B2 (en) 2009-10-07 2013-10-22 Microsoft Corporation Human tracking system
US7961910B2 (en) 2009-10-07 2011-06-14 Microsoft Corporation Systems and methods for tracking a model
US8867820B2 (en) * 2009-10-07 2014-10-21 Microsoft Corporation Systems and methods for removing a background of an image
US8547327B2 (en) 2009-10-07 2013-10-01 Qualcomm Incorporated Proximity object tracker
US8963829B2 (en) 2009-10-07 2015-02-24 Microsoft Corporation Methods and systems for determining and tracking extremities of a target
US9971807B2 (en) 2009-10-14 2018-05-15 Oblong Industries, Inc. Multi-process interactive systems and methods
US9933852B2 (en) 2009-10-14 2018-04-03 Oblong Industries, Inc. Multi-process interactive systems and methods
US9400548B2 (en) 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US8988432B2 (en) 2009-11-05 2015-03-24 Microsoft Technology Licensing, Llc Systems and methods for processing an image for target tracking
US8843857B2 (en) 2009-11-19 2014-09-23 Microsoft Corporation Distance scalable no touch computing
US8672763B2 (en) * 2009-11-20 2014-03-18 Sony Computer Entertainment Inc. Controller for interfacing with a computing program using position, orientation, or motion
CN102741781A (zh) * 2009-12-04 2012-10-17 奈克斯特控股公司 用于位置探测的传感器方法和系统
US9244533B2 (en) 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
US20110150271A1 (en) 2009-12-18 2011-06-23 Microsoft Corporation Motion detection using depth images
US8320621B2 (en) 2009-12-21 2012-11-27 Microsoft Corporation Depth projector system with integrated VCSEL array
US8687070B2 (en) 2009-12-22 2014-04-01 Apple Inc. Image capture device having tilt and/or perspective correction
US8631355B2 (en) 2010-01-08 2014-01-14 Microsoft Corporation Assigning gesture dictionaries
US9019201B2 (en) * 2010-01-08 2015-04-28 Microsoft Technology Licensing, Llc Evolving universal gesture sets
US9268404B2 (en) 2010-01-08 2016-02-23 Microsoft Technology Licensing, Llc Application gesture interpretation
US8933884B2 (en) 2010-01-15 2015-01-13 Microsoft Corporation Tracking groups of users in motion capture system
US8334842B2 (en) 2010-01-15 2012-12-18 Microsoft Corporation Recognizing user intent in motion capture system
US8676581B2 (en) 2010-01-22 2014-03-18 Microsoft Corporation Speech recognition analysis via identification information
US8265341B2 (en) 2010-01-25 2012-09-11 Microsoft Corporation Voice-body identity correlation
KR101005599B1 (ko) * 2010-01-27 2011-01-05 주식회사 미디어프론트 인터랙티브 영상처리 시스템 및 방법, 그리고 인터랙티브 영상처리장치
US8717360B2 (en) 2010-01-29 2014-05-06 Zspace, Inc. Presenting a view within a three dimensional scene
US8864581B2 (en) 2010-01-29 2014-10-21 Microsoft Corporation Visual based identitiy tracking
US8891067B2 (en) 2010-02-01 2014-11-18 Microsoft Corporation Multiple synchronized optical sources for time-of-flight range finding systems
US8687044B2 (en) 2010-02-02 2014-04-01 Microsoft Corporation Depth camera compatibility
US8619122B2 (en) 2010-02-02 2013-12-31 Microsoft Corporation Depth camera compatibility
US8717469B2 (en) 2010-02-03 2014-05-06 Microsoft Corporation Fast gating photosurface
US8659658B2 (en) 2010-02-09 2014-02-25 Microsoft Corporation Physical interaction zone for gesture-based user interfaces
US8499257B2 (en) 2010-02-09 2013-07-30 Microsoft Corporation Handles interactions for human—computer interface
US8633890B2 (en) 2010-02-16 2014-01-21 Microsoft Corporation Gesture detection based on joint skipping
NL2004273C2 (en) * 2010-02-22 2010-12-28 Valeri Mischenko Embedding humans and objects in virtual reality environments.
US8928579B2 (en) 2010-02-22 2015-01-06 Andrew David Wilson Interacting with an omni-directionally projected display
US8787663B2 (en) * 2010-03-01 2014-07-22 Primesense Ltd. Tracking body parts by combined color image and depth processing
JP5740822B2 (ja) * 2010-03-04 2015-07-01 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8655069B2 (en) 2010-03-05 2014-02-18 Microsoft Corporation Updating image segmentation following user input
US8422769B2 (en) 2010-03-05 2013-04-16 Microsoft Corporation Image segmentation using reduced foreground training data
US8411948B2 (en) 2010-03-05 2013-04-02 Microsoft Corporation Up-sampling binary images for segmentation
US20110223995A1 (en) 2010-03-12 2011-09-15 Kevin Geisner Interacting with a computer based application
US8279418B2 (en) 2010-03-17 2012-10-02 Microsoft Corporation Raster scanning for depth detection
US8213680B2 (en) 2010-03-19 2012-07-03 Microsoft Corporation Proxy training data for human body tracking
US8514269B2 (en) 2010-03-26 2013-08-20 Microsoft Corporation De-aliasing depth images
US8523667B2 (en) 2010-03-29 2013-09-03 Microsoft Corporation Parental control settings based on body dimensions
US8605763B2 (en) 2010-03-31 2013-12-10 Microsoft Corporation Temperature measurement and control for laser and light-emitting diodes
US9098873B2 (en) 2010-04-01 2015-08-04 Microsoft Technology Licensing, Llc Motion-based interactive shopping environment
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
US8917905B1 (en) * 2010-04-15 2014-12-23 Don K. Dill Vision-2-vision control system
EP2378394A3 (en) * 2010-04-15 2015-03-25 Electronics and Telecommunications Research Institute User interface device and method for recognizing user interaction using same
US8351651B2 (en) 2010-04-26 2013-01-08 Microsoft Corporation Hand-location post-process refinement in a tracking system
US8379919B2 (en) 2010-04-29 2013-02-19 Microsoft Corporation Multiple centroid condensation of probability distribution clouds
US20110267264A1 (en) * 2010-04-29 2011-11-03 Mccarthy John Display system with multiple optical sensors
US8284847B2 (en) 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
US8498481B2 (en) 2010-05-07 2013-07-30 Microsoft Corporation Image segmentation using star-convexity constraints
US8457353B2 (en) 2010-05-18 2013-06-04 Microsoft Corporation Gestures and gesture modifiers for manipulating a user-interface
US8594425B2 (en) 2010-05-31 2013-11-26 Primesense Ltd. Analysis of three-dimensional scenes
US8803888B2 (en) 2010-06-02 2014-08-12 Microsoft Corporation Recognition system for sharing information
US9008355B2 (en) 2010-06-04 2015-04-14 Microsoft Technology Licensing, Llc Automatic depth camera aiming
US8751215B2 (en) 2010-06-04 2014-06-10 Microsoft Corporation Machine based sign language interpreter
US9557574B2 (en) 2010-06-08 2017-01-31 Microsoft Technology Licensing, Llc Depth illumination and detection optics
US8330822B2 (en) 2010-06-09 2012-12-11 Microsoft Corporation Thermally-tuned depth camera light source
US8749557B2 (en) 2010-06-11 2014-06-10 Microsoft Corporation Interacting with user interface via avatar
US8675981B2 (en) 2010-06-11 2014-03-18 Microsoft Corporation Multi-modal gender recognition including depth data
US9384329B2 (en) 2010-06-11 2016-07-05 Microsoft Technology Licensing, Llc Caloric burn determination from body movement
US8982151B2 (en) 2010-06-14 2015-03-17 Microsoft Technology Licensing, Llc Independently processing planes of display data
US8558873B2 (en) 2010-06-16 2013-10-15 Microsoft Corporation Use of wavefront coding to create a depth image
US8670029B2 (en) 2010-06-16 2014-03-11 Microsoft Corporation Depth camera illuminator with superluminescent light-emitting diode
US8296151B2 (en) 2010-06-18 2012-10-23 Microsoft Corporation Compound gesture-speech commands
US8381108B2 (en) 2010-06-21 2013-02-19 Microsoft Corporation Natural user input for driving interactive stories
US8416187B2 (en) 2010-06-22 2013-04-09 Microsoft Corporation Item navigation using motion-capture data
WO2012001755A1 (ja) * 2010-07-02 2012-01-05 株式会社ソニー・コンピュータエンタテインメント 情報処理システム、情報処理装置および情報処理方法
US9789392B1 (en) * 2010-07-09 2017-10-17 Open Invention Network Llc Action or position triggers in a game play mode
WO2012011044A1 (en) 2010-07-20 2012-01-26 Primesense Ltd. Interactive reality augmentation for natural interaction
US9201501B2 (en) 2010-07-20 2015-12-01 Apple Inc. Adaptive projector
US8497897B2 (en) 2010-08-17 2013-07-30 Apple Inc. Image capture using luminance and chrominance sensors
US9075434B2 (en) 2010-08-20 2015-07-07 Microsoft Technology Licensing, Llc Translating user motion into multiple object responses
US8613666B2 (en) 2010-08-31 2013-12-24 Microsoft Corporation User selection and navigation based on looped motions
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US8437506B2 (en) 2010-09-07 2013-05-07 Microsoft Corporation System for fast, probabilistic skeletal tracking
US8582867B2 (en) 2010-09-16 2013-11-12 Primesense Ltd Learning-based pose estimation from depth maps
US8638364B2 (en) * 2010-09-23 2014-01-28 Sony Computer Entertainment Inc. User interface system and method using thermal imaging
US8988508B2 (en) 2010-09-24 2015-03-24 Microsoft Technology Licensing, Llc. Wide angle field of view active illumination imaging system
US8538132B2 (en) 2010-09-24 2013-09-17 Apple Inc. Component concentricity
US8959013B2 (en) 2010-09-27 2015-02-17 Apple Inc. Virtual keyboard for a non-tactile three dimensional user interface
US8681255B2 (en) 2010-09-28 2014-03-25 Microsoft Corporation Integrated low power depth camera and projection device
US9805617B2 (en) * 2010-09-29 2017-10-31 Hae-Yong Choi System for screen dance studio
US8548270B2 (en) 2010-10-04 2013-10-01 Microsoft Corporation Time-of-flight depth imaging
US9484065B2 (en) 2010-10-15 2016-11-01 Microsoft Technology Licensing, Llc Intelligent determination of replays based on event identification
US9195345B2 (en) * 2010-10-28 2015-11-24 Microsoft Technology Licensing, Llc Position aware gestures with visual feedback as input method
CN103282858B (zh) * 2010-11-01 2017-03-08 汤姆逊许可公司 用于检测姿势输入的方法和装置
US8592739B2 (en) 2010-11-02 2013-11-26 Microsoft Corporation Detection of configuration changes of an optical element in an illumination system
US8866889B2 (en) 2010-11-03 2014-10-21 Microsoft Corporation In-home depth camera calibration
US8667519B2 (en) 2010-11-12 2014-03-04 Microsoft Corporation Automatic passive and anonymous feedback system
US10726861B2 (en) 2010-11-15 2020-07-28 Microsoft Technology Licensing, Llc Semi-private communication in open environments
US9349040B2 (en) 2010-11-19 2016-05-24 Microsoft Technology Licensing, Llc Bi-modal depth-image analysis
GB2487043B (en) * 2010-12-14 2013-08-14 Epson Norway Res And Dev As Camera-based multi-touch interaction and illumination system and method
US10234545B2 (en) 2010-12-01 2019-03-19 Microsoft Technology Licensing, Llc Light source module
US8553934B2 (en) 2010-12-08 2013-10-08 Microsoft Corporation Orienting the position of a sensor
US8872762B2 (en) 2010-12-08 2014-10-28 Primesense Ltd. Three dimensional user interface cursor control
US8618405B2 (en) 2010-12-09 2013-12-31 Microsoft Corp. Free-space gesture musical instrument digital interface (MIDI) controller
US8408706B2 (en) 2010-12-13 2013-04-02 Microsoft Corporation 3D gaze tracker
US9171264B2 (en) 2010-12-15 2015-10-27 Microsoft Technology Licensing, Llc Parallel processing machine learning decision tree training
US8884968B2 (en) 2010-12-15 2014-11-11 Microsoft Corporation Modeling an object from image data
US8920241B2 (en) 2010-12-15 2014-12-30 Microsoft Corporation Gesture controlled persistent handles for interface guides
US8448056B2 (en) 2010-12-17 2013-05-21 Microsoft Corporation Validation analysis of human target
US8803952B2 (en) 2010-12-20 2014-08-12 Microsoft Corporation Plural detector time-of-flight depth mapping
US9823339B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Plural anode time-of-flight sensor
US9848106B2 (en) 2010-12-21 2017-12-19 Microsoft Technology Licensing, Llc Intelligent gameplay photo capture
US9821224B2 (en) 2010-12-21 2017-11-21 Microsoft Technology Licensing, Llc Driving simulator control with virtual skeleton
US8994718B2 (en) 2010-12-21 2015-03-31 Microsoft Technology Licensing, Llc Skeletal control of three-dimensional virtual world
US8385596B2 (en) 2010-12-21 2013-02-26 Microsoft Corporation First person shooter control with virtual skeleton
US8845107B1 (en) * 2010-12-23 2014-09-30 Rawles Llc Characterization of a scene with structured light
US8905551B1 (en) 2010-12-23 2014-12-09 Rawles Llc Unpowered augmented reality projection accessory display device
US9123316B2 (en) 2010-12-27 2015-09-01 Microsoft Technology Licensing, Llc Interactive content creation
US8488888B2 (en) 2010-12-28 2013-07-16 Microsoft Corporation Classification of posture states
US8401225B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Moving object segmentation using depth images
US8587583B2 (en) 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
US8401242B2 (en) 2011-01-31 2013-03-19 Microsoft Corporation Real-time camera tracking using depth maps
US9247238B2 (en) 2011-01-31 2016-01-26 Microsoft Technology Licensing, Llc Reducing interference between multiple infra-red depth cameras
US8724887B2 (en) * 2011-02-03 2014-05-13 Microsoft Corporation Environmental modifications to mitigate environmental factors
EP2672880B1 (en) 2011-02-09 2019-05-22 Apple Inc. Gaze detection in a 3d mapping environment
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US8497838B2 (en) 2011-02-16 2013-07-30 Microsoft Corporation Push actuation of interface controls
US9551914B2 (en) 2011-03-07 2017-01-24 Microsoft Technology Licensing, Llc Illuminator with refractive optical element
US9067136B2 (en) 2011-03-10 2015-06-30 Microsoft Technology Licensing, Llc Push personalization of interface controls
DE102011013708B4 (de) * 2011-03-11 2012-12-13 Automate Images Gmbh Verfahren zur freigestellten Abbildung eines Objekts
US8571263B2 (en) 2011-03-17 2013-10-29 Microsoft Corporation Predicting joint positions
US9470778B2 (en) 2011-03-29 2016-10-18 Microsoft Technology Licensing, Llc Learning from high quality depth measurements
US9298287B2 (en) 2011-03-31 2016-03-29 Microsoft Technology Licensing, Llc Combined activation for natural user interface systems
US9842168B2 (en) 2011-03-31 2017-12-12 Microsoft Technology Licensing, Llc Task driven user intents
US9760566B2 (en) 2011-03-31 2017-09-12 Microsoft Technology Licensing, Llc Augmented conversational understanding agent to identify conversation context between two humans and taking an agent action thereof
US10642934B2 (en) 2011-03-31 2020-05-05 Microsoft Technology Licensing, Llc Augmented conversational understanding architecture
KR20120113058A (ko) 2011-04-04 2012-10-12 한국전자통신연구원 현실-가상 융합 공간 기반의 교육 장치 및 방법
US8503494B2 (en) 2011-04-05 2013-08-06 Microsoft Corporation Thermal management system
US8824749B2 (en) 2011-04-05 2014-09-02 Microsoft Corporation Biometric recognition
US8620113B2 (en) 2011-04-25 2013-12-31 Microsoft Corporation Laser diode modes
US8702507B2 (en) 2011-04-28 2014-04-22 Microsoft Corporation Manual and camera-based avatar control
US9259643B2 (en) 2011-04-28 2016-02-16 Microsoft Technology Licensing, Llc Control of separate computer game elements
US10671841B2 (en) 2011-05-02 2020-06-02 Microsoft Technology Licensing, Llc Attribute state classification
US8888331B2 (en) 2011-05-09 2014-11-18 Microsoft Corporation Low inductance light source module
US9064006B2 (en) 2012-08-23 2015-06-23 Microsoft Technology Licensing, Llc Translating natural language utterances to keyword search queries
US9137463B2 (en) 2011-05-12 2015-09-15 Microsoft Technology Licensing, Llc Adaptive high dynamic range camera
US8786529B1 (en) 2011-05-18 2014-07-22 Zspace, Inc. Liquid crystal variable drive voltage
US8788973B2 (en) 2011-05-23 2014-07-22 Microsoft Corporation Three-dimensional gesture controlled avatar configuration interface
EP2715708A1 (en) * 2011-05-25 2014-04-09 Koninklijke Philips N.V. An identification system for a surface
US8760395B2 (en) 2011-05-31 2014-06-24 Microsoft Corporation Gesture recognition techniques
US8526734B2 (en) 2011-06-01 2013-09-03 Microsoft Corporation Three-dimensional background removal for vision system
US9594430B2 (en) 2011-06-01 2017-03-14 Microsoft Technology Licensing, Llc Three-dimensional foreground selection for vision system
US9013489B2 (en) 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
US8597142B2 (en) 2011-06-06 2013-12-03 Microsoft Corporation Dynamic camera based practice mode
US9208571B2 (en) 2011-06-06 2015-12-08 Microsoft Technology Licensing, Llc Object digitization
US9724600B2 (en) 2011-06-06 2017-08-08 Microsoft Technology Licensing, Llc Controlling objects in a virtual environment
US8897491B2 (en) 2011-06-06 2014-11-25 Microsoft Corporation System for finger recognition and tracking
US10796494B2 (en) 2011-06-06 2020-10-06 Microsoft Technology Licensing, Llc Adding attributes to virtual representations of real-world objects
US9098110B2 (en) 2011-06-06 2015-08-04 Microsoft Technology Licensing, Llc Head rotation tracking from depth-based center of mass
US8929612B2 (en) 2011-06-06 2015-01-06 Microsoft Corporation System for recognizing an open or closed hand
US9597587B2 (en) 2011-06-08 2017-03-21 Microsoft Technology Licensing, Llc Locational node device
CN102221887B (zh) * 2011-06-23 2016-05-04 康佳集团股份有限公司 互动投影系统及方法
US9459758B2 (en) 2011-07-05 2016-10-04 Apple Inc. Gesture-based interface with enhanced features
US9377865B2 (en) 2011-07-05 2016-06-28 Apple Inc. Zoom-based gesture user interface
US8881051B2 (en) 2011-07-05 2014-11-04 Primesense Ltd Zoom-based gesture user interface
US8228315B1 (en) 2011-07-12 2012-07-24 Google Inc. Methods and systems for a virtual input device
US9069164B2 (en) 2011-07-12 2015-06-30 Google Inc. Methods and systems for a virtual input device
RU2486403C2 (ru) * 2011-07-28 2013-06-27 Александр Викторович Белокопытов Способ освещения изображения, система для освещения изображения и машиночитаемый носитель
CN103703763B (zh) 2011-07-29 2018-02-27 惠普发展公司,有限责任合伙企业 视觉分层的系统和方法
BR112014002186B1 (pt) 2011-07-29 2020-12-29 Hewlett-Packard Development Company, L.P sistema de projeção de captura, meio executável de processamento e método de colaboração em espaço de trabalho
US9521276B2 (en) 2011-08-02 2016-12-13 Hewlett-Packard Development Company, L.P. Portable projection capture device
US8971572B1 (en) 2011-08-12 2015-03-03 The Research Foundation For The State University Of New York Hand pointing estimation for human computer interaction
US9030498B2 (en) 2011-08-15 2015-05-12 Apple Inc. Combining explicit select gestures and timeclick in a non-tactile three dimensional user interface
US8786730B2 (en) 2011-08-18 2014-07-22 Microsoft Corporation Image exposure using exclusion regions
RU2486608C2 (ru) * 2011-08-23 2013-06-27 Федеральное государственное автономное образовательное учреждение высшего профессионального образования "Национальный исследовательский университет "МИЭТ" Устройство для организации интерфейса с объектом виртуальной реальности
US9218063B2 (en) 2011-08-24 2015-12-22 Apple Inc. Sessionless pointing user interface
US9122311B2 (en) 2011-08-24 2015-09-01 Apple Inc. Visual feedback for tactile and non-tactile user interfaces
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
US9002099B2 (en) 2011-09-11 2015-04-07 Apple Inc. Learning-based estimation of hand and finger pose
JP2013061552A (ja) * 2011-09-14 2013-04-04 Ricoh Co Ltd プロジェクタ装置および操作検出方法
JP5834690B2 (ja) 2011-09-22 2015-12-24 カシオ計算機株式会社 投影装置、投影制御方法及びプログラム
US9557836B2 (en) 2011-11-01 2017-01-31 Microsoft Technology Licensing, Llc Depth image compression
US9117281B2 (en) 2011-11-02 2015-08-25 Microsoft Corporation Surface segmentation from RGB and depth images
US8854426B2 (en) 2011-11-07 2014-10-07 Microsoft Corporation Time-of-flight camera with guided light
US8724906B2 (en) 2011-11-18 2014-05-13 Microsoft Corporation Computing pose and/or shape of modifiable entities
US9106903B2 (en) * 2011-11-18 2015-08-11 Zspace, Inc. Head tracking eyewear system
US8509545B2 (en) 2011-11-29 2013-08-13 Microsoft Corporation Foreground subject detection
US8635637B2 (en) 2011-12-02 2014-01-21 Microsoft Corporation User interface presenting an animated avatar performing a media reaction
US8803800B2 (en) 2011-12-02 2014-08-12 Microsoft Corporation User interface control based on head orientation
US9100685B2 (en) 2011-12-09 2015-08-04 Microsoft Technology Licensing, Llc Determining audience state or interest using passive sensor data
WO2013088193A1 (en) * 2011-12-13 2013-06-20 Alcatel Lucent Method for interactive control of a computer application
US8971612B2 (en) 2011-12-15 2015-03-03 Microsoft Corporation Learning image processing tasks from scene reconstructions
US8879831B2 (en) 2011-12-15 2014-11-04 Microsoft Corporation Using high-level attributes to guide image processing
US8630457B2 (en) 2011-12-15 2014-01-14 Microsoft Corporation Problem states for pose tracking pipeline
US8811938B2 (en) 2011-12-16 2014-08-19 Microsoft Corporation Providing a user interface experience based on inferred vehicle state
US9342139B2 (en) 2011-12-19 2016-05-17 Microsoft Technology Licensing, Llc Pairing a computing device to a user
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
US9229534B2 (en) 2012-02-28 2016-01-05 Apple Inc. Asymmetric mapping for tactile and non-tactile user interfaces
WO2013144807A1 (en) 2012-03-26 2013-10-03 Primesense Ltd. Enhanced virtual touchpad and touchscreen
JP5550670B2 (ja) * 2012-03-28 2014-07-16 株式会社デンソーアイティーラボラトリ 情報処理装置
US8898687B2 (en) 2012-04-04 2014-11-25 Microsoft Corporation Controlling a media program based on a media reaction
US9025111B2 (en) 2012-04-20 2015-05-05 Google Inc. Seamless display panel using fiber optic carpet
US20130285919A1 (en) * 2012-04-25 2013-10-31 Sony Computer Entertainment Inc. Interactive video system
US9183676B2 (en) 2012-04-27 2015-11-10 Microsoft Technology Licensing, Llc Displaying a collision between real and virtual objects
US9047507B2 (en) 2012-05-02 2015-06-02 Apple Inc. Upper-body skeleton extraction from depth maps
CN102637397B (zh) * 2012-05-02 2014-07-23 大连工业大学 一种具有照明功能的互动媒体设施
US9210401B2 (en) 2012-05-03 2015-12-08 Microsoft Technology Licensing, Llc Projected visual cues for guiding physical movement
CA2775700C (en) 2012-05-04 2013-07-23 Microsoft Corporation Determining a future portion of a currently presented media program
IL219639A (en) 2012-05-08 2016-04-21 Israel Aerospace Ind Ltd Remote object tracking
KR20130140295A (ko) * 2012-06-14 2013-12-24 엘지이노텍 주식회사 거리측정 장치 및 방법
US9682321B2 (en) 2012-06-20 2017-06-20 Microsoft Technology Licensing, Llc Multiple frame distributed rendering of interactive content
EP2864961A4 (en) 2012-06-21 2016-03-23 Microsoft Technology Licensing Llc AVATAR CONSTRUCTION USING A DEPTH CAMERA
US9836590B2 (en) 2012-06-22 2017-12-05 Microsoft Technology Licensing, Llc Enhanced accuracy of user presence status determination
SE1200428A1 (sv) * 2012-07-09 2012-10-22 Electrolux Ab Anordning för köket
US20140018169A1 (en) * 2012-07-16 2014-01-16 Zhong Yuan Ran Self as Avatar Gaming with Video Projecting Device
US9696427B2 (en) 2012-08-14 2017-07-04 Microsoft Technology Licensing, Llc Wide angle depth detection
KR20140029864A (ko) * 2012-08-30 2014-03-11 삼성디스플레이 주식회사 표시 장치 및 이를 이용한 에어 터치 인식 방법 및 이를 이용한 입체 영상 표시 방법
US8933970B2 (en) * 2012-09-11 2015-01-13 Longsand Limited Controlling an augmented reality object
TWI590099B (zh) * 2012-09-27 2017-07-01 緯創資通股份有限公司 互動系統及移動偵測方法
US9195320B1 (en) 2012-10-22 2015-11-24 Google Inc. Method and apparatus for dynamic signage using a painted surface display system
US9014417B1 (en) 2012-10-22 2015-04-21 Google Inc. Method and apparatus for themes using photo-active surface paint
US9164596B1 (en) 2012-10-22 2015-10-20 Google Inc. Method and apparatus for gesture interaction with a photo-active painted surface
US9833707B2 (en) * 2012-10-29 2017-12-05 Sony Interactive Entertainment Inc. Ambient light control and calibration via a console
US9019267B2 (en) 2012-10-30 2015-04-28 Apple Inc. Depth mapping with enhanced resolution
US8882310B2 (en) 2012-12-10 2014-11-11 Microsoft Corporation Laser die light source module with low inductance
TW201423484A (zh) 2012-12-14 2014-06-16 Pixart Imaging Inc 動態偵測系統
TWI454968B (zh) 2012-12-24 2014-10-01 Ind Tech Res Inst 三維互動裝置及其操控方法
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US10212396B2 (en) 2013-01-15 2019-02-19 Israel Aerospace Industries Ltd Remote tracking of objects
IL224273B (en) 2013-01-17 2018-05-31 Cohen Yossi Delay compensation during remote sensor control
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9251590B2 (en) 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US9782141B2 (en) 2013-02-01 2017-10-10 Kineticor, Inc. Motion tracking system for real time adaptive motion compensation in biomedical imaging
US9052746B2 (en) 2013-02-15 2015-06-09 Microsoft Technology Licensing, Llc User center-of-mass and mass distribution extraction using depth images
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US10134267B2 (en) 2013-02-22 2018-11-20 Universal City Studios Llc System and method for tracking a passive wand and actuating an effect based on a detected wand path
US9798302B2 (en) 2013-02-27 2017-10-24 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with redundant system input support
US9804576B2 (en) 2013-02-27 2017-10-31 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with position and derivative decision reference
US9393695B2 (en) 2013-02-27 2016-07-19 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with person and object discrimination
US9498885B2 (en) 2013-02-27 2016-11-22 Rockwell Automation Technologies, Inc. Recognition-based industrial automation control with confidence-based decision support
US9524028B2 (en) 2013-03-08 2016-12-20 Fastvdo Llc Visual language for human computer interfaces
US9135516B2 (en) 2013-03-08 2015-09-15 Microsoft Technology Licensing, Llc User body angle, curvature and average extremity positions extraction using depth images
US9092657B2 (en) 2013-03-13 2015-07-28 Microsoft Technology Licensing, Llc Depth image processing
US9274606B2 (en) 2013-03-14 2016-03-01 Microsoft Technology Licensing, Llc NUI video conference controls
US9953213B2 (en) 2013-03-27 2018-04-24 Microsoft Technology Licensing, Llc Self discovery of autonomous NUI devices
CN104076988B (zh) * 2013-03-27 2017-12-01 联想(北京)有限公司 一种显示方法、显示控制方法及电子设备
CN203165407U (zh) * 2013-04-16 2013-08-28 宋戈 自媒体玻璃橱窗
US9442186B2 (en) 2013-05-13 2016-09-13 Microsoft Technology Licensing, Llc Interference reduction for TOF systems
US9829984B2 (en) 2013-05-23 2017-11-28 Fastvdo Llc Motion-assisted visual language for human computer interfaces
US9356061B2 (en) 2013-08-05 2016-05-31 Apple Inc. Image sensor with buried light shield and vertical gate
US9778546B2 (en) * 2013-08-15 2017-10-03 Mep Tech, Inc. Projector for projecting visible and non-visible images
CN103455141B (zh) * 2013-08-15 2016-07-06 无锡触角科技有限公司 互动投影系统及其深度传感器和投影仪的校准方法
US9462253B2 (en) 2013-09-23 2016-10-04 Microsoft Technology Licensing, Llc Optical modules that reduce speckle contrast and diffraction artifacts
US9443310B2 (en) 2013-10-09 2016-09-13 Microsoft Technology Licensing, Llc Illumination modules that emit structured light
US9674563B2 (en) 2013-11-04 2017-06-06 Rovi Guides, Inc. Systems and methods for recommending content
US9769459B2 (en) 2013-11-12 2017-09-19 Microsoft Technology Licensing, Llc Power efficient laser diode driver circuit and method
US9508385B2 (en) 2013-11-21 2016-11-29 Microsoft Technology Licensing, Llc Audio-visual project generator
CN105850116A (zh) * 2013-12-27 2016-08-10 索尼公司 控制装置、控制方法和计算机程序
US9971491B2 (en) 2014-01-09 2018-05-15 Microsoft Technology Licensing, Llc Gesture library for natural user input
US9990046B2 (en) 2014-03-17 2018-06-05 Oblong Industries, Inc. Visual collaboration interface
WO2015148391A1 (en) 2014-03-24 2015-10-01 Thomas Michael Ernst Systems, methods, and devices for removing prospective motion correction from medical imaging scans
CN110989284A (zh) * 2014-04-22 2020-04-10 日本电信电话株式会社 视频呈现装置、视频呈现方法以及程序
US10207193B2 (en) * 2014-05-21 2019-02-19 Universal City Studios Llc Optical tracking system for automation of amusement park elements
US10025990B2 (en) 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
US10061058B2 (en) 2014-05-21 2018-08-28 Universal City Studios Llc Tracking system and method for use in surveying amusement park equipment
US10593113B2 (en) 2014-07-08 2020-03-17 Samsung Electronics Co., Ltd. Device and method to display object with visual effect
US9993733B2 (en) 2014-07-09 2018-06-12 Lumo Interactive Inc. Infrared reflective device interactive projection effect system
CN106714681A (zh) 2014-07-23 2017-05-24 凯内蒂科尔股份有限公司 用于在医学成像扫描期间追踪和补偿患者运动的系统、设备和方法
US9693040B2 (en) 2014-09-10 2017-06-27 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and calibration of a three-dimensional measuring device
US9602811B2 (en) * 2014-09-10 2017-03-21 Faro Technologies, Inc. Method for optically measuring three-dimensional coordinates and controlling a three-dimensional measuring device
TWI569085B (zh) * 2014-09-10 2017-02-01 Ophaya Electronics Corp A projection system with optical image recognition function, a projection device and a projector to be projected
DE102014013677B4 (de) 2014-09-10 2017-06-22 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und unterteiltem Display
DE102014013678B3 (de) 2014-09-10 2015-12-03 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einem Handscanner und Steuerung durch Gesten
US10417801B2 (en) 2014-11-13 2019-09-17 Hewlett-Packard Development Company, L.P. Image projection
US10321100B2 (en) * 2014-12-02 2019-06-11 Ademco Inc. System and method of foreground extraction for digital cameras
US10122976B2 (en) * 2014-12-25 2018-11-06 Panasonic Intellectual Property Management Co., Ltd. Projection device for controlling a position of an image projected on a projection surface
SG11201705370QA (en) * 2014-12-31 2017-08-30 Alt Ltd Liability Company Method and device for displaying three-dimensional objects
US9843744B2 (en) * 2015-01-13 2017-12-12 Disney Enterprises, Inc. Audience interaction projection system
US20160216778A1 (en) * 2015-01-27 2016-07-28 Industrial Technology Research Institute Interactive projector and operation method thereof for determining depth information of object
GB201503832D0 (en) * 2015-03-06 2015-04-22 Compurants Ltd Inamo big book V3
KR20160121287A (ko) * 2015-04-10 2016-10-19 삼성전자주식회사 이벤트에 기반하여 화면을 디스플레이하는 방법 및 장치
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
IN2015CH03967A (es) 2015-07-31 2015-08-14 Wipro Ltd
US10844457B2 (en) * 2015-08-17 2020-11-24 Nippon Steel Chemical & Material Co., Ltd. Ferritic stainless steel foil
EP3339461A4 (en) * 2015-08-19 2019-01-16 Nippon Steel & Sumikin Materials Co., Ltd. STAINLESS STEEL SHEET
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10043279B1 (en) 2015-12-07 2018-08-07 Apple Inc. Robust detection and classification of body parts in a depth map
US10412280B2 (en) 2016-02-10 2019-09-10 Microsoft Technology Licensing, Llc Camera with light valve over sensor array
US10257932B2 (en) 2016-02-16 2019-04-09 Microsoft Technology Licensing, Llc. Laser diode chip on printed circuit board
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
AU2017252557B2 (en) 2016-04-21 2022-01-27 Magic Leap, Inc. Visual aura around field of view
US10529302B2 (en) 2016-07-07 2020-01-07 Oblong Industries, Inc. Spatially mediated augmentations of and interactions among distinct devices and applications via extended pixel manifold
JP6739059B2 (ja) 2016-08-30 2020-08-12 パナソニックIpマネジメント株式会社 照明装置
US10366278B2 (en) 2016-09-20 2019-07-30 Apple Inc. Curvature-based face detector
KR102393299B1 (ko) * 2017-08-09 2022-05-02 삼성전자주식회사 이미지 처리 방법 및 그에 따른 장치
ES2728787B2 (es) * 2018-04-25 2021-02-09 Defensya Ingenieria Int S L Sistema y procedimiento para crear, modular y detectar sombras en sistemas con control basado en un sistema de visualizacion remota
US20200014909A1 (en) 2018-07-03 2020-01-09 Faro Technologies, Inc. Handheld three dimensional scanner with autofocus or autoaperture
US11247099B2 (en) * 2018-12-05 2022-02-15 Lombro James Ristas Programmed control of athletic training drills
US10924639B2 (en) 2019-05-29 2021-02-16 Disney Enterprises, Inc. System and method for polarization and wavelength gated transparent displays
JP7414707B2 (ja) * 2020-12-18 2024-01-16 トヨタ自動車株式会社 画像表示システム
RU2760179C1 (ru) * 2021-01-20 2021-11-22 Виктор Александрович Епифанов Система дополненной реальности
CN114973333B (zh) * 2022-07-13 2023-07-25 北京百度网讯科技有限公司 人物交互检测方法、装置、设备以及存储介质

Family Cites Families (136)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5794672A (en) 1980-12-05 1982-06-12 Hitachi Ltd Method for inspecting whether parts are present or not
DE3176016D1 (en) 1980-12-30 1987-04-23 Ibm System for remotely displaying and sensing information using shadow parallax
JPS59182688A (ja) 1983-03-31 1984-10-17 Toshiba Corp ステレオ視処理装置
GB8421783D0 (en) 1984-08-29 1984-10-03 Atomic Energy Authority Uk Stereo camera
US5001558A (en) 1985-06-11 1991-03-19 General Motors Corporation Night vision system with color video camera
US4843568A (en) * 1986-04-11 1989-06-27 Krueger Myron W Real time perception of and response to the actions of an unencumbered participant/user
US4887898A (en) 1988-04-13 1989-12-19 Rowe Furniture Corporation Fabric projection system
US4948371A (en) 1989-04-25 1990-08-14 The United States Of America As Represented By The United States Department Of Energy System for training and evaluation of security personnel in use of firearms
CA2030139C (en) 1989-11-20 2002-04-23 David M. Durlach 3-d amusement and display device
CA2040273C (en) 1990-04-13 1995-07-18 Kazu Horiuchi Image displaying system
US5138304A (en) 1990-08-02 1992-08-11 Hewlett-Packard Company Projected image light pen
US5239373A (en) 1990-12-26 1993-08-24 Xerox Corporation Video computational shared drawing space
US5534917A (en) 1991-05-09 1996-07-09 Very Vivid, Inc. Video image based control system
US5325473A (en) 1991-10-11 1994-06-28 The Walt Disney Company Apparatus and method for projection upon a three-dimensional object
US5861881A (en) 1991-11-25 1999-01-19 Actv, Inc. Interactive computer system for providing an interactive presentation with personalized video, audio and graphics responses for multiple viewers
US5444462A (en) 1991-12-16 1995-08-22 Wambach; Mark L. Computer mouse glove with remote communication
EP0553700B1 (de) 1992-01-29 1997-06-04 Deutsche Thomson-Brandt GmbH Videokamera, wahlweise als Projektor betreibbar
US6008800A (en) 1992-09-18 1999-12-28 Pryor; Timothy R. Man machine interfaces for entering data into a computer
US5982352A (en) * 1992-09-18 1999-11-09 Pryor; Timothy R. Method for providing human input to a computer
US5436639A (en) 1993-03-16 1995-07-25 Hitachi, Ltd. Information processing system
JPH07135623A (ja) 1993-10-27 1995-05-23 Kinseki Ltd 網膜直接表示装置
US5510828A (en) 1994-03-01 1996-04-23 Lutterbach; R. Steven Interactive video display system
US5426474A (en) 1994-03-22 1995-06-20 Innersense, Inc. Light projection system using randomized fiber optic bundle
US5528263A (en) 1994-06-15 1996-06-18 Daniel M. Platzker Interactive projected video image display system
US5682468A (en) 1995-01-23 1997-10-28 Intergraph Corporation OLE for design and modeling
US5548694A (en) 1995-01-31 1996-08-20 Mitsubishi Electric Information Technology Center America, Inc. Collision avoidance system for voxel-based object representation
JP3539788B2 (ja) * 1995-04-21 2004-07-07 パナソニック モバイルコミュニケーションズ株式会社 画像間対応付け方法
US5633691A (en) 1995-06-07 1997-05-27 Nview Corporation Stylus position sensing and digital camera with a digital micromirror device
US5882204A (en) * 1995-07-13 1999-03-16 Dennis J. Lannazzo Football interactive simulation trainer
US5591972A (en) 1995-08-03 1997-01-07 Illumination Technologies, Inc. Apparatus for reading optical information
US5574511A (en) 1995-10-18 1996-11-12 Polaroid Corporation Background replacement for an image
US6308565B1 (en) * 1995-11-06 2001-10-30 Impulse Technology Ltd. System and method for tracking and assessing movement skills in multidimensional space
US6176782B1 (en) 1997-12-22 2001-01-23 Philips Electronics North America Corp. Motion-based command generation technology
US5828485A (en) 1996-02-07 1998-10-27 Light & Sound Design Ltd. Programmable light beam shape altering device using programmable micromirrors
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
US5969754A (en) 1996-12-09 1999-10-19 Zeman; Herbert D. Contrast enhancing illuminator
US6118888A (en) 1997-02-28 2000-09-12 Kabushiki Kaisha Toshiba Multi-modal interface apparatus and method
DE19708240C2 (de) 1997-02-28 1999-10-14 Siemens Ag Anordnung und Verfahren zur Detektion eines Objekts in einem von Wellen im nichtsichtbaren Spektralbereich angestrahlten Bereich
US6088612A (en) 1997-04-04 2000-07-11 Medtech Research Corporation Method and apparatus for reflective glare removal in digital photography useful in cervical cancer detection
US6058397A (en) 1997-04-08 2000-05-02 Mitsubishi Electric Information Technology Center America, Inc. 3D virtual environment creation management and delivery system
JPH10334270A (ja) 1997-05-28 1998-12-18 Mitsubishi Electric Corp 動作認識装置及び動作認識プログラムを記録した記録媒体
US6075895A (en) * 1997-06-20 2000-06-13 Holoplex Methods and apparatus for gesture recognition based on templates
JP3968477B2 (ja) 1997-07-07 2007-08-29 ソニー株式会社 情報入力装置及び情報入力方法
JP2942222B2 (ja) * 1997-08-11 1999-08-30 株式会社つくばソフト研究所 カラー画像及び濃淡画像の通信装置
US6720949B1 (en) * 1997-08-22 2004-04-13 Timothy R. Pryor Man machine interfaces and applications
JP3795647B2 (ja) 1997-10-29 2006-07-12 株式会社竹中工務店 ハンドポインティング装置
JP3794180B2 (ja) 1997-11-11 2006-07-05 セイコーエプソン株式会社 座標入力システム及び座標入力装置
US6166744A (en) * 1997-11-26 2000-12-26 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
US6611241B1 (en) 1997-12-02 2003-08-26 Sarnoff Corporation Modular display system
US6388657B1 (en) 1997-12-31 2002-05-14 Anthony James Francis Natoli Virtual reality keyboard system and method
US6198844B1 (en) 1998-01-28 2001-03-06 Konica Corporation Image processing apparatus
US6349301B1 (en) 1998-02-24 2002-02-19 Microsoft Corporation Virtual environment bystander updating in client server architecture
US6266053B1 (en) 1998-04-03 2001-07-24 Synapix, Inc. Time inheritance scene graph for representation of media content
ATE248409T1 (de) * 1998-04-13 2003-09-15 Eyematic Interfaces Inc Wavelet-basierte gesichtsbewegungserfassung für avataranimation
US6263339B1 (en) 1998-08-25 2001-07-17 Informix Software, Inc. Dynamic object visualization and code generation
JP2000163196A (ja) 1998-09-25 2000-06-16 Sanyo Electric Co Ltd ジェスチャ認識装置及びジェスチャ認識機能を有する指示認識装置
DE19845030A1 (de) 1998-09-30 2000-04-20 Siemens Ag Bildsystem
US6501515B1 (en) * 1998-10-13 2002-12-31 Sony Corporation Remote control system
US6106119A (en) 1998-10-16 2000-08-22 The Board Of Trustees Of The Leland Stanford Junior University Method for presenting high level interpretations of eye tracking data correlated to saved display images
AU1930700A (en) * 1998-12-04 2000-06-26 Interval Research Corporation Background estimation and segmentation based on range and color
GB9902235D0 (en) 1999-02-01 1999-03-24 Emuse Corp Interactive system
US6333735B1 (en) 1999-03-16 2001-12-25 International Business Machines Corporation Method and apparatus for mouse positioning device based on infrared light sources and detectors
JP3644295B2 (ja) 1999-03-17 2005-04-27 セイコーエプソン株式会社 投写型表示装置
US6292171B1 (en) 1999-03-31 2001-09-18 Seiko Epson Corporation Method and apparatus for calibrating a computer-generated projected image
US6614422B1 (en) 1999-11-04 2003-09-02 Canesta, Inc. Method and apparatus for entering data using a virtual input device
US6545706B1 (en) 1999-07-30 2003-04-08 Electric Planet, Inc. System, method and article of manufacture for tracking a head of a camera-generated image of a person
JP3905670B2 (ja) 1999-09-10 2007-04-18 株式会社リコー 座標入力検出装置、情報記憶媒体及び座標入力検出方法
US6826727B1 (en) 1999-11-24 2004-11-30 Bitstream Inc. Apparatus, methods, programming for automatically laying out documents
JP3760068B2 (ja) * 1999-12-02 2006-03-29 本田技研工業株式会社 画像認識装置
GB2356996A (en) 1999-12-03 2001-06-06 Hewlett Packard Co Improvements to digital cameras
JP4332964B2 (ja) 1999-12-21 2009-09-16 ソニー株式会社 情報入出力システム及び情報入出力方法
AU2001234601A1 (en) 2000-01-26 2001-08-07 New York University Method and system for facilitating wireless, full-body, real-time user interaction with digitally generated text data
WO2001063916A1 (en) 2000-02-25 2001-08-30 Interval Research Corporation Method and system for selecting advertisements
JP3842515B2 (ja) * 2000-03-24 2006-11-08 セイコーエプソン株式会社 多重解像度画像解析による指示位置検出
JP4402262B2 (ja) 2000-06-07 2010-01-20 オリンパス株式会社 プリンタ装置及び電子カメラ
US7149262B1 (en) 2000-07-06 2006-12-12 The Trustees Of Columbia University In The City Of New York Method and apparatus for enhancing data resolution
US7227526B2 (en) * 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
JP4666808B2 (ja) * 2000-07-27 2011-04-06 キヤノン株式会社 画像表示システム、画像表示方法、及び記憶媒体、プログラム
US6754370B1 (en) 2000-08-14 2004-06-22 The Board Of Trustees Of The Leland Stanford Junior University Real-time structured light range scanning of moving scenes
US6707444B1 (en) 2000-08-18 2004-03-16 International Business Machines Corporation Projector and camera arrangement with shared optics and optical marker for use with whiteboard systems
US7103838B1 (en) 2000-08-18 2006-09-05 Firstrain, Inc. Method and apparatus for extracting relevant data
US6654734B1 (en) 2000-08-30 2003-11-25 International Business Machines Corporation System and method for query processing and optimization for XML repositories
US7058204B2 (en) 2000-10-03 2006-06-06 Gesturetek, Inc. Multiple camera control system
JP3467017B2 (ja) 2000-11-30 2003-11-17 キヤノン株式会社 位置姿勢の決定方法及び装置並びに記憶媒体
US6431711B1 (en) 2000-12-06 2002-08-13 International Business Machines Corporation Multiple-surface display projector with interactive input capability
JP2002222424A (ja) 2001-01-29 2002-08-09 Nec Corp 指紋照合システム
US6621483B2 (en) 2001-03-16 2003-09-16 Agilent Technologies, Inc. Optical screen pointing device with inertial properties
US20020178440A1 (en) 2001-03-28 2002-11-28 Philips Electronics North America Corp. Method and apparatus for automatically selecting an alternate item based on user behavior
US6912313B2 (en) 2001-05-31 2005-06-28 Sharp Laboratories Of America, Inc. Image background replacement method
US8035612B2 (en) 2002-05-28 2011-10-11 Intellectual Ventures Holding 67 Llc Self-contained interactive video display system
EP1689172B1 (en) 2001-06-05 2016-03-09 Microsoft Technology Licensing, LLC Interactive video display system
US7259747B2 (en) 2001-06-05 2007-08-21 Reactrix Systems, Inc. Interactive video display system
US8300042B2 (en) 2001-06-05 2012-10-30 Microsoft Corporation Interactive video display system using strobed light
AU2002319621A1 (en) 2001-07-17 2003-03-03 Amnis Corporation Computational methods for the segmentation of images of objects from background in a flow imaging instrument
US7274800B2 (en) 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
US7068274B2 (en) 2001-08-15 2006-06-27 Mitsubishi Electric Research Laboratories, Inc. System and method for animating real objects with projected images
JP2003173237A (ja) 2001-09-28 2003-06-20 Ricoh Co Ltd 情報入出力システム、プログラム及び記憶媒体
US8561095B2 (en) 2001-11-13 2013-10-15 Koninklijke Philips N.V. Affective television monitoring and control in response to physiological data
US7006055B2 (en) 2001-11-29 2006-02-28 Hewlett-Packard Development Company, L.P. Wireless multi-user multi-projector presentation system
US7307636B2 (en) 2001-12-26 2007-12-11 Eastman Kodak Company Image format including affective information
US20030128389A1 (en) 2001-12-26 2003-07-10 Eastman Kodak Company Method for creating and using affective information in a digital imaging system cross reference to related applications
JP4027118B2 (ja) 2002-02-25 2007-12-26 富士通株式会社 本人認証方法、プログラム及び装置
US6607275B1 (en) 2002-03-20 2003-08-19 The Neiman Marcus Group, Inc. Merchandise display case and system
US6707054B2 (en) 2002-03-21 2004-03-16 Eastman Kodak Company Scannerless range imaging system having high dynamic range
US6831664B2 (en) 2002-03-22 2004-12-14 Koninklijke Philips Electronics N.V. Low cost interactive program control system and method
US7170492B2 (en) 2002-05-28 2007-01-30 Reactrix Systems, Inc. Interactive video display system
US7348963B2 (en) 2002-05-28 2008-03-25 Reactrix Systems, Inc. Interactive video display system
US20050122308A1 (en) 2002-05-28 2005-06-09 Matthew Bell Self-contained interactive video display system
US7710391B2 (en) 2002-05-28 2010-05-04 Matthew Bell Processing an image utilizing a spatially varying pattern
US7171404B2 (en) 2002-06-13 2007-01-30 Mark Logic Corporation Parent-child query indexing for XML databases
US7574652B2 (en) 2002-06-20 2009-08-11 Canon Kabushiki Kaisha Methods for interactively defining transforms and for generating queries by manipulating existing query data
AU2003301043A1 (en) 2002-12-13 2004-07-09 Reactrix Systems Interactive directed light/sound system
US7576727B2 (en) 2002-12-13 2009-08-18 Matthew Bell Interactive directed light/sound system
US6999600B2 (en) 2003-01-30 2006-02-14 Objectvideo, Inc. Video scene background maintenance using change detection and classification
DE60330276D1 (de) 2003-04-25 2010-01-07 Fujitsu Ltd Fingerabdruckvergleichseinrichtung, fingerabdruckvergleichsverfahren und fingerabdruckvergleichsprogramm
US7193608B2 (en) 2003-05-27 2007-03-20 York University Collaborative pointing devices
FR2856963B1 (fr) 2003-07-03 2006-09-01 Antolin Grupo Ing Sa Siege de vehicule automobile
CN1902930B (zh) 2003-10-24 2010-12-15 瑞克楚斯系统公司 管理交互式视频显示系统的方法和系统
US7536032B2 (en) 2003-10-24 2009-05-19 Reactrix Systems, Inc. Method and system for processing captured image information in an interactive video display system
US7681114B2 (en) 2003-11-21 2010-03-16 Bridgeborn, Llc Method of authoring, deploying and using interactive, data-driven two or more dimensional content
WO2005091651A2 (en) 2004-03-18 2005-09-29 Reactrix Systems, Inc. Interactive video display system
US7379563B2 (en) 2004-04-15 2008-05-27 Gesturetek, Inc. Tracking bimanual movements
US7382897B2 (en) 2004-04-27 2008-06-03 Microsoft Corporation Multi-image feature matching using multi-scale oriented patches
US7394459B2 (en) 2004-04-29 2008-07-01 Microsoft Corporation Interaction between objects and a virtual environment display
WO2005119576A2 (en) 2004-06-01 2005-12-15 Ultra-Scan Corporation Fingerprint image database and method of matching fingerprint sample to fingerprint images
US7330584B2 (en) 2004-10-14 2008-02-12 Sony Corporation Image processing apparatus and method
US7818666B2 (en) 2005-01-27 2010-10-19 Symyx Solutions, Inc. Parsing, evaluating leaf, and branch nodes, and navigating the nodes based on the evaluation
US20060184993A1 (en) 2005-02-15 2006-08-17 Goldthwaite Flora P Method and system for collecting and using data
US7570249B2 (en) 2005-03-30 2009-08-04 Microsoft Corporation Responding to change of state of control on device disposed on an interactive display surface
US7428542B1 (en) 2005-05-31 2008-09-23 Reactrix Systems, Inc. Method and system for combining nodes into a mega-node
WO2008124820A1 (en) 2007-04-10 2008-10-16 Reactrix Systems, Inc. Display using a three dimensional vision system
CA2699628A1 (en) 2007-09-14 2009-03-19 Matthew Bell Gesture-based user interactions with status indicators for acceptable inputs in volumetric zones
US8159682B2 (en) 2007-11-12 2012-04-17 Intellectual Ventures Holding 67 Llc Lens system
US20100039500A1 (en) 2008-02-15 2010-02-18 Matthew Bell Self-Contained 3D Vision System Utilizing Stereo Camera and Patterned Illuminator
US8259163B2 (en) 2008-03-07 2012-09-04 Intellectual Ventures Holding 67 Llc Display with built in 3D sensing

Also Published As

Publication number Publication date
ES2271272T3 (es) 2007-04-16
EP1393549A2 (en) 2004-03-03
WO2002100094A2 (en) 2002-12-12
CN102033608A (zh) 2011-04-27
KR20040029998A (ko) 2004-04-08
CN102033608B (zh) 2014-02-12
DE60213975D1 (de) 2006-09-28
ATE336860T1 (de) 2006-09-15
RU2003137846A (ru) 2005-05-27
IL159207A0 (en) 2004-06-01
US7259747B2 (en) 2007-08-21
JP4077787B2 (ja) 2008-04-23
DE60213975T2 (de) 2007-02-15
CA2449300A1 (en) 2002-12-12
RU2298294C2 (ru) 2007-04-27
JP2005500719A (ja) 2005-01-06
CN1582567B (zh) 2010-10-13
EP1393549B1 (en) 2006-08-16
CN1582567A (zh) 2005-02-16
WO2002100094A3 (en) 2003-05-22
US7834846B1 (en) 2010-11-16
BR0210162A (pt) 2004-04-27
KR100847795B1 (ko) 2008-07-23
US20020186221A1 (en) 2002-12-12
CA2449300C (en) 2013-04-23

Similar Documents

Publication Publication Date Title
JP4077787B2 (ja) インタラクティブビデオ表示システム
EP1689172B1 (en) Interactive video display system
US8300042B2 (en) Interactive video display system using strobed light
US10990189B2 (en) Processing of gesture-based user interaction using volumetric zones
US8890812B2 (en) Graphical user interface adjusting to a change of user's disposition
US20080252596A1 (en) Display Using a Three-Dimensional vision System
US20100020254A1 (en) Multi-panel virtual image display
US20210279893A1 (en) Interactive entertainment system
Sueishi et al. Lumipen 2: Dynamic projection mapping with mirror-based robust high-speed tracking against illumination changes
AU2002312346A1 (en) Interactive video display system
KR20120114767A (ko) 사물 투척형 게임 디스플레이 시스템 및 그 방법