ES2946982T3 - Sistema y método de captura de movimiento - Google Patents

Sistema y método de captura de movimiento Download PDF

Info

Publication number
ES2946982T3
ES2946982T3 ES16718888T ES16718888T ES2946982T3 ES 2946982 T3 ES2946982 T3 ES 2946982T3 ES 16718888 T ES16718888 T ES 16718888T ES 16718888 T ES16718888 T ES 16718888T ES 2946982 T3 ES2946982 T3 ES 2946982T3
Authority
ES
Spain
Prior art keywords
camera
cameras
processing
processing unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16718888T
Other languages
English (en)
Inventor
David Reynolds
Matthew Kingman
Ben Freeman
Shane Lowe
Paul Tate
Stephen Malton
Imogen Moorhouse
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oxford Metrics PLC
Original Assignee
Oxford Metrics PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oxford Metrics PLC filed Critical Oxford Metrics PLC
Application granted granted Critical
Publication of ES2946982T3 publication Critical patent/ES2946982T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/2224Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Camera Bodies And Camera Details Or Accessories (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Pressure Welding/Diffusion-Bonding (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Se describen sistemas y métodos para la captura de movimiento. En una disposición, se proporciona una pluralidad de cámaras y una unidad de procesamiento está configurada para realizar el procesamiento usando datos de imagen de cada una de la pluralidad de cámaras. Cada una de las cámaras comprende un acelerómetro y la unidad de procesamiento está configurada para realizar un procesamiento que depende de una salida de los acelerómetros. En otra disposición, cada una de las cámaras comprende un sensor de temperatura y la unidad de procesamiento está configurada para realizar un procesamiento que depende de una salida de los sensores de temperatura. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Sistema y método de captura de movimiento
La presente invención se refiere a un sistema de captura de movimiento y a un método para realizar la captura de movimiento, en el que una pluralidad de cámaras están provistas cada una de un acelerómetro y/o un sensor de temperatura.
Un sistema de captura de movimiento comprende por lo general una pluralidad de cámaras configuradas para vigilar una región objetivo en la que los movimientos de un objetivo, por ejemplo un actor, van a ser capturados. Los movimientos capturados pueden usarse para animar un personaje digital en una película o juego de ordenador basándose en los movimientos del actor, por ejemplo. Normalmente, en tales sistemas, cada una de las cámaras deberá montarse en ubicaciones separadas y dirigirse hacia la región objetivo. Las cámaras deberán calibrarse y conectarse también a una unidad de procesamiento, tal como un ordenador de escritorio o portátil, o una tableta. La configuración de tales sistemas de captura de movimiento puede llevar mucho tiempo, requiriendo, por ejemplo, múltiples viajes de ida y vuelta por parte de un operario entre la unidad de procesamiento y cada una de las cámaras y/o la participación de múltiples personas. Por ejemplo, una persona puede interactuar directamente con la unidad de procesamiento mientras que una o más personas pueden moverse por la habitación ajustando y verificando individualmente cada una de las cámaras mientras se comunican con la persona en la unidad de procesamiento. La persona en la unidad de procesamiento puede proporcionar retroalimentación al operario en movimiento sobre la imagen capturada por cada una de las cámaras, a medida que el operario en movimiento se mueve de una cámara a la siguiente.
Los sistemas de captura de movimiento pueden ser sensibles a las condiciones ambientales y a las perturbaciones. Por ejemplo, desviaciones en la calidad del montaje de una cámara (por ejemplo, debido a golpes, expansión/contracción térmica, flexión, etc.) puede hacer que la posición o la orientación de la cámara cambie con el tiempo. Esto puede tener un impacto negativo en el proceso de captura de movimiento y/o requerir recalibraciones frecuentes y lentas.
Otro desafío con los sistemas existentes es que las variaciones de temperatura dentro de las propias cámaras pueden alterar el rendimiento de las cámaras, por ejemplo, provocando diferencias en la trayectoria óptica desde una lente hasta un generador de imágenes de la cámara. Estos efectos se pueden mitigar en algunas circunstancias calibrando las cámaras después de que la temperatura haya alcanzado un estado estable. Sin embargo, juzgar cuándo realizar tal calibración es difícil. Se puede recomendar a los usuarios que esperen un período predeterminado después de iniciar el sistema antes de realizar la calibración de la cámara y comenzar a utilizar el sistema. Sin embargo, esto puede causar un retraso inconveniente. Así mismo, un enfoque de este tipo no es eficaz cuando no se alcanza una temperatura de estado estable de forma reproducible o cuando la temperatura varía durante el uso del sistema, por ejemplo, debido a variaciones en la actividad de cámaras individuales o en la temperatura del entorno circundante.
El documento US 2013/038766 A1 divulga un sistema de captura de movimiento que utiliza una matriz de lentes codificadas.
El documento US 2013/021486 A1 divulga un sistema de captura de movimiento que incluye cámaras de captura de movimiento colocadas en varios lugares y orientaciones con respecto a un volumen de captura de movimiento. El sistema de captura de movimiento incluye un dispositivo informático anfitrión que está acoplado operativamente con las cámaras de captura de movimiento. El dispositivo informático anfitrión controla de forma remota el funcionamiento de las cámaras de captura de movimiento para registrar el movimiento dentro del volumen de captura de movimiento. Al menos una de las cámaras de captura de movimiento incluye una interfaz de usuario que un usuario puede operar para iniciar de forma remota una operación de control del dispositivo informático anfitrión.
El documento US 2014/320687 A1 divulga una cámara portátil que incluye un acelerómetro que se puede usar para detectar el movimiento de la cámara. La entrada se puede proporcionar a la cámara en forma de uno o más toques que tienen un perfil de movimiento asociado, como lo detecta el acelerómetro. El toque o los toques se pueden asignar a la funcionalidad de la cámara para activar la funcionalidad.
El documento EP 1713 254 A2 divulga un sistema para transmitir una señal desde al menos una primera cámara hasta una segunda cámara, tras la activación por parte del operario de cámara de la respectiva primera cámara. La señal se muestra en el visor de la segunda cámara. En una realización, la señal incluye una identificación de la cámara que transmite la señal. En otra realización, la señal incluye la señal de video capturada desde la cámara transmisora. En todavía otra realización, la segunda cámara muestra imágenes que provienen de varias primeras cámaras.
El documento US 2011/149094 A1 divulga métodos y aparatos para corregir la distorsión de inclinación y/o perspectiva en dispositivos de captura de imágenes. En algunas realizaciones, el método puede incluir la lectura de una medida de orientación asociada con una posición relativa de un dispositivo de captura de imágenes con respecto a un objeto, determinar si la medición de la orientación es inferior a un umbral, y en caso de que la medición de la orientación sea inferior al umbral, corregir una imagen obtenida por el dispositivo de captura de imágenes. En algunas realizaciones, el aparato puede incluir un sensor de imagen, una memoria acoplada al sensor de imagen, un dispositivo de medición de orientación acoplado al sensor de imagen, y un dispositivo de medición de distancia acoplado al sensor de imagen, donde los datos de imagen pueden almacenarse en la memoria junto con una medición del acelerómetro y junto con una medición del dispositivo de medición de distancia.
El documento US 2010/129068 A1 divulga un dispositivo para detectar la orientación que incluye: un dispositivo inercial, que tiene una pluralidad de ejes de detección independientes y está configurado para suministrar señales de inercia que indican los efectos de la fuerza de la gravedad de acuerdo con los respectivos ejes de detección; y una unidad de procesamiento para procesar las señales de inercia. La unidad de procesamiento incluye un módulo generador de interrupción que tiene una etapa de comparación de umbral, para comparar las señales de inercia con los respectivos umbrales, y un módulo lógico, acoplado a la etapa de comparación de umbrales y configurado para generar una señal de interrupción en un terminal de interrupción accesible desde el exterior en respuesta a la permanencia de al menos una de las señales inerciales por debajo del umbral respectivo durante un intervalo de tiempo.
El documento US 2014/176663 A1 divulga el uso de una cámara de privacidad para capturar imágenes y mostrar imágenes de acuerdo con un modo de privacidad seleccionado. El modo de privacidad puede incluir un modo de fondo borroso y un modo de reemplazo de fondo y se puede seleccionar automáticamente basándose en el tipo de reunión, participantes, ubicación y tipo de dispositivo.
Un objeto de la invención es proporcionar un sistema y método de captura de movimiento que aborde al menos parcialmente uno o más de los desafíos descritos anteriormente.
De acuerdo con un aspecto de la invención, se proporciona un sistema de captura de movimiento de acuerdo con la reivindicación 1.
Por tanto, se proporciona un sistema en el que las cámaras individuales pueden responder a la salida de un acelerómetro proporcionado en cada cámara. Esta capacidad mejora la flexibilidad en la forma en que se puede configurar y mantener el sistema de captura de movimiento, facilitando en particular los procedimientos que implican la proximidad de un usuario con cámaras individuales.
Los acelerómetros pueden detectar desviaciones no deseadas en la orientación de las cámaras, para impulsar así la acción de investigación y/o los procedimientos de recalibración.
De acuerdo con un aspecto alternativo de la invención, se proporciona un método para realizar la captura de movimiento de acuerdo con la reivindicación 14.
A continuación, se describirán las realizaciones de la invención, tan solo a modo de ejemplo, con referencia a los dibujos adjuntos en los que símbolos de referencia correspondientes indican partes correspondientes, y en los que:
la Figura 1 representa un sistema de captura de movimiento;
la Figura 2 representa una vista desde arriba de una pluralidad de cámaras de un sistema de captura de movimiento dirigidas hacia una región objetivo; y
la Figura 3 es una vista lateral esquemática de una sola de la pluralidad de cámaras de la Figura 2.
En una realización, de la que se muestra un ejemplo en las Figuras 1-3, se proporciona un sistema de captura de movimiento 2 que comprende una pluralidad de cámaras 4. Una unidad de procesamiento 6 está configurada para realizar el procesamiento usando datos de imagen recibidos de cada una de la pluralidad de cámaras 4. El procesamiento puede comprender el procesamiento asociado con realizar una captura de movimiento, por ejemplo. En este contexto, se entiende que la captura de movimiento abarca al menos cualquier proceso o técnica de registro digital de patrones de movimiento, por ejemplo, para registrar los movimientos de un actor con el fin de animar un personaje digital en una película o un juego de computadora. Opcionalmente, una o más de la pluralidad de cámaras 4 pueden configurarse para realizar un procesamiento que contribuya al procedimiento de captura de movimiento. Por ejemplo, una cámara puede preprocesar datos de imagen capturados por la cámara antes de enviar datos a la unidad de procesamiento. La unidad de procesamiento 6 puede tomar varias formas. Por ejemplo, la unidad de procesamiento 6 puede comprender un ordenador (por ejemplo, un PC de escritorio o portátil), una tableta, un teléfono inteligente, o cualquier combinación de estos en comunicación entre sí. La unidad de procesamiento 6 puede comprender una pantalla 8. La unidad de procesamiento 6 puede comprender además hardware de procesamiento 10 (por ejemplo, CPU, memoria, etc.), y una interfaz 12 que permite al usuario interactuar con la unidad de procesamiento 6. La interfaz puede comprender una pantalla táctil, teclado, ratón u otro dispositivo de entrada.
En una realización, cada una de las cámaras 4 comprende un acelerómetro 22. Un ejemplo de tal cámara se muestra en la Figura 3. En realizaciones de este tipo, la unidad de procesamiento 6 está configurada para realizar un procesamiento que depende de una salida de los acelerómetros 22.
En una realización, la unidad de procesamiento 6 está configurada para seleccionar una de las cámaras 4 en función de una salida del acelerómetro 22 de esa cámara. La unidad de procesamiento 6 está además configurada para realizar un procesamiento con la cámara seleccionada que depende de cuál de las cámaras 4 se haya seleccionado. El procesamiento con la cámara seleccionada puede comprender varias funcionalidades diferentes asociadas con la cámara seleccionada. En una realización, el procesamiento con la cámara seleccionada comprende mostrar datos, por ejemplo, en la pantalla 8, desde la cámara seleccionada 4. Por lo tanto, esta funcionalidad hace posible que un usuario vea los datos asociados con una cámara en particular simplemente haciendo que la salida del acelerómetro varíe de una forma particular (por ejemplo, tocando o manipulando la cámara 4).
En una realización, el procesamiento con la cámara seleccionada comprende mostrar datos de una pluralidad de cámaras y proporcionar información visual que indica cuál de los datos mostrados corresponde a la cámara seleccionada. Por ejemplo, la unidad de procesamiento 6 puede configurarse para mostrar datos de imagen capturados por más de una de las cámaras 4 en una pluralidad correspondiente de ventanas diferentes en la pantalla 8. La cámara seleccionada se puede indicar resaltando la ventana correspondiente a la cámara seleccionada, o trayendo la ventana al frente en relación con otras ventanas, por ejemplo.
Como alternativa o adicionalmente, el procesamiento con la cámara seleccionada puede comprender mostrar datos de la cámara seleccionada y no mostrar datos de ninguna otra cámara. De esta manera, la manipulación de la cámara para causar un cambio característico en la salida del acelerómetro 22 en esa cámara se puede usar para hacer que la pantalla 8 cambie entre mostrar datos de diferentes cámaras.
La funcionalidad descrita anteriormente puede ser particularmente conveniente en el caso de que la unidad de procesamiento 6 comprenda una unidad portátil, tal como un ordenador portátil o una tableta. En este caso, un usuario puede llevar la unidad portátil de una cámara 4 a otra cámara 4 en el sistema y seleccionar convenientemente para ver los datos asociados con una cámara que está junto al mimo en ese momento simplemente haciendo que cambie la salida del acelerómetro (por ejemplo, tocando la cámara 4). Esta funcionalidad evita que el usuario tenga que interactuar manualmente con la propia unidad portátil para seleccionar una cámara. Este enfoque puede ahorrar mucho tiempo y esfuerzo, particularmente, en el caso de que se proporcionen muchas cámaras 4 diferentes.
En una realización, los datos mostrados del procesamiento con la cámara seleccionada comprenden datos de imagen capturados por la cámara seleccionada 4. Como alternativa o adicionalmente, los datos mostrados comprenden datos de configuración de la cámara seleccionada. Los datos de configuración pueden comprender cualquier parámetro operativo u otros parámetros de la cámara 4. En una realización, el procesamiento con la cámara seleccionada comprende proporcionar una interfaz de cámara seleccionada, por ejemplo, como parte de la pantalla 8, por ejemplo, una parte activa de la pantalla táctil de la pantalla 12, que permite al usuario controlar la cámara seleccionada 4. Por tanto, al tocar o manipular de otro modo la cámara 4 para proporcionar un cambio en la salida del acelerómetro 22, el usuario puede abrir convenientemente una interfaz que le permite controlar la cámara 4 seleccionada a través de la unidad de procesamiento 6 (por ejemplo, un ordenador portátil o una tableta).
La interfaz de cámara seleccionada puede permitir el control de una pluralidad de cámaras 4 y proporcionar una indicación visual que indica cuál de las cámaras 4 es la cámara 4 seleccionada. Este enfoque permite al usuario ver datos de configuración u otros datos relevantes de otras cámaras mientras controla la cámara seleccionada 4. Esto puede ser útil cuando los datos de otras cámaras son relevantes para fines de comparación o referencia.
En una realización, la interfaz de la cámara seleccionada está configurada para permitir el control de la cámara 4 seleccionada y de ninguna otra cámara 4. La interfaz de la cámara seleccionada puede proporcionar otras diversas funcionalidades asociadas con la cámara 4 seleccionada.
En una realización, la unidad de procesamiento 6 está configurada para seleccionar una de las cámaras 4 en respuesta a una perturbación en la salida del acelerómetro 22 (por ejemplo, una amplitud de la perturbación, proporcional a una magnitud de una aceleración, o una duración de la perturbación) de esa cámara 4 que es mayor que un umbral predeterminado. La perturbación puede ser causada, por ejemplo, por un usuario del sistema que toca ligeramente la cámara 4.
Como alternativa o adicionalmente, la unidad de procesamiento 6 puede configurarse para seleccionar una de las cámaras 4 cuando una salida del acelerómetro 22 de esa cámara 4 coincide con una salida de firma predeterminada.
La salida de firma predeterminada puede corresponder a una salida consistente con un usuario tocando la cámara con un dedo, o cualquier otra manipulación de la cámara por parte de un usuario que no perturbe el montaje de la cámara 4. Normalmente, por lo tanto, la unidad de procesamiento 6 está configurada para detectar una interacción relativamente ligera entre el usuario y la cámara 4, tales como toques (único o múltiple, tal como doble toque), u otras interacciones ligeras similares. La salida de firma predeterminada puede determinarse registrando la respuesta del acelerómetro 22 de la cámara a uno o más tipos de interacción prevista. Por ejemplo, la respuesta a una variedad de toques de un solo dedo podría registrarse y una respuesta promedio podría usarse como una salida de firma predeterminada. Cuando un usuario toca la cámara 4 en uso, la respuesta del acelerómetro 22 se puede comparar con la respuesta promedio registrada y si las dos respuestas son suficientemente similares, se puede deducir que existe una coincidencia entre la salida del acelerómetro y la salida de firma predeterminada. Se podrían usar varios aspectos de la salida del acelerómetro para la comparación, incluyendo, por ejemplo, la duración de la perturbación en la salida, la amplitud de la perturbación de la salida, o la variación con el tiempo de la amplitud de la perturbación. El uso de la variación con el tiempo de la amplitud de la perturbación puede ser particularmente apropiado, por ejemplo, cuando la interacción del usuario toma una forma más compleja, por ejemplo, un doble toque. Aquí, puede ser apropiado, por ejemplo, detectar un par de máximos locales en la perturbación de la salida del acelerador 22 y/o la separación temporal de los máximos para determinar si la interacción del usuario coincide con la salida de firma predeterminada para un doble toque.
En una realización, la unidad de procesamiento 6 está configurada para responder de manera diferente según la dirección de una perturbación en la salida del acelerómetro 22. Por ejemplo, la unidad de procesamiento 6 puede configurarse para realizar un procesamiento seleccionado en la primera dirección cuando la cámara 4 se toca en un lado (y, por lo tanto, en una primera dirección, por ejemplo, en una dirección hacia dentro sustancialmente perpendicular al primer lado) y un segundo procesamiento en la dirección seleccionada, diferente del primer procesamiento en la dirección seleccionada, cuando se toca la cámara 4 en un segundo lado (y, por tanto, en una segunda dirección, diferente de la primera dirección, por ejemplo, en una dirección hacia dentro sustancialmente perpendicular al segundo lado). Por ejemplo, el primer procesamiento en la dirección seleccionada puede comprender la visualización de datos de imagen capturados por la cámara y el segundo procesamiento en la dirección seleccionada puede comprender la visualización de datos de configuración de la cámara.
La Figura 2 muestra cómo se pueden configurar cuatro cámaras 4 de un sistema de captura de movimiento 2 para que se dirijan hacia una región objetivo 16. La provisión de cuatro cámaras 4 es a modo de ejemplo. Se pueden proporcionar menos de cuatro o más de cuatro cámaras 4 de acuerdo con los requisitos. Normalmente, cada una de las cámaras 4 será una unidad físicamente separada. Cada cámara 4 normalmente se puede montar independientemente de las otras cámaras 4. En el ejemplo mostrado, las cámaras 2 están montadas en soportes de montaje separados 14.
Las cámaras 4 pueden configurarse para interactuar con la unidad de procesamiento 6 de varias maneras. Se pueden proporcionar cables entre cada una de las cámaras 4 y la unidad de procesamiento 6, por ejemplo. Como alternativa o adicionalmente, la transferencia inalámbrica de datos puede ser posible entre las cámaras 4 y la unidad de procesamiento 6.
En las realizaciones descritas anteriormente, los acelerómetros 22 en las cámaras 4 pueden usarse para proporcionar una manera conveniente para que un usuario seleccione una cámara con la que está muy cerca y/o para seleccionar la funcionalidad asociada con esa cámara. Sin embargo, los acelerómetros 22 pueden usarse para otros fines, además de las funcionalidades descritas anteriormente, o como una alternativa a las funcionalidades descritas anteriormente.
En la realización de la invención, la unidad de procesamiento 6 está configurada para detectar un cambio en la orientación de una o más de las cámaras 4 basándose en una salida de los acelerómetros 22. Esto se logra detectando un cambio en la dirección de la gravedad en relación con la cámara 4. Esto se ilustra esquemáticamente en la vista lateral de la Figura 3. La flecha 26 indica la dirección de la gravedad en relación con el acelerómetro 22. La gravedad actúa como una aceleración y, por lo tanto, es detectada por el acelerómetro 22. El acelerómetro 22 es capaz de detectar la dirección de la gravedad 26 con respecto a un eje de referencia 28 de la cámara 4.
En el ejemplo mostrado en la Figura 3, esto se usa para permitir que el acelerómetro 22 determine un ángulo 24 de inclinación de la cámara 4 con respecto a la vertical. Normalmente, cuando el sistema de captura de movimiento 2 está configurado, una o más de las cámaras 4 se montarán de forma fija y se calibrarán después antes de que se use el sistema de captura de movimiento para capturar el movimiento en la región objetivo 16. Cualquier desviación en la posición u orientación de una cámara 4 después de que haya finalizado el proceso de calibración conducirá a una reducción en la calidad del proceso de captura de imágenes. Tales desviaciones pueden ocurrir, por ejemplo, debido a golpes en la cámara 4 o montaje 14, variaciones de temperatura y expansión/contracción térmica asociada en la cámara 4 o montaje 14, o inclinación o flexión del montaje 14, etc. Los inventores han reconocido que una amplia gama de tales desviaciones implicará un cambio en la orientación de la cámara 4 con respecto a la dirección de la gravedad y que esto puede ser detectado por un acelerómetro 22. Por tanto, el acelerómetro 22 proporciona una manera conveniente y precisa para que la unidad de procesamiento 6 detecte cuando ha habido desviaciones en el montaje de la cámara. Incluso los cambios que ocurren lentamente con el tiempo, tal como cuando un montaje se flexiona o cambia gradualmente debido a variaciones de temperatura a largo plazo, etc., el acelerómetro 22 puede aún detectar cambios en la orientación comparando una medición absoluta de la orientación en una cámara 4 con un registro absoluto de la orientación de la misma cámara 4 en un momento anterior. Por ejemplo, cuando el sistema se deja durante la noche, se puede hacer una comparación entre las salidas de los acelerómetros 22 de la mañana en comparación con las salidas registradas el día anterior. Cualquier variación significativa (por ejemplo, variaciones que son mayores que un umbral predeterminado) indicará que una cámara ha sido perturbada significativamente y que, por lo tanto, es necesario verificar el montaje y/o recalibrar.
En las realizaciones descritas anteriormente, cada una de las cámaras 4 está provista de un acelerómetro 22. En estos y otros ejemplos, cada una de las cámaras 4 puede comprender como alternativa o adicionalmente uno o más sensores que proporcionen información útil sobre el estado de la cámara.
En un ejemplo, cada una de las cámaras 4 comprende un sensor de temperatura 18. El sensor de temperatura 18 se puede proporcionar en lugar del acelerómetro 22 o además del mismo. La unidad de procesamiento 6 está configurada en tales ejemplos para realizar un procesamiento que depende de una salida del sensor de temperatura 18. En un ejemplo, la unidad de procesamiento 6 está configurada para proporcionar una indicación visual de la temperatura de una o más de las cámaras 4. La indicación visual se puede proporcionar en la pantalla 12 de la unidad de procesamiento 6, por ejemplo. Como alternativa o adicionalmente, se puede proporcionar una indicación visual de la temperatura en las cámaras individuales 4. En un ejemplo, el sensor de temperatura 18 de cada cámara 4 está montado en un hardware de procesamiento informático 20, tal como una PCB, dentro de la cámara 4. Por lo tanto, el sensor de temperatura 18 en tal ejemplo está configurado para medir la temperatura del hardware de procesamiento informático 20. Normalmente, cuando se enciende una cámara 4, se suministra energía al hardware de procesamiento informático 20 dentro de la cámara 4, lo que hace que el hardware 20 se caliente. El calentamiento puede conducir a cambios en las características operativas del hardware de procesamiento informático 20 y/o en las características de otros elementos de la cámara. Por ejemplo, el calor se puede conducir desde el hardware de procesamiento informático 20 hasta los elementos ópticos o mecánicos de la cámara, por ejemplo, entre una lente de la cámara 4 y una unidad de captura de imágenes configurada para transformar la luz recibida en los píxeles de la misma en una señal eléctrica que representa la imagen capturada. Al medir la temperatura del hardware de procesamiento informático 20 es posible detectar, por ejemplo, cuándo la temperatura del hardware 20 alcanza un estado estable. En este punto, es probable que los cambios adicionales impulsados térmicamente en las propiedades de la cámara 4 sean muy pequeños. Por lo tanto, un usuario puede comenzar con seguridad los procedimientos de calibración en este punto sabiendo que es poco probable que las variaciones de temperatura posteriores causen una desviación significativa del estado calibrado. En relación con los enfoques alternativos en los que un usuario simplemente espera un tipo predeterminado que se elige para que sea más largo que cualquier período de estabilización de la temperatura, el enfoque del presente ejemplo permite a un usuario iniciar el procedimiento de calibración antes y/o en un punto que es más confiable en el régimen de temperatura de estado estable.

Claims (14)

REIVINDICACIONES
1. Un sistema de captura de movimiento (2) que comprende:
una pluralidad de cámaras (4), cada cámara (4) montada de forma fija para ser dirigida hacia una escena objetivo; y una unidad de procesamiento (6) configurada para realizar el procesamiento usando datos de imagen de cada una de la pluralidad de cámaras (4), caracterizado por que:
cada una de las cámaras (4) comprende un acelerómetro (22) y la unidad de procesamiento (6) está configurada para realizar un procesamiento que depende de una salida de los acelerómetros (22), y
la unidad de procesamiento (6) está configurada para:
detectar un cambio en la orientación de cualquiera de las cámaras (4) basándose en una salida de los acelerómetros (22) detectando un cambio en la dirección de la gravedad en relación con esa cámara (4); e
indicar que una cámara ha sido perturbada significativamente y que es necesario verificar el montaje y/o la recalibración si el cambio detectado en la orientación de la cámara es mayor que un umbral predeterminado.
2. El sistema (2) de la reivindicación 1, en donde la unidad de procesamiento (6) está configurada para: seleccionar una de las cámaras (4) basándose en una salida del acelerómetro (22); y
realizar un procesamiento con la cámara seleccionada que depende de cuál de las cámaras (4) se haya seleccionado.
3. El sistema (2) de la reivindicación 2, en el que el procesamiento con la cámara seleccionada comprende visualizar datos de la cámara seleccionada (4).
4. El sistema (2) de la reivindicación 3, en donde el procesamiento con la cámara seleccionada comprende mostrar datos de una pluralidad de cámaras (4) y proporcionar información visual que indica cuál de los datos mostrados corresponde a la cámara seleccionada (4).
5. El sistema (2) de la reivindicación 3, en donde el procesamiento con la cámara seleccionada comprende mostrar datos de la cámara seleccionada (4) y no mostrar datos de ninguna otra cámara (4).
6. El sistema (2) de cualquiera de las reivindicaciones 2-5, en donde los datos mostrados comprenden datos de imagen capturados por la cámara seleccionada (4).
7. El sistema (2) de cualquiera de las reivindicaciones 2-6, en donde los datos mostrados comprenden datos de configuración de la cámara seleccionada (4).
8. El sistema (2) de cualquiera de las reivindicaciones 2-7, en donde el procesamiento con la cámara seleccionada comprende proporcionar una interfaz de cámara seleccionada a un usuario que le permite controlar la cámara seleccionada (4), y opcionalmente, la interfaz de cámara seleccionada permite el control de una pluralidad de cámaras (4) y proporciona una indicación visual que indica cuál de las cámaras (4) es la cámara seleccionada (4) o la interfaz de cámara seleccionada permite el control de la cámara seleccionada ( 4) y de ninguna otra cámara (4).
9. El sistema (2) de cualquiera de las reivindicaciones 2-8, en donde la unidad de procesamiento (6) está configurada para seleccionar una de las cámaras (4) en respuesta a una perturbación en la salida del acelerómetro (22) de esa cámara (4) que es mayor que un umbral predeterminado.
10. El sistema (2) de cualquiera de las reivindicaciones 2-9, en donde la unidad de procesamiento (6) está configurada para seleccionar una de las cámaras (4) cuando una salida del acelerómetro (22) de esa cámara (4) coincide con una salida de firma predeterminada, en donde, opcionalmente, la salida de firma predeterminada corresponde a una salida consistente con un usuario que toca la cámara (4) con un dedo, opcionalmente una multiplicidad predeterminada de veces.
11. El sistema (2) de cualquier reivindicación anterior, en donde cada una de las cámaras (4) es una unidad físicamente separada y se puede montar independientemente de las otras cámaras (4).
12. El sistema (2) de cualquier reivindicación anterior, en donde la unidad de procesamiento (6) se proporciona en un dispositivo informático portátil configurado para comunicarse de forma inalámbrica con cada una de las cámaras (6).
13. El sistema (2) de cualquiera de las reivindicaciones anteriores, en donde la unidad de procesamiento (6) está configurada para realizar un primer procesamiento en la dirección seleccionada asociado con una cámara (4) cuando se detecta una perturbación en la aceleración en la cámara (4) en una primera dirección y para realizar un segundo procesamiento en la dirección seleccionada asociado a la cámara (4) cuando se detecta una perturbación en la aceleración de la cámara (4) en una segunda dirección, siendo la primera y segunda direcciones diferentes entre sí, y siendo el primer y segundo procesamientos en las direcciones seleccionadas diferentes entre sí.
14. Un método para realizar la captura de movimiento usando una pluralidad de cámaras (4), en donde cada una de las cámaras (4) está montada de forma fija para ser dirigida hacia una escena objetivo, caracterizado por que: cada una de las cámaras (4) comprende un acelerómetro (22), y el método comprende:
realizar el procesamiento en una unidad de procesamiento (6) que depende de una salida de los acelerómetros (22), y
detectar un cambio en la orientación de cualquiera de las cámaras (4) basándose en una salida de los acelerómetros (22) detectando un cambio en la dirección de la gravedad en relación con esa cámara (4); e
indicar que una cámara ha sido perturbada significativamente y que es necesario verificar el montaje y/o la recalibración si el cambio detectado en la orientación de la cámara es mayor que un umbral predeterminado.
ES16718888T 2015-06-09 2016-04-22 Sistema y método de captura de movimiento Active ES2946982T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1509993.0A GB2539387B (en) 2015-06-09 2015-06-09 Motion capture system
PCT/GB2016/051130 WO2016198827A1 (en) 2015-06-09 2016-04-22 Motion capture system

Publications (1)

Publication Number Publication Date
ES2946982T3 true ES2946982T3 (es) 2023-07-31

Family

ID=53785189

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16718888T Active ES2946982T3 (es) 2015-06-09 2016-04-22 Sistema y método de captura de movimiento

Country Status (6)

Country Link
US (1) US10375288B2 (es)
EP (2) EP4184930A1 (es)
JP (3) JP6978411B2 (es)
ES (1) ES2946982T3 (es)
GB (1) GB2539387B (es)
WO (1) WO2016198827A1 (es)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11043006B1 (en) 2017-12-29 2021-06-22 Perceive Corporation Use of machine-trained network for misalignment identification

Family Cites Families (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3566451B2 (ja) * 1996-04-24 2004-09-15 キヤノン株式会社 カメラ制御システムおよびカメラ制御システムの制御方法
US5878283A (en) 1996-09-05 1999-03-02 Eastman Kodak Company Single-use camera with motion sensor
JP4209535B2 (ja) 1999-04-16 2009-01-14 パナソニック株式会社 カメラ制御装置
JP2002008040A (ja) * 2000-06-16 2002-01-11 Matsushita Electric Ind Co Ltd 三次元情報検出装置及び三次元情報検出方法
US7540080B2 (en) * 2003-09-22 2009-06-02 Murata Manufacturing Co., Ltd. Method for mounting component by suction nozzle
JP4767507B2 (ja) * 2004-07-13 2011-09-07 オリンパス株式会社 医療費用算出装置
JP2006163759A (ja) * 2004-12-07 2006-06-22 Canon Inc 携帯端末
US10148897B2 (en) 2005-07-20 2018-12-04 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
EP1713253A1 (en) * 2005-04-14 2006-10-18 Thomson Licensing Camera system with PIP in viewfinder
EP1713254A3 (en) 2005-04-14 2007-06-13 THOMSON Licensing Camera system with PIP in viewfinder
US8659668B2 (en) * 2005-10-07 2014-02-25 Rearden, Llc Apparatus and method for performing motion capture using a random pattern on capture surfaces
US9891435B2 (en) * 2006-11-02 2018-02-13 Sensics, Inc. Apparatus, systems and methods for providing motion tracking using a personal viewing device
US8040382B2 (en) 2008-01-07 2011-10-18 Dp Technologies, Inc. Method and apparatus for improving photo image quality
JP5117288B2 (ja) * 2008-06-12 2013-01-16 オリンパスイメージング株式会社 撮影装置および撮影装置の設定方法
IT1392548B1 (it) 2008-11-24 2012-03-09 St Microelectronics Rousset Dispositivo e metodo di rilevamento dell'orientazione di un apparecchio elettronico
JP5259464B2 (ja) * 2009-03-13 2013-08-07 オリンパスイメージング株式会社 撮像装置およびそのモード切換え方法
US8687070B2 (en) * 2009-12-22 2014-04-01 Apple Inc. Image capture device having tilt and/or perspective correction
JP2011188210A (ja) * 2010-03-08 2011-09-22 Olympus Imaging Corp 撮影機器及び撮影システム
US8284847B2 (en) * 2010-05-03 2012-10-09 Microsoft Corporation Detecting motion for a multifunction sensor device
JP5661367B2 (ja) 2010-08-02 2015-01-28 キヤノン株式会社 撮像装置及びその制御方法、プログラム、及び記録媒体
JP2012039468A (ja) * 2010-08-09 2012-02-23 Olympus Imaging Corp 撮影装置システムおよび撮影装置
US8702516B2 (en) * 2010-08-26 2014-04-22 Blast Motion Inc. Motion event recognition system and method
JP5792662B2 (ja) * 2011-03-23 2015-10-14 シャープ株式会社 視差算出装置、距離算出装置及び視差算出方法
US8786680B2 (en) * 2011-06-21 2014-07-22 Disney Enterprises, Inc. Motion capture from body mounted cameras
US9143769B2 (en) * 2011-06-29 2015-09-22 Massachusetts Institute Of Technology 3-D luminous pixel arrays, 3-D luminous pixel array control systems and methods of controlling 3-D luminous pixel arrays
US9100587B2 (en) * 2011-07-22 2015-08-04 Naturalpoint, Inc. Hosted camera remote control
US9444547B2 (en) * 2011-07-26 2016-09-13 Abl Ip Holding Llc Self-identifying one-way authentication method using optical signals
US9596398B2 (en) 2011-09-02 2017-03-14 Microsoft Technology Licensing, Llc Automatic image capture
US9534924B2 (en) 2011-11-11 2017-01-03 Qualcomm Incorporated Sensor auto-calibration
CA2863058C (en) * 2012-01-11 2021-10-19 Ultra-D Cooperatief U.A. Mobile display device
JP6110617B2 (ja) 2012-01-16 2017-04-05 矢崎エナジーシステム株式会社 表示システム、表示制御装置及び表示制御方法
EP2642748A1 (en) 2012-03-22 2013-09-25 BlackBerry Limited A camera device for reducing sensor noise
JP2012177941A (ja) * 2012-06-05 2012-09-13 Olympus Imaging Corp 電子装置
JP5393863B2 (ja) * 2012-10-15 2014-01-22 オリンパスイメージング株式会社 撮影装置および撮影装置の設定方法
MY172143A (en) * 2012-12-13 2019-11-14 Mimos Berhad Method for non-static foreground feature extraction and classification
US9124762B2 (en) 2012-12-20 2015-09-01 Microsoft Technology Licensing, Llc Privacy camera
JP5412591B2 (ja) * 2013-03-07 2014-02-12 オリンパスイメージング株式会社 機器
JPWO2014155730A1 (ja) * 2013-03-29 2017-02-16 株式会社東芝 表示処理装置、及び表示処理方法
US9563105B1 (en) * 2013-04-10 2017-02-07 Ic Real Tech Inc. Screw coupler enabling direct secure fastening between communicating electronic components
JP5458202B2 (ja) * 2013-04-24 2014-04-02 オリンパスイメージング株式会社 撮像装置およびそのモード切換え方法
US9066007B2 (en) * 2013-04-26 2015-06-23 Skype Camera tap switch
JP5632040B2 (ja) * 2013-05-17 2014-11-26 オリンパスイメージング株式会社 撮像装置およびそのモード切換え方法
US10362303B2 (en) 2013-12-03 2019-07-23 Apple Inc. Sensor-assisted autofocus calibration
US9824572B2 (en) * 2015-05-21 2017-11-21 Donald J Arndt System, method, and computer program product for locating lost or stolen items

Also Published As

Publication number Publication date
US10375288B2 (en) 2019-08-06
EP4184930A1 (en) 2023-05-24
JP7344950B2 (ja) 2023-09-14
JP6978411B2 (ja) 2021-12-08
JP2022043027A (ja) 2022-03-15
GB2539387A (en) 2016-12-21
EP3308535C0 (en) 2023-06-07
US20180176446A1 (en) 2018-06-21
JP2022043028A (ja) 2022-03-15
EP3308535A1 (en) 2018-04-18
EP3308535B1 (en) 2023-06-07
JP2018529130A (ja) 2018-10-04
GB201509993D0 (en) 2015-07-22
GB2539387B (en) 2021-04-14
WO2016198827A1 (en) 2016-12-15

Similar Documents

Publication Publication Date Title
ES2958071T3 (es) Método de control de cámara y terminal móvil
ES2882158T3 (es) Dispositivos portátiles con seguimiento ocular
JP6222830B2 (ja) 画像投射装置
KR102380335B1 (ko) 주사 레이저 평면성 검출
KR101969931B1 (ko) 디스플레이 영상의 회전을 제어하는 장치 및 방법
US20140139667A1 (en) Image capturing control apparatus and method
ES2927183T3 (es) Coordinación de la alineación de sistemas de coordenadas utilizados para un dispositivo de realidad generada por ordenador y un dispositivo háptico
CN103037185A (zh) 显示装置、及显示控制方法
KR20210010437A (ko) 광학 위치 추적 장치를 위한 전력 관리
CN112513595A (zh) 可移动装置、控制终端、利用可移动装置中的红外热像仪测温的方法以及可移动系统
BR112014019490B1 (pt) Método para gerenciamento de orientação de tela de um dispositivo eletrônico portátil e dispositivo eletrônico portátil capaz de gerir orientação de tela
JP2006324948A5 (es)
US10191487B2 (en) Control device and control method for flying bot
WO2016000194A1 (zh) 一种摄像控制方法、装置及云台设备
EP3427472B1 (en) Image capturing method and electronic device supporting the same
CN105915803A (zh) 一种基于传感器的拍照方法及系统
KR101424151B1 (ko) 감시 카메라 장치 및 그 제어방법
JPWO2014155623A1 (ja) 携帯端末装置、表示制御方法およびプログラム
ES2946982T3 (es) Sistema y método de captura de movimiento
KR102507054B1 (ko) 카메라 및 이를 포함하는 전자 장치
CN102316260A (zh) Ptz摄影机控制系统、方法及ptz摄影机调整装置
CN109974976B (zh) 多温度标定系统以及多温度标定方法
JP2020020699A (ja) 三次元座標測定装置
KR20130014275A (ko) 디스플레이 화면 제어 방법 및 그를 이용한 영상 표시 기기
JP2015171116A (ja) カメラの表示装置