ES2730404T3 - Videocámara con modos de captura - Google Patents

Videocámara con modos de captura Download PDF

Info

Publication number
ES2730404T3
ES2730404T3 ES15772868T ES15772868T ES2730404T3 ES 2730404 T3 ES2730404 T3 ES 2730404T3 ES 15772868 T ES15772868 T ES 15772868T ES 15772868 T ES15772868 T ES 15772868T ES 2730404 T3 ES2730404 T3 ES 2730404T3
Authority
ES
Spain
Prior art keywords
image data
acquired
user input
interest
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES15772868T
Other languages
English (en)
Inventor
Peter Jarred Land
James H Jannard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Red com LLC
Original Assignee
Red com LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Red com LLC filed Critical Red com LLC
Application granted granted Critical
Publication of ES2730404T3 publication Critical patent/ES2730404T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/34Indicating arrangements 
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/46Embedding additional information in the video signal during the compression process
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

Un método de registrar selectivamente datos de imagen (310) asociados con un evento de interés, incluyendo el método (i), en un modo de operación en ráfaga: adquirir de forma continua datos de imagen (310) por uno o varios sensores de imagen (18) de una videocámara (10); almacenar temporalmente los datos de imagen adquiridos (310) en una memoria intermedia de datos de imagen (36); en respuesta a recibir una primera entrada de usuario que identifica un primer evento de interés cuando los datos de imagen (310) son adquiridos de forma continua, registrar en un archivo de datos de imagen a un primer nivel de calidad: al menos una parte de los datos de imagen adquiridos en la memoria intermedia de datos de imagen (36) que fueron adquiridos antes de la primera entrada de usuario (554); y al menos una parte de datos de imagen adquiridos de forma continua durante o después de la primera entrada de usuario (552, 556); en respuesta a recibir una segunda entrada de usuario que identifica un segundo evento de interés cuando los datos de imagen (310) son adquiridos de forma continua, anexar al archivo de datos de imagen al primer nivel de calidad: al menos una parte de los datos de imagen adquiridos en la memoria intermedia de datos de imagen (36) que fueron adquiridos antes de la segunda entrada de usuario; y al menos una parte de datos de imagen adquiridos de forma continua durante o después de la segunda entrada de usuario; desechar las partes restantes de los datos de imagen adquiridos (310) temporalmente almacenados en la memoria intermedia (36) que no están registrados en el archivo de datos de imagen, sin registrar las partes restantes usando la videocámara (10); y además, en respuesta a la recepción de la primera entrada de usuario que identifica el primer evento de interés cuando los datos de imagen (310) son adquiridos de forma continua: generar una indicación de cada uno de los eventos de interés primero y segundo, incluyendo cada indicación un sello de tiempo que indica un tiempo en el que la entrada de usuario fue recibida con respecto al evento de interés respectivo; y registrar las indicaciones en el archivo de datos de imagen, donde cada indicación incluye metadatos que indican una asociación entre el tiempo del respectivo evento de interés y la parte de los datos de imagen adquiridos que fueron adquiridos antes de la primera entrada de usuario y la parte de datos de imagen adquiridos de forma continua durante o después de la primera entrada de usuario, para el respectivo evento de interés; y (ii) en un modo de operación de registro continuo: adquirir de forma continua más datos de imagen (310) por el uno o varios sensores de imagen (18) de la videocámara (10); registrar los datos de imagen adicionales adquiridos (310) en el archivo de datos de imagen a un segundo nivel de calidad; y en respuesta a recibir una tercera entrada de usuario que identifica un tercer evento de interés cuando los datos de imagen (310) son adquiridos de forma continua: generar otra indicación del tercer evento de interés, incluyendo la indicación adicional un sello de tiempo que indica un tiempo en el que la tercera entrada de usuario fue recibida; y registrar la indicación adicional en el archivo de datos de imagen; donde el primer nivel de calidad es más alto que el segundo nivel de calidad.

Description

DESCRIPCIÓN
Videocámara con modos de captura
Referencia cruzada a solicitudes relacionadas
Esta solicitud reivindica el beneficio de la Solicitud de Patente Provisional de Estados Unidos número 61/975639, presentada el 4 de abril de 2014, y titulada “videocámara con modos de captura”.
Antecedentes
Campo de las invenciones
Las presentes invenciones se refieren a cámaras digitales, como las destinadas a capturar imágenes fijas o en movimiento, y más en concreto, a cámaras digitales que capturan datos de imagen en respuesta a entradas de usuario.
La Solicitud coreana publicada número 20130127754 describe un aparato de imágenes en movimiento que permite registrar automáticamente una cantidad de tiempo preestablecida de imagen en movimiento hacia delante y hacia atrás en torno a un punto de tiempo de adquisición. El punto de tiempo de adquisición puede ser seleccionado por un usuario.
Resumen
Los sistemas, métodos y dispositivos aquí descritos tienen varios aspectos, que se definen en las reivindicaciones de método 1-11 y la reivindicación de cámara 12.
Cualquier referencia a “realización o realizaciones”, “ejemplo o ejemplos” o “aspecto o aspectos” de la invención de esta descripción que no caen dentro del alcance de las reivindicaciones se deberán interpretar como ejemplo o ejemplos ilustrativos para la comprensión de la invención.
Breve descripción de los dibujos
Los aspectos siguientes de la descripción se conocerán más fácilmente a medida que se entiendan mejor con referencia a la descripción detallada siguiente, tomada en unión con los dibujos acompañantes.
La figura 1A es un diagrama de bloques que ilustra un sistema que puede incluir hardware y/o puede estar configurado para realizar métodos para procesar datos de imagen, según varias realizaciones.
La figura 1B es una realización ejemplar de un alojamiento para el sistema esquemáticamente ilustrado en la figura 1A. La figura 2A es un diagrama de flujo que ilustra un ejemplo de método en el que un usuario etiqueta datos de imagen vídeo, según una realización.
La figura 2B es un diagrama de flujo que ilustra un ejemplo de método en el que un usuario inicia el registro de ráfagas de datos de imagen, según una realización.
Las figuras 3A-3B ilustran ejemplos de interfaces de usuario que visualizan datos de imagen.
Las figuras 4-5 ilustran ejemplos de interfaces de usuario que visualizan secuencias de datos de imagen, según varias realizaciones.
Descripción detallada
Visión general
En varias realizaciones, la presente descripción describe sistemas y métodos de etiquetar datos de imagen (por ejemplo, vídeos, imágenes, secuencias de imágenes y/o análogos) en respuesta a entradas de usuario. También se describen interfaces de usuario y métodos asociados que presentan los datos de imagen etiquetados de una manera que facilita la revisión de las imágenes etiquetadas.
La cámara puede incluir dos modos seleccionables por el usuario: 1) un “modo de etiquetado vídeo” en el que el usuario puede iniciar el etiquetado de partes seleccionadas de vídeo registrado continuo; y 2) un “modo de ráfaga” en el que la cámara no registra vídeo en memoria hasta que un usuario inicia la captura de segmentos o secuencias vídeo (o “ráfagas”) de imágenes.
En algunas realizaciones, el “modo de etiquetado vídeo” puede permitir al usuario identificar eventos de interés mientras registra simultáneamente vídeo. La cámara puede marcar el archivo con metadatos de etiquetado apropiados de tal manera que la cámara u otro dispositivo separado pueda acceder más tarde al archivo vídeo registrado, identificar las partes etiquetadas del vídeo, y generar una interfaz gráfica que permite al usuario navegar rápidamente a y/o entre los eventos etiquetados al revisar el vídeo. En varias realizaciones, cuando la cámara está operando en el “modo de etiquetado vídeo”, el vídeo puede ser capturado a un nivel de calidad seleccionado (por ejemplo, a una resolución, tasa de cuadros, nivel de compresión y/o análogos seleccionados).
El “modo de ráfaga” puede permitir al usuario activar un control para iniciar el registro selectivo de segmentos vídeo u otras secuencias de imágenes. Por ejemplo, la cámara puede estar en un modo de vista previa donde, por lo demás, no registra vídeo de forma continua, y solamente envía vídeo para registro en almacenamiento en respuesta al accionamiento del control. En este modo, los cuadros de imagen puestos en memoria intermedia capturados tanto antes como después de un evento de interés son enviados, en algunas realizaciones, a almacenamiento para registro en respuesta a accionamiento del control por parte del usuario. En una realización, múltiples segmentos vídeo/secuencias de imágenes registrados son almacenados como un solo archivo, permitiendo al usuario compilar una serie de “clips” correspondientes a eventos seleccionados en una posición común para navegación posterior. El archivo puede ser formateado de tal manera que el usuario pueda posteriormente revisar rápidamente y/o navegar entre las imágenes registradas, por ejemplo, pasar rápidamente entre clips correspondientes a múltiples eventos. En algunas realizaciones, cuando la cámara está operando en el “modo de ráfaga”, los segmentos vídeo/secuencias de imágenes son capturados a un nivel de calidad máximo u otro relativamente alto (por ejemplo, una resolución máxima, una tasa máxima de cuadros, un nivel de compresión mínimo, y/o análogos). Tal nivel de calidad puede ser suficientemente alto de modo que el registro continuo a dicho nivel de calidad no sea sostenible debido a limitaciones de rendimiento de hardware y/o capacidad de almacenamiento. Sin embargo, en el modo de ráfaga, la cámara no envía vídeo a almacenamiento para registro continuo, y, en cambio, solamente envía imágenes a almacenamiento cuando el usuario inicia un registro de ráfagas, que se producirá intermitentemente. Además, un número limitado de cuadros de imagen será enviado a almacenamiento para cualquier ráfaga dada (por ejemplo, no más del número máximo de imágenes que pueden almacenarse en la memoria intermedia de datos de imagen). Así, en el modo de ráfaga, el registro puede ser posible al nivel de calidad máximo (o relativamente alto).
En una realización, la cámara puede estar configurada para registrar simultáneamente vídeo continuo a un nivel de calidad sostenible, mientras registra secuencias (o “ráfagas”) de imágenes a un nivel de calidad diferente (por ejemplo, un nivel de calidad más alto) en respuesta a una entrada de usuario. Tales vídeo continuo y secuencias de imágenes pueden ser almacenados ventajosamente juntos dentro de un solo archivo. El único archivo puede ser utilizable para revisión rápida de eventos de interés registrados, como se describe en este documento.
Ejemplo de sistema/cámara
Realizaciones de la invención se describirán ahora con referencia a las figuras acompañantes, donde números análogos se refieren a elementos análogos en todas ellas. No se pretende que la terminología usada en la descripción presentada en este documento sea interpretada de manera limitada o restrictiva, simplemente porque se utiliza en unión con una descripción detallada de algunas realizaciones específicas de la invención. Además, las realizaciones de la descripción pueden incluir varias características nuevas, ninguna de las cuales es responsable única de sus atributos deseables o es esencial para llevar a la práctica las realizaciones de la invención descritas en este documento.
Con referencia a la figura 1A, se muestra un ejemplo de cámara 10 que incluye un cuerpo o alojamiento 12 configurado para soportar un sistema 14 configurado para detectar, procesar, y opcionalmente transferir, almacenar, y/o reproducir datos de imagen. Por ejemplo, el sistema 14 puede incluir hardware óptico 16, un sensor de imagen 18, un procesador de imagen 20, un módulo de compresión 22, un dispositivo de almacenamiento 24, un selector de modo 32, un selector de evento 34, una memoria intermedia de imagen 36, y un módulo de entrada/salida 38. Opcionalmente, la cámara 10 también puede incluir un módulo de supervisión 26, un módulo de reproducción 28, y una pantalla 30.
La figura 1B ilustra una realización ejemplar no limitadora de la cámara 10. Como se representa en la figura 1B, la cámara puede incluir un montaje de lente para montar el hardware óptico 16 (no representado) en la cámara 10. En algunas realizaciones, el sistema 14 es soportado dentro del alojamiento 12. Por ejemplo, el sensor de imagen 18, el procesador de imagen 20, el módulo de compresión 22, la memoria intermedia de imagen 36, y el módulo de entrada/salida 28 pueden estar alojados dentro del alojamiento 12. El dispositivo de almacenamiento 24 puede ir montado en el alojamiento 12. Además, en algunas realizaciones, el dispositivo de almacenamiento 24 puede ir montado en el exterior del alojamiento 12 y conectado a las partes restantes del sistema 14 mediante el módulo de entrada/salida 38 y a través de cualquier tipo de conector o cable conocido. Además, el dispositivo de almacenamiento 24 puede estar conectado al alojamiento 12 con un cable flexible, permitiendo así que el dispositivo de almacenamiento 24 se mueva algo independientemente del alojamiento 12. Por ejemplo, con tal conexión por cable flexible, el dispositivo de almacenamiento 24 puede llevarlo el usuario en el cinturón, lo que permite reducir el peso total del alojamiento 12. Además, en algunas realizaciones, el alojamiento puede incluir uno o varios dispositivos de almacenamiento 24 dentro y montados en su exterior. Además, el alojamiento 12 también puede soportar el módulo de supervisión 26 y el módulo de reproducción 28. Además, en algunas realizaciones, la pantalla 30 puede estar configurada para montaje fuera del alojamiento 12.
El hardware óptico 16 puede tener la forma de un sistema de lente que tenga al menos una lente configurada para enfocar una imagen entrante sobre el sensor de imagen 18. El hardware óptico 16, opcionalmente, puede tener forma de un sistema multilente que proporcione zoom variable, apertura y enfoque. Además, el hardware óptico 16 puede tener forma de un soporte de lente soportado por el alojamiento 12 y configurado para recibir una pluralidad de tipos diferentes de sistemas de lente por ejemplo, aunque sin limitación, el hardware óptico 16 incluye un soporte configurado para recibir varios tamaños de sistemas de lente incluyendo una lente de zoom 50-100 milímetros (F2.8), una lente de zoom de 18-50 milímetros (F2.8), una lente de 300 milímetros (F2.8), una lente de 15 milímetros (F2.8), una lente de 25 milímetros (F1.9), una lente de 35 milímetros (F1.9), una lente de 50 milímetros (F1.9), una lente de 85 milímetros (F1.9), y/o cualquier otra lente. Como se ha indicado anteriormente, el hardware óptico 16 puede estar configurado de tal manera que, a pesar de qué lente esté montada en él, las imágenes puedan ser enfocadas sobre una superficie fotosensible del sensor de imagen 18.
El sensor de imagen 18 puede ser cualquier tipo de dispositivo de detección vídeo, incluyendo, por ejemplo, aunque sin limitación, CCD, CMOS, dispositivos CMOS apilados verticalmente tal como el sensor Foveon®, o una serie de multisensores que usan un prisma para dividir la luz entre los sensores. En algunas realizaciones, el sensor de imagen 18 puede incluir un dispositivo CMOS que tiene aproximadamente 12 millones de fotocélulas. Sin embargo, también se puede usar sensores de otro tamaño. En algunas configuraciones, la cámara 10 puede estar configurada para registrar y/o enviar vídeo (por ejemplo, vídeo tal como se recibe comprimido) a “2k” (por ejemplo, 2048 x 1152 píxeles), “4k” (por ejemplo, 4.096 x 2.540 píxeles), resolución horizontal “4,5k”, resolución horizontal “5k” (por ejemplo, 5120 x 2700 píxeles), resolución horizontal “6k” (por ejemplo, 6144 x 3160), o resoluciones mayores. En algunas realizaciones, la cámara puede estar configurada para registrar datos de imagen tal como se reciben comprimidos que tienen una resolución horizontal de entre al menos cualquiera de las resoluciones antes indicadas. En otras realizaciones, la resolución está entre al menos uno de dichos valores (o algún valor entre dichos valores) y aproximadamente 6,5k, 7k, 8k, 9k, o 10k, o algún valor entre ellos. En el sentido en que se usa aquí, en los términos expresados en el formato de xk (tal como 2k y 4k indicados anteriormente), la cantidad “x” se refiere a la resolución horizontal aproximada. Como tal, una resolución de “4k” corresponde a aproximadamente 4000 o más píxeles horizontales y “2k” corresponde a aproximadamente 2000 o más píxeles. Usando hardware actualmente disponible en el mercado, el sensor puede ser de sólo aproximadamente 0,5 pulgadas (8 mm), pero puede ser de aproximadamente 1,0 pulgadas, o mayor. Además, el sensor de imagen 18 puede estar configurado para proporcionar resolución variable enviando selectivamente solamente una parte predeterminada del sensor 18. Por ejemplo, el sensor 18 y/o el módulo procesador de imagen 20 pueden estar configurados para permitir al usuario identificar la resolución de los datos de imagen de salida.
En algunas realizaciones, el sensor de imagen 18 y/u otros componentes de la cámara 10 pueden estar configurados para capturar y/o procesar datos de imagen continuos, por ejemplo, a tasas de cuadro de 12, 20, 23,98, 24, 25, 29,97, 30, 47,96, 48, 50, 59,94, 60, 120, 250, 500, 1000, 2000, 2500, 5000, 10000 cuadros por segundo, u otras tasas de cuadro entre estas tasas de cuadro o más grandes.
La cámara 10 también puede estar configurada para submuestrear y posteriormente procesar la salida del sensor 18 para obtener salida vídeo a 2K, 1080p, 720p, o cualquier otra resolución. Por ejemplo, los datos de imagen procedentes del sensor 18 pueden ser “presentados en ventanas”, reduciendo por ello el tamaño de la imagen de salida y permitiendo velocidades de lectura más altas. Sin embargo, también se puede usar sensores de otro tamaño. Además, la cámara 10 puede estar configurada para sobremuestrear la salida del sensor 18 para obtener salida vídeo a resoluciones más altas.
En varias realizaciones, el usuario de la cámara 10 puede configurar la cámara para capturar y/o registrar datos de imagen en alguno de varios niveles de calidad seleccionables. Por ejemplo, el procesador de imagen 20 y/o el módulo de compresión 22 pueden estar configurados para capturar y/o registrar datos de imagen a resoluciones concretas, tasas de cuadro, y/o cualquier otro nivel de calidad como se ha descrito anteriormente. Como también se ha descrito anteriormente, en varias realizaciones la cámara 10 puede operar en un “modo de etiquetado vídeo” y/o un “modo de ráfaga”. En varias realizaciones, cuando la cámara opera en el “modo de etiquetado vídeo”, el vídeo puede ser enviado a almacenamiento para registro a un nivel de calidad sostenible para registro continuo, mientras que cuando la cámara opera en el “modo de ráfaga”, los segmentos vídeo/secuencias de imágenes pueden ser enviados a almacenamiento para registro a un nivel de calidad relativamente alto. El usuario puede configurar los niveles de calidad sostenibles y/o máximos. En una realización, al nivel de calidad usado en el “modo de ráfaga”, la cámara envía datos de imagen tal como se reciben no comprimidos y, al nivel de calidad sostenible usado durante el “modo de etiquetado vídeo”, la cámara registra datos de imagen tal como se reciben comprimidos. En otra realización, en el nivel de calidad usado en el “modo de ráfaga”, la cámara envía datos de imagen tal como se reciben (comprimidos o no comprimidos) y, al nivel de calidad sostenible usado durante el “modo de etiquetado vídeo”, la cámara registra datos de imagen no tal como se reciben.
En varias realizaciones, los datos de imagen pueden ser procesados según alguna de las técnicas descritas en la Patente de Estados Unidos número 7.830.967 titulada “Vídeo cámara” (patente '967), que se incorpora por referencia a este documento. Por ejemplo, el procesador de imagen 20, el módulo de compresión 22 y/o el sensor de imagen 18 pueden realizar preparación de datos por precompresión (por ejemplo, preénfasis y/o reducción de entropía), formatear los datos comprimidos, y/o análogos. En algunos casos, el procesador de imagen 20 procesa los datos de imagen según una o varias técnicas tal como procesos de modificación de datos verdes y/o preénfasis como se representa y describe en toda la patente '967 (por ejemplo, con respecto a las figuras 8-11 y las columnas 11-13 de la patente '967). En general, algunas realizaciones aquí descritas son compatibles con realizaciones descritas en la patente '967 y/o son componentes de ellas.
En varias realizaciones, el selector de modo 32 y/o el selector de evento 34 pueden estar montados fuera del alojamiento 12. Por ejemplo, el selector de modo 32 y/o el selector de evento 34 pueden incluir botones y/o conmutadores. En una realización, el selector de modo 32 y/o el selector de evento 34 pueden incluir elementos de selección visualizados en una pantalla sensible al tacto, por ejemplo, la pantalla 30. En una realización, el selector de modo 32 y/o el selector de evento 34 pueden ser activados por una orden oral y/u otra indicación audio. En una realización, el selector de modo 32 puede ser utilizable por el usuario de la cámara 10 para indicar un modo de operación de la cámara, por ejemplo, el “modo de etiquetado vídeo” o el “modo de ráfaga” descritos anteriormente. En una realización, el selector de evento 34 puede ser utilizable por el usuario para indicar la aparición de un evento de interés. Consiguientemente, la selección del selector de evento 34 puede hacer que la cámara etiquete vídeo capturado y/o capture segmentos vídeo o secuencias de imágenes, dependiendo del modo de operación de la cámara 10. En algunas realizaciones, la cámara 10 está configurada para etiquetar automáticamente un archivo vídeo, o capturar una ráfaga de imágenes, en respuesta a condiciones de disparo detectadas distintas de un control activado por el usuario. Por ejemplo, la cámara 10 puede estar configurada para etiquetar partes de un archivo vídeo, o capturar una ráfaga de imágenes, en respuesta a eventos detectado, datos recibidos y/o análogos. Por ejemplo, en una realización, el procesador de imagen 20 puede estar configurado para detectar eventos concretos, tales como movimientos de objetos o movimientos de objetos a una velocidad concreta. En respuesta a la detección de tales eventos, la cámara 10 puede etiquetar automáticamente un archivo vídeo o capturar una ráfaga de imágenes. En algunas realizaciones, una etiqueta puede estar asociada con datos relacionados adicionales incluyendo, por ejemplo, datos de posición, datos de color, datos de contraste y/o análogos. Por ejemplo, una etiqueta puede estar asociada con datos que indican una posición de la cámara, o datos de color o contraste (u otro parámetro de la cámara) cuando se etiquetó el archivo vídeo.
En varias realizaciones, la memoria intermedia de imagen 36 puede ser usada para almacenamiento temporal de datos de imagen capturados. Por ejemplo, el procesador de imagen 20 puede usar la memoria intermedia de imagen 36 como almacenamiento temporal para datos de imagen recientemente capturados recibidos del sensor de imagen, para facilitar el procesamiento antes de la distribución al dispositivo de almacenamiento 24, el módulo de entrada/salida 38, el módulo de supervisión 26 o análogos, directa o indirectamente, por ejemplo, mediante el módulo de compresión 22, como se representa. La memoria intermedia de imagen 36 puede incluir, por ejemplo, una memoria electrónica volátil y/o no volátil (por ejemplo, RAM, SDRAM, una unidad de disco duro, un disco flash, memoria flash, una unidad de estado sólido, o algún otro tipo de almacenamiento). La memoria intermedia de imagen 36 puede ser de cualquier tamaño incluyendo, por ejemplo, 100 MB, 250 MB, 500 MB, 1 GB o mayor. Una memoria intermedia de imagen relativamente más grande 36 permite el almacenamiento temporal de relativamente más cuadros de datos de imagen que una memoria intermedia de imagen relativamente más pequeña 36. La memoria intermedia de imagen 36 puede retener y desechar datos en base a primero en entrar, primero en salir. Consiguientemente, cuando la cámara 10 captura nuevos datos de imagen puede insertar de forma continua los datos de imagen nuevamente capturados en la memoria intermedia de imagen 36 quitando al mismo tiempo datos de imagen más antiguos de la memoria intermedia de imagen 36. Dependiendo de la realización, la cámara 10 puede incluir además una o varias memorias intermedias adicionales, tales como una memoria intermedia de cuadro integrada dentro del sensor de imagen 18.
Al operar en modos de registro vídeo continuo, el procesador de imagen 20 puede usar generalmente la memoria intermedia de imagen 36 para almacenamiento temporal durante el procesamiento, y enviar cuadros procesados al módulo de compresión 22 para registro en el dispositivo de almacenamiento 24 (o en algunos casos directamente al dispositivo de almacenamiento 24, donde no se utiliza compresión). El procesador de imagen 20 puede distribuir además las imágenes procesadas para vista preliminar u otros fines de visión en tiempo real, por ejemplo, al módulo de supervisión 26 para visualización en un visor de imagen en cámara, al módulo de entrada/salida 38 para enviar una alimentación en tiempo real a una pantalla externa, o análogos. Cuando está en un modo de registro continuo, la cámara puede etiquetar ventajosamente algunas partes del vídeo registrado en alguna de las maneras explicadas en este documento. En algunas realizaciones, la cámara 10 también puede operar en un modo de vista previa, donde el procesador de imagen 20 distribuye las imágenes procesadas para vista previa u otros fines de visión en tiempo real. Este modo también puede denominarse “un modo de supervisión”, un “modo de vista previa”, o “un modo de supervisión solamente”, sin limitación. En contraposición a los modos de registro, cuando la cámara opera en el modo de vista previa, los datos de imagen puestos en memoria intermedia pueden no almacenarse de ordinario de forma persistente en el dispositivo de almacenamiento 24, excepto cuando una captura de ráfaga es disparada por el usuario en algunas de las maneras descritas en este documento. Además, como se describe con más detalle a continuación, en algunas realizaciones, los datos de imagen distribuidos para vista previa (u otros fines de visión en tiempo real) pueden ser procesados (por ejemplo, por interpolación cromática, corrección de color, etc) con el fin de facilitar la visualización en tiempo real (por ejemplo, sin procesamiento adicional significativo), mientras que los datos de imagen distribuidos a registrar pueden ser datos de imagen sustancialmente no procesados o tal como se reciben (por ejemplo, datos de imagen tal como se reciben, en mosaico, que pueden ser comprimidos o no comprimidos, dependiendo de la realización). Los términos “no procesado” y “tal como se recibe” en el sentido usado en este contexto pueden referirse a datos que no han experimentado ciertas operaciones de procesamiento de imagen como corrección de color, interpolación cromática, etc, pero que pueden haber experimentado o no algunas otras operaciones de procesamiento de imagen descritas en la patente '967 tales como preénfasis, sustracción de promedio de verde, y/o compresión. Por ejemplo, los datos de imagen tal como se reciben comprimidos según algunas realizaciones no tienen efecto de “incorporación” en el que uno o varios pasos han sido realizados dando lugar a un aspecto que no puede ser ajustado o deshecho en el post-procesamiento.
En una realización, el módulo de entrada/salida 38 puede estar configurado para permitir la transferencia de datos de imagen a un almacenamiento externo (como se ha descrito anteriormente). O el módulo de entrada/salida 38 puede permitir al usuario transferir datos de imagen registrados o una alimentación en vivo fuera de cámara, por ejemplo, a un dispositivo informático externo para visión, almacenamiento o procesamiento. El módulo de entrada/salida 38 puede implementar una interfaz vídeo conforme a estándar, tal como una interfaz multimedia de alta definición (HDMI), una interfaz digital serie de alta definición (HD-SDI), o alguna otra interfaz estándar o no estándar.
En varias realizaciones, la cámara 10 puede incluir además uno u otros varios módulos de hardware o software no explícitamente representados. Por ejemplo, la cámara 10 puede incluir un módulo de software de interfaz que puede ser ejecutado por el procesador de imagen 20 (u otro procesador de la cámara 10) para generar interfaces de usuario como se describe en este documento. Las interfaces de usuario pueden ser visualizadas en la pantalla 30 u otra pantalla. Consiguientemente, en una realización, un usuario de la cámara puede revisar datos de imagen capturados mediante la pantalla 30. En una realización, los datos de imagen pueden ser transferidos a un dispositivo informático externo a la cámara 10 (como se ha descrito anteriormente) que también puede incluir módulos de software que pueden generar interfaces de usuario como se describe en este documento.
En varias realizaciones, el procesador de imagen 20 (u otro procesador de la cámara 10) puede estar configurado para insertar etiquetas en datos de imagen en respuesta a entradas de usuario que indican selecciones de evento (como se ha descrito anteriormente) mediante, por ejemplo, el selector de evento 34. Como se ha descrito anteriormente, una etiqueta puede incluir un marcador en un punto concreto (por ejemplo, un sello de tiempo) en los datos de imagen que indica una aparición de un evento de interés. Las etiquetas también pueden incluir información asociada con un evento de interés, por ejemplo, una posición, un nivel de calidad, una notación de texto, una notación audio, una notación de imagen, una notación vídeo y/o análogos. En varias realizaciones, las etiquetas pueden estar asociadas con vídeos, segmentos vídeo, y/o secuencias de imágenes.
Además, en varias realizaciones, el procesador de imagen 20 puede estar configurado para operar en el “modo de etiquetado vídeo” y/o el “modo de ráfaga” (como se ha descrito anteriormente) en respuesta a entradas de usuario mediante el selector de modo 22. Como se ha descrito, al operar en el “modo de ráfaga”, el procesador de imagen 20 puede utilizar la memoria intermedia de imagen 36 para almacenamiento temporal de datos de imagen con el fin de facilitar el procesamiento, y, en respuesta a una indicación de un evento de interés por parte del usuario, puede almacenar los datos de imagen procedentes de la memoria intermedia en el dispositivo de almacenamiento 24. En algunas realizaciones, el sensor 18 puede incluir un filtro de configuración Bayer. Como tal, el sensor 18, por medio de su juego de chips (no representado) envía datos que representan magnitudes de luz roja, verde o azul detectada por fotocélulas individuales del sensor de imagen 18. El juego de chips del sensor de imagen 18 puede ser usado para leer la carga en cada elemento del sensor de imagen y así enviar un flujo de valores en la salida de formato RGB conocido. En varias realizaciones, el procesador de imagen 20 puede estar configurado para formatear el flujo de datos procedentes del sensor de imagen 18 de cualquier manera para generar datos de imagen utilizables por los métodos descritos en este documento.
Además, en algunas realizaciones, el procesador de imagen 20 u otro procesador de la cámara 10 puede incluir otros módulos y/o puede estar configurado para realizar otros procesos, tales como, por ejemplo, aunque sin limitación, procesos de corrección gamma, procesos de filtración de ruido y/o análogos.
Como se ha indicado anteriormente, la cámara 10 también puede incluir un módulo de compresión 22. El módulo de compresión 22 puede tener forma de un chip separado o puede implementarse con software y otro procesador. Por ejemplo, el módulo de compresión 22 puede tener forma de un chip de compresión comercialmente disponible que realice una técnica de compresión según la norma JPEG 2000, u otras técnicas de compresión. En algunas realizaciones, el procesador de imagen 20 y/o el módulo de compresión 22 son implementados en una matriz de puertas programable in situ (FPGA), un circuito integrado específico de aplicación (ASIC), combinaciones de los mismos o análogos.
El módulo de compresión 22 puede estar configurado para realizar cualquier tipo de proceso de compresión en los datos de imagen del procesador de imagen 20. En algunas realizaciones, el módulo de compresión 22 realiza una técnica de compresión que aprovecha las técnicas realizadas por el procesador de imagen 20. Por ejemplo, como se ha indicado anteriormente, el procesador de imagen 20 puede estar configurado para reducir la magnitud de valores de color concretos de los datos de imagen. Además, el procesador de imagen 20 puede realizar una manipulación de datos tal como se reciben que usa la entropía de los datos de imagen. Así, la técnica de compresión realizada por el módulo de compresión 22 puede ser de un tipo que se beneficie de la presencia de cadenas más grandes de ceros para reducir el tamaño de los datos comprimidos que salen de él.
Además, el módulo de compresión 22 puede estar configurado para comprimir los datos de imagen procedentes del procesador de imagen 20 dando lugar a una salida visualmente sin pérdidas. Por ejemplo, en primer lugar, el módulo de compresión puede estar configurado para aplicar cualquier técnica de compresión conocida, tal como, aunque sin limitación, JPEG 2000, MotionJPEG, cualquier codec basado en DCT, cualquier codec diseñado para comprimir datos de imagen RGB, H.264, MPEG4, Huffman u otras técnicas.
Dependiendo del tipo de técnica de compresión usado, los varios parámetros de la técnica de compresión pueden establecerse para obtener una salida visualmente sin pérdidas. Por ejemplo, muchas de las técnicas de compresión indicadas anteriormente pueden ser ajustadas a diferentes tasas de compresión, donde, cuando se descomprime, la imagen resultante es de mejor calidad para tasas de compresión más bajas y de calidad inferior para tasas de compresión más altas. Así, el módulo de compresión puede estar configurado para comprimir los datos de imagen de una forma que proporcione una salida visualmente sin pérdidas, o puede estar configurado para permitir que un usuario ajuste varios parámetros para obtener una salida visualmente sin pérdidas. Por ejemplo, el módulo de compresión 22 puede estar configurado para comprimir los datos de imagen en una relación de compresión de aproximadamente 6:1, 7:1, 8:1 o mayor. En algunas realizaciones, el módulo de compresión 22 puede estar configurado para comprimir los datos de imagen a una relación de 12:1 o más alta.
Además, como se ha descrito anteriormente, el módulo de compresión 22 puede estar configurado para permitir al usuario regular la relación de compresión lograda por el módulo de compresión 22. Por ejemplo, la cámara 10 puede incluir una interfaz de usuario que permita al usuario introducir órdenes que hagan que el módulo de compresión 22 cambie la relación de compresión. Así, en algunas realizaciones, la cámara 10 puede realizar compresión variable. Como se ha descrito anteriormente, el usuario puede especificar otras características de calidad de imagen además de la relación de compresión incluyendo, por ejemplo, tasa de cuadros, resolución y/o análogos. Tales parámetros también pueden ser especificados mediante una interfaz de usuario, como se ha descrito anteriormente. En una realización, el usuario puede especificar un nivel de calidad sostenible (como se ha descrito anteriormente) y/o un nivel de calidad máximo (como también se ha descrito anteriormente). Tales niveles de calidad pueden ser usados por la cámara 10 cuando opera en el “modo de etiquetado vídeo” y el “modo de ráfaga” respectivamente.
En el sentido en que se usa aquí, el término “visualmente sin pérdidas” tiene la finalidad de incluir salida que, en comparación lado por lado con datos de imagen originales (nunca comprimidos) en el mismo dispositivo de visualización, los expertos en la técnica no serían capaces de determinar qué imagen es la original con un grado de exactitud razonable, en base solamente a una inspección visual de las imágenes. Se describen aspectos adicionales de las capacidades preferidas de manejo de datos de imagen en placa tal como se reciben comprimidos en la Patente de Estados Unidos número 8.174.560, presentada el 11 de abril de 2008, titulada Vídeo Cámara, de Jannard y colaboradores, cuya totalidad se incorpora aquí por referencia a este documento.
Con referencia continuada a la figura 1A, la cámara 10 también puede incluir un dispositivo de almacenamiento 24. El dispositivo de almacenamiento puede tener forma de cualquier tipo de almacenamiento digital, tal como, por ejemplo, aunque sin limitación, discos duros, memoria flash, o cualquier otro tipo de dispositivo de memoria (similar a la memoria intermedia de imagen 36 descrita anteriormente). En algunas realizaciones, el tamaño del dispositivo de almacenamiento 24 puede ser suficientemente grande para almacenar datos de imagen del módulo de compresión 22 correspondientes a al menos aproximadamente 30 minutos de vídeo a una resolución de 12 mega píxeles, resolución de color de 2 bits, y a 60 cuadros por segundo. Sin embargo, el dispositivo de almacenamiento 24 puede tener cualquier tamaño.
En algunas realizaciones, el dispositivo de almacenamiento 24 puede estar montado fuera del alojamiento 12. Además, en algunas realizaciones, el dispositivo de almacenamiento 24 puede estar conectado a los otros componentes del sistema 14 a través de puertos de comunicación estándar (mediante, por ejemplo, el módulo de entrada/salida 38), incluyendo, por ejemplo, aunque sin limitación, IEEE 1394, USB 2.0, IDE, SATA, y/o análogos. Además, en algunas realizaciones, el dispositivo de almacenamiento 24 puede incluir una pluralidad de unidades de disco duro que operan bajo un protocolo RAID. Sin embargo, puede usarse cualquier tipo de dispositivo de almacenamiento.
Con referencia continuada a la figura 1A, como se ha indicado anteriormente, en algunas realizaciones, el sistema puede incluir un módulo de supervisión 26 y un dispositivo de pantalla 30 configurado para permitir al usuario ver datos de imagen capturados por el sensor de imagen 18 durante la operación y/o varias interfaces de usuario. En algunas realizaciones, el procesador de imagen 20 puede incluir un sistema de submuestreo configurado para enviar datos de imagen de resolución reducida al módulo de supervisión 26. Por ejemplo, tal sistema de submuestreo puede estar configurado para enviar datos de imagen vídeo para soportar una resolución de 5K, 4K, 2K, 1080p, 720p o cualquier otra. En algunas realizaciones, los filtros usados para interpolación cromática pueden estar adaptados para realizar también filtración de submuestreo, de tal manera que el submuestreo y la filtración puedan ser realizados al mismo tiempo. El módulo de supervisión 26 puede estar configurado para realizar cualquier tipo de proceso de interpolación cromática en los datos del procesador de imagen 20. A continuación, el módulo de supervisión 26 puede enviar unos datos de imagen de aberración cromática a la pantalla 30. El módulo de supervisión 26, además o en combinación con el procesador de imagen 20, puede estar configurado para generar cualquiera de las interfaces de usuario descritas más adelante. En algunas realizaciones, los datos de imagen enviados al módulo de supervisión 26 pueden no ser almacenados, sino que pueden ser desechados. Por ejemplo, los datos de imagen enviados al módulo de supervisión 26 pueden ser procesados, como se ha descrito anteriormente, y los datos de imagen procesados pueden no ser almacenados. Sin embargo, en estas realizaciones, en algunos casos pueden almacenarse datos de imagen no procesados (por ejemplo, datos de imagen distintos de los datos de imagen enviados al módulo de supervisión 26). Por ejemplo, en el modo de registro continuo y/o cuando se dispara una captura de ráfaga (como se describe anteriormente y más adelante), los datos de imagen pueden ser almacenados (por ejemplo, registrados) en un formato no procesado, no comprimido (por ejemplo, datos de imagen tal como se reciben), incluso cuando los datos de imagen pueden ser procesados simultáneamente para visualización mediante el módulo de supervisión 26.
La pantalla 30 puede ser cualquier tipo de dispositivo de supervisión. Por ejemplo, aunque sin limitación, la pantalla 30 puede ser un panel LCD de cuatro pulgadas soportado por el alojamiento 12. Por ejemplo, en algunas realizaciones, la pantalla 30 puede estar conectada a un montaje infinitamente ajustable configurado para poder ajustar la pantalla 30 a cualquier posición relativa al alojamiento 12 de modo que el usuario pueda ver la pantalla 30 en cualquier ángulo con relación al alojamiento 12. En algunas realizaciones, la pantalla 30 puede estar conectada al módulo de supervisión a través de cualquier tipo de cables vídeo tal como, por ejemplo, un cable vídeo de formato RGB o YCC.
Opcionalmente, el módulo de reproducción 28 puede estar configurado para recibir datos de imagen del dispositivo de almacenamiento 24, descomprimir y someter a aberración cromática los datos de imagen, generar opcionalmente una interfaz de usuario (por ejemplo, alguna de las interfaces de usuario descritas más adelante) y luego enviar los datos de imagen a la pantalla 30. En algunas realizaciones, el módulo de supervisión 26 y el módulo de reproducción 28 pueden estar conectados a la pantalla a través de un controlador de visualización intermedio (no representado). Como tal, la pantalla 30 puede estar conectada con un solo conector al controlador de visualización. El controlador de visualización puede estar configurado para transferir datos desde el módulo de supervisión 26 o el módulo de reproducción 28 a la pantalla 30.
Según una realización, la cámara 10 puede incluir un alojamiento portátil que tiene al menos un mando configurado para que el usuario pueda manipular la orientación con respecto a al menos un grado de movimiento del alojamiento durante una operación de registro vídeo de la cámara.
Aunque se describen realizaciones de la invención en el contexto de una cámara que tiene ciertas características y/o capacidades, tal como un solo dispositivo sensor, una memoria intermedia de imagen de un tamaño concreto, o una capacidad de entrada/salida de una anchura de banda concreta, para nombrar solamente unas pocas, las realizaciones pueden aplicarse a cámaras que tienen diferentes características (por ejemplo, dispositivos de sensores múltiples, memorias intermedias mayores o menores, etc). Consiguientemente, se ha de entender que las realizaciones aquí descritas son realizaciones ejemplares, pero no limitadoras, y, por ello, la descripción expuesta en este documento no se limita a las realizaciones ejemplares descritas.
Modo de etiquetado vídeo
La figura 2A es un diagrama de flujo que ilustra un ejemplo de método 204 de la presente descripción en el que la cámara 10 es operada en el “modo de etiquetado vídeo”, según varias realizaciones. En varias realizaciones, se puede incluir menos bloques o bloques adicionales en el método, o varios bloques pueden realizarse en un orden diferente del representado en la figura. En una realización, uno o varios bloques de la figura pueden ser realizados por varios componentes de la cámara 10 como se ha descrito anteriormente. Por ejemplo, en algunas realizaciones, el ejemplo de método 204 puede representar una rutina de control almacenada en un dispositivo de memoria, tal como el dispositivo de almacenamiento 24, u otro dispositivo de almacenamiento (no representado) dentro de la cámara 10. Además, una unidad central de procesamiento (CPU) (no representada) puede estar configurada para ejecutar la rutina de control. El ejemplo de método 204 puede ser realizado, por ejemplo, cuando el usuario de la cámara 10 ha seleccionado el “modo de etiquetado vídeo” mediante el selector de modo 22, como se ha descrito anteriormente.
En el bloque 208, el vídeo (o los datos de imagen, por ejemplo, imágenes y/o secuencias de imágenes) puede ser adquirido de forma continua por la cámara 10 a un nivel de calidad sostenible, como se ha descrito anteriormente. La cámara puede ser operada por el usuario, por ejemplo, para capturar vídeo de varios eventos. En el bloque 210 la cámara puede recibir del usuario una indicación de evento. El usuario puede proporcionar la indicación de evento cuando, por ejemplo, se observa un evento de interés. La indicación de evento puede ser proporcionada, como se ha descrito anteriormente, mediante la pulsación de un botón, el toque de una pantalla sensible al tacto, una orden oral y/o análogos.
En el bloque 212, en respuesta a la recepción de la indicación de evento del usuario, los datos de imagen (en este ejemplo, un flujo vídeo y/o archivo vídeo) pueden ser etiquetados, como se ha descrito anteriormente, con el fin de identificar el evento de interés. Como se ha descrito anteriormente, una etiqueta puede incluir un marcador, un indicador, metadatos y/o cualquier otro indicador asociado con datos de imagen. En varias realizaciones, los datos de imagen y las etiquetas asociadas pueden incluir un solo archivo. Las etiquetas pueden ser almacenadas al comienzo, al final y/o en cualquier parte media del único archivo. Alternativamente, los datos de imagen y las etiquetas asociadas pueden ser archivos separados. En una realización, una etiqueta proporciona un marcador de que el usuario identificó un evento de interés en un punto específico del tiempo mientras capturaba vídeo. Consiguientemente, la etiqueta puede estar asociada con un sello de tiempo. En una realización, la etiqueta también puede incluir otros varios elementos de información incluyendo, por ejemplo, una posición, un nivel de calidad, una notación de texto, una notación audio, una notación de imagen, una notación vídeo y/o análogos.
En una realización, una etiqueta puede identificar o estar asociada de otro modo con una secuencia de imágenes capturadas a un nivel de calidad diferente del vídeo capturado o idéntico a él. Por ejemplo, en respuesta a que el usuario proporciona una indicación de un evento de interés, la cámara puede capturar automáticamente una imagen, o una secuencia de imágenes, asociada con el evento (como se describe más adelante). La imagen capturada (o secuencia de imágenes) puede ser capturada a un nivel de calidad diferente del vídeo. Por ejemplo, la imagen capturada (o secuencia de imágenes) puede ser capturada a un nivel de calidad más alto (por ejemplo, una resolución más alta o una tasa de cuadros más alta) en comparación con el nivel de calidad al que el vídeo es capturado. En un ejemplo, el vídeo puede ser capturado a un nivel de calidad sostenible, mientras que la imagen (o secuencia de imágenes) puede ser capturada a un nivel de calidad máximo.
En el bloque 214, los datos de imagen (por ejemplo, el archivo vídeo) incluyendo las etiquetas, pueden ser almacenados/registrados. Por ejemplo, los datos de imagen pueden ser almacenados en el dispositivo de almacenamiento 24 y/u otro dispositivo de almacenamiento. En una realización, los datos de imagen etiquetados pueden ser almacenados de forma continua cuando son capturados y procesados. Como indica la flecha 216, la adquisición de datos de imagen puede continuar de tal manera que el usuario pueda seguir capturando vídeo mientras etiqueta múltiples eventos en el tiempo.
Modo de captura de ráfaga
La figura 2B es un diagrama de flujo que ilustra un ejemplo de método 206 de la presente descripción en el que la cámara es operada en el “modo de ráfaga” según una realización. En varias realizaciones, pueden incluirse menos bloques o bloques adicionales en el método, o varios bloques pueden ser realizados en un orden diferente del representado en la figura. En una realización, uno o varios bloques de la figura pueden ser realizados por varios componentes de la cámara 10 como se ha descrito anteriormente. Por ejemplo, en algunas realizaciones, el ejemplo de método 204 puede representar una rutina de control almacenada en un dispositivo de memoria, tal como el dispositivo de almacenamiento 24, u otro dispositivo de almacenamiento (no representado) dentro de la cámara 10. Además, una unidad central de procesamiento (CPU) (no representada) puede estar configurada para ejecutar la rutina de control. El ejemplo de método 206 puede ser realizado, por ejemplo, cuando el usuario de la cámara ha seleccionado el “modo de ráfaga” mediante el selector de modo 22, como se ha descrito anteriormente.
En el bloque 230, la cámara 10 puede adquirir los datos de imagen (por ejemplo, vídeo y/o secuencias de imágenes). En algunas realizaciones, los datos de imagen son adquiridos a un nivel de calidad máximo disponible, o algún otro nivel de calidad relativamente alto, como se ha descrito anteriormente. Los datos de imagen pueden ser adquiridos de forma continua y, en el bloque 232, cuando los datos de imagen son adquiridos, pueden ser almacenados temporalmente en la memoria intermedia de imagen 36. Consiguientemente, dependiendo del tamaño de la memoria intermedia de imagen 36, la memoria intermedia de imagen 36 puede contener cierta cantidad (por ejemplo, una cantidad de tiempo o un número de cuadros) de datos de imagen previamente capturados. Como se ha descrito anteriormente, el contenido de la memoria intermedia de imagen 36 puede mantenerse en forma de primero en entrar, primero en salir. Consiguientemente, cuando nuevos cuadros de imagen son capturados por la cámara, dichos cuadros son añadidos a la memoria intermedia de imagen 36, mientras que cualesquiera datos de imagen más antiguos pueden ser quitados de la memoria intermedia de imagen 36. En una realización, no se registran datos de imagen hasta que el usuario proporciona una indicación de un evento de interés, como se describe más adelante. Como se ha explicado, en el modo de ráfaga, la cámara 10 puede operar en un modo de vista previa en el que los cuatros puestos en memoria intermedia son desechados, por ejemplo, sin ser almacenados en el dispositivo de almacenamiento 24.
En el bloque 234, una indicación de un evento de interés puede ser recibida del usuario, como se ha descrito anteriormente con referencia al bloque 210 del diagrama de flujo 204.
En el bloque 236, en respuesta a recibir la indicación de un evento de interés, la cámara registra los datos de imagen almacenados en la memoria intermedia de imagen 36, o una parte de los datos de imagen almacenados en la memoria intermedia de imagen 36. Consiguientemente, en una realización, la cámara permite capturar datos de imagen que tienen lugar antes de que el usuario proporcione una indicación de un evento de interés. En una realización, una parte de los datos de imagen, más bien que todos ellos, almacenada en la memoria intermedia de imagen puede ser registrada. La parte registrada puede incluir una cantidad concreta de datos de imagen (por ejemplo, un número de bytes de datos de imagen), una cantidad concreta de tiempo de los datos de imagen (por ejemplo, 5, 10, 15, 30, o más segundos de datos de imagen), un número concreto de cuadros de datos de imagen (por ejemplo, 10, 25, 50, 100, 1000, o más cuadros de datos de imagen), y/o análogos. En una realización, el usuario puede configurar la cámara para almacenar una cantidad concreta de datos de imagen, por ejemplo, un número concreto de segundos de datos de imagen, capturados antes del evento de interés. En una realización, la parte de datos de imagen registrada a partir de la memoria intermedia de imagen puede determinarla la cámara en base a una o más características de la cámara, una posición de la cámara, un tipo de evento capturado, y/o análogos.
En el bloque 238, también en respuesta a la indicación de un evento de interés, la cámara puede seguir capturando y/o registrando datos de imagen que tienen lugar después de la indicación del evento de interés. En una realización, la captura/registro continuados de datos de imagen tiene lugar hasta que el usuario indica que la captura/registro ha de parar, o hasta que después de capturar una cantidad concreta de datos de imagen, una cantidad concreta de tiempo de datos de imagen, y/o un número concreto de cuadros de datos de imagen, entre otros. En una realización, la cantidad de datos de imagen capturados/registrados después de la indicación del evento puede ser configurable por el usuario. Por ejemplo, el usuario puede configurar la cámara para registrar un número concreto de segundos de datos de imagen a capturar/registrar después de recibirse la indicación del evento. En una realización, la cámara determina automáticamente una cantidad de datos de imagen a capturar/registrar después de la indicación del evento en base a una o más características de la cámara, una posición de la cámara, un tipo de evento capturado, y/o análogos.
En una realización, la cantidad de datos de imagen capturados/registrados después de la indicación del evento puede determinarse en base a limitaciones de hardware de la cámara. Por ejemplo, al capturar datos de imagen al nivel de calidad máximo, la cámara puede almacenar los datos de imagen en una memoria interna rápida. La memoria interna rápida puede ser capaz de almacenar los datos de imagen de máxima calidad cuando son recibidos, mientras que el dispositivo de almacenamiento 24 relativamente más lento no puede almacenar los datos de imagen de máxima calidad cuando son recibidos (debido a, por ejemplo, limitaciones de lectura/escritura de hardware y/o anchura de banda). Sin embargo, la memoria interna rápida puede ser limitada. Consiguientemente, en una realización, la cantidad de datos de imagen capturados/registrados después de la indicación del evento puede limitarse a la capacidad de almacenamiento de la memoria interna rápida.
Como se ha descrito anteriormente, los datos de imagen almacenados en la memoria intermedia y capturados después de recibirse la indicación, pueden incluir segmentos vídeo o secuencias de imágenes. Por ejemplo, la cámara puede estar configurada para capturar secuencias de imágenes fijas a una tasa concreta de cuadros. En varias realizaciones, el nivel de calidad de los datos de imagen capturados y/o registrados por la cámara puede ser configurable por el usuario, como se ha descrito anteriormente.
En el bloque 230, los datos de imagen registrados, incluyendo los datos de imagen procedentes de la memoria intermedia de imagen y los datos de imagen registrados de después de la indicación del evento, pueden anexarse a cualesquiera datos de imagen previamente registrados (por ejemplo, un archivo vídeo previamente registrado). Consiguientemente, en una realización, la cámara puede crear un solo archivo de datos de imagen incluyendo datos de imagen capturados en respuesta a múltiples eventos de interés. En una realización, el único archivo de datos de imagen puede incluir datos de imagen registrados cuando la cámara está en el “modo de etiquetado vídeo” y cuando la cámara está en el “modo de ráfaga”. Consiguientemente, en una realización, múltiples vídeos, segmentos vídeo y/o secuencias de imágenes registrados pueden ser almacenados ventajosamente como un solo archivo.
En el bloque 232, los datos de imagen (por ejemplo, los datos de imagen anexos pueden ser almacenados como se ha descrito anteriormente en referencia al bloque 214 del diagrama de flujo 204. Además, como indica la flecha 244, la adquisición de datos de imagen puede continuar de tal manera que el usuario pueda registrar eventos adicionales en el tiempo.
Ventajosamente, según varias realizaciones, mientras está en el “modo de etiquetado vídeo”, la cámara está configurada para que el usuario pueda identificar y etiquetar fácilmente eventos de interés mientras se captura un evento. Además, en varias realizaciones, mientras está en el “modo de ráfaga”, la cámara está configurada para permitir al usuario capturar, mediante la cámara, segmentos vídeo y/o secuencias de imagen de nivel de calidad máximo durante un período de tiempo antes y después de los eventos de interés. Consiguientemente, en varias realizaciones, la cámara 10 permite la captura y el registro de vídeo e imágenes de eventos a un nivel de calidad máximo mientras que también permite la captura y el registro continuos de imágenes y vídeo de eventos a un nivel de calidad sostenible.
Ejemplos de interfaces de usuario
Las figuras 3A-3B y 4-5 ilustran ejemplos de interfaces de usuario que visualizan datos de imagen. En varias realizaciones, las interfaces de usuario y los métodos asociados presentan datos de imagen etiquetados de una manera que facilita la revisión de los datos de imagen etiquetados. En varias realizaciones, las interfaces de usuario y los métodos asociados también presentan secuencias de imágenes de una manera que facilita la revisión de las secuencias de imágenes. Como se ha descrito anteriormente, los ejemplos de interfaces de usuario pueden ser generados por uno o varios módulos de software que pueden ser ejecutados, por ejemplo, por el procesador de imagen 20. En una realización, las interfaces de usuario pueden ser generadas por combinaciones del módulo de reproducción 28, el módulo de supervisión 26, y/u otro dispositivo informático externo a la cámara 10. Los ejemplos de interfaces de usuario pueden ser visualizados en la pantalla 30, que puede estar montada en la cámara 10, y/o en cualquier otra pantalla. Cada una de las interfaces de usuario de las figuras 3A-3B y 4-5 puede ser usada para visualización de datos de imagen capturados en el “modo de etiquetado vídeo” y/o el “modo de ráfaga”.
Las figuras 3A-3B ilustran un ejemplo de interfaz de usuario 302 en la que los datos de imagen son visualizados en asociación con una línea de tiempo. Como se representa, la interfaz de usuario 302 puede incluir una línea de tiempo 304, un indicador de posición 306, marcadores de evento 307 y 308, y datos de imagen 310. La interfaz de usuario 302 también puede incluir opcionalmente controles 312 y 314.
Con referencia a la figura 3A, el indicador de posición 306 está situado en el marcador de evento 307. Los datos de imagen registrados 310 asociados con el marcador de evento 307 pueden ser visualizados. En el ejemplo mostrado, se visualiza una imagen o vídeo de un evento (por ejemplo, un jugador de fútbol golpeando un balón) asociado con el marcador de evento 307. Como se representa, la interfaz de usuario 302 puede incluir menús desplegables u otros indicadores de un número de eventos o marcadores de evento. En una realización, el usuario puede desplazar el indicador de posición 306 a lo largo de la línea de tiempo 304 para ver datos de imagen asociados con eventos capturados concretos. Los datos de imagen 310 pueden incluir múltiples imágenes asociadas con un evento, o múltiples eventos, como se describe más adelante con referencia a las figuras 4-5. Los controles 312 pueden ser usados, por ejemplo, para la presentación de los datos de imagen (por ejemplo, reproducción del vídeo). Los controles 314 pueden ser usados, por ejemplo, para el paso de un marcador de evento al siguiente, hacia delante o hacia atrás.
Con referencia a la figura 3B, el indicador de posición 306 está situado en el marcador de evento 308. Se visualizan datos de imagen registrados 310 asociados con el marcador de evento 308, en este ejemplo, se muestra una imagen o vídeo de un evento (por ejemplo, un jugador de baloncesto que va a encestar) asociado con el marcador de evento 308.
En varias realizaciones, otra información asociada con los datos de imagen capturados/registrados puede ser visualizada en la interfaz de usuario 302 incluyendo, por ejemplo, información de nivel de calidad.
La figura 4 ilustra un ejemplo de interfaz de usuario en el que se visualizan secuencias de datos de imagen. El ejemplo de interfaz de usuario de la figura 4 puede incluir una línea de tiempo 402, un indicador de posición 404, e indicadores 406 de pasos de un evento registrado a otro. Como se representa, la línea de tiempo 402 indica que los datos de imagen visualizados cubren seis eventos de interés separados correspondientes a los segmentos de línea de tiempo 410, 412, 414, 416 y 418. Los indicadores 406 muestran los puntos de inicio y fin de datos de imagen capturados correspondientes a cada evento. El indicador de posición 404 se representa situado dentro del segmento de línea de tiempo 414 de la línea de tiempo 402.
En una realización, cuando el usuario mueve el indicador de posición 404 a lo largo de la línea de tiempo 402, pueden visualizarse datos de imagen correspondientes. En este ejemplo se visualizan cinco imágenes 430, 432, 434, 436 y 438. En el ejemplo, la imagen 430 representa una miniatura de datos de imagen correspondiente a la posición exacta del indicador de posición 404, las imágenes 432 y 434 muestran miniaturas de datos de imagen correspondientes a los datos registrados antes del indicador de posición 404, y las imágenes 436 y 438 muestran miniaturas de datos de imagen correspondientes a los datos registrados después del indicador de posición 404. En varias realizaciones pueden visualizarse más o menos miniaturas en la interfaz de usuario de la figura 3. En una realización, cuando el usuario desplaza el indicador de posición 404 a lo largo de la línea de tiempo 402, las miniaturas visualizadas son actualizadas según la posición del indicador de posición 404. En varias realizaciones, las miniaturas pueden ser seleccionadas en base a cuadros clave de los datos de imagen, la longitud de los datos de imagen asociados con el evento capturado, un número de cuadros o una cantidad de tiempo a partir del indicador de posición 404 y/o análogos. En una realización, la línea de tiempo 402 también puede incluir indicaciones de momentos en los que el usuario proporcionó indicaciones de los eventos de interés, como se describe más adelante. La figura 5 ilustra un ejemplo de interfaz de usuario en el que se visualizan secuencias de datos de imagen. El ejemplo de interfaz de usuario de la figura 5 puede incluir una línea de tiempo 502 (similar a la línea de tiempo 402 de la figura 4, pero orientada verticalmente en el ejemplo de la figura 5), indicaciones de pasos de un evento registrado a otro (por ejemplo, indicaciones 506 y 508), e indicaciones de los momentos en los que el usuario proporcionó indicaciones de los eventos (por ejemplo, las indicaciones 509, 510, 514, 516, 518 y 520). Como se representa, la línea de tiempo 502 indica que los datos de imagen visualizados cubren seis eventos de interés separados. Por cada evento de interés, puede presentarse una serie de imágenes miniatura (por ejemplo, las imágenes 550 y 650), proporcionando al usuario una vista previa del evento capturado. Con respecto al evento indicado con la llave 512, las imágenes 550 (incluyendo 552, 554, y 556) muestran datos de imagen asociados con el evento. Pueden presentarse más o menos imágenes en cada serie de imagen. Las imágenes pueden ser visualizadas secuencialmente cuando son capturadas. En una realización, una imagen media (por ejemplo, la imagen 552) puede corresponder al momento en que el usuario proporcionó la indicación del evento. En varias realizaciones, puede visualizarse la serie de imágenes correspondientes a cada evento registrado.
En varias realizaciones, cualquiera de las interfaces de usuario ejemplares de las figuras 4 o 5 puede integrarse con la interfaz de usuario ejemplar 302. En una realización, en cualquiera de las interfaces de usuario ejemplares de las figuras 4 o 5, en respuesta a que el usuario proporcione una selección de un segmento de la línea de tiempo correspondiente a un evento, el indicador de posición puede ser movido automáticamente al momento en que el usuario proporcionó la indicación del evento correspondiente a dicho segmento.
Ventajosamente, según varias realizaciones, cualquiera de las interfaces de usuario ejemplares de las figuras 3A-3B y 4-5 puede permitir al usuario navegar rápidamente a y/o entre los eventos de interés al revisar los datos de imagen (por ejemplo, vídeo o secuencias de imágenes).
Términos
Con el fin de facilitar la comprensión de los sistemas y métodos explicados en este documento, a continuación se definen varios términos usados en esta descripción. Los términos definidos a continuación, así como otros términos usados en este documento, deberán interpretarse incluyendo las definiciones proporcionadas, el significado ordinario y habitual de los términos, y/o cualquier otro significado implícito de los respectivos términos. Así, las definiciones siguientes no limitan el significado de estos términos, sino que solamente proporcionan definiciones ejemplares.
En la presente descripción, los términos “datos de imagen” y/o “datos de imagen vídeo” pueden referirse a datos incluyendo vídeo, imágenes y/o secuencias de imágenes. Además, en varias realizaciones, los términos “vídeo” y “secuencia de imágenes” pueden ser usados de forma intercambiable. Por ejemplo, en varias realizaciones un vídeo capturado puede incluir una secuencia de imágenes capturadas a una tasa de cuadros concreta. Consiguientemente, aunque algunas realizaciones pueden describirse con referencia a captura de vídeo (o secuencias de imágenes), se ha de entender que tales realizaciones también se pueden usar para captura de secuencias de imágenes (o vídeo).
En la presente descripción, los términos “adquisición” y “captura” pueden ser usados de forma intercambiable para hacer referencia a cualquier proceso mediante el que la cámara obtiene datos de imagen. Además, los términos “registrar” y “almacenar” pueden ser usados de forma intercambiable para hacer referencia a cualquier proceso mediante el que la cámara guarda datos de imagen capturados, por ejemplo, en un archivo al que puede accederse para visión posterior. En varias realizaciones, como se describe más adelante, el procesamiento y/o la presentación de datos de imagen (por ejemplo, mediante una interfaz de usuario) pueden realizarse en cualquier tiempo después de la captura de datos de imagen incluyendo, por ejemplo, antes y/o después del registro de datos de imagen. En la presente descripción, el término “nivel de calidad” puede referirse a una o varias características (o combinaciones de características) de datos de imagen capturados y/o registrados (por ejemplo, vídeo o secuencias de imágenes). Por ejemplo, el nivel de calidad puede referirse, aunque sin limitación, a uno o varios de una resolución, una relación de aspecto, una tasa de cuadros, un nivel de compresión, una tasa de bits, una o varias características de color, y/o análogos. En varias realizaciones, el término “nivel de calidad sostenible” puede ser usado para referirse a cualquier nivel de calidad al que la cámara es capaz de mantener la captura y/o el registro continuos de datos de imagen. Igualmente, el término “nivel de calidad máximo” puede ser usado para hacer referencia a cualquier nivel de calidad al que la cámara no sea capaz de mantener la captura y/o el registro continuos de datos de imagen, pero al que la cámara es capaz de capturar y/o registrar segmentos vídeo y/o secuencias de imágenes menos que continuos. En general, los términos “segmento vídeo” y “secuencia de imagen” pueden ser usados para describir datos de imagen capturados y/o registrados a un nivel de calidad máximo.
Dado que varias realizaciones de la cámara aquí descrita pueden incluir varias combinaciones de capacidades y limitaciones de hardware (incluyendo, por ejemplo, limitaciones en las velocidades de procesamiento de datos de imagen, transferencia y/o almacenamiento), eso incluye que un nivel de calidad sostenible puede variar según la realización. Además, varias combinaciones de características vídeo pueden considerarse un nivel de calidad sostenible dependiendo de características de la cámara. Por ejemplo, en varias realizaciones, cada uno de los puntos siguientes es un ejemplo no limitador de un nivel de calidad que puede ser un nivel de calidad sostenible: 1) una tasa de cuadros alta y una resolución baja; y 2) una tasa de cuadros baja y una resolución alta. Igualmente, en estas realizaciones, los puntos siguientes son un ejemplo no limitador de un nivel de calidad que puede ser un nivel de calidad máximo: una tasa de cuadros alta y una resolución alta. En varias realizaciones, otras combinaciones de características pueden incluir niveles de calidad sostenible y/o máximo.
En la presente descripción, el término “evento de interés” puede referirse a cualquier evento que pueda ser capturado y/o registrado por la cámara. En general, los eventos de interés incluyen eventos que pueden ser de interés para un usuario u observador. En varias realizaciones, los eventos de interés pueden variar según el contexto. Por ejemplo, en un contexto deportivo, los eventos de interés pueden incluir las jugadas apasionantes o movimientos de los jugadores en un partido. En otro ejemplo, en un contexto de película, los eventos de interés pueden incluir secuencias de acción concretas o actuaciones realizadas por los actores. Como se describe anteriormente y más adelante, los eventos de interés pueden ser indicados por el usuario de la cámara y/o pueden ser detectados automáticamente por la cámara. Además, en varias realizaciones, los eventos de interés pueden incluir características asociadas con la cámara u otros objetos, por ejemplo, un tiempo o un nivel de calidad, o un cambio en el tiempo o el nivel de calidad.
En la presente descripción, el término “etiqueta” puede referirse a cualquier indicación de un evento de interés asociado con datos de imagen. Por ejemplo, una etiqueta puede incluir un marcador, un indicador, metadatos y/o cualquier otro indicador. En general, en varias realizaciones, los datos de imagen y las etiquetas asociadas se almacenan como un solo archivo. Las etiquetas pueden almacenarse en una parte inicial, final y/o media del único archivo. Alternativamente, los datos de imagen y las etiquetas asociadas pueden almacenarse como archivos separados. En un ejemplo sencillo, una etiqueta puede incluir un marcador en un punto concreto o un indicador de un punto concreto (por ejemplo, un sello de tiempo) en datos de imagen que indican una aparición de un evento de interés. En varias realizaciones, las etiquetas también pueden incluir información asociada con un evento de interés, por ejemplo, una posición, un nivel de calidad, una notación de texto, una notación audio, una notación de imagen, una notación vídeo, y/o análogos. En una realización, una etiqueta en un vídeo puede incluir una secuencia de imágenes capturadas a un nivel de calidad diferente del vídeo o idéntico a él. En varias realizaciones, las etiquetas pueden estar asociadas con vídeos, segmentos vídeo y/o secuencias de imágenes.
En la presente descripción, para facilitar la descripción, varias funcionalidades de la cámara y/u otros métodos y sistemas pueden describirse como “continuos”. Por ejemplo, la cámara se describe capturando/procesando datos de imagen “de forma continua”, una memoria intermedia de imagen es actualizada “de forma continua”, y/o análogos. Aunque el término “continuo” se usa por razones de claridad de la descripción, se contemplan explícitamente otros métodos de operación incluyendo, por ejemplo, sustancialmente continuo, intermitente, por lotes y/o análogos. Consiguientemente, las descripciones de operaciones “continuas” se han de entender abarcando también operaciones sustancialmente continuas y/o análogos (por ejemplo, actualización sustancialmente continua de la memoria intermedia de imagen, actualización intermitente de la memoria intermedia de imagen y/o análogos).
Realizaciones adicionales
Deberá entenderse que las descripciones, elementos o bloques de proceso en los diagramas de flujo aquí descritos y/o ilustrados en las figuras anexas representan potencialmente módulos, segmentos o partes de código que incluyen una o varias instrucciones ejecutables (como se describe más adelante) para implementar funciones lógicas específicas o pasos del proceso. Dentro del alcance de las realizaciones aquí descritas se incluyen implementaciones alternativas en las que elementos o funciones pueden borrarse, ejecutarse en orden distinto del representado o explicado, incluyendo de forma sustancialmente simultánea (por ejemplo, a través de procesamiento multihilo, procesamiento de interrupciones, o múltiples procesadores o núcleos procesadores o en otras arquitecturas paralelas) o en orden inverso, dependiendo de la funcionalidad implicada.
Cualquiera de los métodos y procesos descritos anteriormente puede ser realizado parcial o completamente en, y automatizado parcial o completamente mediante, instrucciones lógicas, instrucciones de código de software, y/o módulos de código de software ejecutados por uno o varios procesadores de finalidad general y/o procesadores específicos de aplicación (también denominados “dispositivos informáticos”, “dispositivos de cálculo”, “hardware informático”, “hardware de procesamiento” y análogos). Por ejemplo, los métodos aquí descritos pueden ser realizados cuando las instrucciones de software son ejecutadas por, y/o en respuesta a que la instrucción de software es ejecutada por, uno o varios procesadores de hardware y/o cualesquiera otros dispositivos informáticos adecuados. Las instrucciones de software y/u otro código ejecutable pueden ser leídos de un medio tangible legible por ordenador. Un medio tangible legible por ordenador es un dispositivo de almacenamiento de datos que puede almacenar datos legibles por un sistema informático y/o dispositivos informáticos. Los ejemplos de medios legibles por ordenador incluyen memoria de lectura solamente (ROM), memoria de acceso aleatorio (RAM), otros dispositivos de memoria volátil o no volátil, DVD-ROMs, CD-ROMs, cinta magnética, unidades flash, y/o dispositivos ópticos de almacenamiento de datos. Consiguientemente, un módulo de software puede residir en memoria RAM, memoria flash, memoria ROM, memoria EPROM, memoria EEPROM, registros, disco duro, unidad de estado sólido, un disco extraíble, CD-ROM, DVD-ROM, y/o cualquier otra forma de un medio tangible de almacenamiento legible por ordenador.
Además, cualquiera de los métodos y procesos descritos anteriormente puede realizarse de forma parcial o completa en, y automatizarse de forma parcial o completa mediante, hardware electrónico (por ejemplo, circuitos lógicos, procesadores de hardware y/o análogos).

Claims (12)

REIVINDICACIONES
1. Un método de registrar selectivamente datos de imagen (310) asociados con un evento de interés, incluyendo el método (i), en un modo de operación en ráfaga:
adquirir de forma continua datos de imagen (310) por uno o varios sensores de imagen (18) de una videocámara (10);
almacenar temporalmente los datos de imagen adquiridos (310) en una memoria intermedia de datos de imagen (36);
en respuesta a recibir una primera entrada de usuario que identifica un primer evento de interés cuando los datos de imagen (310) son adquiridos de forma continua, registrar en un archivo de datos de imagen a un primer nivel de calidad:
al menos una parte de los datos de imagen adquiridos en la memoria intermedia de datos de imagen (36) que fueron adquiridos antes de la primera entrada de usuario (554); y al menos una parte de datos de imagen adquiridos de forma continua durante o después de la primera entrada de usuario (552, 556);
en respuesta a recibir una segunda entrada de usuario que identifica un segundo evento de interés cuando los datos de imagen (310) son adquiridos de forma continua, anexar al archivo de datos de imagen al primer nivel de calidad: al menos una parte de los datos de imagen adquiridos en la memoria intermedia de datos de imagen (36) que fueron adquiridos antes de la segunda entrada de usuario; y
al menos una parte de datos de imagen adquiridos de forma continua durante o después de la segunda entrada de usuario;
desechar las partes restantes de los datos de imagen adquiridos (310) temporalmente almacenados en la memoria intermedia (36) que no están registrados en el archivo de datos de imagen, sin registrar las partes restantes usando la videocámara (10); y
además, en respuesta a la recepción de la primera entrada de usuario que identifica el primer evento de interés cuando los datos de imagen (310) son adquiridos de forma continua:
generar una indicación de cada uno de los eventos de interés primero y segundo, incluyendo cada indicación un sello de tiempo que indica un tiempo en el que la entrada de usuario fue recibida con respecto al evento de interés respectivo; y
registrar las indicaciones en el archivo de datos de imagen, donde cada indicación incluye metadatos que indican una asociación entre el tiempo del respectivo evento de interés y la parte de los datos de imagen adquiridos que fueron adquiridos antes de la primera entrada de usuario y la parte de datos de imagen adquiridos de forma continua durante o después de la primera entrada de usuario, para el respectivo evento de interés; y
(ii) en un modo de operación de registro continuo:
adquirir de forma continua más datos de imagen (310) por el uno o varios sensores de imagen (18) de la videocámara (10);
registrar los datos de imagen adicionales adquiridos (310) en el archivo de datos de imagen a un segundo nivel de calidad; y
en respuesta a recibir una tercera entrada de usuario que identifica un tercer evento de interés cuando los datos de imagen (310) son adquiridos de forma continua:
generar otra indicación del tercer evento de interés, incluyendo la indicación adicional un sello de tiempo que indica un tiempo en el que la tercera entrada de usuario fue recibida; y
registrar la indicación adicional en el archivo de datos de imagen;
donde el primer nivel de calidad es más alto que el segundo nivel de calidad.
2. El método según la reivindicación 1, incluyendo además proporcionar los datos de imagen (310) temporalmente almacenados en la memoria intermedia (36) a una salida de la cámara (10), donde la salida puede estar conectada a una pantalla electrónica (30) para supervisar los datos de imagen adquiridos (de forma continua 310).
3. El método según algunas de las reivindicaciones 1-2, donde la memoria intermedia de datos de imagen (36) está configurada para almacenar datos de imagen (310) correspondientes a un período de tiempo concreto o un número de cuadros concreto.
4. El método según algunas de las reivindicaciones 1-3, donde los datos de imagen (310) incluyen al menos uno de datos vídeo o secuencias de datos de imagen.
5. El método según algunas de las reivindicaciones 1-4, donde el archivo de datos de imagen es utilizable para presentación visual de las secuencias de imágenes.
6. El método según algunas de las reivindicaciones 1-5, donde el archivo de datos de imagen es registrado en la videocámara (10).
7. El método según algunas de las reivindicaciones 1-6, donde la primera entrada de usuario es recibida por al menos uno de un botón, una pantalla sensible al tacto, o una entrada audio.
8. El método según algunas de las reivindicaciones 1-7, donde los datos de imagen (310) son adquiridos a una resolución de al menos 1080p.
9. El método según algunas de las reivindicaciones 1-8, donde los datos de imagen (310) son adquiridos a una resolución horizontal de entre 2k y 10k.
10. El método según algunas de las reivindicaciones 1-9, donde los datos de imagen (310) son adquiridos a una tasa de cuadros de al menos 12 cuadros por segundo.
11. El método según la reivindicación 10, donde los datos de imagen (310) son adquiridos a una tasa de cuadros entre 12 y 250 cuadros por segundo.
12. Una videocámara (10) incluyendo:
uno o varios sensores de imagen (18) configurados para adquirir de forma continua datos de imagen (310); una memoria intermedia de datos de imagen (36) configurada para almacenar temporalmente los datos de imagen adquiridos (de forma continua 310); y
un procesador de imagen configurado para, en un modo de ráfaga:
en respuesta a recibir respectivas entradas de usuario que identifican respectivos eventos de interés cuando los datos de imagen (310) son adquiridos de forma continua, escribir en un archivo de datos de imagen existente a un primer nivel de calidad para cada una de dichas entradas de usuario:
al menos una parte de los datos de imagen adquiridos (310) en la memoria intermedia de datos de imagen (36) que fueron adquiridos antes de la entrada de usuario; y
al menos una parte de datos de imagen (310) adquiridos de forma continua durante o después de la entrada de usuario; y
en respuesta a la recepción de la entrada de usuario que identifica el evento de interés cuando los datos de imagen (310) son adquiridos de forma continua:
generar una indicación de cada evento de interés incluyendo un sello de tiempo que indica un tiempo en el que la entrada de usuario fue recibida; y
anexar las indicaciones al archivo de datos de imagen donde cada indicación incluye metadatos que indican una asociación entre el tiempo del evento de interés y la parte de los datos de imagen adquiridos que fueron adquiridos antes de la entrada de usuario respectiva y la parte de datos de imagen adquiridos de forma continua durante o después de la entrada de usuario respectiva; y
desechar las partes restantes de los datos de imagen adquiridos (310) temporalmente almacenados en la memoria intermedia (36) que no son registrados en el archivo de datos de imagen, sin registrar las partes restantes usando la videocámara (10);
donde el procesador de imagen está configurado además para, en un modo de operación de registro continuo adquirir de forma continua más datos de imagen (310) por el uno o varios sensores de imagen (18) de la videocámara 10);
registrar los datos de imagen adicionales adquiridos (310) en el archivo de datos de imagen a un segundo nivel de calidad; y
en respuesta a recibir otra entrada de usuario que identifica otro evento de interés cuando los datos de imagen (310) son adquiridos de forma continua:
generar otra indicación del evento de interés adicional, incluyendo la indicación un sello de tiempo que indica un tiempo en el que la entrada de usuario adicional fue recibida; y
registrar la indicación adicional en el archivo de datos de imagen;
donde el primer nivel de calidad es más alto que el segundo nivel de calidad.
ES15772868T 2014-04-04 2015-03-31 Videocámara con modos de captura Active ES2730404T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201461975639P 2014-04-04 2014-04-04
PCT/US2015/023509 WO2015153556A1 (en) 2014-04-04 2015-03-31 Video camera with capture modes

Publications (1)

Publication Number Publication Date
ES2730404T3 true ES2730404T3 (es) 2019-11-11

Family

ID=54210036

Family Applications (1)

Application Number Title Priority Date Filing Date
ES15772868T Active ES2730404T3 (es) 2014-04-04 2015-03-31 Videocámara con modos de captura

Country Status (5)

Country Link
US (4) US9536150B2 (es)
EP (1) EP3127322B1 (es)
JP (1) JP6438046B2 (es)
ES (1) ES2730404T3 (es)
WO (1) WO2015153556A1 (es)

Families Citing this family (100)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013023063A1 (en) 2011-08-09 2013-02-14 Path 36 Llc Digital media editing
US9185387B2 (en) 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
US10643271B1 (en) * 2014-01-17 2020-05-05 Glenn Joseph Bronson Retrofitting legacy surveillance systems for traffic profiling and monetization
US9760768B2 (en) 2014-03-04 2017-09-12 Gopro, Inc. Generation of video from spherical content using edit maps
EP3127322B1 (en) 2014-04-04 2019-05-08 Red.Com, Llc Video camera with capture modes
US9984293B2 (en) * 2014-07-23 2018-05-29 Gopro, Inc. Video scene classification by activity
US9685194B2 (en) 2014-07-23 2017-06-20 Gopro, Inc. Voice-based video tagging
US9734870B2 (en) 2015-01-05 2017-08-15 Gopro, Inc. Media identifier generation for camera-captured media
CN105847825A (zh) * 2015-01-16 2016-08-10 杭州海康威视数字技术股份有限公司 视频编码码流的编码、索引存储和访问方法及相应装置
US9679605B2 (en) 2015-01-29 2017-06-13 Gopro, Inc. Variable playback speed template for video editing application
US10186012B2 (en) 2015-05-20 2019-01-22 Gopro, Inc. Virtual lens simulation for video and photo cropping
US9894393B2 (en) 2015-08-31 2018-02-13 Gopro, Inc. Video encoding for reduced streaming latency
TW201710646A (zh) * 2015-09-02 2017-03-16 湯姆生特許公司 描繪大視場內容一部份時,決定導航資訊之方法和裝置,以及大視場內容描繪器
US10204273B2 (en) 2015-10-20 2019-02-12 Gopro, Inc. System and method of providing recommendations of moments of interest within video clips post capture
US9721611B2 (en) 2015-10-20 2017-08-01 Gopro, Inc. System and method of generating video from video clips based on moments of interest within the video clips
US9639560B1 (en) 2015-10-22 2017-05-02 Gopro, Inc. Systems and methods that effectuate transmission of workflow between computing platforms
US9681111B1 (en) 2015-10-22 2017-06-13 Gopro, Inc. Apparatus and methods for embedding metadata into video stream
US10033928B1 (en) 2015-10-29 2018-07-24 Gopro, Inc. Apparatus and methods for rolling shutter compensation for multi-camera systems
US9973696B1 (en) 2015-11-23 2018-05-15 Gopro, Inc. Apparatus and methods for image alignment
US9792709B1 (en) 2015-11-23 2017-10-17 Gopro, Inc. Apparatus and methods for image alignment
US9848132B2 (en) 2015-11-24 2017-12-19 Gopro, Inc. Multi-camera time synchronization
KR102449872B1 (ko) * 2015-12-18 2022-09-30 삼성전자주식회사 촬영 디바이스 및 그 제어 방법
US10506281B1 (en) * 2015-12-22 2019-12-10 United Services Automobile Association (Usaa) System and method for capturing audio or video data
US9667859B1 (en) 2015-12-28 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US10095696B1 (en) 2016-01-04 2018-10-09 Gopro, Inc. Systems and methods for generating recommendations of post-capture users to edit digital media content field
US10109319B2 (en) 2016-01-08 2018-10-23 Gopro, Inc. Digital media editing
US10298853B2 (en) * 2016-01-13 2019-05-21 Canon Kabushiki Kaisha Image processing apparatus, method of controlling image processing apparatus, and imaging apparatus
US9922387B1 (en) 2016-01-19 2018-03-20 Gopro, Inc. Storage of metadata and images
US10078644B1 (en) 2016-01-19 2018-09-18 Gopro, Inc. Apparatus and methods for manipulating multicamera content using content proxy
US9871994B1 (en) 2016-01-19 2018-01-16 Gopro, Inc. Apparatus and methods for providing content context using session metadata
US9787862B1 (en) * 2016-01-19 2017-10-10 Gopro, Inc. Apparatus and methods for generating content proxy
US9967457B1 (en) 2016-01-22 2018-05-08 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US10083537B1 (en) 2016-02-04 2018-09-25 Gopro, Inc. Systems and methods for adding a moving visual element to a video
US9665098B1 (en) 2016-02-16 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for flight control settings of an unmanned aerial vehicle
US9743060B1 (en) 2016-02-22 2017-08-22 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US9973746B2 (en) 2016-02-17 2018-05-15 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US9602795B1 (en) 2016-02-22 2017-03-21 Gopro, Inc. System and method for presenting and viewing a spherical video segment
US10129464B1 (en) 2016-02-18 2018-11-13 Gopro, Inc. User interface for creating composite images
KR102445699B1 (ko) * 2016-02-18 2022-09-21 삼성전자주식회사 전자 장치 및 그의 동작 방법
US9972066B1 (en) 2016-03-16 2018-05-15 Gopro, Inc. Systems and methods for providing variable image projection for spherical visual content
US10402938B1 (en) 2016-03-31 2019-09-03 Gopro, Inc. Systems and methods for modifying image distortion (curvature) for viewing distance in post capture
US9838731B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing with audio mixing option
US9794632B1 (en) 2016-04-07 2017-10-17 Gopro, Inc. Systems and methods for synchronization based on audio track changes in video editing
US9838730B1 (en) 2016-04-07 2017-12-05 Gopro, Inc. Systems and methods for audio track selection in video editing
US10229719B1 (en) 2016-05-09 2019-03-12 Gopro, Inc. Systems and methods for generating highlights for a video
US10348907B1 (en) * 2016-05-12 2019-07-09 Antony P. Ng Collaborative data processing
US9953679B1 (en) 2016-05-24 2018-04-24 Gopro, Inc. Systems and methods for generating a time lapse video
US9996750B2 (en) * 2016-06-01 2018-06-12 Gopro, Inc. On-camera video capture, classification, and processing
US10219014B2 (en) 2016-06-02 2019-02-26 Biamp Systems, LLC Systems and methods for bandwidth-limited video transport
US10250894B1 (en) 2016-06-15 2019-04-02 Gopro, Inc. Systems and methods for providing transcoded portions of a video
US9922682B1 (en) 2016-06-15 2018-03-20 Gopro, Inc. Systems and methods for organizing video files
US9998769B1 (en) 2016-06-15 2018-06-12 Gopro, Inc. Systems and methods for transcoding media files
US9967515B1 (en) 2016-06-15 2018-05-08 Gopro, Inc. Systems and methods for bidirectional speed ramping
US10045120B2 (en) 2016-06-20 2018-08-07 Gopro, Inc. Associating audio with three-dimensional objects in videos
US10185891B1 (en) 2016-07-08 2019-01-22 Gopro, Inc. Systems and methods for compact convolutional neural networks
US10469909B1 (en) 2016-07-14 2019-11-05 Gopro, Inc. Systems and methods for providing access to still images derived from a video
US10395119B1 (en) 2016-08-10 2019-08-27 Gopro, Inc. Systems and methods for determining activities performed during video capture
US9922428B2 (en) 2016-08-19 2018-03-20 Crystal Instruments Corporation Vibration image acquisition and processing
US9953224B1 (en) 2016-08-23 2018-04-24 Gopro, Inc. Systems and methods for generating a video summary
US9836853B1 (en) 2016-09-06 2017-12-05 Gopro, Inc. Three-dimensional convolutional neural networks for video highlight detection
US9934758B1 (en) 2016-09-21 2018-04-03 Gopro, Inc. Systems and methods for simulating adaptation of eyes to changes in lighting conditions
US10282632B1 (en) 2016-09-21 2019-05-07 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video
US10268898B1 (en) 2016-09-21 2019-04-23 Gopro, Inc. Systems and methods for determining a sample frame order for analyzing a video via segments
US10397415B1 (en) 2016-09-30 2019-08-27 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10044972B1 (en) 2016-09-30 2018-08-07 Gopro, Inc. Systems and methods for automatically transferring audiovisual content
US10268896B1 (en) 2016-10-05 2019-04-23 Gopro, Inc. Systems and methods for determining video highlight based on conveyance positions of video content capture
US11106988B2 (en) 2016-10-06 2021-08-31 Gopro, Inc. Systems and methods for determining predicted risk for a flight path of an unmanned aerial vehicle
US10002641B1 (en) 2016-10-17 2018-06-19 Gopro, Inc. Systems and methods for determining highlight segment sets
US9973792B1 (en) 2016-10-27 2018-05-15 Gopro, Inc. Systems and methods for presenting visual information during presentation of a video segment
US10284809B1 (en) 2016-11-07 2019-05-07 Gopro, Inc. Systems and methods for intelligently synchronizing events in visual content with musical features in audio content
US10262639B1 (en) 2016-11-08 2019-04-16 Gopro, Inc. Systems and methods for detecting musical features in audio content
JP6765940B2 (ja) * 2016-11-16 2020-10-07 キヤノン株式会社 画像処理装置およびその制御方法
US10095932B2 (en) * 2016-12-22 2018-10-09 Sap Se Video abstract using signed foreground extraction and fusion
US10534966B1 (en) 2017-02-02 2020-01-14 Gopro, Inc. Systems and methods for identifying activities and/or events represented in a video
US10194101B1 (en) 2017-02-22 2019-01-29 Gopro, Inc. Systems and methods for rolling shutter compensation using iterative process
US10339443B1 (en) 2017-02-24 2019-07-02 Gopro, Inc. Systems and methods for processing convolutional neural network operations using textures
US9916863B1 (en) 2017-02-24 2018-03-13 Gopro, Inc. Systems and methods for editing videos based on shakiness measures
US10127943B1 (en) 2017-03-02 2018-11-13 Gopro, Inc. Systems and methods for modifying videos based on music
US10185895B1 (en) 2017-03-23 2019-01-22 Gopro, Inc. Systems and methods for classifying activities captured within images
US10083718B1 (en) 2017-03-24 2018-09-25 Gopro, Inc. Systems and methods for editing videos based on motion
US11087271B1 (en) 2017-03-27 2021-08-10 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
US11238401B1 (en) 2017-03-27 2022-02-01 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
US11494729B1 (en) * 2017-03-27 2022-11-08 Amazon Technologies, Inc. Identifying user-item interactions in an automated facility
US10187607B1 (en) 2017-04-04 2019-01-22 Gopro, Inc. Systems and methods for using a variable capture frame rate for video capture
US10360663B1 (en) 2017-04-07 2019-07-23 Gopro, Inc. Systems and methods to create a dynamic blur effect in visual content
US10187690B1 (en) 2017-04-24 2019-01-22 Gopro, Inc. Systems and methods to detect and correlate user responses to media content
US10395122B1 (en) 2017-05-12 2019-08-27 Gopro, Inc. Systems and methods for identifying moments in videos
US10402698B1 (en) 2017-07-10 2019-09-03 Gopro, Inc. Systems and methods for identifying interesting moments within videos
US10614114B1 (en) 2017-07-10 2020-04-07 Gopro, Inc. Systems and methods for creating compilations based on hierarchical clustering
US10402656B1 (en) 2017-07-13 2019-09-03 Gopro, Inc. Systems and methods for accelerating video analysis
US20190138795A1 (en) * 2017-11-07 2019-05-09 Ooma, Inc. Automatic Object Detection and Recognition via a Camera System
US10668971B2 (en) * 2018-02-21 2020-06-02 Timothy Denholm Bicycle safety apparatus and methods
CN111567030B (zh) 2018-04-23 2022-01-28 Oppo广东移动通信有限公司 用于自动切换视频捕获及回放帧率的方法
US20190342525A1 (en) * 2018-05-03 2019-11-07 Sensormatic Electronics, LLC Video summarization systems and methods
US11138344B2 (en) 2019-07-03 2021-10-05 Ooma, Inc. Securing access to user data stored in a cloud computing environment
CN112543368A (zh) * 2019-09-20 2021-03-23 北京小米移动软件有限公司 视频处理方法、视频播放方法、装置及存储介质
JP7431549B2 (ja) 2019-10-01 2024-02-15 キヤノン株式会社 符号化装置、撮像装置、制御方法、及びプログラム
JP7188418B2 (ja) * 2020-06-25 2022-12-13 横河電機株式会社 装置、方法およびプログラム
CN113726949B (zh) * 2021-05-31 2022-08-26 荣耀终端有限公司 一种视频处理方法、电子设备及存储介质
CN114827454B (zh) * 2022-03-15 2023-10-24 荣耀终端有限公司 视频的获取方法及装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3226271B2 (ja) * 1989-07-27 2001-11-05 オリンパス光学工業株式会社 ディジタル電子スチルカメラ
US7532807B2 (en) * 1995-04-07 2009-05-12 Avid Technology, Inc. Combined editing system and digital moving picture recording system
US5778108A (en) * 1996-06-07 1998-07-07 Electronic Data Systems Corporation Method and system for detecting transitional markers such as uniform fields in a video signal
US5897228A (en) 1997-02-28 1999-04-27 Eastman Kodak Company Camera with low cost interchangeable pushbutton annotation
US6833865B1 (en) 1998-09-01 2004-12-21 Virage, Inc. Embedded metadata engines in digital capture devices
JP3694208B2 (ja) 2000-02-07 2005-09-14 ペンタックス株式会社 カメラ
US7102670B2 (en) 2001-10-31 2006-09-05 Hewlett-Packard Development Company, L.P. Bookmarking captured digital images at an event to all present devices
JP2004133536A (ja) 2002-10-08 2004-04-30 Canon Inc メタデータ自動作成・更新装置、メタデータ自動作成・更新方法および該作成・更新方法を実現するためのプログラム
JP4332365B2 (ja) 2003-04-04 2009-09-16 ソニー株式会社 メタデータ表示システム,映像信号記録再生装置,撮像装置,メタデータ表示方法
US7447331B2 (en) * 2004-02-24 2008-11-04 International Business Machines Corporation System and method for generating a viewable video index for low bandwidth applications
JP4976378B2 (ja) 2006-03-23 2012-07-18 パナソニック株式会社 コンテンツ撮影装置
JP2008003335A (ja) * 2006-06-23 2008-01-10 Casio Comput Co Ltd 撮像装置、フォーカス制御方法、およびフォーカス制御プログラム
US20080094476A1 (en) * 2006-10-18 2008-04-24 Southern Vision Systems, Inc. System and Method of High-Speed Image-Cued Triggering
KR101323219B1 (ko) * 2007-01-08 2013-10-30 삼성전자주식회사 타임쉬프트 기능을 제공하는 촬영장치 및 그 방법
WO2008111308A1 (ja) * 2007-03-12 2008-09-18 Panasonic Corporation コンテンツ撮影装置
US8270303B2 (en) 2007-12-21 2012-09-18 Hand Held Products, Inc. Using metadata tags in video recordings produced by portable encoded information reading terminals
US20090227285A1 (en) * 2008-03-06 2009-09-10 Samsung Electronics Co., Ltd. Click and pick video recording with on-line editing
AU2009333038B2 (en) * 2008-12-29 2015-12-17 Red.Com, Llc Modular digital camera
KR101007247B1 (ko) * 2009-05-20 2011-01-13 엠텍비젼 주식회사 영상 저장 장치 및 영상 저장 방법
JP2010288160A (ja) 2009-06-12 2010-12-24 Canon Inc メタデータ付与方法、メタデータ付与装置、及びプログラム
US20110262103A1 (en) 2009-09-14 2011-10-27 Kumar Ramachandran Systems and methods for updating video content with linked tagging information
US8400548B2 (en) 2010-01-05 2013-03-19 Apple Inc. Synchronized, interactive augmented reality displays for multifunction devices
US20110263946A1 (en) * 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US8903798B2 (en) 2010-05-28 2014-12-02 Microsoft Corporation Real-time annotation and enrichment of captured video
US8803991B2 (en) 2011-10-12 2014-08-12 Cisco Technology, Inc. Snapshot capture in video stream
US8934045B2 (en) 2012-03-12 2015-01-13 Apple Inc. Digital camera system having remote control
JP6206699B2 (ja) * 2012-03-14 2017-10-04 パナソニックIpマネジメント株式会社 画像処理装置、撮像装置、およびコンピュータプログラム
KR101475669B1 (ko) * 2012-05-15 2014-12-24 에스케이플래닛 주식회사 하이라이트 동영상 기록 장치 및 방법
KR101909030B1 (ko) * 2012-06-08 2018-10-17 엘지전자 주식회사 비디오 편집 방법 및 이를 위한 디지털 디바이스
US10482777B2 (en) * 2013-02-22 2019-11-19 Fuji Xerox Co., Ltd. Systems and methods for content analysis to support navigation and annotation in expository videos
EP3127322B1 (en) 2014-04-04 2019-05-08 Red.Com, Llc Video camera with capture modes

Also Published As

Publication number Publication date
US9536150B2 (en) 2017-01-03
US20150286875A1 (en) 2015-10-08
EP3127322A1 (en) 2017-02-08
US10026451B2 (en) 2018-07-17
US20150287435A1 (en) 2015-10-08
EP3127322A4 (en) 2017-03-15
EP3127322B1 (en) 2019-05-08
US10403325B2 (en) 2019-09-03
JP2017515368A (ja) 2017-06-08
US9224045B2 (en) 2015-12-29
WO2015153556A1 (en) 2015-10-08
US20170163861A1 (en) 2017-06-08
JP6438046B2 (ja) 2018-12-12
US20190019534A1 (en) 2019-01-17

Similar Documents

Publication Publication Date Title
ES2730404T3 (es) Videocámara con modos de captura
US20170148488A1 (en) Video data processing system and associated method for analyzing and summarizing recorded video data
KR101956099B1 (ko) 정지 사진과 비디오 내용을 캡쳐하고 표시하는 시스템 및 장치
US9077894B2 (en) Method and apparatus for capturing still image during photographing or reproduction of moving image
KR20160118963A (ko) 실시간 이미지 스티칭 장치 및 실시간 이미지 스티칭 방법
JP2010199971A (ja) 撮像装置、撮像方法、及びプログラム
US20140340526A1 (en) Imaging apparatus, method for controlling imaging apparatus, and system therefor
JP2016219949A (ja) 撮像装置、その制御方法、および制御プログラム
JP2012151708A (ja) 撮像装置
US20140044414A1 (en) Recording apparatus
JP5539078B2 (ja) 表示制御装置、方法及びプログラム並びに記録媒体
US20100195989A1 (en) Image reproducing apparatus and image reproducing method
JP2005328279A (ja) 記録装置
WO2016175003A1 (ja) 撮影装置、撮影装置の制御方法、および制御プログラム
JP7051565B2 (ja) 撮像装置及びその制御方法、撮像システム
JP5386915B2 (ja) 動画撮像装置、動画撮像方法、及びプログラム
JP2014003715A (ja) 撮像装置、撮像方法、及びプログラム
JP2017118446A (ja) 撮像装置
JP2013055594A (ja) 撮像装置
US9667872B2 (en) Camera to capture multiple images at multiple focus positions
US20160344949A1 (en) System and method and device for processing digital images
JP2010103795A (ja) 画像記録装置
JP2016082267A (ja) 撮像装置
JP2006148466A (ja) デジタルビデオカメラ
JP2008042331A (ja) 記録装置