ES2357556T3 - Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen. - Google Patents

Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen. Download PDF

Info

Publication number
ES2357556T3
ES2357556T3 ES03012129T ES03012129T ES2357556T3 ES 2357556 T3 ES2357556 T3 ES 2357556T3 ES 03012129 T ES03012129 T ES 03012129T ES 03012129 T ES03012129 T ES 03012129T ES 2357556 T3 ES2357556 T3 ES 2357556T3
Authority
ES
Spain
Prior art keywords
processing
images
operating parameters
image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03012129T
Other languages
English (en)
Inventor
Harald Brusewitz
Bo Burman
Göran Roth
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Telefonaktiebolaget LM Ericsson AB
Original Assignee
Telefonaktiebolaget LM Ericsson AB
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Telefonaktiebolaget LM Ericsson AB filed Critical Telefonaktiebolaget LM Ericsson AB
Application granted granted Critical
Publication of ES2357556T3 publication Critical patent/ES2357556T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6373Control signals issued by the client directed to the server or network components for rate control, e.g. request to the server to modify its transmission rate
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/162User input
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/164Feedback from the receiver or from the transmission channel
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/587Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal sub-sampling or interpolation, e.g. decimation or subsequent interpolation of pictures in a video sequence
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/637Control signals issued by the client directed to the server or network components
    • H04N21/6377Control signals issued by the client directed to the server or network components directed to server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Un sistema de tratamiento o procesado de imágenes para recibir, procesar y visualizar una multiplicidad de imágenes, comprendiendo dicho sistema de formación de imágenes: un dispositivo emisor (42), conectado a una cámara (44), para recibir dicha multiplicidad de imágenes desde esta última; medios (48, 50, 54) de tratamiento o procesado de imágenes en dicho dispositivo emisor para procesar dicha multiplicidad de imágenes y generar una señal digital correspondiente a dicha multiplicidad de imágenes de acuerdo con una pluralidad de parámetros de funcionamiento; un dispositivo receptor (58) para recibir dicha señal digital del dispositivo emisor; un canal (56) de reenvío, desde el dispositivo emisor al receptor, para transmitir dicha señal digital; una unidad (66) de pantalla conectada al dispositivo receptor; un canal (72) de retorno desde el dispositivo receptor al dispositivo emisor; medios (68, 70) de interfaz, en el dispositivo receptor, para enviar una orden a través del canal de retorno; caracterizado porque dicho canal de retorno se extiende entre el dispositivo receptor y los medios de tratamiento o procesado de imágenes; dichos medios de interfaz están dispuestos para recibir una pluralidad de solicitudes de un observador, para traducir las solicitudes en órdenes, y para transmitir las órdenes hacia los medios de tratamiento o procesado de imágenes; dichos medios de tratamiento o procesado de imágenes están dispuestos para generar dicha señal digital de acuerdo con parámetros de funcionamiento que se modifican basándose en dichas órdenes; con lo cual un observador del dispositivo de pantalla puede modificar de forma interactiva los parámetros de funcionamiento de acuerdo con los cuales se procesan imágenes subsiguientes.

Description

ANTECEDENTES DE LA PRESENTE INVENCIÓN
Campo de la invención
La presente invención se refiere en general a un sistema y un método de formación electrónica de imágenes, en particular, a un sistema y un método mejorados de formación de imágenes para personalizar las imágenes según las especificaciones del observador, y, más particularmente, a un sistema y un método de formación de imágenes que permiten que el observador, a través de un canal de retorno, ajuste los parámetros de resolución espacial y temporal y de cuantificación de una imagen.
Antecedentes y objetivos de la presente invención
Con el crecimiento de la industria de la electrónica de consumo durante las últimas décadas, ha surgido una variedad de sistemas de formación electrónica de imágenes, de complejidad creciente, por ejemplo, grabadores de vídeo, videocámaras y similares. El documento WO-A-94/03014 da a conocer un sistema de monitorización de seguridad por vídeo, en el que un usuario puede controlar de forma remota parámetros de la cámara, y en el que, al detectarse un movimiento, se cambian los parámetros de la señal de vídeo. Adicionalmente, las comunicaciones de videoconferencia están resultando cada vez más importantes ya que nuestra sociedad se interconecta cada vez más y de manera interactiva.
Tal como se entiende en esta técnica, las imágenes de vídeo, es decir, en movimiento, experimentan una codificación para reducir la cantidad de información necesaria para representar una imagen determinada. La codificación afecta tanto a la resolución espacial, es decir, el detalle dentro de un cuadro de imagen particular, como a la resolución temporal, es decir, el número de dichos cuadros de imagen por segundo. Típicamente, estos parámetros son fijos dentro de un sistema de vídeo convencional, tal como el mostrado en la FIGURA 1 de los Dibujos y al que se hace referencia en general en el presente documento como número 10. El sistema 10 de vídeo de la figura incluye un dispositivo emisor 12 que recibe señales de una cámara 14. Debe entenderse que no se ilustran varias partes de la cámara 14 que no están relacionadas con la presente invención, por ejemplo, el diafragma, el obturador y similares. Por consiguiente, tal como se entiende en esta técnica, la imagen óptica que está delante de la cámara 14, tal como el individuo representado, es recibida por una lente 16 de cámara y convertida en una señal de vídeo analógica, por ejemplo, mediante un dispositivo acoplado por carga, convencional. Debe entenderse que la cámara 14 puede ser una cámara digital que reenvía datos digitales hacia un dispositivo submuestreador 18 dentro del dispositivo emisor 12. No obstante, si la cámara 14 no es digital, y no es necesaria una conversión analógica-a-digital, entonces el dispositivo 18 puede funcionar también como un conversor A/D, tal como se entiende en la técnica. El submuestreador 18 determina valores de píxel que representan la imagen de vídeo capturada con una resolución espacial particular, es decir, píxeles por línea y líneas por imagen, y una resolución temporal, es decir, imágenes por segundo. Otro parámetro relacionado con la resolución tanto espacial como temporal es la cuantificación, es decir, una medida de la cantidad de distorsión presente en la señal de vídeo, tal como se describirá de forma más detallada posteriormente en el presente documento.
Un codificador 20 codifica los datos de imagen digitales antes descritos para obtener un flujo continuo de señal de vídeo que fluye hacia una memoria intermedia 22. Tal como se entiende en la técnica y se describe de forma adicional en el presente documento, la velocidad del flujo de información desde el codificador 20 hacia la memoria intermedia 22 varía de acuerdo con el grado de codificación. Adicionalmente, el flujo continuo de señal de vídeo incluye típicamente señales comprimidas, en las que el codificador 20 ha condensado o comprimido información de imágenes para facilitar su transmisión o almacenamiento. Un conjunto de formatos que usa dichas tecnologías de compresión es el especificado por el Grupo de Expertos en Imágenes en Movimiento (MPEG), una normativa de acuerdo con la Organización Internacional para Normalización/Comisión Electrotécnica Internacional (ISO/IEC). Otras tecnologías de compresión son las normativas H.261, H.262 y H.263 de la Unión Internacional de Telecomunicaciones, Sección de Teleconferencia (ITU-T) para su uso, por ejemplo, en videoconferencia.
En combinación con estas normativas y técnicas de formatos de datos de imágenes, mediante las cuales el codificador 20 proporciona una sintaxis para el flujo continuo de bits subsiguiente, el codificador 20 utiliza también algoritmos de compresión, tales como Transformadas de Coseno Discretas (DCT), codificación Huffman y otros mecanismos, con lo cual la cantidad de datos necesarios para representar la imagen se reduce drásticamente al mismo tiempo que se mantiene de manera sustancial la integridad de la imagen. Tal como entenderán aquellos expertos en la materia, estas y otras técnicas eliminan o reducen la transmisión de redundancias entre tramas y otra información que no son necesarias o que son repetitivas, y aprovecha varios aspectos fisiológicos y sicológicos de la percepción humana para presentar una imagen coherente a los ojos del observador.
Haciendo referencia adicionalmente a la FIGURA 1, el submuestreador 18, el codificador 20 y la memoria intermedia 22 son controlados por una unidad 24 de control, que controla también otras funciones del sistema 10 de formación de imágenes. Por ejemplo, la unidad 24 de control controla la secuenciación de las operaciones antes descritas, es decir, la captación de imágenes por la cámara 14 a través de una conexión con la misma (no mostrada), la conversión de los píxeles en el submuestreador 18, la compresión en el codificador 20, la grabación de las imágenes codificadas en un soporte de grabación magnético o electrónico (no mostrado), y otras operaciones. La unidad 24 de control suministra al codificador 20 una pluralidad de parámetros de funcionamiento para gobernar la transformación antes mencionada de datos de píxeles en un flujo continuo de bits comprimido correspondiente. Tal como se ha descrito, la unidad 24 de control gobierna también la velocidad de bits variable del flujo de información hacia la memoria intermedia 22 para mantener un nivel particular de datos y evitar en la misma tanto el desbordamiento como el subdesbordamiento.
Tal como se entiende en esta técnica, la finalidad principal de la memoria intermedia 22 es regular el flujo de datos desde el codificador 20 y reenviar esos datos a una velocidad fija a través de un canal 26 de transmisión hacia un dispositivo receptor 28, en particular, a una memoria intermedia 30 en este último, que, igual que la memoria intermedia 22, actúa como un depósito que almacena los datos y que regula su uso. Evidentemente, debe entenderse que el canal 26 puede transferir datos a una velocidad variable, por ejemplo, un servicio de velocidad variable de una red de Modo de Transferencia Asíncrono (ATM). Sin embargo, el caudal variable de datos desde el codificador 20 no concuerda en general con el del canal 26, fijo o variable.
La memoria intermedia 30 reenvía los datos de imagen recibidos, a una velocidad fija o variable según sea necesario, hacia un decodificador 32. De manera similar al proceso de codificación, el decodificador 32 invierte los algoritmos de compresión antes descritos para expandir la imagen según los parámetros de funcionamiento antes mencionados. En otras palabras, el decodificador 32 descomprime la información comprimida en el flujo continuo de bits y reconstruye la imagen de acuerdo con el formato de imagen pertinente usado, por ejemplo, el ITU-R/601 Digital Studio Standard, y los parámetros de funcionamiento. A continuación, la imagen reconstruida se sitúa dentro de un dispositivo 34 de almacenamiento de imágenes, cuyo contenido se puede visualizar continuamente en una pantalla 36 de vídeo, siendo conocida en la técnica la circuitería de esta última.
Tal como se ha descrito, las tecnologías de compresión antes descritas utilizan varias técnicas para condensar la información de las imágenes. El decodificador 32 está configurado para interpretar el formato y los parámetros de funcionamiento por medio de los cuales el codificador 20 codificó la información de las imágenes. Tal como es sabido en la técnica, a gran parte del proceso de decodificación realizado dentro del decodificador 32 se le puede denominar “normalizado”, es decir, fijado por la normativa particular usada, por ejemplo, MPEG. Consecuentemente, el decodificador 32 reconoce fácilmente estas partes normalizadas de una señal del codificador 20, es decir, cómo interpretar los bits transmitidos en el flujo de bits.
En un aparato convencional que utiliza la tecnología anterior, los parámetros de funcionamiento antes mencionados son fijos dentro del sistema 10 de vídeo. Habitualmente, el codificador 20 utiliza valores fijos de resolución espacial y temporal, que se adecuan bien a los requisitos de la memoria intermedia 22, garantizando un flujo continuo de bits de velocidad fija a través del canal 26 de transmisión. Sin embargo, la memoria intermedia 22, en un esfuerzo por mantener la velocidad de transmisión requerida por el canal 26, ajusta la cuantificación o distorsión de las imágenes pertinentes. La cuantificación se convierte entonces en una función de la compleción de la memoria intermedia 22, que, a su vez, es una función de la complejidad de las imágenes de vídeo en cuestión, es decir, qué consumo de bits presentan las imágenes durante la compresión. Algunos codificadores 20 tienen solamente una resolución espacial fija y la memoria intermedia 22 ajusta la cuantificación y la resolución temporal para mantener la velocidad de bits constante. El equilibrio entre la cuantificación y la resolución temporal se gobierna mediante un algoritmo de regulación de memoria intermedia, tal como es sabido en la técnica.
No obstante, un problema con la configuración anterior es que los parámetros de funcionamiento antes mencionados pueden resultar inadecuados en ciertas circunstancias, y el algoritmo de regulación de memoria intermedia u otro esquema de balance de la resolución puede requerir un ajuste para adecuarse a las necesidades del observador humano que puede tener en mente un balance diferente de la resolución espacial/temporal y la distorsión. Por ejemplo, algunas aplicaciones de vídeo pueden requerir una resolución temporal mayor a costa de una cuantificación aproximada, por ejemplo, la comunicación de vídeo entre personas sordas (lenguaje de signos), que prefieren una resolución temporal elevada. Adicionalmente, las aplicaciones de vigilancia requieren normalmente una mayor resolución espacial y una cuantificación precisa a costa de la resolución temporal.
Además, con el aumento creciente del uso y la aptitud de los consumidores en los sistemas de formación electrónica de imágenes, los camarógrafos sofisticados desean un control cada vez mayor sobre los parámetros de funcionamiento y pueden realizar ajustes finos en el balance entre la resolución espacial y temporal y la cuantificación para una multitud de otras aplicaciones, sintonizando de forma precisa estos parámetros para un efecto objetivo o subjetivo.
No obstante, con estos parámetros de funcionamiento fijados, los camarógrafos o cualquier otro usuario del aparato de vídeo que presenta estas características inalterables no puede realizar ningún ajuste en el aparato, y el codificador 20 funciona sin ninguna realimentación proveniente del observador.
Por consiguiente, un primer objetivo de la presente invención es proporcionar al observador unos medios para ajustar las variables antes mencionadas de las resoluciones espacial y temporal y de la cuantificación para adecuarse a sus necesidades individuales.
Es un objetivo más particular de la presente invención proporcionar unos medios de realimentación desde el observador hacia el codificador, que permitan que el observador disponga de una flexibilidad aumentada sobre los parámetros de funcionamiento antes mencionados.
SUMARIO DE LA INVENCIÓN
La presente invención, que se define en las reivindicaciones adjuntas, se refiere a una mejora en un sistema de formación de imágenes para proporcionar un aumento del control, por parte del observador, sobre los parámetros de funcionamiento del sistema de formación de imágenes. El control por parte del observador se facilita incluyendo un canal de retorno dentro del sistema de formación de imágenes, que permite que el observador ajuste los parámetros de funcionamiento, por ejemplo, la resolución espacial y temporal, y la cuantificación, de la transmisión de vídeo.
Se puede obtener una apreciación más completa de la presente invención a partir de los dibujos adjuntos, los cuales se resumen de forma breve a continuación, la siguiente descripción detallada de las realizaciones actualmente preferidas de la invención, y las reivindicaciones adjuntas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La FIGURA 1 es un diagrama de bloques que ilustra un sistema convencional de formación electrónica de imágenes; y
la FIGURA 2 es un diagrama de bloques que ilustra un sistema de formación electrónica de imágenes según la presente invención.
DESCRIPCIÓN DETALLADA DE LAS REALIZACIONES EJEMPLARES PREFERIDAS ACTUALMENTE
A continuación en el presente documento, se describirá de forma más detallada la presente invención, haciendo referencia a los dibujos adjuntos, en los que se muestran realizaciones preferidas de la invención. No obstante, esta invención se puede materializar en muchas formas diferentes y no debe considerarse como limitada a las realizaciones que se exponen en el presente documento, sino que estas realizaciones se proporcionan de manera que la presente descripción resulte minuciosa y completa, y comunique en su totalidad el alcance de la invención a aquellos expertos en la materia.
A continuación, en referencia a la FIGURA 2 de los dibujos, se ilustra un sistema de formación electrónica de imágenes, representado de forma general con el número 40, que incorpora la materia objeto de la presente invención. El sistema 40 de formación de imágenes ilustrado en la FIGURA 2, igual que el sistema 10 de formación de imágenes convencional que se expone en la FIGURA 1, incluye un dispositivo emisor 42 que recibe señales de una cámara 44 que captura y graba una imagen óptica, tal como el individuo representado. Tal como se describe, no se ilustran las diversas partes de la cámara 44 que no están relacionadas con la presente invención. La imagen óptica que está delante de la cámara 44 es recibida por una lente 46 de cámara y convertida en una señal, según se ha descrito. A continuación, la señal antes mencionada se reenvía a un dispositivo submuestreador 48, que determina valores de píxel que representan la imagen de vídeo capturada con una resolución espacial particular, es decir, píxeles por línea y líneas por imagen, y una resolución temporal, es decir, imágenes por segundo. Tal como se ha descrito en relación con el sistema 10 de formación de imágenes de la FIGURA 1, un codificador 50 codifica los datos digitales antes descritos para obtener un flujo continuo de señal de vídeo con unas resoluciones espacial y temporal particulares, que, en los sistemas convencionales, son fijas.
Igual que con el dispositivo emisor 12 del sistema 10 de formación de imágenes convencional, el dispositivo emisor 42 incluye una memoria intermedia 52 para recibir el flujo continuo de señal de vídeo comprimida, codificada, del codificador 50, y una unidad 54 de control para controlar las operaciones del conversor 48, el codificador 50 y la memoria intermedia 52. Tal como se ha descrito, la unidad 54 de control suministra al codificador 50 los parámetros de funcionamiento antes descritos para gobernar la transformación de los datos. Mientras que en el sistema convencional ilustrado en la FIGURA 1, varios parámetros eran fijos, por ejemplo, las resoluciones espacial y temporal antes mencionadas, un usuario del sistema 40 de vídeo de la presente invención puede controlar de forma variable estos parámetros, tal como se describirá de forma más detallada posteriormente en el presente documento.
Igual que con el sistema convencional, la memoria intermedia 52 gestiona el flujo variable de datos proveniente del codificador 50 y da salida a un flujo continuo de bits de datos de vídeo de velocidad fija a través de un canal 56 de transmisión hacia un dispositivo receptor 58, particularmente, hacia una memoria intermedia 60 de este último, que, igual que la memoria intermedia 30 de la FIGURA 1, recibe el flujo fijo de datos y lo reenvía hacia un decodificador 62. Igual que con el canal 26, debe entenderse que el canal 56 puede permitir caudales variables de los datos.
De forma similar al proceso de codificación, el decodificador 62 invierte los algoritmos de compresión antes descritos para expandir la imagen de acuerdo con los parámetros de funcionamiento antes mencionados. El decodificador 62 descomprime la información comprimida y formateada del flujo continuo de bits y reconstruye la imagen de acuerdo con el formato pertinente y los parámetros de funcionamiento. A continuación, la imagen reconstruida se sitúa dentro de un dispositivo 64 de almacenamiento de imágenes, cuyo contenido se puede visualizar continuamente en una pantalla 66 de vídeo, que, en la FIGURA 2, visualiza el individuo antes mencionado.
Tal como se ha descrito, el decodificador 62 está configurado para decodificar información normalizada proveniente del codificador 50, es decir, el formato, la normativa y los parámetros de funcionamiento del flujo continuo de bits de datos de vídeo. Por lo tanto, debe entenderse que el decodificador 62, así como el decodificador 32, reconocen estas partes normalizadas de una señal del codificador 50, por ejemplo, el formato de vídeo particular usado, por ejemplo, la normativa ITU-R/601 antes mencionada, y las diversas normativas de compresión, por ejemplo, ISO/IEC MPEG-1, MPEG-2, y MPEG-4, e ITU-T H.261, H.262 y H.263. Aunque el decodificador 62 tiene preferentemente un diseño convencional y, por lo tanto, puede interpretar las señales de comunicación normalizadas pertinentes, debe entenderse que el decodificador 62 también se puede configurar para aceptar órdenes no normalizadas, es decir, órdenes o información que se sitúan fuera de la normativa particular que se está usando, según se describe posteriormente en el presente documento.
Como el codificador 50 (y el proceso de codificación) no se especifica dentro de las normativas antes mencionadas (todo lo que importa es una decodificación correcta), los diseñadores de los sistemas de vídeo tienen un nivel alto de libertad en cuanto a los aspectos no normalizados de implementación de la tecnología. Mientras el decodificador 62 pueda interpretar las normativas pertinentes y esté configurado para decodificar las funciones no normalizadas particulares deseadas, se pueden implementar numerosas opciones adicionales, tales como la modificación de la calidad de la imagen, según se describirá de forma más detallada posteriormente en el presente documento.
En referencia nuevamente a la FIGURA 2, el dispositivo receptor 58 incluye también un dispositivo 68 de interfaz humana, a través del cual se pueden ajustar muchos de los parámetros de funcionamiento antes descritos, por ejemplo, para modificar la claridad de la imagen (resolución espacial y cuantificación), la frecuencia (resolución temporal
o frecuencia de cuadro) y otras características. El dispositivo 68 de interfaz humana, que puede incluir un botón, un control deslizante, un teclado u otro aparato de interfaz convencional, reenvía los cambios indicados a un traductor 70, que convierte los cambios en una señal. La señal antes descrita se envía entonces de vuelta a la unidad 54 de control del dispositivo emisor 42 a través de un canal 72 de retorno.
Por medio de la configuración del sistema 40 de vídeo con la capacidad de señalización del canal 72 de retorno, el observador, a través de la interfaz 68, puede modificar de forma interactiva varios parámetros de funcionamiento, tales como aquellos que definen la calidad de la imagen. Por ejemplo, en el sistema 40 de vídeo de la presente invención se pueden implementar los siguientes parámetros de funcionamiento para regular la calidad de la
imagen:
(a)
resolución espacial alta/baja (detalle de imagen),
(b)
resolución temporal alta/baja (frecuencia de cuadro),
(c)
cuantificación alta/baja (distorsión de la imagen),
(d)
balance entre (a) y (b),
(e)
balance entre (a) y (c), y
(f)
balance entre (b) y (c).
Debe entenderse que, mientras que el sistema 10 de vídeo convencional utiliza parámetros de funcionamiento (a), (b) y
(c)
fijos, el sistema 40 de vídeo de la presente invención permite la modificación del balance entre estos parámetros de funcionamiento. En el sistema 10 de vídeo convencional, si se cambiase o bien (a) o bien (b), entonces debería ajustarse la cantidad de distorsión (c) para lograr la velocidad de bits requerida. Por consiguiente, seleccionar (a) es equivalente a seleccionar (e), un balance entre la resolución espacial y la cuantificación. De modo similar, seleccionar
(b)
es equivalente a seleccionar (f), un balance entre la resolución temporal y la cuantificación. Debe entenderse también que seleccionar (c) es asimismo equivalente a seleccionar (f) puesto que un codificador típicamente no modifica su resolución espacial pero puede ajustar fácilmente la resolución temporal. Tal como se ha descrito, el observador puede desear un balance de resolución de imagen diferente al que se esté usando actualmente, es decir, o bien el balance predeterminado antes mencionado o bien un balance seleccionado previamente, y puede desear ajustar los reglajes de los parámetros de funcionamiento para lograr un balance deseado. A través de la interacción con la interfaz humana 68, por ejemplo, pulsando o girando un botón 74 (que constituye la interfaz 68 ó está conectado a la misma a través de una conexión 75) en el dispositivo 74 de pantalla o un botón similar 76 en un dispositivo remoto 78 mostrado también en la FIGURA 2, el traductor 70 puede reenviar una palabra de código particular u otras indicaciones que indiquen la orden particular correspondiente a las mismas, de vuelta al codificador 50, que ajusta sus operaciones de manera correspondiente. Por ejemplo, el observador puede reenviar las órdenes “A+” para incrementar la resolución espacial, “B-“ para reducir la resolución temporal, “F+” para reducir la distorsión, etcétera. Evidentemente, debe entenderse que las órdenes anteriores son únicamente ejemplificativas, y el sistema 40 de vídeo puede utilizar otros símbolos para implementar los cambios deseados del observador. En cualquier caso, el flujo continuo de bits después del ajuste debe reflejar el cambio indicado.
Adicionalmente, desde el traductor 70, a través del canal 72 de retorno, se puede enviar una solicitud de un balance nuevo entre la resolución temporal y la distorsión de codificación, en forma de “q<k>”, en donde “q” representa el tipo de orden solicitada y “<k>” indica un valor particular para esa orden. Debe entenderse que “k” está preferentemente dentro de un intervalo discreto predefinido de valores permisibles. Puesto que el número de resoluciones permisibles es bastante elevado en las normativas de compresión antes mencionadas, por ejemplo, MPEG-1, MPEG-2, ITU-T H.261 y otras, el intervalo de resoluciones en una implementación específica se especifica preferentemente y es gobernado mediante las capacidades de la cámara (14 ó 44) y el submuestreador (18 ó 48) particulares usados. Alternativamente, puede resultar útil limitar el número de dichas resoluciones a un conjunto pequeño, asignando a cada una un código exclusivo. La resolución temporal se puede designar de manera similar dentro de un intervalo discreto de valores, aunque puede haber restricciones en los múltiplos del periodo de cuadro mínimo, por ejemplo, 1/30 de un segundo. De forma similar, la cuantificación, típicamente competencia de los fabricantes de equipos, se puede seleccionar dentro de un intervalo, por ejemplo, suministrado por el fabricante en particular. De esta manera, debe entenderse adicionalmente que el codificador 50, al producirse la recepción de una palabra de código determinada, tal como “q”, puede fijar de forma correspondiente una pluralidad de parámetros internos. De modo similar, también se pueden fijar varios parámetros internos de la memoria intermedia 52.
Además, la solicitud particular del observador transmitida a través del canal 72 de retorno se puede definir de manera que sea válida según una serie de formas diferentes, que incluyen:
(A)
para siempre, hasta que se proporcione una solicitud nueva;
(B)
durante un periodo de tiempo limitado, a saber, x segundos, en donde x está predefinido;
(C)
durante un número limitado de n imágenes, en donde n está predefinido;
(D)
durante tanto tiempo como lo indique una palabra de código “x” transmitida; y
(E)
tantas imágenes como indique una palabra de código “n” transmitida.
Por ejemplo, un usuario puede solicitar una imagen con una resolución espacial muy alta, que puede constituir una imagen fija de alta resolución, presionando el botón 74 (o el botón 76 en el dispositivo remoto 78), lo cual provoca que el traductor 70 genere una palabra de código específica, por ejemplo, “s” de fija (still), la cual se definiría como válida para una única imagen (n=1 para la opción C anterior). La orden completa transmitida a través del canal 72 de retorno sería entonces “sC1”. Además, “g3A” puede indicar un nivel de cuantificación 3 a partir de ese momento, y “t1B5” sería de modo similar un nivel de resolución temporal 1 durante 5 segundos.
Considerando la descripción anterior, debe entenderse que un observador puede utilizar una amplia variedad de órdenes no normalizadas para personalizar imágenes de vídeo para varios usos.
Se pueden encontrar otros detalles de los aspectos de gestión de imágenes fijas de la configuración del sistema 40 de vídeo de la presente invención en la solicitud de patente de los Solicitantes, en tramitación con la presente, titulada “Method and Apparatus for Still Picture Transmission and Display”, presentada simultáneamente con la presente e incorporada a esta última a título de referencia.
Debe entenderse que los principios antes descritos de la presente invención también se pueden aplicar en otros contextos, tales como videoconferencia, con lo cual un observador puede adaptar la señal recibida para adecuarla a sus necesidades. Por ejemplo, si resulta importante identificar individuos u objetos, es preceptivo entonces un incremento de la resolución espacial y una cuantificación más precisa (menos distorsión) a expensas de la resolución temporal. Si es importante la continuidad de la imagen, se puede sacrificar entonces resolución espacial y distorsión para lograr una estabilidad temporal. Debe considerarse que, dentro del ámbito de la presente descripción, se sitúan otras variantes, tales como captar una imagen fija de un participante remoto o sintonizar de forma precisa la imagen recibida para otras aplicaciones.
Debe entenderse que el dispositivo emisor 42 puede residir dentro de la cámara 44 y el dispositivo receptor 58 puede residir dentro del dispositivo 66 de pantalla, tal como en los sistemas de vídeo convencionales. Sin embargo, debe entenderse que los dispositivos tanto emisor 42 como receptor 58 pueden estar incorporados en cambio dentro de terminales multifuncionales, por ejemplo, como un transmisor/receptor móvil con capacidad de vídeo, se pueden implementar en software (con los componentes de hardware requeridos, tales como la interfaz 69) dentro de un ordenador general, se pueden implementar como cajas de equipo independientes con conectores de entrada y salida, o se pueden incluir (por lo menos en el extremo receptor) como parte de una red de servicios de valor añadido, es decir, un recurso compartido en la red.
Debe entenderse además que la unidad 54 de control mostrada en la FIGURA 2 también puede controlar operaciones de la cámara 44 a través de una conexión con esta última (no mostrada). De esta manera, el zoom, la panoramización, la inclinación, el iris de la cámara y otras funciones de la misma pueden ser controlados por el usuario gracias al canal 72 de retorno.

Claims (6)

  1. REIVINDICACIONES
    1. Un sistema de tratamiento o procesado de imágenes para recibir, procesar y visualizar una multiplicidad de
    imágenes, comprendiendo dicho sistema de formación de imágenes: un dispositivo emisor (42), conectado a una cámara (44), para recibir dicha multiplicidad de imágenes desde esta última;
    medios (48, 50, 54) de tratamiento o procesado de imágenes en dicho dispositivo emisor para procesar dicha multiplicidad de imágenes y generar una señal digital correspondiente a dicha multiplicidad de imágenes de acuerdo con una pluralidad de parámetros de funcionamiento;
    un dispositivo receptor (58) para recibir dicha señal digital del dispositivo emisor; un canal (56) de reenvío, desde el dispositivo emisor al receptor, para transmitir dicha señal digital; una unidad (66) de pantalla conectada al dispositivo receptor; un canal (72) de retorno desde el dispositivo receptor al dispositivo emisor; medios (68, 70) de interfaz, en el dispositivo receptor, para enviar una orden a través del canal de retorno;
    caracterizado porque
    dicho canal de retorno se extiende entre el dispositivo receptor y los medios de tratamiento o procesado de imágenes;
    dichos medios de interfaz están dispuestos para recibir una pluralidad de solicitudes de un observador, para traducir las solicitudes en órdenes, y para transmitir las órdenes hacia los medios de tratamiento o procesado de imágenes;
    dichos medios de tratamiento o procesado de imágenes están dispuestos para generar dicha señal digital de acuerdo con parámetros de funcionamiento que se modifican basándose en dichas órdenes;
    con lo cual un observador del dispositivo de pantalla puede modificar de forma interactiva los parámetros de funcionamiento de acuerdo con los cuales se procesan imágenes subsiguientes.
  2. 2. Un sistema de tratamiento o procesado de imágenes según la reivindicación 1, caracterizado porque los parámetros de funcionamiento a modificar son la resolución espacial, la resolución temporal y las combinaciones de las mismas.
  3. 3. Sistema de tratamiento o procesado de imágenes según la reivindicación 2,
    caracterizado porque los parámetros de funcionamiento a modificar son diferentes de los parámetros de funcionamiento de una normativa particular usada por el sistema de tratamiento o procesado de imágenes.
  4. 4. Sistema de tratamiento o procesado de imágenes según la reivindicación 2,
    caracterizado porque dicha orden para modificar un parámetro de funcionamiento de las imágenes indica que la orden particular se ha definido de manera que es válida:
    para siempre, hasta que se proporcione una orden nueva,
    durante un periodo de tiempo limitado,
    durante un número limitado de imágenes.
  5. 5.
    Sistema de tratamiento o procesado de imágenes según la reivindicación 2, en el que el dispositivo receptor comprende un decodificador (62) de imágenes configurado para decodificar señales de imágenes digitales codificadas de acuerdo con parámetros de funcionamiento que son diferentes de los parámetros de funcionamiento de una normativa particular usada por el sistema de tratamiento o procesado de imágenes.
  6. 6.
    Sistema de tratamiento o procesado de imágenes según cualquiera de las reivindicaciones anteriores, caracterizado porque los medios de interfaz incluyen uno de entre un botón, un control deslizante, un teclado, un dispositivo remoto, o una combinación de los mismos.
ES03012129T 1997-03-12 1998-03-05 Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen. Expired - Lifetime ES2357556T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/823,656 US6384862B1 (en) 1997-03-12 1997-03-12 Imaging system and method for interactive control of image quality
US823656 1997-03-12

Publications (1)

Publication Number Publication Date
ES2357556T3 true ES2357556T3 (es) 2011-04-27

Family

ID=25239340

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03012129T Expired - Lifetime ES2357556T3 (es) 1997-03-12 1998-03-05 Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen.

Country Status (9)

Country Link
US (1) US6384862B1 (es)
EP (2) EP1339235B1 (es)
JP (1) JP2001514825A (es)
AU (1) AU6427298A (es)
CA (1) CA2283215C (es)
DE (1) DE69842124D1 (es)
ES (1) ES2357556T3 (es)
TW (1) TW453113B (es)
WO (1) WO1998041021A1 (es)

Families Citing this family (82)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2332808B (en) * 1997-12-19 2003-03-12 Motorola Ltd Communication system and method for transmitting a video signal
US7257158B1 (en) 1998-05-18 2007-08-14 Kendyl A. Román System for transmitting video images over a computer network to a remote receiver
GB2343807A (en) * 1998-11-11 2000-05-17 Isis Innovation Retrieving video data specified by parameters from a remote source
US7233619B1 (en) * 1998-12-21 2007-06-19 Roman Kendyl A Variable general purpose compression for video images (ZLN)
US20030005428A1 (en) * 2001-05-26 2003-01-02 Roman Kendyl A. Global media exchange
US8290034B2 (en) 1998-12-21 2012-10-16 Zin Stai Pte. In, Llc Video transmission and display including bit-wise sub-sampling video compression
US8416847B2 (en) * 1998-12-21 2013-04-09 Zin Stai Pte. In, Llc Separate plane compression using plurality of compression methods including ZLN and ZLD methods
US8068544B2 (en) * 1998-12-21 2011-11-29 Zin Stai Pte. In, Llc Compression with doppler enhancement
US8170095B2 (en) * 1998-12-21 2012-05-01 Zin Stai Pte. In, Llc Faster image processing
US7671864B2 (en) * 2000-01-14 2010-03-02 Roman Kendyl A Faster image processing
US7016417B1 (en) * 1998-12-23 2006-03-21 Kendyl A. Roman General purpose compression for video images (RHN)
US6415188B1 (en) * 1998-12-23 2002-07-02 Dennis Sunga Fernandez Method and apparatus for multi-sensor processing
FI106998B (fi) 1999-01-15 2001-05-15 Nokia Mobile Phones Ltd Bittinopeuden ohjaus multimedialaitteessa
GB9909606D0 (en) * 1999-04-26 1999-06-23 Telemedia Systems Ltd Networked delivery of profiled media files to clients
US8004572B2 (en) * 1999-05-17 2011-08-23 Zin Stai Pte. In, Llc System for transmitting a video stream over a computer network to a remote receiver
US6956971B1 (en) * 1999-07-20 2005-10-18 Lg Electronics Inc. Terminal and method for transporting still picture
JP4697500B2 (ja) * 1999-08-09 2011-06-08 ソニー株式会社 送信装置および送信方法、受信装置および受信方法、並びに記録媒体
JP4331835B2 (ja) * 1999-09-22 2009-09-16 パナソニック株式会社 画像データ伝送方法
US6803931B1 (en) * 1999-11-04 2004-10-12 Kendyl A. Roman Graphical user interface including zoom control box representing image and magnification of displayed image
US7191462B1 (en) 1999-11-08 2007-03-13 Kendyl A. Román System for transmitting video images over a computer network to a remote receiver
WO2001067771A2 (de) * 2000-03-08 2001-09-13 Siemens Aktiengesellschaft Verfahren zum bearbeiten eines digitalisierten bildes und bildkommunikationssystem
US6765599B2 (en) * 2000-05-30 2004-07-20 Sanyo Electric Co., Ltd. Image signal transmission apparatus
KR100716093B1 (ko) * 2000-07-10 2007-05-09 가부시키가이샤 히타치세이사쿠쇼 멀티미디어 통신 단말기
JP4032210B2 (ja) * 2001-01-30 2008-01-16 富士フイルム株式会社 携帯機器、画像送信システム、画像送信方法
JP2002300581A (ja) * 2001-03-29 2002-10-11 Matsushita Electric Ind Co Ltd 映像符号化装置、及び映像符号化プログラム
CA2344930C (en) 2001-04-23 2007-04-17 Leitch Technology International Inc. Data monitoring system
IL162879A0 (en) * 2002-07-05 2005-11-20 Dmatek Ltd A method and system for effectively performing event detection in a large number of concurrent imagesequences
US7176957B2 (en) * 2004-05-25 2007-02-13 Seiko Epson Corporation Local video loopback method for a multi-participant conference system using a back-channel video interface
US20060221197A1 (en) * 2005-03-30 2006-10-05 Jung Edward K Image transformation estimator of an imaging device
US20060171603A1 (en) * 2005-01-31 2006-08-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Resampling of transformed shared image techniques
US9910341B2 (en) 2005-01-31 2018-03-06 The Invention Science Fund I, Llc Shared image device designation
US9082456B2 (en) 2005-01-31 2015-07-14 The Invention Science Fund I Llc Shared image device designation
US20060170956A1 (en) 2005-01-31 2006-08-03 Jung Edward K Shared image devices
US7876357B2 (en) * 2005-01-31 2011-01-25 The Invention Science Fund I, Llc Estimating shared image device operational capabilities or resources
US20060190968A1 (en) * 2005-01-31 2006-08-24 Searete Llc, A Limited Corporation Of The State Of The State Of Delaware Sharing between shared audio devices
US9489717B2 (en) 2005-01-31 2016-11-08 Invention Science Fund I, Llc Shared image device
US20060187228A1 (en) * 2005-01-31 2006-08-24 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Sharing including peripheral shared image device
US8902320B2 (en) 2005-01-31 2014-12-02 The Invention Science Fund I, Llc Shared image device synchronization or designation
US9325781B2 (en) 2005-01-31 2016-04-26 Invention Science Fund I, Llc Audio sharing
US9124729B2 (en) 2005-01-31 2015-09-01 The Invention Science Fund I, Llc Shared image device synchronization or designation
US20060285150A1 (en) * 2005-01-31 2006-12-21 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Regional proximity for shared image device(s)
US7920169B2 (en) 2005-01-31 2011-04-05 Invention Science Fund I, Llc Proximity of shared image devices
US20060174203A1 (en) 2005-01-31 2006-08-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Viewfinder for shared image device
US8606383B2 (en) 2005-01-31 2013-12-10 The Invention Science Fund I, Llc Audio sharing
EP1703734A1 (en) * 2005-03-15 2006-09-20 Nero AG Apparatus and method for producing and processing a picture data stream
JP2008533885A (ja) * 2005-03-15 2008-08-21 ネロ アーゲー 画像データストリームを生成するための装置および方法ならびに画像データストリームを処理するための装置および方法
US9191611B2 (en) * 2005-06-02 2015-11-17 Invention Science Fund I, Llc Conditional alteration of a saved image
US10003762B2 (en) 2005-04-26 2018-06-19 Invention Science Fund I, Llc Shared image devices
US8253821B2 (en) * 2005-10-31 2012-08-28 The Invention Science Fund I, Llc Degradation/preservation management of captured data
US20070098348A1 (en) * 2005-10-31 2007-05-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Degradation/preservation management of captured data
US9001215B2 (en) 2005-06-02 2015-04-07 The Invention Science Fund I, Llc Estimating shared image device operational capabilities or resources
US9451200B2 (en) 2005-06-02 2016-09-20 Invention Science Fund I, Llc Storage access technique for captured data
US8681225B2 (en) 2005-06-02 2014-03-25 Royce A. Levien Storage access technique for captured data
US9621749B2 (en) 2005-06-02 2017-04-11 Invention Science Fund I, Llc Capturing selected image objects
US9076208B2 (en) * 2006-02-28 2015-07-07 The Invention Science Fund I, Llc Imagery processing
US8233042B2 (en) * 2005-10-31 2012-07-31 The Invention Science Fund I, Llc Preservation and/or degradation of a video/audio data stream
US9967424B2 (en) 2005-06-02 2018-05-08 Invention Science Fund I, Llc Data storage usage protocol
US8072501B2 (en) * 2005-10-31 2011-12-06 The Invention Science Fund I, Llc Preservation and/or degradation of a video/audio data stream
US7782365B2 (en) 2005-06-02 2010-08-24 Searete Llc Enhanced video/still image correlation
US9942511B2 (en) 2005-10-31 2018-04-10 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US7872675B2 (en) * 2005-06-02 2011-01-18 The Invention Science Fund I, Llc Saved-image management
US9093121B2 (en) 2006-02-28 2015-07-28 The Invention Science Fund I, Llc Data management of an audio data stream
US9819490B2 (en) 2005-05-04 2017-11-14 Invention Science Fund I, Llc Regional proximity for shared image device(s)
US9167195B2 (en) * 2005-10-31 2015-10-20 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US8964054B2 (en) 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
US20070222865A1 (en) 2006-03-15 2007-09-27 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Enhanced video/still image correlation
US20060274153A1 (en) * 2005-06-02 2006-12-07 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Third party storage of captured data
US20070203595A1 (en) * 2006-02-28 2007-08-30 Searete Llc, A Limited Liability Corporation Data management of an audio data stream
US20070120980A1 (en) * 2005-10-31 2007-05-31 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Preservation/degradation of video/audio aspects of a data stream
JP2007166524A (ja) * 2005-12-16 2007-06-28 Toshiba Corp 再生装置
US7634540B2 (en) * 2006-10-12 2009-12-15 Seiko Epson Corporation Presenter view control system and method
CN101600029B (zh) * 2008-06-06 2013-05-08 博通集成电路(上海)有限公司 背景噪声降低系统及方法
CN101998102A (zh) * 2009-08-24 2011-03-30 中兴通讯股份有限公司 一种控制移动可视电话视频质量的方法和移动可视电话
US8743953B2 (en) 2010-10-22 2014-06-03 Motorola Solutions, Inc. Method and apparatus for adjusting video compression parameters for encoding source video based on a viewer's environment
US9681111B1 (en) 2015-10-22 2017-06-13 Gopro, Inc. Apparatus and methods for embedding metadata into video stream
US9667859B1 (en) * 2015-12-28 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US9922387B1 (en) 2016-01-19 2018-03-20 Gopro, Inc. Storage of metadata and images
US9967457B1 (en) 2016-01-22 2018-05-08 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US9665098B1 (en) 2016-02-16 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for flight control settings of an unmanned aerial vehicle
US9973792B1 (en) 2016-10-27 2018-05-15 Gopro, Inc. Systems and methods for presenting visual information during presentation of a video segment
US10187607B1 (en) 2017-04-04 2019-01-22 Gopro, Inc. Systems and methods for using a variable capture frame rate for video capture
CN116456061B (zh) * 2023-06-15 2023-09-08 四川三思德科技有限公司 基于动态目标检测的智能社区监控管理方法、系统及介质

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4004084A (en) * 1976-03-03 1977-01-18 Bell Telephone Laboratories, Incorporated Video conferencing system using spatial reduction and temporal resolution
JP2828324B2 (ja) * 1990-06-21 1998-11-25 富士通株式会社 遠隔監視システム
JP3222456B2 (ja) * 1990-07-30 2001-10-29 株式会社東芝 映像監視システム、送信装置、受信装置、および映像監視方法
JPH0564199A (ja) * 1991-08-29 1993-03-12 Pioneer Electron Corp 画像監視装置
JPH05207460A (ja) * 1992-01-30 1993-08-13 Hitachi Ltd 画像信号の多重化伝送装置及びシステム
US5479206A (en) * 1992-02-04 1995-12-26 Fuji Photo Film Co., Ltd. Imaging system, electronic camera, computer system for controlling said electronic camera, and methods of controlling same
US5475421A (en) * 1992-06-03 1995-12-12 Digital Equipment Corporation Video data scaling for video teleconferencing workstations communicating by digital data network
WO1994003014A1 (en) 1992-07-24 1994-02-03 Koz Mark C Low power video security monitoring system
US5621429A (en) * 1993-03-16 1997-04-15 Hitachi, Ltd. Video data display controlling method and video data display processing system
AU7172194A (en) 1993-06-23 1995-01-17 David H. Feinberg An integrated telephone, intercom, security and control system for a multi-unit building
US5432871A (en) * 1993-08-04 1995-07-11 Universal Systems & Technology, Inc. Systems and methods for interactive image data acquisition and compression
JPH0779424A (ja) * 1993-09-06 1995-03-20 Hitachi Ltd 多地点映像通信装置
US5548346A (en) * 1993-11-05 1996-08-20 Hitachi, Ltd. Apparatus for integrally controlling audio and video signals in real time and multi-site communication control method
US5652849A (en) * 1995-03-16 1997-07-29 Regents Of The University Of Michigan Apparatus and method for remote control using a visual information stream
DE69608264T2 (de) * 1995-03-24 2000-09-28 Ppt Vision Inc Maschinensichtsteuersystem
US5896128A (en) * 1995-05-03 1999-04-20 Bell Communications Research, Inc. System and method for associating multimedia objects for use in a video conferencing system
US5926209A (en) * 1995-07-14 1999-07-20 Sensormatic Electronics Corporation Video camera apparatus with compression system responsive to video camera adjustment
US5850472A (en) * 1995-09-22 1998-12-15 Color And Appearance Technology, Inc. Colorimetric imaging system for measuring color and appearance

Also Published As

Publication number Publication date
DE69842124D1 (de) 2011-03-17
EP1339235A3 (en) 2004-09-22
US6384862B1 (en) 2002-05-07
JP2001514825A (ja) 2001-09-11
CA2283215A1 (en) 1998-09-17
AU6427298A (en) 1998-09-29
WO1998041021A1 (en) 1998-09-17
TW453113B (en) 2001-09-01
EP1339235B1 (en) 2011-02-02
EP1339235A2 (en) 2003-08-27
EP0966838A1 (en) 1999-12-29
CA2283215C (en) 2005-06-21

Similar Documents

Publication Publication Date Title
ES2357556T3 (es) Sistema y método de formación de imágenes para el control interactivo de la calidad de imagen.
EP0968606B1 (en) Method for still picture transmission and display
US7646736B2 (en) Video conferencing system
US6535240B2 (en) Method and apparatus for continuously receiving frames from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
KR0180543B1 (ko) 화상통신장치
EP0731608B1 (en) Image encoder and decoder with area selection
JPH0250690A (ja) 画像通信装置
US6075554A (en) Progressive still frame mode
AU2002355089A1 (en) Method and apparatus for continuously receiving frames from a pluarlity of video channels and for alternatively continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
JPH07288789A (ja) 知的符号化装置及び画像通信装置
KR20040047524A (ko) 영상 신호 기록 및 송신 장치
JPS62108686A (ja) 受信側符号化制御による画像信号伝送制御方式
WO2011024361A1 (ja) ネットワークカメラ及び映像配信システム
JP2006074114A (ja) 画像処理装置及び撮像装置
US20030222974A1 (en) Picture transmission system
JP2000324474A (ja) カメラ画像伝送方法及びカメラ画像伝送システム
JP2001346207A (ja) 画像情報変換装置及び方法
JPH01289388A (ja) 動画像信号の符号化復号化方式
JP2002016921A (ja) 動画像符号化装置および動画像復号化装置
JPH0823527A (ja) テレビ電話システム
JPH10243403A (ja) 動画像符号化装置及び動画像復号化装置
JPS62199185A (ja) 図形表示装置
JP2001339720A (ja) 画像情報変換装置及び方法
JPH01191596A (ja) 画像信号の直交変換符号化装置
JPH0723354A (ja) 画像出力システム