MXPA04002209A - Reconocimiento de objeto oculto. - Google Patents

Reconocimiento de objeto oculto.

Info

Publication number
MXPA04002209A
MXPA04002209A MXPA04002209A MXPA04002209A MXPA04002209A MX PA04002209 A MXPA04002209 A MX PA04002209A MX PA04002209 A MXPA04002209 A MX PA04002209A MX PA04002209 A MXPA04002209 A MX PA04002209A MX PA04002209 A MXPA04002209 A MX PA04002209A
Authority
MX
Mexico
Prior art keywords
data
further characterized
values
computer code
program product
Prior art date
Application number
MXPA04002209A
Other languages
English (en)
Inventor
Ward Iii Mckay Therman
Original Assignee
Intergraph Hardware Tech Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intergraph Hardware Tech Co filed Critical Intergraph Hardware Tech Co
Publication of MXPA04002209A publication Critical patent/MXPA04002209A/es

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/646Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Studio Devices (AREA)
  • Processing Of Color Television Signals (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Circuits (AREA)

Abstract

Metodo para observar un primer objeto que esta obstruido por un segundo objeto; en este metodo, el primer objeto tiene un color de contraste en relacion con el segundo objeto y el segundo objeto esta construido a partir de un material que permite que pase luz visible a traves de este; la cantidad de luz visible que pasa a traves del segundo objeto no es lo suficiente para que el primer objeto sea visible al ojo humano; el metodo involucra tomar una imagen digital del primer y segundo objeto usando un sensor de luz visible, tal como un sensor de camara CCD; los datos de la imagen digital que se recibe en un sistema computarizado, contienen los datos del primer objeto y los datos del segundo objeto; se debe entender que los datos del primer objeto y los datos del segundo objeto incluyen formacion de color; la cantidad de contraste entre el primer y el segundo objeto debe ser aproximadamente el 10% de la escala total, de manera que en una escala de color de 256 la diferencia sea aproximadamente 25 niveles; el sistema computarizado filtra sustancialmente los datos del segundo objeto y despues los valores asociados con los datos del primer objeto se incrementan hasta que los datos sean desplegados en forma visible.

Description

RECONOCIMIENTO DE OBJETOS OCULTOS CAMPO DE LA INVENCION La presente invención se refiere al análisis de imágenes digitales. Más específicamente, la presente invención se refiere a la visualización de objetos ocultos en imágenes digitales.
ANTECEDENTES DE LA INVENCION Se han diseñado sistemas para visualizar objetos que se encuentran obstruidos por otros objetos. Por ejemplo, existen detectores de rayos X e infrarrojos que permiten que un usuario someta un objeto ya sea a rayos X, infrarrojos o a otra señal distinta a la luz visible, con el fin de mostrar objetos obstruidos. Dichos sistemas requieren que el objeto se exponga a la señal, para que éste pueda observarse. Sería deseable contar con un método y sistema para visualizar objetos obstruidos dentro de una imagen digital sin tener que exponer primero los objetos a una señal creada.
BREVE DESCRIPCION DE LA INVENCION La invención en una modalidad es un método para visualizar un primer objeto que se encuentra obstruido por un segundo objeto. En dicho método, el primer objeto tiene un color que contrasta con el segundo objeto y el segundo objeto está hecho de un material que permite que la luz visible pase a través del mismo. La cantidad de luz visible que pasa a través del segundo objeto no es suficiente para que el primer objeto sea visible para el ojo humano. El método implica tomar una imagen digital del primero y segundo objetos utilizando un sensor de luz visible, como un sensor de cámara de CCD. Los datos de la imagen digital que se reciben en un sistema de computadora contienen tanto datos del primer objeto como datos del segundo objeto. Debe sobrentenderse que los datos del primer objeto y los datos del segundo objeto incluyen información de color. La cantidad de contraste entre el primero y segundo objeto debe ser de aproximadamente del 10% de la escala total, de modo que en una escala de color de 256 la diferencia es de aproximadamente 25 niveles. El sistema de computadora filtra básicamente los datos del segundo objeto y posteriormente se incrementan los valores asociados con los datos del primer objeto hasta que los datos pueden desplegarse visiblemente. El sistema de computadora puede crear un histograma de los datos de la imagen digital para que un usuario del sistema pueda seleccionar los datos del segundo objeto con base en el histograma. En dicha modalidad, el histograma se despliega para el usuario y se provee un mecanismo de selección para que el usuario seleccione datos del histograma. El paso de filtrar básicamente los datos del segundo objeto e incrementar los datos del primer objeto puede lograrse incrementado la corrección del grado de contraste hasta un valor que se encuentre fuera de la escala de los programas actuales de gráficos. Por ejemplo, el valor de corrección del grado de contraste puede fijarse en un valor superior a 2.5 y, de forma más general, en una escala superior a 6. El filtrado de los datos del segundo objeto también puede lograrse incrementando el brillo, al mismo tiempo que se aumenta el valor de corrección del grado de contraste. Los datos del primer objeto generalmente se incrementan de modo que los datos del primer objeto original se mapeen a valores en donde el contraste entre los niveles de datos sea visible para el ojo humano cuando el primer objeto se despliegue en un dispositivo de despliegue. El mapeo también es tal que los valores originales, que son valores de luz de bajo nivel que no pueden percibirse al desplegarse en un dispositivo de despliegue, se mapean a valores que pueden percibirse por un ojo humano. El método puede incluir el paso de convertir la información de color a escala de grises antes de filtrar los datos del segundo objeto e incrementar/remapear la información de color de los datos del primer objeto. El sistema de computadora puede identificar si el primer objeto es más claro u oscuro que el segundo objeto. Si el segundo objeto es básicamente más claro que el primer objeto, el sistema puede invertir los datos del primero y segundo objetos de modo que el segundo objeto aparezca más oscuro al representarse en un dispositivo de despliegue antes del filtrado. Los datos del segundo objeto pueden filtrarse reduciendo todos los valores de los datos del segundo objeto hasta que los valores sean aquellos para el negro, que generalmente es un valor 0 en una escala de 0-255. La metodología descrita también puede implementarse en un producto de programa de computadora para usarse con una computadora, en donde el producto de programa de computadora contiene un código de computadora en el mismo. En una modalidad, el método es completamente automatizado. La metodología también puede aplicarse en un sistema que incluye una cámara para tomar una imagen digital utilizando luz visible, en donde la imagen digital que crea la cámara digital contiene datos representativos del primer objeto y del segundo objeto. Además, el sistema incluye un procesador para recibir la imagen digital y procesar la imagen digital para filtrar completamente los datos del segundo objeto e incrementar los valores de los datos del primer objeto hasta que pueda desplegarse visiblemente. El sistema puede ser automatizado o recibir señales de activación del usuario para identificar datos como pertenecientes al segundo objeto y también valores de corrección del grado de contraste, por ejemplo.
BREVE DESCRIPCION DE LOS DIBUJOS Las características de la invención se comprenderán con mayor facilidad haciendo referencia a la siguiente descripción detallada, que toma en cuenta los dibujos anexos, en donde: La Figura 1 muestra un ambiente para implementar una primera modalidad para reconocer objetos ocultos; La Figura 2 es un diagrama de flujo que ¡lustra el reconocimiento de un primer objeto oculto por un segundo objeto de una imagen de video; La Figura 3 muestra un diagrama de flujo más detallado de los pasos que se realizan para reconocer objetos ocultos; La Figura 4 es la muestra de un histograma; La Figura 5 es un diagrama de flujo que muestra un método para implementar el reconocimiento de objetos ocultos; y La Figura 6 es un diagrama de flujo que muestra una versión automatizada del método para reconocer objetos ocultos.
DESCRIPCION DETALLADA DE LAS MODALIDADES ESPECIFICAS Tal y como se utiliza en el siguiente texto, el término "video digital" implica una representación digital de una secuencia de imágenes que pueden desplegarse temporalmente en un dispositivo de despliegue. Típicamente, un video digital contiene múltiples cuadros en donde cada uno de ellos representa una imagen separada. Los cuadros pueden subdividirse aún más, en tanto los mismos están compuestos de una serie de pixeles. Tal y como se utiliza en la siguiente descripción, el término "píxel" significará un único punto de una imagen. Mientras mayor sea el número de pixeles contenidos en una imagen, mayor será la resolución del video.
Convencionalmente se hace referencia a las resoluciones con medidas de largo y ancho del número de pixeles; por ejemplo, en una resolución de 800 x 600, hay 800 pixeles a lo largo de una imagen por 600 pixeles a lo ancho de la misma. El término "brillo" significará el atributo de una sensación visual de acuerdo con el cual un área parece emitir mayor o menor luz. El brillo es una expresión relativa de la intensidad de la emisión de energía de una fuente de luz visible. Los términos "grado de contraste" y "valor de corrección del grado de contraste" significarán el exponente de la respuesta de la ley del poder de luminancia a un voltaje. El término "corrección del grado de contraste" significará la inserción de una característica de salida-entrada no lineal, con el propósito de cambiar la característica de transferencia del sistema. El término "señal normal de video" significará una señal de video que se produzca utilizando luz visible, en oposición a infrarroja, o someter el objeto de la imagen a algún tipo de señal distinta a las ondas de luz visibles. El término "material poroso" se refiere a cualquier material que permita que una porción de luz directa se refleje a través del material. En una modalidad de la presente invención, se presenta un método para detectar objetos ocultos analizando los cuadros de las imágenes de video. Bajo ciertas condiciones, los objetos bajo un material poroso pueden detectarse en un cuadro de video. Algunos ejemplos de materiales porosos son ropa (algodón, seda, etc.), tela y vidrio. El objeto oculto puede desplegarse si el objeto oculto y el material poroso son de colores contrastantes. Un color contrastante es un color que cuando se transfiere a la escala de grises varía aproximadamente 10% en el nivel de la escala de grises. Por ejemplo, si hay 256 niveles en la escala de grises, el material poroso y el objeto oculto deben variar en 25 niveles o más. La Figura 1 muestra una cámara de imagen digital 100 que captura los datos de la imagen que son resultado de la luz reflejada. La mayoría de la luz directa 105 se refleja en un objeto poroso 110. Una pequeña porción de la luz directa 115 pasa a través del material poroso y se refleja en el objeto oculto 120. Parte de la luz reflejada a partir del objeto oculto pasa a través del material poroso y es capturada por un sensor de imagen de video 130. El sensor de imagen de video 130 convierte la luz reflejada 105, 115, tanto del material poroso como del material oculto, en una señal eléctrica 140 que es procesada por un procesador de imágenes digitales 150. El procesador de imágenes digitales 150 envía entonces los datos de la imagen 155 a la memoria en un formato digital como RGB para cada pixel/receptor en el sensor. Cuando los datos de la imagen 155 se despliegan entonces en un dispositivo de despliegue, el objeto oculto no es visible por el hecho de que los valores de los pixeles que representan al material poroso son mucho mayores que aquellos para el objeto oculto. Como resultado de ello, la luz para el material poroso que se emite desde el dispositivo de despliegue absorbe la luz emitida que es producto de los valores de los pixeles del objeto oculto. Por lo tanto, el ojo humano no puede percibir el objeto oculto. En general, el ojo humano no es capaz de ver niveles de intensidad inferiores a 80 en una escala de grises de 0-255. Como tales, los valores inferiores a 80 aparecerán como negros. En la Figura 1 , el objeto oculto se muestra como un objeto sólido, aunque el objeto oculto también podría ser poroso. La Figura 2 muestra un diagrama de flujo de los pasos que se realizan para alterar los datos de la imagen digital con el fin de desplegar un objeto oculto. El método se realiza en un sistema de computadora utilizando software de edición de video o imágenes. Se recibe la primera información constituida por datos digitales que son representativos de una primera imagen/cuadro digital 200. Los datos se convierten entonces de datos de imagen digital de color a datos en escala de grises. Los datos digitales de la escala de grises se filtran entonces 210. El filtrado se produce de la siguiente forma. Si el objeto poroso no es negro, todos los valores de los pixeles se ajustan de modo que los valores de los pixeles asociados con el objeto poroso tomen al negro como color predeterminado. Esto puede hacerse aplicando un filtro que bloquee los valores por arriba de un valor umbral de escalas de grises. Se incrementan entonces los valores remanentes que generalmente son representativos del objeto oculto 220. Los valores remanentes que no se han fijado en 0 (negro) se incrementan de modo que los valores se encuentren en una escala que sea perceptible visiblemente. Por ejemplo, suponiendo una escala de grises de 0-255, todos los valores se incrementarían por arriba de 100, por ejemplo. Los valores se remapean entonces, de modo que los valores se expandan provocando que los niveles de contraste sean perceptibles y el nivel general de brillo/intensidad para los pixeles representativos del objeto oculto se incrementen de forma que los pixeles sean visibles para el ojo humano. El experto en la técnica comprenderá que el ojo humano no diferencia fácilmente entre pixeles que tienen valores muy próximos en la escala de grises. Por lo tanto, uno de los propósitos del filtro es expandir los valores de los pixeles de bajo nivel, de modo que el ojo humano pueda percibir el contraste. La Figura 3 muestra un diagrama de flujo más detallado de los pasos que se realizan para reconocer objetos ocultos. Como se ha dicho anteriormente, una vez que la información de la imagen digital se recibe en un sistema de computadora, la información de color se convierte a información en la escala de grises a través de técnicas conocidas por el experto en la técnica. Sin embargo, podría aplicarse la misma metodología a la información de color. Primero se produce un histograma de los datos de la imagen digital que conforman una primera imagen en una secuencia de imágenes 300. En la Figura 4 se muestra una muestra del histograma. El número de ocurrencias de un valor se representa en el eje vertical y los valores en la escala de grises se representan en el eje horizontal. Por lo tanto, este histograma indica cuántas veces se produce la intensidad para una imagen dada. El histograma provee una ponderación para permitir que un usuario seleccione niveles de baja intensidad. En general, predominarán valores de alta intensidad y los valores menos visibles (valores de baja intensidad) serán mucho menores tanto en intensidad como en general en el número de ocurrencias. Por lo tanto, los valores visibles pueden identificarse y eliminarse fácilmente filtrando o utilizando otras técnicas conocidas por el experto en la técnica. En una modalidad, el sistema de computadora permite que un usuario visualice el histograma y determine las porciones de luz de intensidad de bajo nivel a partir de la representación gráfica del histograma 310. Los niveles bajos de intensidad de luz son aquellos productos de la luz visible, pero que no se percibirían por el ojo humano si se desplegaran en un dispositivo de despliegue. Entonces el usuario selecciona un filtro y filtra toda la demás luz (luz de alta intensidad) 320. Normalmente la luz de intensidad de bajo nivel puede determinarse y seleccionarse visualmente por un usuario del sistema de computadora. Una vez que la luz de alta intensidad se ha filtrado por completo, la luz de bajo nivel se remapea a valores de mayor nivel, de modo que un dispositivo de despliegue muestre los valores remapeados 330. Estos valores también se expanden de modo que el contraste sea más drástico. Por ejemplo, si la reducción entre la intensidad baja y alta es de 40 en una escala de 0-255 y los valores se mapean entre 135 y 255, el contraste se incrementa en tres, de modo que un valor de 1 y 2 no serían 135 y 139. Los dos niveles de baja intensidad mapeados se despliegan entonces para un usuario del sistema 340. Si el objeto representado por los niveles de baja intensidad es visible, el usuario responde que la imagen es inaceptable 350. El usuario indica esto a través de un dispositivo de entrada del usuario, como un teclado o ratón. El método le permite entonces al usuario ya sea determinar de nuevo el umbral entre los niveles de alta y baja intensidad o realizar un nuevo remapeo de los valores de baja intensidad, de modo que los valores provean más brillo, que exista un mayor contraste entre los valores, o ambos. El sistema también puede permitir que el usuario seleccione un nuevo valor para separar entre el valor de intensidad de bajo nivel y el valor de intensidad de alto nivel 350. Si el usuario indica que el objeto oculto es visible, el proceso termina. El proceso también puede lograrse incrementando la corrección del grado de contraste y/o brillo, como se muestra en la Figura 5; se aplica primero el valor de brillo y/o corrección del grado de contraste a los datos de la imagen digital 410. Al incrementar el nivel de brillo, la luz de intensidad de alto nivel acaba por saturarse hacia el blanco, filtrando así la luz de intensidad de alto nivel. Todos los valores que se saturan pueden entonces eliminarse dejando los valores de bajo nivel. La corrección del grado de contraste puede entonces utilizarse para incrementar los valores remanentes. Ajustar el grado de contraste incrementa los valores de intensidad sin aumentar demasiado el mido que se produce cuando simplemente se incrementa el brillo proporcionalmente en todos los valores. Cuando se incrementa el grado de contraste, se incrementa también la intensidad de forma no lineal, de modo que la nueva intensidad es: nueva intensidad = Intensidad actual1/grad0 de °°??G35{? 255 Debido a la naturaleza no lineal de la corrección del grado de contraste, el ruido también se incrementa de forma no lineal. En esta modalidad de la invención, el valor de corrección del grado de contraste aplicado debe ser mayor al valor que normalmente se utiliza con un despliegue de tubo de rayos catódicos ("CRT", por sus siglas en inglés). Típicamente, el valor de corrección del grado de contraste debe ser de seis a diez para esta modalidad, en donde un despliegue catódico estándar tiene un valor de corrección de grado de contraste de aproximadamente 2.2 a 2.5 y el software de edición de video de la técnica anterior tiene valores máximos de corrección de grado de contraste de 5. Una vez que se ha aplicado un filtro a los datos de la imagen de video y se han incrementado los datos de la imagen de video de intensidad de bajo nivel, los datos de imagen de video de intensidad de bajo nivel que representan el cuadro actual se despliegan 420 para el usuario. Los datos que se despliegan para el usuario también pueden incluir algunos datos de video de intensidad de alto nivel. El usuario puede entonces cambiar interactivamente 430 los valores de grado de contraste y brillo y los valores resultantes se despliegan de nuevo para el usuario. A través de este proceso se despliega la imagen representada por una luz de bajo nivel. Cuando la imagen es satisfactoria, el usuario hace que el sistema de la computadora escriba los datos de vídeo alterados del cuadro 450 en la memoria de video. Los cuadros de video subsiguientes se procesan de forma similar hasta que todos los cuadros se hayan procesado 480. El reconocimiento de objetos ocultos se completa entonces 490. En un primer ejemplo del método para reconocer objetos ocultos, se analiza la imagen de una persona que usa una camiseta negra con un arma blanca por debajo. Se captura la imagen digital de la persona bajo condiciones normales de iluminación. Si la imagen digital se despliega en un dispositivo de despliegue, el ojo humano sólo puede ver una camiseta negra que tiene un valor cero para los pixeles desplegados en la pantalla. La luz que se refleja a través del arma blanca disminuye su intensidad en el proceso, por lo que puede tener tal nivel de intensidad que no sea perceptible para el ojo humano. Aunque la luz no es perceptible, la información de luz es capturada por el sensor del dispositivo de la imagen digital. Si se incrementa el grado de contraste y el brillo, los valores negros no se incrementarán. Sin embargo, la ligera cantidad de luz proveniente del arma blanca se incrementará dado que no es un valor cero. También se incrementará algo de ruido que, por lo tanto, se desplegará pero, si hay suficiente luz disponible para la cámara, de preferencia 500 Luxes o más, el sistema mostrará claramente el arma blanca. En otro ejemplo, se analiza la imagen de una persona que usa una camiseta blanca con un arma negra por debajo. En dicha imagen, el video se invierte, filtrando así los datos de alta intensidad, de modo que la camiseta aparece ahora negra y, por lo tanto, provee un valor de intensidad 0. Los datos de intensidad de bajo nivel se mapean entonces a una escala en la que los valores se encuentran en la escala visible, por ejemplo entre 100 y 255 en una escala de O a 255. Esto puede lograrse convirtiendo primero los datos a datos de escala de grises o utilizando los datos a base de color que son resultado del sensor de formación de imágenes digitales. Además, los valores se espacian de modo que se incremente la distancia entre los valores, haciendo así que sea más probable que se produzcan percepciones de contraste para el ojo humano. En un tercer ejemplo, se analiza la imagen de una persona que usa una camiseta gris oscuro y que tiene un arma gris claro por debajo de la camiseta. El nivel de intensidad correspondiente a la prenda gris oscuro se reduce de forma que se fije en negro. El arma gris claro estará entonces en algún valor superior a aquel del negro. Los valores correspondientes al arma gris claro, así como el ruido, pueden entonces incrementarse utilizando ya sea brillo o corrección del grado de contraste, por lo que los valores de luz baja del arma gris claro se filtran y mapean a valores que son perceptibles por el ojo humano, como se ha explicado previamente. Este proceso puede automatizarse como se muestra en la Figura 5. En una variación, la media para todos los datos digitales de la imagen se computa 510. La media determina en donde se encuentran los valores de alta intensidad. Después se determina la desviación estándar a partir de la media 520. Todos los valores dentro de una desviación estándar por debajo de la media se identifican entonces como valores de alta intensidad, así como todos los valores por arriba de la media 530. Los valores de alta intensidad se filtran entonces, por lo que se eliminan a partir del conjunto de datos digitales que conforma la imagen 540. Los valores de bajo nivel se mapean entonces a valores que son visibles 550. El espaciado entre los valores también se incrementa, de modo que el contraste entre los valores sea perceptible para el ojo humano. Por ejemplo, el sistema automatizado puede determinar el valor inferior y superior dentro de los valores de bajo nivel y sustraer los dos valores para determinar la escala. La escala se mapea entonces a una escala de luz visible. Por ejemplo, si la escala se encuentra entre 0 y 255 y los valores de bajo nivel se encuentran entre 1 y 41, la escala es 40. Los valores superiores a 80 son normalmente perceptibles para el ojo humano, de modo que la escala de 40 se mapearia en una escala de 175 (80-255). Por lo tanto, todos los valores a partir de la luz de bajo nivel se encontrarían entre los valores de 80 y 255. Los valores de datos de bajo nivel se despliegan entonces en un dispositivo de despliegue 560. Además, el sistema también puede automatizarse para cambiar los datos de color a datos en escala de grises para el procesamiento. Debe entenderse que, aunque los datos pueden convertirse a escala de grises para determinar los valores de alta y baja intensidad, la información de color continúa manteniéndose y puede utilizarse para remapear los valores de baja intensidad, de modo que los valores de baja intensidad puedan desplegarse en color después de mapearse a valores visibles. El ángulo de la cámara debe encontrarse dentro de más o menos 40 grados de la normal al objeto para lograr mejores resultados. Si la ropa exterior es muy clara o blanca, entonces el video puede invertirse de forma que los objetos claros se hagan oscuros y se detecten los objetos contrastantes por debajo de los materiales porosos. Una condición de luz ambiente de 500 Luxes o mayor debe iluminar el objeto bajo estudio. Debe notarse que los diagramas de flujo se utilizan en la presente para demostrar distintos aspectos de la invención y no deben interpretarse como limitativos para la presente invención con respecto a cualquier flujo lógico particular o implementación lógica. La lógica descrita puede dividirse en distintos bloques lógicos (p.ej., programas, módulos, funciones o subrutinas) sin modificar los resultados generales o sin desviarse de otro modo del verdadero alcance de la invención. Frecuentemente pueden añadirse, modificarse, omitirse, realizarse elementos lógicos en un orden distinto, o ¡mplementarse utilizando diferentes construcciones lógicas (p.ej., compuertas lógicas, principios iterativos, lógica condicional y otras construcciones lógicas) sin cambiar los resultados generales o desviarse de otro modo del verdadero alcance de la invención. La presente invención puede realizarse en muchas modalidades distintas incluyendo, pero sin limitarse a ello, una lógica de programa de computadora para utilizarse con un procesador (p.ej., un microprocesador, microcontrolador, procesador de señales digitales o computadora de usos múltiples), una lógica programable para utilizarse con un dispositivo lógico programable (p.ej., Arreglo Programable por Campos (FPGA, por sus siglas en inglés) u otro PLD), componentes discretos, circuitos integrados (p.ej., un Circuito Integrado de Aplicación Específica (ASIC, por sus siglas en inglés)) o cualquier otro medio incluyendo cualquier combinación de los mismos. La lógica de programa de computadora que implementa la totalidad o parte de la funcionalidad descrita previamente en la presente puede realizarse en distintas modalidades incluyendo, pero sin limitarse de ningún modo a ello, una fuente de forma de código, una forma ejecutable de computadora y distintas formas intermedias (p.ej., formas generadas por un ensamblador, compilador, enlazador o localizador). El código fuente puede incluir una serie de instrucciones de programa de computadora implementadas en cualquiera de distintos lenguajes de programación (p.ej., un código de objetos, un lenguaje de ensamble o un lenguaje de alto nivel como Fortran, C, C++, JAVA o HTML) para utilizarse con distintos sistemas operativos o ambientes operativos. El código fuente puede definir y utilizar distintas estructuras de datos y mensajes de comunicación. El código fuente puede estar en una forma ejecutable de computadora (p.ej., a través de un intérprete) o bien el código fuente puede convertirse (p.ej., a través de un traductor, ensamblador o compilador) a una forma ejecutable de computadora. El programa de computadora puede fijarse de cualquier forma (p.ej., forma de código fuente, forma ejecutable de computadora o forma intermedia), ya sea de forma permanente o transitoria, en un medio tangible de almacenamiento, como un dispositivo de memoria semiconductor (p.ej., un RAM, ROM, PROM, EEPROM o RAM Rápido Programable), un dispositivo de memoria magnética (p.ej., un disquete o disco fijo), un dispositivo de memoria óptica (p.ej. un CD-ROM), una tarjeta de PC (p.ej., una tarjeta PCMCIA) u otro dispositivo de memoria. El programa de computadora puede fijarse de cualquier forma en una señal que pueda transmitirse a una computadora utilizando cualquiera de distintas tecnologías de comunicación incluyendo, pero sin limitarse de ningún modo a ello, tecnologías analógicas, tecnologías digitales, tecnologías ópticas, tecnologías inalámbricas, tecnologías de gestión de redes y tecnologías de gestión de internet. El programa de computadora puede distribuirse de cualquier forma como un medio de almacenamiento removible con documentación impresa o electrónica anexa (p.ej., un software de contracción envuelta o una cinta magnética), precargado con un sistema de computadora (p.ej., en sistema ROM o disco fijo) o distribuido a partir de un servidor o pizarrón electrónico a través del sistema de comunicación (p.ej., internet o la Red Mundial). La lógica del hardware (incluyendo la lógica programable para utilizarse con un dispositivo lógico programable) que implementa la totalidad o parte de las funciones descritas anteriormente en la presente, puede diseñarse utilizando métodos manuales tradicionales, o bien puede diseñarse, capturarse, simularse o documentarse electrónicamente utilizando distintas herramientas, tales como un Diseño Asistido por Computadora (CAD, por sus siglas en inglés), un lenguaje de descripción de hardware (p.ej., VHDL o AHDL) o un lenguaje de programación PLD (p.ej., PALAS M, ABEL o CUPL). La presente invención puede realizarse en otras modalidades específicas sin desviarse del verdadero alcance de la invención. Las modalidades descritas deben considerarse en todos los aspectos sólo ilustrativas y no restrictivas.

Claims (1)

  1. NOVEDAD DE LA INVENCION REIVINDICACIONES 1.- Un método para visualizar un primer objeto que tiene un color contrastante con respecto a un segundo objeto, en donde el segundo objeto obstruye la visibilidad del primer objeto, en donde la luz visible pasa a través del segundo objeto, en donde el método comprende: recibir datos de la imagen digital representativos del primer objeto obstruido por el segundo objeto en un sistema de computadora, en donde los datos de la imagen digital contienen por lo menos datos del primer objeto y datos del segundo objeto producidos por luz visible y cada dato tiene asociado un valor, filtrando básicamente los datos del segundo objeto y en donde se incrementa el valor de los datos del primer objeto hasta que se despliega de forma visible. 2.- El método de conformidad con la reivindicación 1 , caracterizado además porque también comprende crear un histograma de los datos de la imagen digital y seleccionar los datos del segundo objeto con base en el histograma. 3.- El método de conformidad con la reivindicación 1 , caracterizado además porque el filtrado básico de los datos del segundo objeto y el incremento de los datos del primer objeto se logra por lo menos incrementando la corrección del grado de contraste. 4. - El método de conformidad con la reivindicación 3, caracterizado además porque la corrección del grado de contraste se fija por arriba de 2.5. 5. - El método de conformidad con la reivindicación 3, caracterizado además porque la corrección del grado de contraste se fija en o por arriba de 6. 6. - El método de conformidad con la reivindicación 1 , caracterizado además porque incrementar los datos del primer objeto incluye mapear los datos del primer objeto a valores tales que el contraste entre los niveles de datos sea tal que el ojo humano pueda detectar el contraste cuando los datos del primer objeto se despliegan en un dispositivo de despliegue. 7 - El método de conformidad con la reivindicación 6, caracterizado además porque el mapeo se realiza de forma que éste se realice a los valores de los datos que, al desplegarse por un dispositivo de despliegue, son observables para el ojo humano. 8 - El método de conformidad con la reivindicación 1 , caracterizado además porque incrementar los datos del primer objeto se logra por lo menos incrementando el brillo. 9 - El método de conformidad con la reivindicación 1 , caracterizado además porque el primero y segundo objetos tienen colores contrastantes. 10.- El método de conformidad con la reivindicación 1 , caracterizado además porque el primer objeto y el segundo objeto tienen colores contrastantes que promedian más de 25 niveles separados en una escala de 256 niveles. 11. - El método de conformidad con la reivindicación 1 , caracterizado además porque los datos de la imagen se representan en una escala de valores y porque el primer objeto y el segundo objeto tienen colores contrastantes, de modo que los colores de los datos del primer objeto y los datos del segundo objeto varían aproximadamente en un diez por ciento de la escala. 12. - El método de conformidad con la reivindicación 1 , caracterizado además porque el proceso está automatizado. 13. - El método de conformidad con la reivindicación 2, caracterizado además porque el proceso está automatizado. 14. - El método de conformidad con la reivindicación 1 , caracterizado además porque los datos del primer objeto y los datos del segundo objeto contienen información de color. 15. - El método de conformidad con la reivindicación 14, caracterizado además porque también comprende: convertir la información de color de los datos del primer objeto y los datos del segundo objeto a escala de grises. 16.- Un método para desplegar los datos del primer objeto representativos de un primer objeto en una imagen digital en un dispositivo de despliegue, en donde el primer objeto está obstruido por un segundo objeto, en donde la luz visible pasa a través del segundo objeto, en donde el primer objeto y el segundo objeto tienen colores contrastantes, en donde el método comprende: recibir datos digitales representativos de la imagen digital en un sistema de computadora y filtrar los datos del primero y segundo objetos, de modo que los datos del primer objeto se desplieguen visiblemente en el dispositivo de despliegue y los datos del segundo objeto se modifiquen. 17.- El método de conformidad con la reivindicación 16, caracterizado además porque también comprende: tomar una imagen digital del primer objeto y el segundo objeto utilizando un sensor de luz visible que produce los datos del primer objeto y los datos del segundo objeto. 18.- El método de conformidad con la reivindicación 16, caracterizado además porque el filtrado comprende mapear los datos del primer objeto a una escala tal que, al desplegarse, los contrastes entre los valores de datos sean visibles para el ojo humano. 19. - El método de conformidad con la reivindicación 16, caracterizado además porque también comprende desplegar los datos del primer objeto en un dispositivo de despliegue. 20. - El método de conformidad con la reivindicación 19, caracterizado además porque también comprende ajusfar manualmente el filtrado después de desplegar los datos del primer objeto en el dispositivo de despliegue. 21. - El método de conformidad con la reivindicación 16, caracterizado además porque el filtrado incluye: crear un histograma visualmente desplegable de los datos digitales representativos de la imagen digital; proveer selección del usuario de un grupo de los datos digitales representativos de la imagen digital; eliminar el grupo seleccionado de los datos digitales representativos de la imagen digital; y ajustar los valores de los datos digitales remanentes aplicando corrección del grado de contraste a los datos digitales incrementando el valor de corrección del grado de contraste hasta que el primer objeto se despliegue cuando los datos digitales se desplieguen en un dispositivo de despliegue. 22. - El método de conformidad con la reivindicación 16, caracterizado además porque los datos del primer objeto y los datos del segundo objeto contienen información de color. 23. - El método de conformidad con la reivindicación 22, caracterizado además porque también comprende convertir la información de color de los datos del primer objeto y los datos del segundo objeto a escala de grises. 24. - El método de conformidad con la reivindicación 23, caracterizado además porque si el segundo objeto es más oscuro que el primer objeto, se ajustan por lo menos los datos del segundo objeto hasta que básicamente todos los datos del segundo objeto produzcan una salida cero al representarse en un despliegue. 25. - El método de conformidad con la reivindicación 23, caracterizado además porque si el segundo objeto es básicamente más claro que el primer objeto, se invierten los datos del primer y segundo objetos de modo que el segundo objeto aparezca más oscuro al representarse en un dispositivo de despliegue. 26. - El método de conformidad con la reivindicación 25, caracterizado además porque se ajustan por lo menos los datos del segundo objeto hasta que básicamente todos los datos del segundo objeto produzcan cero al representarse en un despliegue. 27. - El método de conformidad con la reivindicación 25, caracterizado además porque también comprende mapear los datos del primer objeto a valores de datos tales que, al presentarse en un despliegue, los valores de los datos sean visibles y la proporción entre los valores de los datos se incremente por arriba de la proporción entre los datos del primer objeto. 28. - El método de conformidad con la reivindicación 26, caracterizado además porque también comprende mapear los datos del primer objeto a valores de datos tales que, al presentarse en un despliegue, los valores de los datos sean visibles y la proporción entre los valores de los datos se incremente por arriba de la proporción entre los datos del primer objeto. 29. - Un producto de programa de computadora que tiene un código de computadora que puede leerse en una computadora para visualizar los datos del primer objeto representativos de un primer objeto que tiene un color contrastante con un segundo objeto, en donde el segundo objeto obstruye la visibilidad del primer objeto, en donde la luz visible pasa a través del segundo objeto, en donde el código de computadora comprende: un código de computadora para recibir datos de imágenes digitales representativos del primer objeto obstruido por el segundo objeto en un sistema de computadora; en donde los datos de la imagen digital contienen por lo menos los datos del primer objeto y los datos del segundo objeto producidos por la luz visible; un código de computadora para filtrar básicamente los datos del segundo objeto; y un código de computadora para incrementar los datos del primer objeto hasta que puedan desplegarse visiblemente. 30. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque también comprende un código de computadora para crear un histograma de los datos de la imagen digital; y un código de computadora para seleccionar los datos del segundo objeto con base en el histograma. 31. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque el código de computadora para filtrar básicamente los datos del segundo objeto e incrementar los datos del primer objeto incrementa la corrección del grado de contraste. 32. - El producto de programa de computadora de conformidad con la reivindicación 31 , caracterizado además porque la corrección del grado de contraste se fija por arriba de 2.5. 33. - El producto de programa de computadora de conformidad con la reivindicación 31, caracterizado además porque la corrección del grado de contraste se fija en o por arriba de 6. 34. - El producto de programa de computadora de conformidad con la reivindicación 1 , caracterizado además porque el código de computadora para incrementar los datos del primer objeto incluye un código de computadora para mapear los datos del primer objeto a valores tales que el contraste entre los niveles de datos sea tal que el ojo humano pueda detectar el contraste. 35. - El producto de programa de computadora de conformidad con la reivindicación 34, caracterizado además porque el código de computadora para mapear se realiza de tal modo que el mapeo es para los valores de datos que, al desplegarse por un dispositivo de despliegue, son observables para el ojo humano. 36. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque el código de computadora para incrementar los datos del primer objeto incrementa los datos del primer objeto por lo menos incrementando el brillo. 37. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque el primer objeto y el segundo objeto tienen colores contrastantes. 38. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque los datos del primer objeto y el segundo objeto representan colores contrastantes que promedian más de 25 niveles en una escala de 256 niveles. 39. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque los datos de imagen se encuentran asociados con una escala y el primer objeto y segundo objeto tienen colores contrastantes, de modo que los datos del primer objeto y los datos del segundo objeto varían básicamente en un diez por ciento de la escala. 40. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque los datos del primer objeto y los datos del segundo objeto contienen información de color y el producto de programa de computadora incluye además un código de computadora para convertir la información de color a partir de los datos del primer objeto y los datos del segundo objeto a escala de grises. 41. - Un código de computadora en un medio que puede leerse en una computadora para desplegar datos del primer objeto representativos de un primer objeto en una imagen digital en un dispositivo de despliegue, en donde el primer objeto se encuentra obstruido por un segundo objeto, la luz visible pasa a través del segundo objeto, el primer objeto y el segundo objeto tienen colores contrastantes, en donde el código de computadora comprende: un código de computadora para recibir datos digitales representativos de la imagen digital en un sistema de computadora; y un código de computadora para filtrar los datos del primero y segundo objetos, de modo que los datos del primer objeto se desplieguen visiblemente en el dispositivo de despliegue y los datos del segundo objeto se modifiquen. 42. - El producto de programa de computadora de conformidad con la reivindicación 41 , caracterizado además porque el código de computadora para filtrar incluye un código de computadora para mapear los datos del primer objeto a una escala tal que los contrastes entre valores de datos, al desplegarse, sean visibles para el ojo humano. 43. - El producto de programa de computadora de conformidad con la reivindicación 41, caracterizado además porque también comprende un código de computadora para desplegar los datos del primer objeto en un dispositivo de despliegue. 44. - El producto de programa de computadora de conformidad con la reivindicación 41 , caracterizado además porque también comprende un código de computadora para que el usuario pueda ajustar el filtrado después de desplegar los datos del primer objeto en el dispositivo de despliegue. 45. - El producto de programa de computadora de conformidad con la reivindicación 41 , caracterizado además porque el código de computadora para filtrar incluye: un código de computadora para crear un histograma desplegable visualmente de los datos digitales representativos de la imagen digital; un código de computadora para que el usuario pueda seleccionar un grupo de los datos digitales representativos de la imagen digital; un código de computadora para eliminar el grupo seleccionado a partir de los datos de la imagen digital representativos de la imagen digital; y un código de computadora para ajustar los valores de los datos digitales remanentes aplicando corrección del grado de contraste a los datos digitales incrementando el valor de corrección del grado de contraste hasta que el primer objeto pueda desplegarse cuando los datos digitales se desplieguen en un dispositivo de despliegue. 46. - El producto de programa de computadora de conformidad con la reivindicación 41 , caracterizado además porque los datos del primer objeto y los datos del segundo objeto contienen información de color y en donde el producto de programa de computadora comprende además un código de computadora para convertir la información de color de los datos del primer objeto y los datos del segundo objeto a escala de grises. 47. - El producto de programa de computadora de conformidad con la reivindicación 46, caracterizado además porque también comprende un código de computadora para ajustar por lo menos los datos del segundo objeto hasta que básicamente todos los datos del segundo objeto produzcan una salida cero al representarse en un despliegue si el segundo objeto es más oscuro que el primer objeto. 48. - El producto de programa de computadora de conformidad con la reivindicación 46, caracterizado además porque también comprende un código de computadora para invertir los datos del primer y segundo objetos, de modo que el segundo objeto aparezca más oscuro al representarse en un dispositivo de despliegue si el segundo objeto es básicamente más claro que el primer objeto. 49. - El producto de programa de computadora de conformidad con la reivindicación 48, caracterizado además porque también comprende un código de computadora para ajustar por lo menos los datos del segundo objeto hasta que básicamente todos los datos del segundo objeto produzcan una salida cero al representarlos en un despliegue. 50. - El producto de programa de computadora de conformidad con la reivindicación 48, caracterizado además porque también comprende: un código de computadora para mapear los datos del primer objeto a valores de datos tales que, al presentarse en un despliegue, son visibles y la proporción entre los valores de datos se incrementa por arriba de la proporción entre los datos del primer objeto. 51. - El producto de programa de computadora de conformidad con la reivindicación 49, caracterizado además porque también comprende un código de computadora para mapear los datos del primer objeto a valores de datos tales que, al presentarse en un despliegue, los valores de datos sean visibles y la proporción entre los valores de datos se incremente por arriba de la proporción entre los datos del primer objeto. 52. - Un sistema para detectar un primer objeto oculto por un segundo objeto, en donde el sistema comprende: una cámara para tomar una imagen digital utilizando luz visible, en donde la imagen digital contiene datos representativos del primer objeto y del segundo objeto; un procesador para recibir la imagen digital y procesar la imagen digital para filtrar completamente los datos del segundo objeto e incrementar los valores de los datos del primer objeto hasta que pueda desplegarse visiblemente. 53. - El sistema de conformidad con la reivindicación 52, caracterizado además porque el procesador recibe la señal activada por un usuario y el procesador incrementa el valor de corrección del grado de contraste. 54. - El sistema de conformidad con la reivindicación 53, caracterizado además porque el valor de corrección del grado de contraste se incrementa a o por arriba de 5. 55.- El sistema de conformidad con la reivindicación 51 , caracterizado además porque el procesador incrementa tanto los valores de los datos del primer objeto, en donde los datos del primer objeto se encuentran en una escala, como la proporción entre los datos del primer objeto.
MXPA04002209A 2001-09-07 2002-09-06 Reconocimiento de objeto oculto. MXPA04002209A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US31816401P 2001-09-07 2001-09-07
PCT/US2002/028351 WO2003030103A1 (en) 2001-09-07 2002-09-06 Concealed object recognition

Publications (1)

Publication Number Publication Date
MXPA04002209A true MXPA04002209A (es) 2005-02-17

Family

ID=23236945

Family Applications (3)

Application Number Title Priority Date Filing Date
MXPA04002209A MXPA04002209A (es) 2001-09-07 2002-09-06 Reconocimiento de objeto oculto.
MXPA04002211A MXPA04002211A (es) 2001-09-07 2002-09-06 Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video.
MXPA04002210A MXPA04002210A (es) 2001-09-07 2002-09-06 Estabilidad de imagenes usando igualacion de colores.

Family Applications After (2)

Application Number Title Priority Date Filing Date
MXPA04002211A MXPA04002211A (es) 2001-09-07 2002-09-06 Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video.
MXPA04002210A MXPA04002210A (es) 2001-09-07 2002-09-06 Estabilidad de imagenes usando igualacion de colores.

Country Status (15)

Country Link
US (6) US6654049B2 (es)
EP (3) EP1430444B1 (es)
KR (3) KR100919340B1 (es)
CN (4) CN101072364B (es)
AU (3) AU2002327612B2 (es)
BR (3) BR0212546A (es)
CA (3) CA2459823C (es)
CO (3) CO5570718A2 (es)
HK (3) HK1069470A1 (es)
IL (4) IL160759A0 (es)
MX (3) MXPA04002209A (es)
NZ (3) NZ531976A (es)
RU (3) RU2310289C2 (es)
WO (3) WO2003024112A1 (es)
ZA (2) ZA200401972B (es)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100919340B1 (ko) * 2001-09-07 2009-09-25 인터그래프 소프트웨어 테크놀로지스 캄파니 비디오 이미지의 역다중화 방법, 장치 및 컴퓨터 프로그램제품
US7489802B2 (en) * 2002-09-10 2009-02-10 Zeev Smilansky Miniature autonomous agents for scene interpretation
JP4307910B2 (ja) 2003-03-07 2009-08-05 富士フイルム株式会社 動画像切り出し装置および方法並びにプログラム
JP3768968B2 (ja) 2003-03-28 2006-04-19 株式会社エヌ・ティ・ティ・ドコモ 通信端末及びプログラム
JP4017578B2 (ja) * 2003-09-19 2007-12-05 三洋電機株式会社 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体
US7840067B2 (en) * 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
US7616220B2 (en) * 2003-12-23 2009-11-10 Intel Corporation Spatio-temporal generation of motion blur
US7506267B2 (en) * 2003-12-23 2009-03-17 Intel Corporation Compose rate reduction for displays
KR100562119B1 (ko) * 2004-04-29 2006-03-21 삼성탈레스 주식회사 동영상의 특성을 이용한 이미지의 정렬 방법
US7671916B2 (en) * 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
BRPI0514613A8 (pt) 2004-08-23 2018-06-12 Intergraph Software Tech Company Estabilização de imagem em tempo real
US20060120615A1 (en) * 2004-12-06 2006-06-08 Huiqiong Wang Frame compensation for moving imaging devices
CN101228549B (zh) * 2005-03-31 2012-10-17 本田技研工业株式会社 文件管理系统、文件管理方法
US7952612B2 (en) * 2006-06-22 2011-05-31 Nokia Corporation Method and system for image construction using multiple exposures
US20090010617A1 (en) * 2007-07-05 2009-01-08 International Business Machines Corporation Method and Apparatus for Optimizing Space Allocations for Digital Video Recordings
KR101392732B1 (ko) 2007-08-20 2014-05-08 삼성전자주식회사 손떨림에 의한 움직임 추정 장치 및 방법, 그를 이용한영상 촬상 장치
KR101268987B1 (ko) * 2007-09-11 2013-05-29 삼성전자주식회사 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치
US7800652B2 (en) * 2007-12-12 2010-09-21 Cyberlink Corp. Reducing video shaking
US8503863B2 (en) * 2007-12-18 2013-08-06 Panasonic Corporation Image reproduction device, image reproduction method, and image reproduction program
US8493313B2 (en) 2008-02-13 2013-07-23 Dolby Laboratories Licensing Corporation Temporal filtering of video signals
US8260395B2 (en) * 2008-04-18 2012-09-04 Medtronic, Inc. Method and apparatus for mapping a structure
US8164655B2 (en) * 2008-05-19 2012-04-24 Spatial Cam Llc Systems and methods for concurrently playing multiple images from a storage medium
US20100026822A1 (en) * 2008-07-31 2010-02-04 Itt Manufacturing Enterprises, Inc. Multiplexing Imaging System for Area Coverage and Point Targets
JP5233708B2 (ja) * 2009-02-04 2013-07-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US20100235314A1 (en) * 2009-02-12 2010-09-16 Decisive Analytics Corporation Method and apparatus for analyzing and interrelating video data
US8458105B2 (en) * 2009-02-12 2013-06-04 Decisive Analytics Corporation Method and apparatus for analyzing and interrelating data
EP2355037A1 (en) * 2009-12-18 2011-08-10 Nxp B.V. Method of and system for determining an average colour value for pixels
US9183560B2 (en) 2010-05-28 2015-11-10 Daniel H. Abelow Reality alternate
CN102457701B (zh) * 2010-11-02 2014-03-12 华为终端有限公司 图像显示处理方法及装置
JP4932027B1 (ja) * 2010-11-15 2012-05-16 株式会社ナナオ 映像表示方法およびそれを用いた液晶表示装置
JP6122269B2 (ja) 2011-12-16 2017-04-26 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US10715817B2 (en) * 2012-12-19 2020-07-14 Nvidia Corporation Apparatus and method for enhancing motion estimation based on user input
US9530310B2 (en) 2013-11-01 2016-12-27 Xerox Corporation Method and system for detecting and tracking a vehicle of interest utilizing a network of traffic image-capturing units
US10733471B1 (en) 2014-06-27 2020-08-04 Blinker, Inc. Method and apparatus for receiving recall information from an image
US9558419B1 (en) 2014-06-27 2017-01-31 Blinker, Inc. Method and apparatus for receiving a location of a vehicle service center from an image
US9760776B1 (en) 2014-06-27 2017-09-12 Blinker, Inc. Method and apparatus for obtaining a vehicle history report from an image
US9754171B1 (en) 2014-06-27 2017-09-05 Blinker, Inc. Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website
US9600733B1 (en) 2014-06-27 2017-03-21 Blinker, Inc. Method and apparatus for receiving car parts data from an image
US9818154B1 (en) 2014-06-27 2017-11-14 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US9607236B1 (en) 2014-06-27 2017-03-28 Blinker, Inc. Method and apparatus for providing loan verification from an image
US9589202B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for receiving an insurance quote from an image
US9594971B1 (en) 2014-06-27 2017-03-14 Blinker, Inc. Method and apparatus for receiving listings of similar vehicles from an image
US9563814B1 (en) 2014-06-27 2017-02-07 Blinker, Inc. Method and apparatus for recovering a vehicle identification number from an image
US9779318B1 (en) 2014-06-27 2017-10-03 Blinker, Inc. Method and apparatus for verifying vehicle ownership from an image
US10867327B1 (en) 2014-06-27 2020-12-15 Blinker, Inc. System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate
US10572758B1 (en) 2014-06-27 2020-02-25 Blinker, Inc. Method and apparatus for receiving a financing offer from an image
US9773184B1 (en) 2014-06-27 2017-09-26 Blinker, Inc. Method and apparatus for receiving a broadcast radio service offer from an image
US9892337B1 (en) 2014-06-27 2018-02-13 Blinker, Inc. Method and apparatus for receiving a refinancing offer from an image
US10540564B2 (en) 2014-06-27 2020-01-21 Blinker, Inc. Method and apparatus for identifying vehicle information from an image
US9589201B1 (en) 2014-06-27 2017-03-07 Blinker, Inc. Method and apparatus for recovering a vehicle value from an image
US10515285B2 (en) 2014-06-27 2019-12-24 Blinker, Inc. Method and apparatus for blocking information from an image
US10579892B1 (en) 2014-06-27 2020-03-03 Blinker, Inc. Method and apparatus for recovering license plate information from an image
CN104599226B (zh) * 2015-02-14 2017-05-10 安徽大学 一种大容量隐写方法
US10019737B2 (en) * 2015-04-06 2018-07-10 Lewis Beach Image processing device and method
US10033926B2 (en) 2015-11-06 2018-07-24 Google Llc Depth camera based image stabilization
CN105282400B (zh) * 2015-11-20 2018-07-13 北京理工大学 一种基于几何插值的高效视频稳定方法
US11386759B2 (en) 2016-05-09 2022-07-12 Herbert S Kobayashi Three level detector signal for multicamera video alarm system for remote monitoring and method
US10679477B2 (en) 2016-05-09 2020-06-09 Herbert S Kobayashi Multicamera video alarm system for remote monitoring and method
KR101818129B1 (ko) * 2017-04-25 2018-01-12 동국대학교 산학협력단 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법
RU2741516C1 (ru) * 2017-10-09 2021-01-26 Хуавей Текнолоджиз Ко., Лтд. Способ обработки отображения и электронное устройство
US11526970B2 (en) * 2019-09-04 2022-12-13 Samsung Electronics Co., Ltd System and method for video processing with enhanced temporal consistency
JP7209653B2 (ja) * 2020-02-05 2023-01-20 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置、情報処理方法、及びプログラム
CN111312127B (zh) * 2020-02-24 2023-07-28 北京京东方光电科技有限公司 旋转显示屏的显示画面调整方法及装置、旋转显示屏
US11620967B2 (en) * 2020-03-16 2023-04-04 Lewis S. Beach Image processing device and method
CN113534281A (zh) * 2020-04-14 2021-10-22 深圳市博利凌科技有限公司 用于感测物体表面之后隐藏物位置的扫描仪及方法

Family Cites Families (108)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3652790A (en) 1970-01-28 1972-03-28 Itt Search and tracking television system and method
US3891798A (en) 1971-03-19 1975-06-24 Rockwell International Corp Tracker unit
US3952151A (en) * 1973-08-13 1976-04-20 Trw Inc. Method and apparatus for stabilized reproduction of remotely-sensed images
FR2302004A5 (fr) 1973-08-31 1976-09-17 Thomson Csf Systeme de poursuite automatique d'une cible, procedant par analyse de contraste video
US3988533A (en) 1974-09-30 1976-10-26 Video Tek, Inc. Video-type universal motion and intrusion detection system
US4120004A (en) 1976-01-26 1978-10-10 Coutta John M Surveillance system
US4405940A (en) 1977-05-31 1983-09-20 Westinghouse Electric Corp. Apparatus and method for preprocessing video frame signals
NL7801727A (nl) 1978-02-16 1979-08-20 Hollandse Signaalapparaten Bv Drempelspanningsselectieschakeling.
EP0028933A3 (en) 1979-11-09 1981-06-03 Ascotts Ltd. Surveillance system
US4603430A (en) * 1984-09-21 1986-07-29 Hughes Aircraft Company Target discrimination utilizing median filters
JPS61166289A (ja) * 1985-01-18 1986-07-26 Hitachi Ltd 画像伝送システム
JP2528789B2 (ja) 1985-06-26 1996-08-28 中央電子 株式会社 映像情報管理装置
DE3750703T2 (de) * 1986-03-25 1995-03-30 Nippon Oils & Fats Co Ltd Transparenter optischer Gegenstand und Verfahren zu seiner Herstellung.
DE3634414C2 (de) * 1986-10-09 1994-12-08 Thomson Brandt Gmbh Fernsehkamera mit einem Target
JPH0695008B2 (ja) 1987-12-11 1994-11-24 株式会社東芝 監視装置
KR920010034B1 (en) 1988-03-31 1992-11-13 Toshiba Co Ltd Image track display apparatus
GB2220319B (en) * 1988-07-01 1992-11-04 Plessey Co Plc Improvements in or relating to image stabilisation
JP2563567B2 (ja) * 1989-03-20 1996-12-11 松下電器産業株式会社 揺れ補正装置
KR910004009A (ko) 1989-07-27 1991-02-28 강진구 비디오 카메라의 자동촬영장치
US5175694A (en) 1990-02-08 1992-12-29 The United States Of America As Represented By The Secretary Of The Navy Centroid target tracking system utilizing parallel processing of digital data patterns
KR100204101B1 (ko) 1990-03-02 1999-06-15 가나이 쓰도무 화상처리장치
US5030984A (en) * 1990-07-19 1991-07-09 Eastman Kodak Company Method and associated apparatus for minimizing the effects of motion in the recording of an image
JP2863818B2 (ja) * 1990-08-31 1999-03-03 工業技術院長 動画像の変化点検出方法
US5243418A (en) 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
DE69215733T2 (de) * 1991-04-12 1997-04-10 Victor Company Of Japan Vorrichtung zur Detektion der relativen Bewegung zwischen Inhalten von aufeinanderfolgenden Halbbildern eines Videosignals
DE69229146T2 (de) * 1991-06-25 1999-10-28 Canon Kk Verfahren und Vorrichtung zur Detektion eines Bewegungsvektors sowie Kodierungsverfahren und Vorrichtung zur Anwendung eines solchen Verfahrens und Vorrichtung
US5164827A (en) 1991-08-22 1992-11-17 Sensormatic Electronics Corporation Surveillance system with master camera control of slave cameras
US5657402A (en) * 1991-11-01 1997-08-12 Massachusetts Institute Of Technology Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method
US6469746B1 (en) * 1992-12-28 2002-10-22 Sanyo Electric Co., Ltd. Multi-vision screen adapter
WO1994017636A1 (en) 1993-01-29 1994-08-04 Bell Communications Research, Inc. Automatic tracking camera control system
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus
ES2258311T3 (es) * 1993-06-04 2006-08-16 Sarnoff Corporation Sistema y procedimiento para la estabilizacion electronica de imagenes.
JPH0773308A (ja) * 1993-09-03 1995-03-17 Matsushita Electric Ind Co Ltd デジタル画像処理装置
JP3123587B2 (ja) 1994-03-09 2001-01-15 日本電信電話株式会社 背景差分による動物体領域抽出方法
CA2125300C (en) * 1994-05-11 1999-10-12 Douglas J. Ballantyne Method and apparatus for the electronic distribution of medical information and patient services
DE4417128A1 (de) 1994-05-16 1995-12-14 Elnic Gmbh Bilderfassungs- und -verarbeitungsverfahren insbesondere zur Steuerung von Vorrichtungen sowie zugehöriges Bilderfassungs- und -verarbeitungssystem
US5635982A (en) 1994-06-27 1997-06-03 Zhang; Hong J. System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions
US20020186874A1 (en) * 1994-09-07 2002-12-12 Jeffrey H. Price Method and means for image segmentation in fluorescence scanning cytometry
JP2902966B2 (ja) * 1994-12-16 1999-06-07 三洋電機株式会社 手振れ補正装置およびそれを用いたビデオカメラ
KR960028217A (ko) 1994-12-22 1996-07-22 엘리 웨이스 움직임 검출 카메라 시스템 및 방법
JPH08186760A (ja) * 1994-12-28 1996-07-16 Philips Japan Ltd 画揺れ補正装置
JP3268953B2 (ja) 1995-02-27 2002-03-25 三洋電機株式会社 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置
US5821985A (en) * 1995-02-28 1998-10-13 Nec Corporation Multi-point videoconference system having a fixed control station for data transfer
JP3892059B2 (ja) 1995-03-07 2007-03-14 松下電器産業株式会社 動物体追跡装置
US5973733A (en) * 1995-05-31 1999-10-26 Texas Instruments Incorporated Video stabilization system and method
ATE241179T1 (de) 1995-09-15 2003-06-15 Interval Research Corp Verfahren zur kompression mehrerer videobilder
US6018562A (en) * 1995-11-13 2000-01-25 The United States Of America As Represented By The Secretary Of The Army Apparatus and method for automatic recognition of concealed objects using multiple energy computed tomography
KR100188116B1 (ko) * 1995-12-28 1999-06-01 김광호 손떨림 영상 안정화 회로
US6108576A (en) 1996-03-18 2000-08-22 The Research Foundation Of City College Of New York Time-resolved diffusion tomographic 2D and 3D imaging in highly scattering turbid media
CA2173677C (en) * 1996-04-09 2001-02-20 Benoit Sevigny Processing image data
US5940139A (en) * 1996-08-07 1999-08-17 Bell Communications Research, Inc. Background extraction in a video picture
US5953055A (en) 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
US5915038A (en) * 1996-08-26 1999-06-22 Philips Electronics North America Corporation Using index keys extracted from JPEG-compressed images for image retrieval
US5974111A (en) 1996-09-24 1999-10-26 Vivid Technologies, Inc. Identifying explosives or other contraband by employing transmitted or scattered X-rays
US5751378A (en) 1996-09-27 1998-05-12 General Instrument Corporation Scene change detector for digital video
US5822542A (en) 1996-10-31 1998-10-13 Sensormatic Electronics Corporation Electronic and structural components of an intelligent video information management apparatus
GB2321358A (en) 1997-01-20 1998-07-22 O E M Project Management Ltd Video security system coupled to a fax modem
JP3317176B2 (ja) * 1997-02-06 2002-08-26 松下電器産業株式会社 映像伝送装置
US6360022B1 (en) * 1997-04-04 2002-03-19 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two signal sequences
DE69837463T2 (de) * 1997-06-03 2008-01-10 Koninklijke Philips Electronics N.V. Navigation durch fernsehprogramme
JP4240554B2 (ja) * 1997-07-11 2009-03-18 ソニー株式会社 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法
US6128108A (en) * 1997-09-03 2000-10-03 Mgi Software Corporation Method and system for compositing images
JPH1185654A (ja) * 1997-09-12 1999-03-30 Matsushita Electric Ind Co Ltd 仮想wwwサーバ装置およびカメラ制御可能なwwwサーバ装置
GB2329541B (en) 1997-09-17 2002-05-29 Sony Uk Ltd Security control system
US5973723A (en) * 1997-12-12 1999-10-26 Deluca; Michael Joseph Selective commercial detector and eliminator apparatus and method
US6363380B1 (en) 1998-01-13 2002-03-26 U.S. Philips Corporation Multimedia computer system with story segmentation capability and operating program therefor including finite automation video parser
US6151336A (en) * 1998-02-11 2000-11-21 Sorrento Networks, Inc. Time division multiplexing expansion subsystem
US6795112B1 (en) * 1998-03-13 2004-09-21 General Instrument Corp. Composite video multiplexing scheme
US6847737B1 (en) * 1998-03-13 2005-01-25 University Of Houston System Methods for performing DAF data filtering and padding
US6211913B1 (en) * 1998-03-23 2001-04-03 Sarnoff Corporation Apparatus and method for removing blank areas from real-time stabilized images by inserting background information
GB9813632D0 (en) 1998-06-24 1998-08-26 Robinson Alan W Outside televised broadcast shadow compensator
US6493041B1 (en) * 1998-06-30 2002-12-10 Sun Microsystems, Inc. Method and apparatus for the detection of motion in video
US6714909B1 (en) * 1998-08-13 2004-03-30 At&T Corp. System and method for automated multimedia content indexing and retrieval
US6459822B1 (en) * 1998-08-26 2002-10-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Video image stabilization and registration
US6741656B1 (en) * 1998-12-16 2004-05-25 Matsushita Electric Industrial Co., Ltd. Image communication apparatus
CN1116649C (zh) * 1998-12-23 2003-07-30 皇家菲利浦电子有限公司 个性化视频分类与获取系统
EP1185106A4 (en) * 1999-01-29 2006-07-05 Mitsubishi Electric Corp METHOD FOR ENCODING IMAGE CHARACTERISTICS AND IMAGE SEARCHING METHOD
US6928233B1 (en) 1999-01-29 2005-08-09 Sony Corporation Signal processing method and video signal processor for detecting and analyzing a pattern reflecting the semantics of the content of a signal
KR100442991B1 (ko) * 1999-02-01 2004-08-04 주식회사 팬택앤큐리텔 트리구조의 동영상 색인 기술자를 이용한 검색장치 및 그 방법
CN1165174C (zh) 1999-03-16 2004-09-01 研究中心实验室(有限) 闭路电视(cctv)系统
FR2794880B1 (fr) * 1999-06-10 2001-12-14 Philippe Crochat Procede automatique de suivi d'une cible en mouvement par une camera electronique et dispositif pour sa mise en oeuvre
US6476858B1 (en) 1999-08-12 2002-11-05 Innovation Institute Video monitoring and security system
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
US6683995B2 (en) * 1999-12-23 2004-01-27 Eastman Kodak Company Method and apparatus for correcting large defects in digital images
JP2003519410A (ja) * 1999-12-30 2003-06-17 アプライド、サイエンス、フィクシャン、インク 可視光を使用してデジタルフィルムを現像するための改良されたシステムおよび方法
AU2001239745A1 (en) * 2000-02-03 2001-08-14 Applied Science Fiction Method, system, and software for signal processing using pyramidal decomposition
US6786655B2 (en) * 2000-02-03 2004-09-07 Eastman Kodak Company Method and system for self-service film processing
WO2001057594A2 (en) * 2000-02-03 2001-08-09 Applied Science Fiction Film processing solution cartridge and method for developing and digitizing film
JP2001243477A (ja) * 2000-02-29 2001-09-07 Toshiba Corp 動画像による交通量解析装置
US6557251B2 (en) * 2000-03-10 2003-05-06 Infotech, A.G. Digital feature separation
US20040125877A1 (en) 2000-07-17 2004-07-01 Shin-Fu Chang Method and system for indexing and content-based adaptive streaming of digital video content
DE20104329U1 (de) 2001-03-14 2001-05-31 Vtq Videotronik Gmbh Überwachungseinrichtung mit Sensoren
TWI236294B (en) 2001-05-11 2005-07-11 Ulead Systems Inc Method and device for capturing digital video
US20020168091A1 (en) * 2001-05-11 2002-11-14 Miroslav Trajkovic Motion detection via image alignment
US6525658B2 (en) * 2001-06-11 2003-02-25 Ensco, Inc. Method and device for event detection utilizing data from a multiplicity of sensor sources
US6805501B2 (en) * 2001-07-16 2004-10-19 Eastman Kodak Company System and method for digital film development using visible light
US20050007452A1 (en) * 2001-09-07 2005-01-13 Mckay Therman Ward Video analyzer
KR100919340B1 (ko) * 2001-09-07 2009-09-25 인터그래프 소프트웨어 테크놀로지스 캄파니 비디오 이미지의 역다중화 방법, 장치 및 컴퓨터 프로그램제품
US6831590B1 (en) * 2001-09-12 2004-12-14 Cyterra Corporation Concealed object detection
US6816622B2 (en) * 2001-10-18 2004-11-09 Microsoft Corporation Generating resized images using ripple free image filtering
US6944331B2 (en) * 2001-10-26 2005-09-13 National Instruments Corporation Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching
EP1316933B1 (en) 2001-11-28 2006-08-09 Matsushita Electric Industrial Co., Ltd. Home security system
US6999613B2 (en) 2001-12-28 2006-02-14 Koninklijke Philips Electronics N.V. Video monitoring and surveillance systems capable of handling asynchronously multiplexed video
WO2004066609A2 (en) 2003-01-23 2004-08-05 Intergraph Hardware Technologies Company Video content parser with scene change detector
CN101431685B (zh) * 2003-06-23 2011-05-25 索尼株式会社 处理图像的方法和设备
US7840067B2 (en) * 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
US7587086B2 (en) * 2004-06-04 2009-09-08 Microsoft Corporation Identifying selected pixels in a digital image
BRPI0514613A8 (pt) * 2004-08-23 2018-06-12 Intergraph Software Tech Company Estabilização de imagem em tempo real

Also Published As

Publication number Publication date
KR100919340B1 (ko) 2009-09-25
CN100559873C (zh) 2009-11-11
BR0212375A (pt) 2006-03-01
EP1428378A1 (en) 2004-06-16
US20030048947A1 (en) 2003-03-13
US7436437B2 (en) 2008-10-14
KR20040048408A (ko) 2004-06-09
KR20040054679A (ko) 2004-06-25
RU2004110722A (ru) 2005-09-27
US20080095437A1 (en) 2008-04-24
CA2459821A1 (en) 2003-03-20
ZA200401970B (en) 2007-01-31
HK1074726A1 (en) 2005-11-18
US20040061786A1 (en) 2004-04-01
WO2003030103A8 (en) 2005-01-06
BRPI0212377B1 (pt) 2015-10-27
BR0212546A (pt) 2006-05-23
CN1554073A (zh) 2004-12-08
HK1073038A1 (en) 2005-09-16
IL160760A0 (en) 2004-08-31
IL160758A0 (en) 2004-08-31
CO5570718A2 (es) 2005-10-31
WO2003024112A1 (en) 2003-03-20
IL160759A (en) 2010-04-15
US20060215926A1 (en) 2006-09-28
AU2002327612B2 (en) 2008-01-17
CN101072364B (zh) 2012-05-09
RU2004110723A (ru) 2005-09-27
US7079701B2 (en) 2006-07-18
CN101072364A (zh) 2007-11-14
BR0212377A (pt) 2006-10-03
AU2002335713B2 (en) 2008-08-28
EP1430444A1 (en) 2004-06-23
RU2308816C2 (ru) 2007-10-20
ZA200401972B (en) 2004-09-15
CN1554184A (zh) 2004-12-08
EP1430444B1 (en) 2013-05-08
US7310110B2 (en) 2007-12-18
WO2003024095A1 (en) 2003-03-20
BRPI0212375B1 (pt) 2016-05-24
CO5580855A2 (es) 2005-11-30
US6654049B2 (en) 2003-11-25
US8233044B2 (en) 2012-07-31
US7477797B2 (en) 2009-01-13
CN100359923C (zh) 2008-01-02
EP1428389A1 (en) 2004-06-16
RU2004110724A (ru) 2005-09-27
AU2002336445B2 (en) 2007-11-01
MXPA04002210A (es) 2005-02-17
CA2459821C (en) 2011-01-11
EP1428378B1 (en) 2013-03-20
RU2308761C2 (ru) 2007-10-20
CA2459823A1 (en) 2003-03-20
KR100888095B1 (ko) 2009-03-11
US20030048282A1 (en) 2003-03-13
NZ531976A (en) 2007-07-27
US20030048359A1 (en) 2003-03-13
KR20040047814A (ko) 2004-06-05
MXPA04002211A (es) 2005-02-17
NZ531975A (en) 2007-11-30
CA2459732C (en) 2017-07-11
KR100927918B1 (ko) 2009-11-19
RU2310289C2 (ru) 2007-11-10
HK1069470A1 (en) 2005-05-20
CN1299240C (zh) 2007-02-07
NZ531974A (en) 2005-08-26
CO5650190A2 (es) 2006-06-30
CN1593061A (zh) 2005-03-09
IL160759A0 (en) 2004-08-31
CA2459732A1 (en) 2003-04-10
CA2459823C (en) 2012-04-03
WO2003030103A1 (en) 2003-04-10

Similar Documents

Publication Publication Date Title
MXPA04002209A (es) Reconocimiento de objeto oculto.
AU2002335713A1 (en) Concealed object recognition
Toet et al. New false color mapping for image fusion
CN106981054B (zh) 一种图像处理方法及电子设备
KR101514519B1 (ko) 디지털 방사선 영상 관찰을 위한 라이트 박스 효과
WO1999019827A1 (en) Method and apparatus for unencumbered capture of an object
WO2008102296A2 (en) Method for enhancing the depth sensation of an image
Tumblin Three methods of detail-preserving contrast reduction for displayed images
Reinhard et al. Image display algorithms for high‐and low‐dynamic‐range display devices
JP2006186983A (ja) カラー画像の露出補正方法
Ledda Development of a perceptual Tone Mapping Operator
JP5050141B2 (ja) カラー画像の露出評価方法
CN111510697A (zh) 图像处理设备、图像处理方法和存储介质
Patel et al. Adaptive exposure fusion for high dynamic range imaging
Spitzer et al. Biological gain control for high dynamic range compression
JPH07134769A (ja) 画像合成におけるアンチエリアシング処理方法
Ramakrishnan Exposure fusion using particle filtering techniques
Slavković-Ilić et al. Potential applications of HDR in echocardiography
JP6270448B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2020016546A (ja) 画像処理装置、画像処理方法及びプログラム
Ciurescu et al. Digital Radiography using high dynamic range technique
JP2021082069A (ja) 画像処理装置、撮像装置、画像処理方法、及びプログラム
JP2004234133A (ja) 画像処理装置
Levén Integrating HDR with a Real-Time Graphics Engine
GB2442256A (en) Position-dependent spatial filtering

Legal Events

Date Code Title Description
GB Transfer or rights
FG Grant or registration