MXPA04002209A - Reconocimiento de objeto oculto. - Google Patents
Reconocimiento de objeto oculto.Info
- Publication number
- MXPA04002209A MXPA04002209A MXPA04002209A MXPA04002209A MXPA04002209A MX PA04002209 A MXPA04002209 A MX PA04002209A MX PA04002209 A MXPA04002209 A MX PA04002209A MX PA04002209 A MXPA04002209 A MX PA04002209A MX PA04002209 A MXPA04002209 A MX PA04002209A
- Authority
- MX
- Mexico
- Prior art keywords
- data
- further characterized
- values
- computer code
- program product
- Prior art date
Links
- 238000000034 method Methods 0.000 claims abstract description 60
- 238000004590 computer program Methods 0.000 claims description 32
- 238000012937 correction Methods 0.000 claims description 27
- 238000001914 filtration Methods 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 12
- 239000003086 colorant Substances 0.000 claims description 10
- 230000008569 process Effects 0.000 claims description 9
- 239000000463 material Substances 0.000 abstract description 5
- 239000011148 porous material Substances 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 238000011960 computer-aided design Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 241000178343 Butea superba Species 0.000 description 1
- 229920000742 Cotton Polymers 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N9/00—Details of colour television systems
- H04N9/64—Circuits for processing colour signals
- H04N9/646—Circuits for processing colour signals for image enhancement, e.g. vertical detail restoration, cross-colour elimination, contour correction, chrominance trapping filters
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Facsimile Image Signal Circuits (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Studio Devices (AREA)
- Processing Of Color Television Signals (AREA)
- Spectrometry And Color Measurement (AREA)
- Color Television Image Signal Generators (AREA)
- Studio Circuits (AREA)
Abstract
Metodo para observar un primer objeto que esta obstruido por un segundo objeto; en este metodo, el primer objeto tiene un color de contraste en relacion con el segundo objeto y el segundo objeto esta construido a partir de un material que permite que pase luz visible a traves de este; la cantidad de luz visible que pasa a traves del segundo objeto no es lo suficiente para que el primer objeto sea visible al ojo humano; el metodo involucra tomar una imagen digital del primer y segundo objeto usando un sensor de luz visible, tal como un sensor de camara CCD; los datos de la imagen digital que se recibe en un sistema computarizado, contienen los datos del primer objeto y los datos del segundo objeto; se debe entender que los datos del primer objeto y los datos del segundo objeto incluyen formacion de color; la cantidad de contraste entre el primer y el segundo objeto debe ser aproximadamente el 10% de la escala total, de manera que en una escala de color de 256 la diferencia sea aproximadamente 25 niveles; el sistema computarizado filtra sustancialmente los datos del segundo objeto y despues los valores asociados con los datos del primer objeto se incrementan hasta que los datos sean desplegados en forma visible.
Description
RECONOCIMIENTO DE OBJETOS OCULTOS
CAMPO DE LA INVENCION
La presente invención se refiere al análisis de imágenes digitales. Más específicamente, la presente invención se refiere a la visualización de objetos ocultos en imágenes digitales.
ANTECEDENTES DE LA INVENCION
Se han diseñado sistemas para visualizar objetos que se encuentran obstruidos por otros objetos. Por ejemplo, existen detectores de rayos X e infrarrojos que permiten que un usuario someta un objeto ya sea a rayos X, infrarrojos o a otra señal distinta a la luz visible, con el fin de mostrar objetos obstruidos. Dichos sistemas requieren que el objeto se exponga a la señal, para que éste pueda observarse. Sería deseable contar con un método y sistema para visualizar objetos obstruidos dentro de una imagen digital sin tener que exponer primero los objetos a una señal creada.
BREVE DESCRIPCION DE LA INVENCION
La invención en una modalidad es un método para visualizar un primer objeto que se encuentra obstruido por un segundo objeto. En dicho método, el primer objeto tiene un color que contrasta con el segundo objeto y el segundo objeto está hecho de un material que permite que la luz visible pase a través del mismo. La cantidad de luz visible que pasa a través del segundo objeto no es suficiente para que el primer objeto sea visible para el ojo humano. El método implica tomar una imagen digital del primero y segundo objetos utilizando un sensor de luz visible, como un sensor de cámara de CCD. Los datos de la imagen digital que se reciben en un sistema de computadora contienen tanto datos del primer objeto como datos del segundo objeto. Debe sobrentenderse que los datos del primer objeto y los datos del segundo objeto incluyen información de color. La cantidad de contraste entre el primero y segundo objeto debe ser de aproximadamente del 10% de la escala total, de modo que en una escala de color de 256 la diferencia es de aproximadamente 25 niveles. El sistema de computadora filtra básicamente los datos del segundo objeto y posteriormente se incrementan los valores asociados con los datos del primer objeto hasta que los datos pueden desplegarse visiblemente. El sistema de computadora puede crear un histograma de los datos de la imagen digital para que un usuario del sistema pueda seleccionar los datos del segundo objeto con base en el histograma. En dicha modalidad, el histograma se despliega para el usuario y se provee un mecanismo de selección para que el usuario seleccione datos del histograma. El paso de filtrar básicamente los datos del segundo objeto e incrementar los datos del primer objeto puede lograrse incrementado la corrección del grado de contraste hasta un valor que se encuentre fuera de la escala de los programas actuales de gráficos. Por ejemplo, el valor de corrección del grado de contraste puede fijarse en un valor superior a 2.5 y, de forma más general, en una escala superior a 6. El filtrado de los datos del segundo objeto también puede lograrse incrementando el brillo, al mismo tiempo que se aumenta el valor de corrección del grado de contraste. Los datos del primer objeto generalmente se incrementan de modo que los datos del primer objeto original se mapeen a valores en donde el contraste entre los niveles de datos sea visible para el ojo humano cuando el primer objeto se despliegue en un dispositivo de despliegue. El mapeo también es tal que los valores originales, que son valores de luz de bajo nivel que no pueden percibirse al desplegarse en un dispositivo de despliegue, se mapean a valores que pueden percibirse por un ojo humano. El método puede incluir el paso de convertir la información de color a escala de grises antes de filtrar los datos del segundo objeto e incrementar/remapear la información de color de los datos del primer objeto. El sistema de computadora puede identificar si el primer objeto es más claro u oscuro que el segundo objeto. Si el segundo objeto es básicamente más claro que el primer objeto, el sistema puede invertir los datos del primero y segundo objetos de modo que el segundo objeto aparezca más oscuro al representarse en un dispositivo de despliegue antes del filtrado. Los datos del segundo objeto pueden filtrarse reduciendo todos los valores de los datos del segundo objeto hasta que los valores sean aquellos para el negro, que generalmente es un valor 0 en una escala de 0-255. La metodología descrita también puede implementarse en un producto de programa de computadora para usarse con una computadora, en donde el producto de programa de computadora contiene un código de computadora en el mismo. En una modalidad, el método es completamente automatizado. La metodología también puede aplicarse en un sistema que incluye una cámara para tomar una imagen digital utilizando luz visible, en donde la imagen digital que crea la cámara digital contiene datos representativos del primer objeto y del segundo objeto. Además, el sistema incluye un procesador para recibir la imagen digital y procesar la imagen digital para filtrar completamente los datos del segundo objeto e incrementar los valores de los datos del primer objeto hasta que pueda desplegarse visiblemente. El sistema puede ser automatizado o recibir señales de activación del usuario para identificar datos como pertenecientes al segundo objeto y también valores de corrección del grado de contraste, por ejemplo.
BREVE DESCRIPCION DE LOS DIBUJOS
Las características de la invención se comprenderán con mayor facilidad haciendo referencia a la siguiente descripción detallada, que toma en cuenta los dibujos anexos, en donde:
La Figura 1 muestra un ambiente para implementar una primera modalidad para reconocer objetos ocultos; La Figura 2 es un diagrama de flujo que ¡lustra el reconocimiento de un primer objeto oculto por un segundo objeto de una imagen de video; La Figura 3 muestra un diagrama de flujo más detallado de los pasos que se realizan para reconocer objetos ocultos; La Figura 4 es la muestra de un histograma; La Figura 5 es un diagrama de flujo que muestra un método para implementar el reconocimiento de objetos ocultos; y La Figura 6 es un diagrama de flujo que muestra una versión automatizada del método para reconocer objetos ocultos.
DESCRIPCION DETALLADA DE LAS MODALIDADES ESPECIFICAS
Tal y como se utiliza en el siguiente texto, el término "video digital" implica una representación digital de una secuencia de imágenes que pueden desplegarse temporalmente en un dispositivo de despliegue. Típicamente, un video digital contiene múltiples cuadros en donde cada uno de ellos representa una imagen separada. Los cuadros pueden subdividirse aún más, en tanto los mismos están compuestos de una serie de pixeles. Tal y como se utiliza en la siguiente descripción, el término "píxel" significará un único punto de una imagen. Mientras mayor sea el número de pixeles contenidos en una imagen, mayor será la resolución del video.
Convencionalmente se hace referencia a las resoluciones con medidas de largo y ancho del número de pixeles; por ejemplo, en una resolución de 800 x 600, hay 800 pixeles a lo largo de una imagen por 600 pixeles a lo ancho de la misma. El término "brillo" significará el atributo de una sensación visual de acuerdo con el cual un área parece emitir mayor o menor luz. El brillo es una expresión relativa de la intensidad de la emisión de energía de una fuente de luz visible. Los términos "grado de contraste" y "valor de corrección del grado de contraste" significarán el exponente de la respuesta de la ley del poder de luminancia a un voltaje. El término "corrección del grado de contraste" significará la inserción de una característica de salida-entrada no lineal, con el propósito de cambiar la característica de transferencia del sistema. El término "señal normal de video" significará una señal de video que se produzca utilizando luz visible, en oposición a infrarroja, o someter el objeto de la imagen a algún tipo de señal distinta a las ondas de luz visibles. El término "material poroso" se refiere a cualquier material que permita que una porción de luz directa se refleje a través del material. En una modalidad de la presente invención, se presenta un método para detectar objetos ocultos analizando los cuadros de las imágenes de video. Bajo ciertas condiciones, los objetos bajo un material poroso pueden detectarse en un cuadro de video. Algunos ejemplos de materiales porosos son ropa (algodón, seda, etc.), tela y vidrio. El objeto oculto puede desplegarse si el objeto oculto y el material poroso son de colores contrastantes. Un color contrastante es un color que cuando se transfiere a la escala de grises varía aproximadamente 10% en el nivel de la escala de grises. Por ejemplo, si hay 256 niveles en la escala de grises, el material poroso y el objeto oculto deben variar en 25 niveles o más. La Figura 1 muestra una cámara de imagen digital 100 que captura los datos de la imagen que son resultado de la luz reflejada. La mayoría de la luz directa 105 se refleja en un objeto poroso 110. Una pequeña porción de la luz directa 115 pasa a través del material poroso y se refleja en el objeto oculto 120. Parte de la luz reflejada a partir del objeto oculto pasa a través del material poroso y es capturada por un sensor de imagen de video 130. El sensor de imagen de video 130 convierte la luz reflejada 105, 115, tanto del material poroso como del material oculto, en una señal eléctrica 140 que es procesada por un procesador de imágenes digitales 150. El procesador de imágenes digitales 150 envía entonces los datos de la imagen 155 a la memoria en un formato digital como RGB para cada pixel/receptor en el sensor. Cuando los datos de la imagen 155 se despliegan entonces en un dispositivo de despliegue, el objeto oculto no es visible por el hecho de que los valores de los pixeles que representan al material poroso son mucho mayores que aquellos para el objeto oculto. Como resultado de ello, la luz para el material poroso que se emite desde el dispositivo de despliegue absorbe la luz emitida que es producto de los valores de los pixeles del objeto oculto. Por lo tanto, el ojo humano no puede percibir el objeto oculto. En general, el ojo humano no es capaz de ver niveles de intensidad inferiores a 80 en una escala de grises de 0-255. Como tales, los valores inferiores a 80 aparecerán como negros. En la Figura 1 , el objeto oculto se muestra como un objeto sólido, aunque el objeto oculto también podría ser poroso. La Figura 2 muestra un diagrama de flujo de los pasos que se realizan para alterar los datos de la imagen digital con el fin de desplegar un objeto oculto. El método se realiza en un sistema de computadora utilizando software de edición de video o imágenes. Se recibe la primera información constituida por datos digitales que son representativos de una primera imagen/cuadro digital 200. Los datos se convierten entonces de datos de imagen digital de color a datos en escala de grises. Los datos digitales de la escala de grises se filtran entonces 210. El filtrado se produce de la siguiente forma. Si el objeto poroso no es negro, todos los valores de los pixeles se ajustan de modo que los valores de los pixeles asociados con el objeto poroso tomen al negro como color predeterminado. Esto puede hacerse aplicando un filtro que bloquee los valores por arriba de un valor umbral de escalas de grises. Se incrementan entonces los valores remanentes que generalmente son representativos del objeto oculto 220. Los valores remanentes que no se han fijado en 0 (negro) se incrementan de modo que los valores se encuentren en una escala que sea perceptible visiblemente. Por ejemplo, suponiendo una escala de grises de 0-255, todos los valores se incrementarían por arriba de 100, por ejemplo. Los valores se remapean entonces, de modo que los valores se expandan provocando que los niveles de contraste sean perceptibles y el nivel general de brillo/intensidad para los pixeles representativos del objeto oculto se incrementen de forma que los pixeles sean visibles para el ojo humano. El experto en la técnica comprenderá que el ojo humano no diferencia fácilmente entre pixeles que tienen valores muy próximos en la escala de grises. Por lo tanto, uno de los propósitos del filtro es expandir los valores de los pixeles de bajo nivel, de modo que el ojo humano pueda percibir el contraste. La Figura 3 muestra un diagrama de flujo más detallado de los pasos que se realizan para reconocer objetos ocultos. Como se ha dicho anteriormente, una vez que la información de la imagen digital se recibe en un sistema de computadora, la información de color se convierte a información en la escala de grises a través de técnicas conocidas por el experto en la técnica. Sin embargo, podría aplicarse la misma metodología a la información de color. Primero se produce un histograma de los datos de la imagen digital que conforman una primera imagen en una secuencia de imágenes 300. En la Figura 4 se muestra una muestra del histograma. El número de ocurrencias de un valor se representa en el eje vertical y los valores en la escala de grises se representan en el eje horizontal. Por lo tanto, este histograma indica cuántas veces se produce la intensidad para una imagen dada. El histograma provee una ponderación para permitir que un usuario seleccione niveles de baja intensidad. En general, predominarán valores de alta intensidad y los valores menos visibles (valores de baja intensidad) serán mucho menores tanto en intensidad como en general en el número de ocurrencias. Por lo tanto, los valores visibles pueden identificarse y eliminarse fácilmente filtrando o utilizando otras técnicas conocidas por el experto en la técnica. En una modalidad, el sistema de computadora permite que un usuario visualice el histograma y determine las porciones de luz de intensidad de bajo nivel a partir de la representación gráfica del histograma 310. Los niveles bajos de intensidad de luz son aquellos productos de la luz visible, pero que no se percibirían por el ojo humano si se desplegaran en un dispositivo de despliegue. Entonces el usuario selecciona un filtro y filtra toda la demás luz (luz de alta intensidad) 320. Normalmente la luz de intensidad de bajo nivel puede determinarse y seleccionarse visualmente por un usuario del sistema de computadora. Una vez que la luz de alta intensidad se ha filtrado por completo, la luz de bajo nivel se remapea a valores de mayor nivel, de modo que un dispositivo de despliegue muestre los valores remapeados 330. Estos valores también se expanden de modo que el contraste sea más drástico. Por ejemplo, si la reducción entre la intensidad baja y alta es de 40 en una escala de 0-255 y los valores se mapean entre 135 y 255, el contraste se incrementa en tres, de modo que un valor de 1 y 2 no serían 135 y 139. Los dos niveles de baja intensidad mapeados se despliegan entonces para un usuario del sistema 340. Si el objeto representado por los niveles de baja intensidad es visible, el usuario responde que la imagen es inaceptable 350. El usuario indica esto a través de un dispositivo de entrada del usuario, como un teclado o ratón. El método le permite entonces al usuario ya sea determinar de nuevo el umbral entre los niveles de alta y baja intensidad o realizar un nuevo remapeo de los valores de baja intensidad, de modo que los valores provean más brillo, que exista un mayor contraste entre los valores, o ambos. El sistema también puede permitir que el usuario seleccione un nuevo valor para separar entre el valor de intensidad de bajo nivel y el valor de intensidad de alto nivel 350. Si el usuario indica que el objeto oculto es visible, el proceso termina. El proceso también puede lograrse incrementando la corrección del grado de contraste y/o brillo, como se muestra en la Figura 5; se aplica primero el valor de brillo y/o corrección del grado de contraste a los datos de la imagen digital 410. Al incrementar el nivel de brillo, la luz de intensidad de alto nivel acaba por saturarse hacia el blanco, filtrando así la luz de intensidad de alto nivel. Todos los valores que se saturan pueden entonces eliminarse dejando los valores de bajo nivel. La corrección del grado de contraste puede entonces utilizarse para incrementar los valores remanentes. Ajustar el grado de contraste incrementa los valores de intensidad sin aumentar demasiado el mido que se produce cuando simplemente se incrementa el brillo proporcionalmente en todos los valores. Cuando se incrementa el grado de contraste, se incrementa también la intensidad de forma no lineal, de modo que la nueva intensidad es:
nueva intensidad = Intensidad actual1/grad0 de °°??G35{? 255 Debido a la naturaleza no lineal de la corrección del grado de contraste, el ruido también se incrementa de forma no lineal. En esta modalidad de la invención, el valor de corrección del grado de contraste aplicado debe ser mayor al valor que normalmente se utiliza con un despliegue de tubo de rayos catódicos ("CRT", por sus siglas en inglés). Típicamente, el valor de corrección del grado de contraste debe ser de seis a diez para esta modalidad, en donde un despliegue catódico estándar tiene un valor de corrección de grado de contraste de aproximadamente 2.2 a 2.5 y el software de edición de video de la técnica anterior tiene valores máximos de corrección de grado de contraste de 5. Una vez que se ha aplicado un filtro a los datos de la imagen de video y se han incrementado los datos de la imagen de video de intensidad de bajo nivel, los datos de imagen de video de intensidad de bajo nivel que representan el cuadro actual se despliegan 420 para el usuario. Los datos que se despliegan para el usuario también pueden incluir algunos datos de video de intensidad de alto nivel. El usuario puede entonces cambiar interactivamente 430 los valores de grado de contraste y brillo y los valores resultantes se despliegan de nuevo para el usuario. A través de este proceso se despliega la imagen representada por una luz de bajo nivel. Cuando la imagen es satisfactoria, el usuario hace que el sistema de la computadora escriba los datos de vídeo alterados del cuadro 450 en la memoria de video. Los cuadros de video subsiguientes se procesan de forma similar hasta que todos los cuadros se hayan procesado 480. El reconocimiento de objetos ocultos se completa entonces 490. En un primer ejemplo del método para reconocer objetos ocultos, se analiza la imagen de una persona que usa una camiseta negra con un arma blanca por debajo. Se captura la imagen digital de la persona bajo condiciones normales de iluminación. Si la imagen digital se despliega en un dispositivo de despliegue, el ojo humano sólo puede ver una camiseta negra que tiene un valor cero para los pixeles desplegados en la pantalla. La luz que se refleja a través del arma blanca disminuye su intensidad en el proceso, por lo que puede tener tal nivel de intensidad que no sea perceptible para el ojo humano. Aunque la luz no es perceptible, la información de luz es capturada por el sensor del dispositivo de la imagen digital. Si se incrementa el grado de contraste y el brillo, los valores negros no se incrementarán. Sin embargo, la ligera cantidad de luz proveniente del arma blanca se incrementará dado que no es un valor cero. También se incrementará algo de ruido que, por lo tanto, se desplegará pero, si hay suficiente luz disponible para la cámara, de preferencia 500 Luxes o más, el sistema mostrará claramente el arma blanca. En otro ejemplo, se analiza la imagen de una persona que usa una camiseta blanca con un arma negra por debajo. En dicha imagen, el video se invierte, filtrando así los datos de alta intensidad, de modo que la camiseta aparece ahora negra y, por lo tanto, provee un valor de intensidad 0. Los datos de intensidad de bajo nivel se mapean entonces a una escala en la que los valores se encuentran en la escala visible, por ejemplo entre 100 y 255 en una escala de O a 255. Esto puede lograrse convirtiendo primero los datos a datos de escala de grises o utilizando los datos a base de color que son resultado del sensor de formación de imágenes digitales. Además, los valores se espacian de modo que se incremente la distancia entre los valores, haciendo así que sea más probable que se produzcan percepciones de contraste para el ojo humano. En un tercer ejemplo, se analiza la imagen de una persona que usa una camiseta gris oscuro y que tiene un arma gris claro por debajo de la camiseta. El nivel de intensidad correspondiente a la prenda gris oscuro se reduce de forma que se fije en negro. El arma gris claro estará entonces en algún valor superior a aquel del negro. Los valores correspondientes al arma gris claro, así como el ruido, pueden entonces incrementarse utilizando ya sea brillo o corrección del grado de contraste, por lo que los valores de luz baja del arma gris claro se filtran y mapean a valores que son perceptibles por el ojo humano, como se ha explicado previamente. Este proceso puede automatizarse como se muestra en la Figura 5. En una variación, la media para todos los datos digitales de la imagen se computa 510. La media determina en donde se encuentran los valores de alta intensidad. Después se determina la desviación estándar a partir de la media 520. Todos los valores dentro de una desviación estándar por debajo de la media se identifican entonces como valores de alta intensidad, así como todos los valores por arriba de la media 530. Los valores de alta intensidad se filtran entonces, por lo que se eliminan a partir del conjunto de datos digitales que conforma la imagen 540. Los valores de bajo nivel se mapean entonces a valores que son visibles 550. El espaciado entre los valores también se incrementa, de modo que el contraste entre los valores sea perceptible para el ojo humano. Por ejemplo, el sistema automatizado puede determinar el valor inferior y superior dentro de los valores de bajo nivel y sustraer los dos valores para determinar la escala. La escala se mapea entonces a una escala de luz visible. Por ejemplo, si la escala se encuentra entre 0 y 255 y los valores de bajo nivel se encuentran entre 1 y 41, la escala es 40. Los valores superiores a 80 son normalmente perceptibles para el ojo humano, de modo que la escala de 40 se mapearia en una escala de 175 (80-255). Por lo tanto, todos los valores a partir de la luz de bajo nivel se encontrarían entre los valores de 80 y 255. Los valores de datos de bajo nivel se despliegan entonces en un dispositivo de despliegue 560. Además, el sistema también puede automatizarse para cambiar los datos de color a datos en escala de grises para el procesamiento. Debe entenderse que, aunque los datos pueden convertirse a escala de grises para determinar los valores de alta y baja intensidad, la información de color continúa manteniéndose y puede utilizarse para remapear los valores de baja intensidad, de modo que los valores de baja intensidad puedan desplegarse en color después de mapearse a valores visibles. El ángulo de la cámara debe encontrarse dentro de más o menos 40 grados de la normal al objeto para lograr mejores resultados. Si la ropa exterior es muy clara o blanca, entonces el video puede invertirse de forma que los objetos claros se hagan oscuros y se detecten los objetos contrastantes por debajo de los materiales porosos. Una condición de luz ambiente de 500 Luxes o mayor debe iluminar el objeto bajo estudio. Debe notarse que los diagramas de flujo se utilizan en la presente para demostrar distintos aspectos de la invención y no deben interpretarse como limitativos para la presente invención con respecto a cualquier flujo lógico particular o implementación lógica. La lógica descrita puede dividirse en distintos bloques lógicos (p.ej., programas, módulos, funciones o subrutinas) sin modificar los resultados generales o sin desviarse de otro modo del verdadero alcance de la invención. Frecuentemente pueden añadirse, modificarse, omitirse, realizarse elementos lógicos en un orden distinto, o ¡mplementarse utilizando diferentes construcciones lógicas (p.ej., compuertas lógicas, principios iterativos, lógica condicional y otras construcciones lógicas) sin cambiar los resultados generales o desviarse de otro modo del verdadero alcance de la invención. La presente invención puede realizarse en muchas modalidades distintas incluyendo, pero sin limitarse a ello, una lógica de programa de computadora para utilizarse con un procesador (p.ej., un microprocesador, microcontrolador, procesador de señales digitales o computadora de usos múltiples), una lógica programable para utilizarse con un dispositivo lógico programable (p.ej., Arreglo Programable por Campos (FPGA, por sus siglas en inglés) u otro PLD), componentes discretos, circuitos integrados (p.ej., un Circuito Integrado de Aplicación Específica (ASIC, por sus siglas en inglés)) o cualquier otro medio incluyendo cualquier combinación de los mismos. La lógica de programa de computadora que implementa la totalidad o parte de la funcionalidad descrita previamente en la presente puede realizarse en distintas modalidades incluyendo, pero sin limitarse de ningún modo a ello, una fuente de forma de código, una forma ejecutable de computadora y distintas formas intermedias (p.ej., formas generadas por un ensamblador, compilador, enlazador o localizador). El código fuente puede incluir una serie de instrucciones de programa de computadora implementadas en cualquiera de distintos lenguajes de programación (p.ej., un código de objetos, un lenguaje de ensamble o un lenguaje de alto nivel como Fortran, C, C++, JAVA o HTML) para utilizarse con distintos sistemas operativos o ambientes operativos. El código fuente puede definir y utilizar distintas estructuras de datos y mensajes de comunicación. El código fuente puede estar en una forma ejecutable de computadora (p.ej., a través de un intérprete) o bien el código fuente puede convertirse (p.ej., a través de un traductor, ensamblador o compilador) a una forma ejecutable de computadora. El programa de computadora puede fijarse de cualquier forma (p.ej., forma de código fuente, forma ejecutable de computadora o forma intermedia), ya sea de forma permanente o transitoria, en un medio tangible de almacenamiento, como un dispositivo de memoria semiconductor (p.ej., un RAM, ROM, PROM, EEPROM o RAM Rápido Programable), un dispositivo de memoria magnética (p.ej., un disquete o disco fijo), un dispositivo de memoria óptica (p.ej. un CD-ROM), una tarjeta de PC (p.ej., una tarjeta PCMCIA) u otro dispositivo de memoria. El programa de computadora puede fijarse de cualquier forma en una señal que pueda transmitirse a una computadora utilizando cualquiera de distintas tecnologías de comunicación incluyendo, pero sin limitarse de ningún modo a ello, tecnologías analógicas, tecnologías digitales, tecnologías ópticas, tecnologías inalámbricas, tecnologías de gestión de redes y tecnologías de gestión de internet. El programa de computadora puede distribuirse de cualquier forma como un medio de almacenamiento removible con documentación impresa o electrónica anexa (p.ej., un software de contracción envuelta o una cinta magnética), precargado con un sistema de computadora (p.ej., en sistema ROM o disco fijo) o distribuido a partir de un servidor o pizarrón electrónico a través del sistema de comunicación (p.ej., internet o la Red Mundial). La lógica del hardware (incluyendo la lógica programable para utilizarse con un dispositivo lógico programable) que implementa la totalidad o parte de las funciones descritas anteriormente en la presente, puede diseñarse utilizando métodos manuales tradicionales, o bien puede diseñarse, capturarse, simularse o documentarse electrónicamente utilizando distintas herramientas, tales como un Diseño Asistido por Computadora (CAD, por sus siglas en inglés), un lenguaje de descripción de hardware (p.ej., VHDL o AHDL) o un lenguaje de programación PLD (p.ej., PALAS M, ABEL o CUPL). La presente invención puede realizarse en otras modalidades específicas sin desviarse del verdadero alcance de la invención. Las modalidades descritas deben considerarse en todos los aspectos sólo
ilustrativas y no restrictivas.
Claims (1)
- NOVEDAD DE LA INVENCION REIVINDICACIONES 1.- Un método para visualizar un primer objeto que tiene un color contrastante con respecto a un segundo objeto, en donde el segundo objeto obstruye la visibilidad del primer objeto, en donde la luz visible pasa a través del segundo objeto, en donde el método comprende: recibir datos de la imagen digital representativos del primer objeto obstruido por el segundo objeto en un sistema de computadora, en donde los datos de la imagen digital contienen por lo menos datos del primer objeto y datos del segundo objeto producidos por luz visible y cada dato tiene asociado un valor, filtrando básicamente los datos del segundo objeto y en donde se incrementa el valor de los datos del primer objeto hasta que se despliega de forma visible. 2.- El método de conformidad con la reivindicación 1 , caracterizado además porque también comprende crear un histograma de los datos de la imagen digital y seleccionar los datos del segundo objeto con base en el histograma. 3.- El método de conformidad con la reivindicación 1 , caracterizado además porque el filtrado básico de los datos del segundo objeto y el incremento de los datos del primer objeto se logra por lo menos incrementando la corrección del grado de contraste. 4. - El método de conformidad con la reivindicación 3, caracterizado además porque la corrección del grado de contraste se fija por arriba de 2.5. 5. - El método de conformidad con la reivindicación 3, caracterizado además porque la corrección del grado de contraste se fija en o por arriba de 6. 6. - El método de conformidad con la reivindicación 1 , caracterizado además porque incrementar los datos del primer objeto incluye mapear los datos del primer objeto a valores tales que el contraste entre los niveles de datos sea tal que el ojo humano pueda detectar el contraste cuando los datos del primer objeto se despliegan en un dispositivo de despliegue. 7 - El método de conformidad con la reivindicación 6, caracterizado además porque el mapeo se realiza de forma que éste se realice a los valores de los datos que, al desplegarse por un dispositivo de despliegue, son observables para el ojo humano. 8 - El método de conformidad con la reivindicación 1 , caracterizado además porque incrementar los datos del primer objeto se logra por lo menos incrementando el brillo. 9 - El método de conformidad con la reivindicación 1 , caracterizado además porque el primero y segundo objetos tienen colores contrastantes. 10.- El método de conformidad con la reivindicación 1 , caracterizado además porque el primer objeto y el segundo objeto tienen colores contrastantes que promedian más de 25 niveles separados en una escala de 256 niveles. 11. - El método de conformidad con la reivindicación 1 , caracterizado además porque los datos de la imagen se representan en una escala de valores y porque el primer objeto y el segundo objeto tienen colores contrastantes, de modo que los colores de los datos del primer objeto y los datos del segundo objeto varían aproximadamente en un diez por ciento de la escala. 12. - El método de conformidad con la reivindicación 1 , caracterizado además porque el proceso está automatizado. 13. - El método de conformidad con la reivindicación 2, caracterizado además porque el proceso está automatizado. 14. - El método de conformidad con la reivindicación 1 , caracterizado además porque los datos del primer objeto y los datos del segundo objeto contienen información de color. 15. - El método de conformidad con la reivindicación 14, caracterizado además porque también comprende: convertir la información de color de los datos del primer objeto y los datos del segundo objeto a escala de grises. 16.- Un método para desplegar los datos del primer objeto representativos de un primer objeto en una imagen digital en un dispositivo de despliegue, en donde el primer objeto está obstruido por un segundo objeto, en donde la luz visible pasa a través del segundo objeto, en donde el primer objeto y el segundo objeto tienen colores contrastantes, en donde el método comprende: recibir datos digitales representativos de la imagen digital en un sistema de computadora y filtrar los datos del primero y segundo objetos, de modo que los datos del primer objeto se desplieguen visiblemente en el dispositivo de despliegue y los datos del segundo objeto se modifiquen. 17.- El método de conformidad con la reivindicación 16, caracterizado además porque también comprende: tomar una imagen digital del primer objeto y el segundo objeto utilizando un sensor de luz visible que produce los datos del primer objeto y los datos del segundo objeto. 18.- El método de conformidad con la reivindicación 16, caracterizado además porque el filtrado comprende mapear los datos del primer objeto a una escala tal que, al desplegarse, los contrastes entre los valores de datos sean visibles para el ojo humano. 19. - El método de conformidad con la reivindicación 16, caracterizado además porque también comprende desplegar los datos del primer objeto en un dispositivo de despliegue. 20. - El método de conformidad con la reivindicación 19, caracterizado además porque también comprende ajusfar manualmente el filtrado después de desplegar los datos del primer objeto en el dispositivo de despliegue. 21. - El método de conformidad con la reivindicación 16, caracterizado además porque el filtrado incluye: crear un histograma visualmente desplegable de los datos digitales representativos de la imagen digital; proveer selección del usuario de un grupo de los datos digitales representativos de la imagen digital; eliminar el grupo seleccionado de los datos digitales representativos de la imagen digital; y ajustar los valores de los datos digitales remanentes aplicando corrección del grado de contraste a los datos digitales incrementando el valor de corrección del grado de contraste hasta que el primer objeto se despliegue cuando los datos digitales se desplieguen en un dispositivo de despliegue. 22. - El método de conformidad con la reivindicación 16, caracterizado además porque los datos del primer objeto y los datos del segundo objeto contienen información de color. 23. - El método de conformidad con la reivindicación 22, caracterizado además porque también comprende convertir la información de color de los datos del primer objeto y los datos del segundo objeto a escala de grises. 24. - El método de conformidad con la reivindicación 23, caracterizado además porque si el segundo objeto es más oscuro que el primer objeto, se ajustan por lo menos los datos del segundo objeto hasta que básicamente todos los datos del segundo objeto produzcan una salida cero al representarse en un despliegue. 25. - El método de conformidad con la reivindicación 23, caracterizado además porque si el segundo objeto es básicamente más claro que el primer objeto, se invierten los datos del primer y segundo objetos de modo que el segundo objeto aparezca más oscuro al representarse en un dispositivo de despliegue. 26. - El método de conformidad con la reivindicación 25, caracterizado además porque se ajustan por lo menos los datos del segundo objeto hasta que básicamente todos los datos del segundo objeto produzcan cero al representarse en un despliegue. 27. - El método de conformidad con la reivindicación 25, caracterizado además porque también comprende mapear los datos del primer objeto a valores de datos tales que, al presentarse en un despliegue, los valores de los datos sean visibles y la proporción entre los valores de los datos se incremente por arriba de la proporción entre los datos del primer objeto. 28. - El método de conformidad con la reivindicación 26, caracterizado además porque también comprende mapear los datos del primer objeto a valores de datos tales que, al presentarse en un despliegue, los valores de los datos sean visibles y la proporción entre los valores de los datos se incremente por arriba de la proporción entre los datos del primer objeto. 29. - Un producto de programa de computadora que tiene un código de computadora que puede leerse en una computadora para visualizar los datos del primer objeto representativos de un primer objeto que tiene un color contrastante con un segundo objeto, en donde el segundo objeto obstruye la visibilidad del primer objeto, en donde la luz visible pasa a través del segundo objeto, en donde el código de computadora comprende: un código de computadora para recibir datos de imágenes digitales representativos del primer objeto obstruido por el segundo objeto en un sistema de computadora; en donde los datos de la imagen digital contienen por lo menos los datos del primer objeto y los datos del segundo objeto producidos por la luz visible; un código de computadora para filtrar básicamente los datos del segundo objeto; y un código de computadora para incrementar los datos del primer objeto hasta que puedan desplegarse visiblemente. 30. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque también comprende un código de computadora para crear un histograma de los datos de la imagen digital; y un código de computadora para seleccionar los datos del segundo objeto con base en el histograma. 31. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque el código de computadora para filtrar básicamente los datos del segundo objeto e incrementar los datos del primer objeto incrementa la corrección del grado de contraste. 32. - El producto de programa de computadora de conformidad con la reivindicación 31 , caracterizado además porque la corrección del grado de contraste se fija por arriba de 2.5. 33. - El producto de programa de computadora de conformidad con la reivindicación 31, caracterizado además porque la corrección del grado de contraste se fija en o por arriba de 6. 34. - El producto de programa de computadora de conformidad con la reivindicación 1 , caracterizado además porque el código de computadora para incrementar los datos del primer objeto incluye un código de computadora para mapear los datos del primer objeto a valores tales que el contraste entre los niveles de datos sea tal que el ojo humano pueda detectar el contraste. 35. - El producto de programa de computadora de conformidad con la reivindicación 34, caracterizado además porque el código de computadora para mapear se realiza de tal modo que el mapeo es para los valores de datos que, al desplegarse por un dispositivo de despliegue, son observables para el ojo humano. 36. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque el código de computadora para incrementar los datos del primer objeto incrementa los datos del primer objeto por lo menos incrementando el brillo. 37. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque el primer objeto y el segundo objeto tienen colores contrastantes. 38. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque los datos del primer objeto y el segundo objeto representan colores contrastantes que promedian más de 25 niveles en una escala de 256 niveles. 39. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque los datos de imagen se encuentran asociados con una escala y el primer objeto y segundo objeto tienen colores contrastantes, de modo que los datos del primer objeto y los datos del segundo objeto varían básicamente en un diez por ciento de la escala. 40. - El producto de programa de computadora de conformidad con la reivindicación 29, caracterizado además porque los datos del primer objeto y los datos del segundo objeto contienen información de color y el producto de programa de computadora incluye además un código de computadora para convertir la información de color a partir de los datos del primer objeto y los datos del segundo objeto a escala de grises. 41. - Un código de computadora en un medio que puede leerse en una computadora para desplegar datos del primer objeto representativos de un primer objeto en una imagen digital en un dispositivo de despliegue, en donde el primer objeto se encuentra obstruido por un segundo objeto, la luz visible pasa a través del segundo objeto, el primer objeto y el segundo objeto tienen colores contrastantes, en donde el código de computadora comprende: un código de computadora para recibir datos digitales representativos de la imagen digital en un sistema de computadora; y un código de computadora para filtrar los datos del primero y segundo objetos, de modo que los datos del primer objeto se desplieguen visiblemente en el dispositivo de despliegue y los datos del segundo objeto se modifiquen. 42. - El producto de programa de computadora de conformidad con la reivindicación 41 , caracterizado además porque el código de computadora para filtrar incluye un código de computadora para mapear los datos del primer objeto a una escala tal que los contrastes entre valores de datos, al desplegarse, sean visibles para el ojo humano. 43. - El producto de programa de computadora de conformidad con la reivindicación 41, caracterizado además porque también comprende un código de computadora para desplegar los datos del primer objeto en un dispositivo de despliegue. 44. - El producto de programa de computadora de conformidad con la reivindicación 41 , caracterizado además porque también comprende un código de computadora para que el usuario pueda ajustar el filtrado después de desplegar los datos del primer objeto en el dispositivo de despliegue. 45. - El producto de programa de computadora de conformidad con la reivindicación 41 , caracterizado además porque el código de computadora para filtrar incluye: un código de computadora para crear un histograma desplegable visualmente de los datos digitales representativos de la imagen digital; un código de computadora para que el usuario pueda seleccionar un grupo de los datos digitales representativos de la imagen digital; un código de computadora para eliminar el grupo seleccionado a partir de los datos de la imagen digital representativos de la imagen digital; y un código de computadora para ajustar los valores de los datos digitales remanentes aplicando corrección del grado de contraste a los datos digitales incrementando el valor de corrección del grado de contraste hasta que el primer objeto pueda desplegarse cuando los datos digitales se desplieguen en un dispositivo de despliegue. 46. - El producto de programa de computadora de conformidad con la reivindicación 41 , caracterizado además porque los datos del primer objeto y los datos del segundo objeto contienen información de color y en donde el producto de programa de computadora comprende además un código de computadora para convertir la información de color de los datos del primer objeto y los datos del segundo objeto a escala de grises. 47. - El producto de programa de computadora de conformidad con la reivindicación 46, caracterizado además porque también comprende un código de computadora para ajustar por lo menos los datos del segundo objeto hasta que básicamente todos los datos del segundo objeto produzcan una salida cero al representarse en un despliegue si el segundo objeto es más oscuro que el primer objeto. 48. - El producto de programa de computadora de conformidad con la reivindicación 46, caracterizado además porque también comprende un código de computadora para invertir los datos del primer y segundo objetos, de modo que el segundo objeto aparezca más oscuro al representarse en un dispositivo de despliegue si el segundo objeto es básicamente más claro que el primer objeto. 49. - El producto de programa de computadora de conformidad con la reivindicación 48, caracterizado además porque también comprende un código de computadora para ajustar por lo menos los datos del segundo objeto hasta que básicamente todos los datos del segundo objeto produzcan una salida cero al representarlos en un despliegue. 50. - El producto de programa de computadora de conformidad con la reivindicación 48, caracterizado además porque también comprende: un código de computadora para mapear los datos del primer objeto a valores de datos tales que, al presentarse en un despliegue, son visibles y la proporción entre los valores de datos se incrementa por arriba de la proporción entre los datos del primer objeto. 51. - El producto de programa de computadora de conformidad con la reivindicación 49, caracterizado además porque también comprende un código de computadora para mapear los datos del primer objeto a valores de datos tales que, al presentarse en un despliegue, los valores de datos sean visibles y la proporción entre los valores de datos se incremente por arriba de la proporción entre los datos del primer objeto. 52. - Un sistema para detectar un primer objeto oculto por un segundo objeto, en donde el sistema comprende: una cámara para tomar una imagen digital utilizando luz visible, en donde la imagen digital contiene datos representativos del primer objeto y del segundo objeto; un procesador para recibir la imagen digital y procesar la imagen digital para filtrar completamente los datos del segundo objeto e incrementar los valores de los datos del primer objeto hasta que pueda desplegarse visiblemente. 53. - El sistema de conformidad con la reivindicación 52, caracterizado además porque el procesador recibe la señal activada por un usuario y el procesador incrementa el valor de corrección del grado de contraste. 54. - El sistema de conformidad con la reivindicación 53, caracterizado además porque el valor de corrección del grado de contraste se incrementa a o por arriba de 5. 55.- El sistema de conformidad con la reivindicación 51 , caracterizado además porque el procesador incrementa tanto los valores de los datos del primer objeto, en donde los datos del primer objeto se encuentran en una escala, como la proporción entre los datos del primer objeto.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US31816401P | 2001-09-07 | 2001-09-07 | |
PCT/US2002/028351 WO2003030103A1 (en) | 2001-09-07 | 2002-09-06 | Concealed object recognition |
Publications (1)
Publication Number | Publication Date |
---|---|
MXPA04002209A true MXPA04002209A (es) | 2005-02-17 |
Family
ID=23236945
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MXPA04002209A MXPA04002209A (es) | 2001-09-07 | 2002-09-06 | Reconocimiento de objeto oculto. |
MXPA04002211A MXPA04002211A (es) | 2001-09-07 | 2002-09-06 | Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video. |
MXPA04002210A MXPA04002210A (es) | 2001-09-07 | 2002-09-06 | Estabilidad de imagenes usando igualacion de colores. |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MXPA04002211A MXPA04002211A (es) | 2001-09-07 | 2002-09-06 | Metodo, dispositivo y producto de programa de computadora para desmultiplexar imagenes de video. |
MXPA04002210A MXPA04002210A (es) | 2001-09-07 | 2002-09-06 | Estabilidad de imagenes usando igualacion de colores. |
Country Status (15)
Country | Link |
---|---|
US (6) | US6654049B2 (es) |
EP (3) | EP1430444B1 (es) |
KR (3) | KR100919340B1 (es) |
CN (4) | CN101072364B (es) |
AU (3) | AU2002327612B2 (es) |
BR (3) | BR0212546A (es) |
CA (3) | CA2459823C (es) |
CO (3) | CO5570718A2 (es) |
HK (3) | HK1069470A1 (es) |
IL (4) | IL160759A0 (es) |
MX (3) | MXPA04002209A (es) |
NZ (3) | NZ531976A (es) |
RU (3) | RU2310289C2 (es) |
WO (3) | WO2003024112A1 (es) |
ZA (2) | ZA200401972B (es) |
Families Citing this family (65)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100919340B1 (ko) * | 2001-09-07 | 2009-09-25 | 인터그래프 소프트웨어 테크놀로지스 캄파니 | 비디오 이미지의 역다중화 방법, 장치 및 컴퓨터 프로그램제품 |
US7489802B2 (en) * | 2002-09-10 | 2009-02-10 | Zeev Smilansky | Miniature autonomous agents for scene interpretation |
JP4307910B2 (ja) | 2003-03-07 | 2009-08-05 | 富士フイルム株式会社 | 動画像切り出し装置および方法並びにプログラム |
JP3768968B2 (ja) | 2003-03-28 | 2006-04-19 | 株式会社エヌ・ティ・ティ・ドコモ | 通信端末及びプログラム |
JP4017578B2 (ja) * | 2003-09-19 | 2007-12-05 | 三洋電機株式会社 | 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体 |
US7840067B2 (en) * | 2003-10-24 | 2010-11-23 | Arcsoft, Inc. | Color matching and color correction for images forming a panoramic image |
US7616220B2 (en) * | 2003-12-23 | 2009-11-10 | Intel Corporation | Spatio-temporal generation of motion blur |
US7506267B2 (en) * | 2003-12-23 | 2009-03-17 | Intel Corporation | Compose rate reduction for displays |
KR100562119B1 (ko) * | 2004-04-29 | 2006-03-21 | 삼성탈레스 주식회사 | 동영상의 특성을 이용한 이미지의 정렬 방법 |
US7671916B2 (en) * | 2004-06-04 | 2010-03-02 | Electronic Arts Inc. | Motion sensor using dual camera inputs |
BRPI0514613A8 (pt) | 2004-08-23 | 2018-06-12 | Intergraph Software Tech Company | Estabilização de imagem em tempo real |
US20060120615A1 (en) * | 2004-12-06 | 2006-06-08 | Huiqiong Wang | Frame compensation for moving imaging devices |
CN101228549B (zh) * | 2005-03-31 | 2012-10-17 | 本田技研工业株式会社 | 文件管理系统、文件管理方法 |
US7952612B2 (en) * | 2006-06-22 | 2011-05-31 | Nokia Corporation | Method and system for image construction using multiple exposures |
US20090010617A1 (en) * | 2007-07-05 | 2009-01-08 | International Business Machines Corporation | Method and Apparatus for Optimizing Space Allocations for Digital Video Recordings |
KR101392732B1 (ko) | 2007-08-20 | 2014-05-08 | 삼성전자주식회사 | 손떨림에 의한 움직임 추정 장치 및 방법, 그를 이용한영상 촬상 장치 |
KR101268987B1 (ko) * | 2007-09-11 | 2013-05-29 | 삼성전자주식회사 | 메타데이터를 자동적으로 생성/갱신하는 멀티미디어 데이터기록 방법 및 장치 |
US7800652B2 (en) * | 2007-12-12 | 2010-09-21 | Cyberlink Corp. | Reducing video shaking |
US8503863B2 (en) * | 2007-12-18 | 2013-08-06 | Panasonic Corporation | Image reproduction device, image reproduction method, and image reproduction program |
US8493313B2 (en) | 2008-02-13 | 2013-07-23 | Dolby Laboratories Licensing Corporation | Temporal filtering of video signals |
US8260395B2 (en) * | 2008-04-18 | 2012-09-04 | Medtronic, Inc. | Method and apparatus for mapping a structure |
US8164655B2 (en) * | 2008-05-19 | 2012-04-24 | Spatial Cam Llc | Systems and methods for concurrently playing multiple images from a storage medium |
US20100026822A1 (en) * | 2008-07-31 | 2010-02-04 | Itt Manufacturing Enterprises, Inc. | Multiplexing Imaging System for Area Coverage and Point Targets |
JP5233708B2 (ja) * | 2009-02-04 | 2013-07-10 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US20100235314A1 (en) * | 2009-02-12 | 2010-09-16 | Decisive Analytics Corporation | Method and apparatus for analyzing and interrelating video data |
US8458105B2 (en) * | 2009-02-12 | 2013-06-04 | Decisive Analytics Corporation | Method and apparatus for analyzing and interrelating data |
EP2355037A1 (en) * | 2009-12-18 | 2011-08-10 | Nxp B.V. | Method of and system for determining an average colour value for pixels |
US9183560B2 (en) | 2010-05-28 | 2015-11-10 | Daniel H. Abelow | Reality alternate |
CN102457701B (zh) * | 2010-11-02 | 2014-03-12 | 华为终端有限公司 | 图像显示处理方法及装置 |
JP4932027B1 (ja) * | 2010-11-15 | 2012-05-16 | 株式会社ナナオ | 映像表示方法およびそれを用いた液晶表示装置 |
JP6122269B2 (ja) | 2011-12-16 | 2017-04-26 | キヤノン株式会社 | 画像処理装置、画像処理方法、及びプログラム |
US10715817B2 (en) * | 2012-12-19 | 2020-07-14 | Nvidia Corporation | Apparatus and method for enhancing motion estimation based on user input |
US9530310B2 (en) | 2013-11-01 | 2016-12-27 | Xerox Corporation | Method and system for detecting and tracking a vehicle of interest utilizing a network of traffic image-capturing units |
US10733471B1 (en) | 2014-06-27 | 2020-08-04 | Blinker, Inc. | Method and apparatus for receiving recall information from an image |
US9558419B1 (en) | 2014-06-27 | 2017-01-31 | Blinker, Inc. | Method and apparatus for receiving a location of a vehicle service center from an image |
US9760776B1 (en) | 2014-06-27 | 2017-09-12 | Blinker, Inc. | Method and apparatus for obtaining a vehicle history report from an image |
US9754171B1 (en) | 2014-06-27 | 2017-09-05 | Blinker, Inc. | Method and apparatus for receiving vehicle information from an image and posting the vehicle information to a website |
US9600733B1 (en) | 2014-06-27 | 2017-03-21 | Blinker, Inc. | Method and apparatus for receiving car parts data from an image |
US9818154B1 (en) | 2014-06-27 | 2017-11-14 | Blinker, Inc. | System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate |
US9607236B1 (en) | 2014-06-27 | 2017-03-28 | Blinker, Inc. | Method and apparatus for providing loan verification from an image |
US9589202B1 (en) | 2014-06-27 | 2017-03-07 | Blinker, Inc. | Method and apparatus for receiving an insurance quote from an image |
US9594971B1 (en) | 2014-06-27 | 2017-03-14 | Blinker, Inc. | Method and apparatus for receiving listings of similar vehicles from an image |
US9563814B1 (en) | 2014-06-27 | 2017-02-07 | Blinker, Inc. | Method and apparatus for recovering a vehicle identification number from an image |
US9779318B1 (en) | 2014-06-27 | 2017-10-03 | Blinker, Inc. | Method and apparatus for verifying vehicle ownership from an image |
US10867327B1 (en) | 2014-06-27 | 2020-12-15 | Blinker, Inc. | System and method for electronic processing of vehicle transactions based on image detection of vehicle license plate |
US10572758B1 (en) | 2014-06-27 | 2020-02-25 | Blinker, Inc. | Method and apparatus for receiving a financing offer from an image |
US9773184B1 (en) | 2014-06-27 | 2017-09-26 | Blinker, Inc. | Method and apparatus for receiving a broadcast radio service offer from an image |
US9892337B1 (en) | 2014-06-27 | 2018-02-13 | Blinker, Inc. | Method and apparatus for receiving a refinancing offer from an image |
US10540564B2 (en) | 2014-06-27 | 2020-01-21 | Blinker, Inc. | Method and apparatus for identifying vehicle information from an image |
US9589201B1 (en) | 2014-06-27 | 2017-03-07 | Blinker, Inc. | Method and apparatus for recovering a vehicle value from an image |
US10515285B2 (en) | 2014-06-27 | 2019-12-24 | Blinker, Inc. | Method and apparatus for blocking information from an image |
US10579892B1 (en) | 2014-06-27 | 2020-03-03 | Blinker, Inc. | Method and apparatus for recovering license plate information from an image |
CN104599226B (zh) * | 2015-02-14 | 2017-05-10 | 安徽大学 | 一种大容量隐写方法 |
US10019737B2 (en) * | 2015-04-06 | 2018-07-10 | Lewis Beach | Image processing device and method |
US10033926B2 (en) | 2015-11-06 | 2018-07-24 | Google Llc | Depth camera based image stabilization |
CN105282400B (zh) * | 2015-11-20 | 2018-07-13 | 北京理工大学 | 一种基于几何插值的高效视频稳定方法 |
US11386759B2 (en) | 2016-05-09 | 2022-07-12 | Herbert S Kobayashi | Three level detector signal for multicamera video alarm system for remote monitoring and method |
US10679477B2 (en) | 2016-05-09 | 2020-06-09 | Herbert S Kobayashi | Multicamera video alarm system for remote monitoring and method |
KR101818129B1 (ko) * | 2017-04-25 | 2018-01-12 | 동국대학교 산학협력단 | 나선 신경망 기법을 이용한 보행자 인식 장치 및 방법 |
RU2741516C1 (ru) * | 2017-10-09 | 2021-01-26 | Хуавей Текнолоджиз Ко., Лтд. | Способ обработки отображения и электронное устройство |
US11526970B2 (en) * | 2019-09-04 | 2022-12-13 | Samsung Electronics Co., Ltd | System and method for video processing with enhanced temporal consistency |
JP7209653B2 (ja) * | 2020-02-05 | 2023-01-20 | 株式会社ソニー・インタラクティブエンタテインメント | 情報処理装置、情報処理方法、及びプログラム |
CN111312127B (zh) * | 2020-02-24 | 2023-07-28 | 北京京东方光电科技有限公司 | 旋转显示屏的显示画面调整方法及装置、旋转显示屏 |
US11620967B2 (en) * | 2020-03-16 | 2023-04-04 | Lewis S. Beach | Image processing device and method |
CN113534281A (zh) * | 2020-04-14 | 2021-10-22 | 深圳市博利凌科技有限公司 | 用于感测物体表面之后隐藏物位置的扫描仪及方法 |
Family Cites Families (108)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3652790A (en) | 1970-01-28 | 1972-03-28 | Itt | Search and tracking television system and method |
US3891798A (en) | 1971-03-19 | 1975-06-24 | Rockwell International Corp | Tracker unit |
US3952151A (en) * | 1973-08-13 | 1976-04-20 | Trw Inc. | Method and apparatus for stabilized reproduction of remotely-sensed images |
FR2302004A5 (fr) | 1973-08-31 | 1976-09-17 | Thomson Csf | Systeme de poursuite automatique d'une cible, procedant par analyse de contraste video |
US3988533A (en) | 1974-09-30 | 1976-10-26 | Video Tek, Inc. | Video-type universal motion and intrusion detection system |
US4120004A (en) | 1976-01-26 | 1978-10-10 | Coutta John M | Surveillance system |
US4405940A (en) | 1977-05-31 | 1983-09-20 | Westinghouse Electric Corp. | Apparatus and method for preprocessing video frame signals |
NL7801727A (nl) | 1978-02-16 | 1979-08-20 | Hollandse Signaalapparaten Bv | Drempelspanningsselectieschakeling. |
EP0028933A3 (en) | 1979-11-09 | 1981-06-03 | Ascotts Ltd. | Surveillance system |
US4603430A (en) * | 1984-09-21 | 1986-07-29 | Hughes Aircraft Company | Target discrimination utilizing median filters |
JPS61166289A (ja) * | 1985-01-18 | 1986-07-26 | Hitachi Ltd | 画像伝送システム |
JP2528789B2 (ja) | 1985-06-26 | 1996-08-28 | 中央電子 株式会社 | 映像情報管理装置 |
DE3750703T2 (de) * | 1986-03-25 | 1995-03-30 | Nippon Oils & Fats Co Ltd | Transparenter optischer Gegenstand und Verfahren zu seiner Herstellung. |
DE3634414C2 (de) * | 1986-10-09 | 1994-12-08 | Thomson Brandt Gmbh | Fernsehkamera mit einem Target |
JPH0695008B2 (ja) | 1987-12-11 | 1994-11-24 | 株式会社東芝 | 監視装置 |
KR920010034B1 (en) | 1988-03-31 | 1992-11-13 | Toshiba Co Ltd | Image track display apparatus |
GB2220319B (en) * | 1988-07-01 | 1992-11-04 | Plessey Co Plc | Improvements in or relating to image stabilisation |
JP2563567B2 (ja) * | 1989-03-20 | 1996-12-11 | 松下電器産業株式会社 | 揺れ補正装置 |
KR910004009A (ko) | 1989-07-27 | 1991-02-28 | 강진구 | 비디오 카메라의 자동촬영장치 |
US5175694A (en) | 1990-02-08 | 1992-12-29 | The United States Of America As Represented By The Secretary Of The Navy | Centroid target tracking system utilizing parallel processing of digital data patterns |
KR100204101B1 (ko) | 1990-03-02 | 1999-06-15 | 가나이 쓰도무 | 화상처리장치 |
US5030984A (en) * | 1990-07-19 | 1991-07-09 | Eastman Kodak Company | Method and associated apparatus for minimizing the effects of motion in the recording of an image |
JP2863818B2 (ja) * | 1990-08-31 | 1999-03-03 | 工業技術院長 | 動画像の変化点検出方法 |
US5243418A (en) | 1990-11-27 | 1993-09-07 | Kabushiki Kaisha Toshiba | Display monitoring system for detecting and tracking an intruder in a monitor area |
DE69215733T2 (de) * | 1991-04-12 | 1997-04-10 | Victor Company Of Japan | Vorrichtung zur Detektion der relativen Bewegung zwischen Inhalten von aufeinanderfolgenden Halbbildern eines Videosignals |
DE69229146T2 (de) * | 1991-06-25 | 1999-10-28 | Canon Kk | Verfahren und Vorrichtung zur Detektion eines Bewegungsvektors sowie Kodierungsverfahren und Vorrichtung zur Anwendung eines solchen Verfahrens und Vorrichtung |
US5164827A (en) | 1991-08-22 | 1992-11-17 | Sensormatic Electronics Corporation | Surveillance system with master camera control of slave cameras |
US5657402A (en) * | 1991-11-01 | 1997-08-12 | Massachusetts Institute Of Technology | Method of creating a high resolution still image using a plurality of images and apparatus for practice of the method |
US6469746B1 (en) * | 1992-12-28 | 2002-10-22 | Sanyo Electric Co., Ltd. | Multi-vision screen adapter |
WO1994017636A1 (en) | 1993-01-29 | 1994-08-04 | Bell Communications Research, Inc. | Automatic tracking camera control system |
US5473369A (en) * | 1993-02-25 | 1995-12-05 | Sony Corporation | Object tracking apparatus |
ES2258311T3 (es) * | 1993-06-04 | 2006-08-16 | Sarnoff Corporation | Sistema y procedimiento para la estabilizacion electronica de imagenes. |
JPH0773308A (ja) * | 1993-09-03 | 1995-03-17 | Matsushita Electric Ind Co Ltd | デジタル画像処理装置 |
JP3123587B2 (ja) | 1994-03-09 | 2001-01-15 | 日本電信電話株式会社 | 背景差分による動物体領域抽出方法 |
CA2125300C (en) * | 1994-05-11 | 1999-10-12 | Douglas J. Ballantyne | Method and apparatus for the electronic distribution of medical information and patient services |
DE4417128A1 (de) | 1994-05-16 | 1995-12-14 | Elnic Gmbh | Bilderfassungs- und -verarbeitungsverfahren insbesondere zur Steuerung von Vorrichtungen sowie zugehöriges Bilderfassungs- und -verarbeitungssystem |
US5635982A (en) | 1994-06-27 | 1997-06-03 | Zhang; Hong J. | System for automatic video segmentation and key frame extraction for video sequences having both sharp and gradual transitions |
US20020186874A1 (en) * | 1994-09-07 | 2002-12-12 | Jeffrey H. Price | Method and means for image segmentation in fluorescence scanning cytometry |
JP2902966B2 (ja) * | 1994-12-16 | 1999-06-07 | 三洋電機株式会社 | 手振れ補正装置およびそれを用いたビデオカメラ |
KR960028217A (ko) | 1994-12-22 | 1996-07-22 | 엘리 웨이스 | 움직임 검출 카메라 시스템 및 방법 |
JPH08186760A (ja) * | 1994-12-28 | 1996-07-16 | Philips Japan Ltd | 画揺れ補正装置 |
JP3268953B2 (ja) | 1995-02-27 | 2002-03-25 | 三洋電機株式会社 | 追尾領域設定装置,動きベクトル検出回路およびそれを用いた被写体追尾装置 |
US5821985A (en) * | 1995-02-28 | 1998-10-13 | Nec Corporation | Multi-point videoconference system having a fixed control station for data transfer |
JP3892059B2 (ja) | 1995-03-07 | 2007-03-14 | 松下電器産業株式会社 | 動物体追跡装置 |
US5973733A (en) * | 1995-05-31 | 1999-10-26 | Texas Instruments Incorporated | Video stabilization system and method |
ATE241179T1 (de) | 1995-09-15 | 2003-06-15 | Interval Research Corp | Verfahren zur kompression mehrerer videobilder |
US6018562A (en) * | 1995-11-13 | 2000-01-25 | The United States Of America As Represented By The Secretary Of The Army | Apparatus and method for automatic recognition of concealed objects using multiple energy computed tomography |
KR100188116B1 (ko) * | 1995-12-28 | 1999-06-01 | 김광호 | 손떨림 영상 안정화 회로 |
US6108576A (en) | 1996-03-18 | 2000-08-22 | The Research Foundation Of City College Of New York | Time-resolved diffusion tomographic 2D and 3D imaging in highly scattering turbid media |
CA2173677C (en) * | 1996-04-09 | 2001-02-20 | Benoit Sevigny | Processing image data |
US5940139A (en) * | 1996-08-07 | 1999-08-17 | Bell Communications Research, Inc. | Background extraction in a video picture |
US5953055A (en) | 1996-08-08 | 1999-09-14 | Ncr Corporation | System and method for detecting and analyzing a queue |
US5915038A (en) * | 1996-08-26 | 1999-06-22 | Philips Electronics North America Corporation | Using index keys extracted from JPEG-compressed images for image retrieval |
US5974111A (en) | 1996-09-24 | 1999-10-26 | Vivid Technologies, Inc. | Identifying explosives or other contraband by employing transmitted or scattered X-rays |
US5751378A (en) | 1996-09-27 | 1998-05-12 | General Instrument Corporation | Scene change detector for digital video |
US5822542A (en) | 1996-10-31 | 1998-10-13 | Sensormatic Electronics Corporation | Electronic and structural components of an intelligent video information management apparatus |
GB2321358A (en) | 1997-01-20 | 1998-07-22 | O E M Project Management Ltd | Video security system coupled to a fax modem |
JP3317176B2 (ja) * | 1997-02-06 | 2002-08-26 | 松下電器産業株式会社 | 映像伝送装置 |
US6360022B1 (en) * | 1997-04-04 | 2002-03-19 | Sarnoff Corporation | Method and apparatus for assessing the visibility of differences between two signal sequences |
DE69837463T2 (de) * | 1997-06-03 | 2008-01-10 | Koninklijke Philips Electronics N.V. | Navigation durch fernsehprogramme |
JP4240554B2 (ja) * | 1997-07-11 | 2009-03-18 | ソニー株式会社 | 画像符号化装置および画像符号化方法、並びに画像復号化装置および画像復号化方法 |
US6128108A (en) * | 1997-09-03 | 2000-10-03 | Mgi Software Corporation | Method and system for compositing images |
JPH1185654A (ja) * | 1997-09-12 | 1999-03-30 | Matsushita Electric Ind Co Ltd | 仮想wwwサーバ装置およびカメラ制御可能なwwwサーバ装置 |
GB2329541B (en) | 1997-09-17 | 2002-05-29 | Sony Uk Ltd | Security control system |
US5973723A (en) * | 1997-12-12 | 1999-10-26 | Deluca; Michael Joseph | Selective commercial detector and eliminator apparatus and method |
US6363380B1 (en) | 1998-01-13 | 2002-03-26 | U.S. Philips Corporation | Multimedia computer system with story segmentation capability and operating program therefor including finite automation video parser |
US6151336A (en) * | 1998-02-11 | 2000-11-21 | Sorrento Networks, Inc. | Time division multiplexing expansion subsystem |
US6795112B1 (en) * | 1998-03-13 | 2004-09-21 | General Instrument Corp. | Composite video multiplexing scheme |
US6847737B1 (en) * | 1998-03-13 | 2005-01-25 | University Of Houston System | Methods for performing DAF data filtering and padding |
US6211913B1 (en) * | 1998-03-23 | 2001-04-03 | Sarnoff Corporation | Apparatus and method for removing blank areas from real-time stabilized images by inserting background information |
GB9813632D0 (en) | 1998-06-24 | 1998-08-26 | Robinson Alan W | Outside televised broadcast shadow compensator |
US6493041B1 (en) * | 1998-06-30 | 2002-12-10 | Sun Microsystems, Inc. | Method and apparatus for the detection of motion in video |
US6714909B1 (en) * | 1998-08-13 | 2004-03-30 | At&T Corp. | System and method for automated multimedia content indexing and retrieval |
US6459822B1 (en) * | 1998-08-26 | 2002-10-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Video image stabilization and registration |
US6741656B1 (en) * | 1998-12-16 | 2004-05-25 | Matsushita Electric Industrial Co., Ltd. | Image communication apparatus |
CN1116649C (zh) * | 1998-12-23 | 2003-07-30 | 皇家菲利浦电子有限公司 | 个性化视频分类与获取系统 |
EP1185106A4 (en) * | 1999-01-29 | 2006-07-05 | Mitsubishi Electric Corp | METHOD FOR ENCODING IMAGE CHARACTERISTICS AND IMAGE SEARCHING METHOD |
US6928233B1 (en) | 1999-01-29 | 2005-08-09 | Sony Corporation | Signal processing method and video signal processor for detecting and analyzing a pattern reflecting the semantics of the content of a signal |
KR100442991B1 (ko) * | 1999-02-01 | 2004-08-04 | 주식회사 팬택앤큐리텔 | 트리구조의 동영상 색인 기술자를 이용한 검색장치 및 그 방법 |
CN1165174C (zh) | 1999-03-16 | 2004-09-01 | 研究中心实验室(有限) | 闭路电视(cctv)系统 |
FR2794880B1 (fr) * | 1999-06-10 | 2001-12-14 | Philippe Crochat | Procede automatique de suivi d'une cible en mouvement par une camera electronique et dispositif pour sa mise en oeuvre |
US6476858B1 (en) | 1999-08-12 | 2002-11-05 | Innovation Institute | Video monitoring and security system |
US6694064B1 (en) * | 1999-11-19 | 2004-02-17 | Positive Systems, Inc. | Digital aerial image mosaic method and apparatus |
US6683995B2 (en) * | 1999-12-23 | 2004-01-27 | Eastman Kodak Company | Method and apparatus for correcting large defects in digital images |
JP2003519410A (ja) * | 1999-12-30 | 2003-06-17 | アプライド、サイエンス、フィクシャン、インク | 可視光を使用してデジタルフィルムを現像するための改良されたシステムおよび方法 |
AU2001239745A1 (en) * | 2000-02-03 | 2001-08-14 | Applied Science Fiction | Method, system, and software for signal processing using pyramidal decomposition |
US6786655B2 (en) * | 2000-02-03 | 2004-09-07 | Eastman Kodak Company | Method and system for self-service film processing |
WO2001057594A2 (en) * | 2000-02-03 | 2001-08-09 | Applied Science Fiction | Film processing solution cartridge and method for developing and digitizing film |
JP2001243477A (ja) * | 2000-02-29 | 2001-09-07 | Toshiba Corp | 動画像による交通量解析装置 |
US6557251B2 (en) * | 2000-03-10 | 2003-05-06 | Infotech, A.G. | Digital feature separation |
US20040125877A1 (en) | 2000-07-17 | 2004-07-01 | Shin-Fu Chang | Method and system for indexing and content-based adaptive streaming of digital video content |
DE20104329U1 (de) | 2001-03-14 | 2001-05-31 | Vtq Videotronik Gmbh | Überwachungseinrichtung mit Sensoren |
TWI236294B (en) | 2001-05-11 | 2005-07-11 | Ulead Systems Inc | Method and device for capturing digital video |
US20020168091A1 (en) * | 2001-05-11 | 2002-11-14 | Miroslav Trajkovic | Motion detection via image alignment |
US6525658B2 (en) * | 2001-06-11 | 2003-02-25 | Ensco, Inc. | Method and device for event detection utilizing data from a multiplicity of sensor sources |
US6805501B2 (en) * | 2001-07-16 | 2004-10-19 | Eastman Kodak Company | System and method for digital film development using visible light |
US20050007452A1 (en) * | 2001-09-07 | 2005-01-13 | Mckay Therman Ward | Video analyzer |
KR100919340B1 (ko) * | 2001-09-07 | 2009-09-25 | 인터그래프 소프트웨어 테크놀로지스 캄파니 | 비디오 이미지의 역다중화 방법, 장치 및 컴퓨터 프로그램제품 |
US6831590B1 (en) * | 2001-09-12 | 2004-12-14 | Cyterra Corporation | Concealed object detection |
US6816622B2 (en) * | 2001-10-18 | 2004-11-09 | Microsoft Corporation | Generating resized images using ripple free image filtering |
US6944331B2 (en) * | 2001-10-26 | 2005-09-13 | National Instruments Corporation | Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching |
EP1316933B1 (en) | 2001-11-28 | 2006-08-09 | Matsushita Electric Industrial Co., Ltd. | Home security system |
US6999613B2 (en) | 2001-12-28 | 2006-02-14 | Koninklijke Philips Electronics N.V. | Video monitoring and surveillance systems capable of handling asynchronously multiplexed video |
WO2004066609A2 (en) | 2003-01-23 | 2004-08-05 | Intergraph Hardware Technologies Company | Video content parser with scene change detector |
CN101431685B (zh) * | 2003-06-23 | 2011-05-25 | 索尼株式会社 | 处理图像的方法和设备 |
US7840067B2 (en) * | 2003-10-24 | 2010-11-23 | Arcsoft, Inc. | Color matching and color correction for images forming a panoramic image |
US7587086B2 (en) * | 2004-06-04 | 2009-09-08 | Microsoft Corporation | Identifying selected pixels in a digital image |
BRPI0514613A8 (pt) * | 2004-08-23 | 2018-06-12 | Intergraph Software Tech Company | Estabilização de imagem em tempo real |
-
2002
- 2002-09-06 KR KR1020047003425A patent/KR100919340B1/ko not_active IP Right Cessation
- 2002-09-06 CN CN200710088981XA patent/CN101072364B/zh not_active Expired - Lifetime
- 2002-09-06 IL IL16075902A patent/IL160759A0/xx unknown
- 2002-09-06 BR BRPI0212546-3A patent/BR0212546A/pt not_active Application Discontinuation
- 2002-09-06 NZ NZ531976A patent/NZ531976A/en not_active IP Right Cessation
- 2002-09-06 WO PCT/US2002/028514 patent/WO2003024112A1/en not_active Application Discontinuation
- 2002-09-06 BR BRPI0212375A patent/BRPI0212375B1/pt not_active IP Right Cessation
- 2002-09-06 WO PCT/US2002/028351 patent/WO2003030103A1/en not_active Application Discontinuation
- 2002-09-06 BR BRPI0212377A patent/BRPI0212377B1/pt not_active IP Right Cessation
- 2002-09-06 KR KR1020047003443A patent/KR100927918B1/ko not_active IP Right Cessation
- 2002-09-06 MX MXPA04002209A patent/MXPA04002209A/es active IP Right Grant
- 2002-09-06 NZ NZ531975A patent/NZ531975A/en not_active IP Right Cessation
- 2002-09-06 EP EP02770476.6A patent/EP1430444B1/en not_active Expired - Lifetime
- 2002-09-06 IL IL16076002A patent/IL160760A0/xx unknown
- 2002-09-06 RU RU2004110724/09A patent/RU2310289C2/ru not_active IP Right Cessation
- 2002-09-06 MX MXPA04002211A patent/MXPA04002211A/es active IP Right Grant
- 2002-09-06 US US10/237,167 patent/US6654049B2/en not_active Expired - Lifetime
- 2002-09-06 IL IL16075802A patent/IL160758A0/xx unknown
- 2002-09-06 EP EP02773294A patent/EP1428378B1/en not_active Expired - Lifetime
- 2002-09-06 RU RU2004110723/09A patent/RU2308761C2/ru not_active IP Right Cessation
- 2002-09-06 CA CA2459823A patent/CA2459823C/en not_active Expired - Fee Related
- 2002-09-06 CA CA2459821A patent/CA2459821C/en not_active Expired - Lifetime
- 2002-09-06 WO PCT/US2002/028352 patent/WO2003024095A1/en not_active Application Discontinuation
- 2002-09-06 MX MXPA04002210A patent/MXPA04002210A/es active IP Right Grant
- 2002-09-06 RU RU2004110722/09A patent/RU2308816C2/ru not_active IP Right Cessation
- 2002-09-06 US US10/237,249 patent/US7079701B2/en not_active Expired - Fee Related
- 2002-09-06 CN CNB028175492A patent/CN1299240C/zh not_active Expired - Fee Related
- 2002-09-06 US US10/237,251 patent/US7310110B2/en not_active Expired - Fee Related
- 2002-09-06 AU AU2002327612A patent/AU2002327612B2/en not_active Ceased
- 2002-09-06 AU AU2002336445A patent/AU2002336445B2/en not_active Expired
- 2002-09-06 CN CNB028175484A patent/CN100359923C/zh not_active Expired - Lifetime
- 2002-09-06 EP EP02763611A patent/EP1428389A1/en not_active Withdrawn
- 2002-09-06 KR KR1020047003447A patent/KR100888095B1/ko not_active IP Right Cessation
- 2002-09-06 CA CA2459732A patent/CA2459732C/en not_active Expired - Fee Related
- 2002-09-06 CN CNB028175476A patent/CN100559873C/zh not_active Expired - Fee Related
- 2002-09-06 AU AU2002335713A patent/AU2002335713B2/en not_active Ceased
- 2002-09-06 NZ NZ531974A patent/NZ531974A/en not_active IP Right Cessation
-
2003
- 2003-09-24 US US10/669,818 patent/US7436437B2/en active Active
-
2004
- 2004-03-05 IL IL160759A patent/IL160759A/en not_active IP Right Cessation
- 2004-03-11 ZA ZA200401972A patent/ZA200401972B/en unknown
- 2004-03-11 ZA ZA200401970A patent/ZA200401970B/en unknown
- 2004-04-07 CO CO04033091A patent/CO5570718A2/es not_active Application Discontinuation
- 2004-04-07 CO CO04033090A patent/CO5580855A2/es not_active Application Discontinuation
- 2004-04-07 CO CO04033092A patent/CO5650190A2/es not_active Application Discontinuation
-
2005
- 2005-03-07 HK HK05101928A patent/HK1069470A1/xx not_active IP Right Cessation
- 2005-06-08 HK HK05104786A patent/HK1073038A1/xx not_active IP Right Cessation
- 2005-08-08 HK HK05106787.9A patent/HK1074726A1/xx not_active IP Right Cessation
-
2006
- 2006-05-26 US US11/441,488 patent/US7477797B2/en not_active Expired - Fee Related
-
2007
- 2007-12-17 US US11/958,029 patent/US8233044B2/en not_active Expired - Fee Related
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
MXPA04002209A (es) | Reconocimiento de objeto oculto. | |
AU2002335713A1 (en) | Concealed object recognition | |
Toet et al. | New false color mapping for image fusion | |
CN106981054B (zh) | 一种图像处理方法及电子设备 | |
KR101514519B1 (ko) | 디지털 방사선 영상 관찰을 위한 라이트 박스 효과 | |
WO1999019827A1 (en) | Method and apparatus for unencumbered capture of an object | |
WO2008102296A2 (en) | Method for enhancing the depth sensation of an image | |
Tumblin | Three methods of detail-preserving contrast reduction for displayed images | |
Reinhard et al. | Image display algorithms for high‐and low‐dynamic‐range display devices | |
JP2006186983A (ja) | カラー画像の露出補正方法 | |
Ledda | Development of a perceptual Tone Mapping Operator | |
JP5050141B2 (ja) | カラー画像の露出評価方法 | |
CN111510697A (zh) | 图像处理设备、图像处理方法和存储介质 | |
Patel et al. | Adaptive exposure fusion for high dynamic range imaging | |
Spitzer et al. | Biological gain control for high dynamic range compression | |
JPH07134769A (ja) | 画像合成におけるアンチエリアシング処理方法 | |
Ramakrishnan | Exposure fusion using particle filtering techniques | |
Slavković-Ilić et al. | Potential applications of HDR in echocardiography | |
JP6270448B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
JP2020016546A (ja) | 画像処理装置、画像処理方法及びプログラム | |
Ciurescu et al. | Digital Radiography using high dynamic range technique | |
JP2021082069A (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP2004234133A (ja) | 画像処理装置 | |
Levén | Integrating HDR with a Real-Time Graphics Engine | |
GB2442256A (en) | Position-dependent spatial filtering |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GB | Transfer or rights | ||
FG | Grant or registration |