ES2394068T3 - Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía - Google Patents

Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía Download PDF

Info

Publication number
ES2394068T3
ES2394068T3 ES10711823T ES10711823T ES2394068T3 ES 2394068 T3 ES2394068 T3 ES 2394068T3 ES 10711823 T ES10711823 T ES 10711823T ES 10711823 T ES10711823 T ES 10711823T ES 2394068 T3 ES2394068 T3 ES 2394068T3
Authority
ES
Spain
Prior art keywords
pixels
entropy
color
evaluation window
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES10711823T
Other languages
English (en)
Inventor
Manfred Hiebl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Airbus Defence and Space GmbH
Original Assignee
EADS Deutschland GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by EADS Deutschland GmbH filed Critical EADS Deutschland GmbH
Application granted granted Critical
Publication of ES2394068T3 publication Critical patent/ES2394068T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • G06T2207/30184Infrastructure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Probability & Statistics with Applications (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

Procedimiento para determinar curvas del borde de un objeto en una imagen tomada de una cámaramultiespectral, que comprende los pasos de procedimiento siguientes:a. conversión de la imagen tomada en una imagen en color falsa digital,b. en la imagen en color falsa se adjudica a cada píxel un valor de tono de color del espacio de color HSV,correspondiendo el valor de tono de color a un ángulo de color H en un círculo de color prefijado,c. clasificación de los distintos píxeles como píxeles de objeto y píxeles de fondo, definiéndose como píxeles deobjeto aquellos píxeles cuyos valores de tono de color están dentro de un intervalo de valores prefijado,d. determinación de un perfil de entropía (figura 5) por medio de una ventana de evaluación desplazable,calculándose para cada píxel la entropía de mezcla S de píxeles de objeto y píxeles de fondo según **Fórmula**en donde nA indica el número de píxeles de objeto dentro de la ventana de evaluación, nB indica el número depíxeles de fondo dentro de la ventana de evaluación y k indica un factor de proporcionalidad,realizándose una diferenciación y una consideración de valores extremos del perfil de entropía obtenido.

Description

Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía.
La invención concierne a un procedimiento para la determinación de curvas del borde de un objeto basada en la entropía según las características de la reivindicación 1 vigente.
5 Es sabido que el contenido de información medio de una imagen se caracteriza por la entropía. El valor absoluto de la entropía da información sobre el número mínimo de bits que son necesarios para almacenar los píxeles de una imagen. Se informa con esto también acerca de si se puede conseguir con técnicas de compresión una reducción de la demanda de espacio de memoria, sin que se origine con ello una pérdida de información.
Se conoce por A. Shiozaki: "Edge extraction using entropy operator"; Academic Press Inc. 1986; Computer vision
10 graphics, and image processing, 1986, vol. 36, páginas 1-9, el recurso de emplear operadores de entropía para la detección del borde de un objeto en imágenes.
Se conocen también por el estado de la técnica procedimientos que aprovechan la entropía en el procesamiento de imágenes tomadas por medio de un reconocimiento aéreo del suelo, por ejemplo en rastreadores de cantos. En un rastreador de cantos se analiza la imagen a analizar atendiendo a cantos paralelos. Se interrumpe la búsqueda
15 cuando el grosor de un canto cae por debajo de un valor umbral prefijable. Con estos procedimientos es posible, por ejemplo, la detección de carreteras y caminos. La desventaja de este procedimiento es que proporciona buenos resultados solamente en aquellos objetos que presentan un contorno de objeto fijamente perfilado.
H. D. Cheng et al.,"Color image segmentation: advances and prospects", Pattern Recognition 34, Elsevier Science
Ltd. 2001, páginas 2259-2281, se ocupa de la segmentación de imágenes en color, especialmente imágenes 20 multiespectrales.
WENZAHN DAI et al: "An Image Edge Detection Algorithm Based on Local Entropy", Integration Technology, 2007. ICIT'07, IEEE International Conference on, IEEE, PI, 1 de Marzo de 2007, páginas 418-420, se ocupa de la detección de cantos basada en la entropía.
El cometido de la invención consiste en indicar un procedimiento con el cual se puedan detectar y clasificar objetos 25 en base a su color y tamaño.
Este problema se resuelve con las características de la reivindicación 1. Realizaciones ventajosas del procedimiento son objeto de reivindicaciones subordinadas.
El procedimiento según la invención para determinar curvas del borde de un objeto en una imagen tomada de una cámara multiespectral comprende los pasos de procedimientos siguientes:
30 a. conversión de la imagen tomada en una imagen en color falsa,
b.
en la imagen en color falsa se adjudica a cada píxel un valor de tono de color del espacio de color HSV, correspondiendo el valor de tono de color a un ángulo de color H en un círculo de color prefijado,
c.
clasificación de los píxeles como píxeles de objeto y píxeles de fondo, definiéndose como píxeles de objeto los píxeles cuyos valores de tono de color están situados dentro de un intervalo de valores prefijado,
35 d. determinación de un perfil de entropía (figura 5) por medio de una ventana de evaluación desplazable, calculándose para cada píxel en la imagen tomada la entropía de mezcla S de píxeles de objeto y píxeles de fondo según
40 en donde nA indica el número de pixeles del objeto dentro de la ventana de evaluación, nB indica el número de píxeles de fondo dentro de la ventana de evaluación y k indica un factor de proporcionalidad,
realizándose una diferenciación y una consideración de valores extremos del perfil de entropía obtenido.
En el procesamiento de imágenes que se toman por medio de un reconocimiento aéreo del suelo, se diferencia entre objetos artificiales y naturales. Se pueden definir objetos monocromos debido a que se les puede adjudicar un tono
45 de color determinado. Los objetos multicromos se pueden definir como la suma de varios objetos monocromos. El procedimiento según la invención se puede emplear en la clasificación de objetos monocromos, es decir, de un solo color, y también de objetos multicromos, es decir, de varios colores.
En las modernas cámaras multiespectrales el material de imagen de partida se presenta en forma de imágenes RGB (RGB = rojo, verde, azul). Además, algunas cámaras tienen disponible también un color más que está en el dominio de infrarrojos y que se denomina IR. Dado que el color sólido posee poca fuerza expresiva debido a la llamada confusión del color (por consiguiente, un automóvil pintado de verde no se puede diferenciar de la pradera verde en la que está aparcado), tiene que ser transformado, para hacer posible la diferenciación, en otro espacio de color, el llamado espacio HSV (HSV = Hue(tono de color), S = Saturation(saturación), V = Volume(valor de claridad). Para el
5 cálculo de conversión existen varios procedimientos diferentes conocidos para un experto, pero que son equivalentes en su resultado.
Una diferencia esencial entre representación de color y representación de tono de color está formada por la invarianza del tono de color frente a las fluctuaciones de la claridad, es decir que mientras que el color varía a consecuencia de condiciones de iluminación modificadas, el tono de color permanece inalterado dentro de un amplio
10 intervalo, de modo que se puede volver a localizar un objeto con ayuda del tono de color (H) incluso después de transcurrir un período de tiempo determinado.
En lo que sigue se explican la invención y ejecuciones ventajosas con ayuda de figuras. Muestran:
La figura 1, un fragmento a modo de ejemplo de una imagen tomada con los valores de tono de color de los distintos píxeles,
15 La figura 2, el fragmento de la figura 1 con píxeles definidos como píxeles de objeto y píxeles de fondo,
La figura 3, un fragmento a modo de ejemplo de una imagen tomada con una ventana de evaluación dada a título de ejemplo,
La figura 4, el fragmento de la figura 2 con los valores de entropía correspondientes calculados con una ventana de tiempo según la figura 3, y
20 La figura 5, una representación en perspectiva a modo de ejemplo de un objeto clasificado con un embudo de entropía.
En el procedimiento según la invención se convierte la imagen tomada, en un primer paso, en una imagen en color falsa. Por tanto, la imagen tomada puede considerarse como una superficie pixelada constituida por un número prefijable de filas y columnas.
25 En esta imagen en color falsa se asigna seguidamente a cada píxel un valor de tono de color del espacio de color HSV, correspondiendo el valor de tono de color a un ángulo de color H en un círculo de color prefijado. La representación de un espacio de color HSV es conocida para un experto, por ejemplo por http://de.wikipedia.org/wiki/HSV-Farbraum.
La figura 1 muestra un fragmento de una imagen tomada en el que se ha asignado un valor de tono de color a los
30 distintos píxeles. Por motivos de facilidad de representación, no se han representado las gradaciones de color tal como éstas son conocidas en una imagen en color falsa.
En un paso siguiente se clasifican los distintos píxeles como píxeles de objeto y píxeles de fondo. Como píxeles de objeto se definen aquí aquellos píxeles cuyo valor de tono de color está dentro de un intervalo de valores prefijado. Los pixeles cuyo valor de tono de color están fuera de este intervalo de valores se definen como píxeles de fondo. El
35 intervalo de valores prefijado se toma aquí de un banco de datos que está entrenado para los objetos a encontrar de conformidad con sus tonos de color.
La figura 2 muestra el fragmento conocido por la figura 1 con los píxeles identificados como píxeles de objeto. A título de ejemplo, se han definido en la figura 2 como píxeles de objeto aquellos píxeles que presentan un valor de tono de color de (189!10)º. Esta clasificación corresponde entonces a un objeto determinado, por ejemplo una
40 excavación del terreno llena de agua. Una excavación del terreno llena, por ejemplo, de aceite tendría que clasificarse, por ejemplo, con valores de tono de color entre (151!10)º.
En el paso siguiente del procedimiento se determina un perfil de entropía para la imagen clasificada mostrada en la figura 2, calculándose para cada píxel la entropía de mezcla S de píxeles de objeto y píxeles de fondo. Se entra aquí brevemente sobre el antecedente teórico del método y se le explica brevemente con ayuda de la definición de
45 entropía de Boltzmann: Se considera una distribución de píxeles de n píxeles con nA píxeles de objeto y nB píxeles de fondo. El punto de partida es la definición de entropía de Boltzmann
siendo k el factor de Boltzmann y ∀ el número de posibilidades de disposición de los nA píxeles de objeto y los nB píxeles de fondo.
50 Se busca el número de diferentes posibilidades de realización para disponer los nA píxeles de objeto y los nB píxeles 3
de fondo en una rejilla. El número de posibilidades para distribuir nA píxeles de objeto y nB píxeles de fondo diferenciables sobre n lugares viene dado por
La incorporación de la ecuación (2) en la ecuación (1) y la aplicación de la fórmula de Stirling ln n! # n ln n -n proporcionan la entropía de mezcla
en donde el subíndice mix significa mezcla.
La entropía se indica en unidades arbitrarias. Convenientemente, se utiliza el factor de proporcionalidad (constante de Boltzmann) igual a uno.
En una realización ventajosa de la invención se define una ventana de evaluación con una longitud y anchura prefijables, estando el tamaño de la ventana de evaluación convenientemente acomodado al tamaño esperado del objeto. La figura 3 muestra a modo de ejemplo una ventana de evaluación de 4x4 píxeles de tamaño. La entropía de mezcla según la ecuación (3) se calcula de manera ventajosa localmente dentro de la ventana de evaluación A. En este caso, nA indica el número de los píxeles del objeto y nB el número de los píxeles del fondo, los cuales están ambos dentro de la ventana de evaluación. La entropía de mezcla calculada con la ecuación (3) se asigna al píxel que forma el píxel del centro de gravedad de la ventana de evaluación A. En el caso representado en la figura 3 se define como píxel del centro de gravedad, por ejemplo, el píxel S cuya esquina superior izquierda forma el centro de gravedad de la ventana de evaluación A. Por supuesto, cualquier otra esquina de un píxel puede ser también la norma para la definición de un píxel como píxel de centro de gravedad.
En otro paso ventajoso del procedimiento se desplaza la ventana de evaluación A en la dirección de la longitud y/o la anchura de dicha ventana de evaluación A, cada vez en al menos un píxel. En esta nueva posición se vuelve a calcular la entropía de mezcla según la ecuación (3) y se la adjudica al respectivo píxel de centro de gravedad. Estos pasos del procedimiento se repiten hasta que se haya adjudicado un valor de entropía a cada píxel de la imagen tomada que se debe analizar. La figura 4 muestra los valores de entropía locales en un fragmento según la figura 2 para el caso del ejemplo de una ventana de evaluación de 4x4 píxeles de tamaño según la figura 3.
En el cálculo sucesivo de la entropía de mezcla se obtiene el valor cero en todos los sitios en los que está presente solamente una clase de píxeles, es decir que la ventana de evaluación está enteramente fuera del objeto a buscar o enteramente dentro del mismo. Por el contrario, se obtienen valores diferentes de cero en todos los sitios en los que está contenido al menos un píxel de cada clase (píxel de objeto o píxel de fondo) en la ventana de evaluación. Se obtiene así un perfil de entropía. La figura 5 muestra la representación en perspectiva de la distribución de entropía de la figura 4. El perfil de entropía muestra un perfil de altura de la entropía sobre una superficie pixelada. En el presente ejemplo se forma un mínimo de entropía en la zona de la columna 4 y la fila 5. El perfil muestra en este sitio una especie de embudo de entropía. Este embudo de entropía se forma debido a que el tamaño de la ventana de evaluación es más pequeño que el tamaño real del objeto a buscar. Como ya se ha explicado más arriba, se calcula la entropía como cero cuando están presentes dentro de la ventana de evaluación exclusivamente píxeles de una clase de ellos, aquí píxeles de objeto. La punta del embudo de entropía marca el centro de gravedad del objeto encontrado.
Según la invención, se realiza una diferenciación del perfil de entropía con una consideración subsiguiente de valores extremos. Se puede establecer así una curva del borde del objeto. Esta curva del borde del objeto se caracteriza porque se pueden encontrar cada vez las más altas diferencias de entropía allí donde el número de píxeles de objeto y el número de píxeles de fondo en la ventana de evaluación eran iguales durante el cálculo del valor de entropía según la ecuación (3). Si se proyecta la rebaba (valores extremos) del perfil de entropía sobre la imagen tomada, se obtiene entonces una medida del tamaño del objeto.
Con el procedimiento según la invención es posible que objetos afectados de ruido de color con y sin contorno fijo sean diferenciados uno de otro y clasificados con seguridad. El procedimiento se ofrece especialmente para cámaras multiespectrales de cuatro colores de alta resolución con supresión del componente azul (cámara de color falso). El procedimiento propuesto es apto para tiempo real y se puede transmitir a imágenes movidas con miras al seguimiento de objetivos. Otra ventaja adicional del procedimiento es que se pueden descubrir también objetivos camuflados.

Claims (1)

  1. REIVINDICACIONES
    1. Procedimiento para determinar curvas del borde de un objeto en una imagen tomada de una cámara multiespectral, que comprende los pasos de procedimiento siguientes:
    a.
    conversión de la imagen tomada en una imagen en color falsa digital,
    b.
    en la imagen en color falsa se adjudica a cada píxel un valor de tono de color del espacio de color HSV, correspondiendo el valor de tono de color a un ángulo de color H en un círculo de color prefijado,
    c.
    clasificación de los distintos píxeles como píxeles de objeto y píxeles de fondo, definiéndose como píxeles de objeto aquellos píxeles cuyos valores de tono de color están dentro de un intervalo de valores prefijado,
    d.
    determinación de un perfil de entropía (figura 5) por medio de una ventana de evaluación desplazable,
    en donde nA indica el número de píxeles de objeto dentro de la ventana de evaluación, nB indica el número de píxeles de fondo dentro de la ventana de evaluación y k indica un factor de proporcionalidad,
    realizándose una diferenciación y una consideración de valores extremos del perfil de entropía obtenido.
    15 2. Procedimiento según la reivindicación 1, caracterizado porque en el paso de procedimiento d) se calcula la entropía de mezcla en una ventana de evaluación de longitud y anchura prefijables, siendo desplazable la ventana de evaluación sobre la imagen pixelada generada en el paso c) y adjudicándose la entropía de mezcla calculada S al respectivo píxel de centro de gravedad de la ventana de evaluación, y porque en un paso de procedimiento adicional d1) se desplaza la ventana de evaluación en al menos un píxel en la dirección de la longitud y/o la anchura y porque
    20 en un paso de procedimiento adicional d2) se repite el paso de procedimiento d) hasta que se haya adjudicado una entropía de mezcla a cada píxel.
ES10711823T 2009-02-19 2010-02-09 Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía Active ES2394068T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102009009572A DE102009009572B3 (de) 2009-02-19 2009-02-19 Verfahren zur entropiebasierten Bestimmung von Objektrandkurven
DE102009009572 2009-02-19
PCT/DE2010/000147 WO2010097069A1 (de) 2009-02-19 2010-02-09 Verfahren zur entopiebasierten bestimmung von objektrandkurven

Publications (1)

Publication Number Publication Date
ES2394068T3 true ES2394068T3 (es) 2013-01-16

Family

ID=42169010

Family Applications (1)

Application Number Title Priority Date Filing Date
ES10711823T Active ES2394068T3 (es) 2009-02-19 2010-02-09 Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía

Country Status (8)

Country Link
US (1) US8682067B2 (es)
EP (1) EP2399241B1 (es)
AU (1) AU2010217093A1 (es)
BR (1) BRPI1008595A2 (es)
DE (1) DE102009009572B3 (es)
ES (1) ES2394068T3 (es)
RU (1) RU2534824C2 (es)
WO (1) WO2010097069A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019091577A1 (en) * 2017-11-13 2019-05-16 Koninklijke Philips N.V. Systems and methods for monitoring and controlling intravenous flow/drip rate
CN115100196B (zh) * 2022-08-24 2022-11-18 聊城市洛溪信息科技有限公司 一种基于图像分割的冲压件除锈效果评估方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5448652A (en) * 1991-09-27 1995-09-05 E. I. Du Pont De Nemours And Company Adaptive display system
US5375177A (en) * 1991-09-27 1994-12-20 E. I. Du Pont De Nemours And Company Method of identifying and characterizing a valid object by color
US5579409A (en) * 1991-09-27 1996-11-26 E. I. Du Pont De Nemours And Company Methods for determining the exterior points of an object in a background
GB9810771D0 (en) * 1998-05-19 1998-07-15 Active Silicon Limited Method of detecting colours
JP2000293696A (ja) * 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd 画像認識装置
US7039229B2 (en) * 2000-08-14 2006-05-02 National Instruments Corporation Locating regions in a target image using color match, luminance pattern match and hill-climbing techniques
DE60109278T2 (de) * 2001-06-26 2006-03-30 Nokia Corp. Verfahren und Gerät zur Lokalisierung von Schriftzeichen in Bildern aus einer Digitalkamera
US7085426B2 (en) * 2001-10-15 2006-08-01 Jonas August Volterra filters for enhancement of contours in images
US6944331B2 (en) * 2001-10-26 2005-09-13 National Instruments Corporation Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching
US7035461B2 (en) * 2002-08-22 2006-04-25 Eastman Kodak Company Method for detecting objects in digital images
RU2295297C2 (ru) * 2003-12-02 2007-03-20 Александр Васильевич Жукоцкий Способ исследования и диагностики состояния биологического объекта или его части
US20050207653A1 (en) * 2004-03-16 2005-09-22 Nikitin Alexei V Method for analysis of line objects
JP4540492B2 (ja) * 2005-01-28 2010-09-08 Hoya株式会社 色変換マトリクス算出方法および画像信号処理装置
US7545540B2 (en) * 2005-05-27 2009-06-09 Xerox Corporation Method and system for processing color image data
RU2338252C1 (ru) * 2007-03-06 2008-11-10 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ предотвращения печати размытых фотографий

Also Published As

Publication number Publication date
WO2010097069A1 (de) 2010-09-02
EP2399241B1 (de) 2012-09-19
BRPI1008595A2 (pt) 2016-03-15
US8682067B2 (en) 2014-03-25
AU2010217093A1 (en) 2011-09-08
RU2534824C2 (ru) 2014-12-10
EP2399241A1 (de) 2011-12-28
DE102009009572B3 (de) 2010-06-17
RU2011138072A (ru) 2013-04-10
US20120033877A1 (en) 2012-02-09

Similar Documents

Publication Publication Date Title
Alavipanah et al. The effect of multi-dimensional indicators on urban thermal conditions
Geletič et al. GIS-based delineation of local climate zones: The case of medium-sized Central European cities
Feng et al. Using land use change trajectories to quantify the effects of urbanization on urban heat island
Garilli et al. Automatic detection of stone pavement's pattern based on UAV photogrammetry
Quan Enhanced geographic information system-based mapping of local climate zones in Beijing, China
CN104463868B (zh) 一种基于无参数高分辨率影像的建筑高度快速获取方法
JP6646527B2 (ja) 物体検知評価システム及び物体検知評価方法
Kwong et al. Tree height mapping and crown delineation using LiDAR, large format aerial photographs, and unmanned aerial vehicle photogrammetry in subtropical urban forest
Equere et al. Integration of topological aspect of city terrains to predict the spatial distribution of urban heat island using GIS and ANN
CN111178169A (zh) 一种基于遥感影像的城市地表覆盖物精细分类方法及装置
Chen et al. The investigation of urbanization and urban heat island in Beijing based on remote sensing
CN111243003B (zh) 车载双目摄像机及其检测道路限高杆的方法、装置
CN109060133A (zh) 遥感地表温度降尺度算法
CN101403795A (zh) 估算城区树覆盖率的遥感测量方法及其遥感测量系统
Yang et al. A multi-band watershed segmentation method for individual tree crown delineation from high resolution multispectral aerial image
Ren et al. Spatial estimation of urban forest structures with Landsat TM data and field measurements
CN109614871A (zh) 一种光伏屋顶及光伏障碍物自动识别算法
CN105678225A (zh) 一种城市热岛效应空间变化检测方法及系统
ES2394068T3 (es) Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía
Zhang et al. Surface urban heat island in Shanghai, China: Examining the relationship between land surface temperature and impervious surface fractions derived from Landsat ETM+ imagery
Rumora et al. Spatial video remote sensing for urban vegetation mapping using vegetation indices
CN104602413A (zh) 一种调节照明装置的方法及系统
Mokroš et al. Unmanned aerial vehicle use for wood chips pile volume estimation
Wang et al. Building heights estimation using ZY3 data—A case study of Shanghai, China
Carretas et al. Atmospheric visibility and Angström exponent measurements through digital photography