ES2394068T3 - Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía - Google Patents
Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía Download PDFInfo
- Publication number
- ES2394068T3 ES2394068T3 ES10711823T ES10711823T ES2394068T3 ES 2394068 T3 ES2394068 T3 ES 2394068T3 ES 10711823 T ES10711823 T ES 10711823T ES 10711823 T ES10711823 T ES 10711823T ES 2394068 T3 ES2394068 T3 ES 2394068T3
- Authority
- ES
- Spain
- Prior art keywords
- pixels
- entropy
- color
- evaluation window
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20076—Probabilistic image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30212—Military
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Probability & Statistics with Applications (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Procedimiento para determinar curvas del borde de un objeto en una imagen tomada de una cámaramultiespectral, que comprende los pasos de procedimiento siguientes:a. conversión de la imagen tomada en una imagen en color falsa digital,b. en la imagen en color falsa se adjudica a cada píxel un valor de tono de color del espacio de color HSV,correspondiendo el valor de tono de color a un ángulo de color H en un círculo de color prefijado,c. clasificación de los distintos píxeles como píxeles de objeto y píxeles de fondo, definiéndose como píxeles deobjeto aquellos píxeles cuyos valores de tono de color están dentro de un intervalo de valores prefijado,d. determinación de un perfil de entropía (figura 5) por medio de una ventana de evaluación desplazable,calculándose para cada píxel la entropía de mezcla S de píxeles de objeto y píxeles de fondo según **Fórmula**en donde nA indica el número de píxeles de objeto dentro de la ventana de evaluación, nB indica el número depíxeles de fondo dentro de la ventana de evaluación y k indica un factor de proporcionalidad,realizándose una diferenciación y una consideración de valores extremos del perfil de entropía obtenido.
Description
Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía.
La invención concierne a un procedimiento para la determinación de curvas del borde de un objeto basada en la entropía según las características de la reivindicación 1 vigente.
5 Es sabido que el contenido de información medio de una imagen se caracteriza por la entropía. El valor absoluto de la entropía da información sobre el número mínimo de bits que son necesarios para almacenar los píxeles de una imagen. Se informa con esto también acerca de si se puede conseguir con técnicas de compresión una reducción de la demanda de espacio de memoria, sin que se origine con ello una pérdida de información.
Se conoce por A. Shiozaki: "Edge extraction using entropy operator"; Academic Press Inc. 1986; Computer vision
10 graphics, and image processing, 1986, vol. 36, páginas 1-9, el recurso de emplear operadores de entropía para la detección del borde de un objeto en imágenes.
Se conocen también por el estado de la técnica procedimientos que aprovechan la entropía en el procesamiento de imágenes tomadas por medio de un reconocimiento aéreo del suelo, por ejemplo en rastreadores de cantos. En un rastreador de cantos se analiza la imagen a analizar atendiendo a cantos paralelos. Se interrumpe la búsqueda
15 cuando el grosor de un canto cae por debajo de un valor umbral prefijable. Con estos procedimientos es posible, por ejemplo, la detección de carreteras y caminos. La desventaja de este procedimiento es que proporciona buenos resultados solamente en aquellos objetos que presentan un contorno de objeto fijamente perfilado.
H. D. Cheng et al.,"Color image segmentation: advances and prospects", Pattern Recognition 34, Elsevier Science
Ltd. 2001, páginas 2259-2281, se ocupa de la segmentación de imágenes en color, especialmente imágenes 20 multiespectrales.
WENZAHN DAI et al: "An Image Edge Detection Algorithm Based on Local Entropy", Integration Technology, 2007. ICIT'07, IEEE International Conference on, IEEE, PI, 1 de Marzo de 2007, páginas 418-420, se ocupa de la detección de cantos basada en la entropía.
El cometido de la invención consiste en indicar un procedimiento con el cual se puedan detectar y clasificar objetos 25 en base a su color y tamaño.
Este problema se resuelve con las características de la reivindicación 1. Realizaciones ventajosas del procedimiento son objeto de reivindicaciones subordinadas.
El procedimiento según la invención para determinar curvas del borde de un objeto en una imagen tomada de una cámara multiespectral comprende los pasos de procedimientos siguientes:
30 a. conversión de la imagen tomada en una imagen en color falsa,
- b.
- en la imagen en color falsa se adjudica a cada píxel un valor de tono de color del espacio de color HSV, correspondiendo el valor de tono de color a un ángulo de color H en un círculo de color prefijado,
- c.
- clasificación de los píxeles como píxeles de objeto y píxeles de fondo, definiéndose como píxeles de objeto los píxeles cuyos valores de tono de color están situados dentro de un intervalo de valores prefijado,
35 d. determinación de un perfil de entropía (figura 5) por medio de una ventana de evaluación desplazable, calculándose para cada píxel en la imagen tomada la entropía de mezcla S de píxeles de objeto y píxeles de fondo según
40 en donde nA indica el número de pixeles del objeto dentro de la ventana de evaluación, nB indica el número de píxeles de fondo dentro de la ventana de evaluación y k indica un factor de proporcionalidad,
realizándose una diferenciación y una consideración de valores extremos del perfil de entropía obtenido.
En el procesamiento de imágenes que se toman por medio de un reconocimiento aéreo del suelo, se diferencia entre objetos artificiales y naturales. Se pueden definir objetos monocromos debido a que se les puede adjudicar un tono
45 de color determinado. Los objetos multicromos se pueden definir como la suma de varios objetos monocromos. El procedimiento según la invención se puede emplear en la clasificación de objetos monocromos, es decir, de un solo color, y también de objetos multicromos, es decir, de varios colores.
En las modernas cámaras multiespectrales el material de imagen de partida se presenta en forma de imágenes RGB (RGB = rojo, verde, azul). Además, algunas cámaras tienen disponible también un color más que está en el dominio de infrarrojos y que se denomina IR. Dado que el color sólido posee poca fuerza expresiva debido a la llamada confusión del color (por consiguiente, un automóvil pintado de verde no se puede diferenciar de la pradera verde en la que está aparcado), tiene que ser transformado, para hacer posible la diferenciación, en otro espacio de color, el llamado espacio HSV (HSV = Hue(tono de color), S = Saturation(saturación), V = Volume(valor de claridad). Para el
5 cálculo de conversión existen varios procedimientos diferentes conocidos para un experto, pero que son equivalentes en su resultado.
Una diferencia esencial entre representación de color y representación de tono de color está formada por la invarianza del tono de color frente a las fluctuaciones de la claridad, es decir que mientras que el color varía a consecuencia de condiciones de iluminación modificadas, el tono de color permanece inalterado dentro de un amplio
10 intervalo, de modo que se puede volver a localizar un objeto con ayuda del tono de color (H) incluso después de transcurrir un período de tiempo determinado.
En lo que sigue se explican la invención y ejecuciones ventajosas con ayuda de figuras. Muestran:
La figura 1, un fragmento a modo de ejemplo de una imagen tomada con los valores de tono de color de los distintos píxeles,
15 La figura 2, el fragmento de la figura 1 con píxeles definidos como píxeles de objeto y píxeles de fondo,
La figura 3, un fragmento a modo de ejemplo de una imagen tomada con una ventana de evaluación dada a título de ejemplo,
La figura 4, el fragmento de la figura 2 con los valores de entropía correspondientes calculados con una ventana de tiempo según la figura 3, y
20 La figura 5, una representación en perspectiva a modo de ejemplo de un objeto clasificado con un embudo de entropía.
En el procedimiento según la invención se convierte la imagen tomada, en un primer paso, en una imagen en color falsa. Por tanto, la imagen tomada puede considerarse como una superficie pixelada constituida por un número prefijable de filas y columnas.
25 En esta imagen en color falsa se asigna seguidamente a cada píxel un valor de tono de color del espacio de color HSV, correspondiendo el valor de tono de color a un ángulo de color H en un círculo de color prefijado. La representación de un espacio de color HSV es conocida para un experto, por ejemplo por http://de.wikipedia.org/wiki/HSV-Farbraum.
La figura 1 muestra un fragmento de una imagen tomada en el que se ha asignado un valor de tono de color a los
30 distintos píxeles. Por motivos de facilidad de representación, no se han representado las gradaciones de color tal como éstas son conocidas en una imagen en color falsa.
En un paso siguiente se clasifican los distintos píxeles como píxeles de objeto y píxeles de fondo. Como píxeles de objeto se definen aquí aquellos píxeles cuyo valor de tono de color está dentro de un intervalo de valores prefijado. Los pixeles cuyo valor de tono de color están fuera de este intervalo de valores se definen como píxeles de fondo. El
35 intervalo de valores prefijado se toma aquí de un banco de datos que está entrenado para los objetos a encontrar de conformidad con sus tonos de color.
La figura 2 muestra el fragmento conocido por la figura 1 con los píxeles identificados como píxeles de objeto. A título de ejemplo, se han definido en la figura 2 como píxeles de objeto aquellos píxeles que presentan un valor de tono de color de (189!10)º. Esta clasificación corresponde entonces a un objeto determinado, por ejemplo una
40 excavación del terreno llena de agua. Una excavación del terreno llena, por ejemplo, de aceite tendría que clasificarse, por ejemplo, con valores de tono de color entre (151!10)º.
En el paso siguiente del procedimiento se determina un perfil de entropía para la imagen clasificada mostrada en la figura 2, calculándose para cada píxel la entropía de mezcla S de píxeles de objeto y píxeles de fondo. Se entra aquí brevemente sobre el antecedente teórico del método y se le explica brevemente con ayuda de la definición de
45 entropía de Boltzmann: Se considera una distribución de píxeles de n píxeles con nA píxeles de objeto y nB píxeles de fondo. El punto de partida es la definición de entropía de Boltzmann
siendo k el factor de Boltzmann y ∀ el número de posibilidades de disposición de los nA píxeles de objeto y los nB píxeles de fondo.
50 Se busca el número de diferentes posibilidades de realización para disponer los nA píxeles de objeto y los nB píxeles 3
de fondo en una rejilla. El número de posibilidades para distribuir nA píxeles de objeto y nB píxeles de fondo diferenciables sobre n lugares viene dado por
La incorporación de la ecuación (2) en la ecuación (1) y la aplicación de la fórmula de Stirling ln n! # n ln n -n proporcionan la entropía de mezcla
en donde el subíndice mix significa mezcla.
La entropía se indica en unidades arbitrarias. Convenientemente, se utiliza el factor de proporcionalidad (constante de Boltzmann) igual a uno.
En una realización ventajosa de la invención se define una ventana de evaluación con una longitud y anchura prefijables, estando el tamaño de la ventana de evaluación convenientemente acomodado al tamaño esperado del objeto. La figura 3 muestra a modo de ejemplo una ventana de evaluación de 4x4 píxeles de tamaño. La entropía de mezcla según la ecuación (3) se calcula de manera ventajosa localmente dentro de la ventana de evaluación A. En este caso, nA indica el número de los píxeles del objeto y nB el número de los píxeles del fondo, los cuales están ambos dentro de la ventana de evaluación. La entropía de mezcla calculada con la ecuación (3) se asigna al píxel que forma el píxel del centro de gravedad de la ventana de evaluación A. En el caso representado en la figura 3 se define como píxel del centro de gravedad, por ejemplo, el píxel S cuya esquina superior izquierda forma el centro de gravedad de la ventana de evaluación A. Por supuesto, cualquier otra esquina de un píxel puede ser también la norma para la definición de un píxel como píxel de centro de gravedad.
En otro paso ventajoso del procedimiento se desplaza la ventana de evaluación A en la dirección de la longitud y/o la anchura de dicha ventana de evaluación A, cada vez en al menos un píxel. En esta nueva posición se vuelve a calcular la entropía de mezcla según la ecuación (3) y se la adjudica al respectivo píxel de centro de gravedad. Estos pasos del procedimiento se repiten hasta que se haya adjudicado un valor de entropía a cada píxel de la imagen tomada que se debe analizar. La figura 4 muestra los valores de entropía locales en un fragmento según la figura 2 para el caso del ejemplo de una ventana de evaluación de 4x4 píxeles de tamaño según la figura 3.
En el cálculo sucesivo de la entropía de mezcla se obtiene el valor cero en todos los sitios en los que está presente solamente una clase de píxeles, es decir que la ventana de evaluación está enteramente fuera del objeto a buscar o enteramente dentro del mismo. Por el contrario, se obtienen valores diferentes de cero en todos los sitios en los que está contenido al menos un píxel de cada clase (píxel de objeto o píxel de fondo) en la ventana de evaluación. Se obtiene así un perfil de entropía. La figura 5 muestra la representación en perspectiva de la distribución de entropía de la figura 4. El perfil de entropía muestra un perfil de altura de la entropía sobre una superficie pixelada. En el presente ejemplo se forma un mínimo de entropía en la zona de la columna 4 y la fila 5. El perfil muestra en este sitio una especie de embudo de entropía. Este embudo de entropía se forma debido a que el tamaño de la ventana de evaluación es más pequeño que el tamaño real del objeto a buscar. Como ya se ha explicado más arriba, se calcula la entropía como cero cuando están presentes dentro de la ventana de evaluación exclusivamente píxeles de una clase de ellos, aquí píxeles de objeto. La punta del embudo de entropía marca el centro de gravedad del objeto encontrado.
Según la invención, se realiza una diferenciación del perfil de entropía con una consideración subsiguiente de valores extremos. Se puede establecer así una curva del borde del objeto. Esta curva del borde del objeto se caracteriza porque se pueden encontrar cada vez las más altas diferencias de entropía allí donde el número de píxeles de objeto y el número de píxeles de fondo en la ventana de evaluación eran iguales durante el cálculo del valor de entropía según la ecuación (3). Si se proyecta la rebaba (valores extremos) del perfil de entropía sobre la imagen tomada, se obtiene entonces una medida del tamaño del objeto.
Con el procedimiento según la invención es posible que objetos afectados de ruido de color con y sin contorno fijo sean diferenciados uno de otro y clasificados con seguridad. El procedimiento se ofrece especialmente para cámaras multiespectrales de cuatro colores de alta resolución con supresión del componente azul (cámara de color falso). El procedimiento propuesto es apto para tiempo real y se puede transmitir a imágenes movidas con miras al seguimiento de objetivos. Otra ventaja adicional del procedimiento es que se pueden descubrir también objetivos camuflados.
Claims (1)
- REIVINDICACIONES1. Procedimiento para determinar curvas del borde de un objeto en una imagen tomada de una cámara multiespectral, que comprende los pasos de procedimiento siguientes:
- a.
- conversión de la imagen tomada en una imagen en color falsa digital,
- b.
- en la imagen en color falsa se adjudica a cada píxel un valor de tono de color del espacio de color HSV, correspondiendo el valor de tono de color a un ángulo de color H en un círculo de color prefijado,
- c.
- clasificación de los distintos píxeles como píxeles de objeto y píxeles de fondo, definiéndose como píxeles de objeto aquellos píxeles cuyos valores de tono de color están dentro de un intervalo de valores prefijado,
- d.
- determinación de un perfil de entropía (figura 5) por medio de una ventana de evaluación desplazable,
en donde nA indica el número de píxeles de objeto dentro de la ventana de evaluación, nB indica el número de píxeles de fondo dentro de la ventana de evaluación y k indica un factor de proporcionalidad,realizándose una diferenciación y una consideración de valores extremos del perfil de entropía obtenido.15 2. Procedimiento según la reivindicación 1, caracterizado porque en el paso de procedimiento d) se calcula la entropía de mezcla en una ventana de evaluación de longitud y anchura prefijables, siendo desplazable la ventana de evaluación sobre la imagen pixelada generada en el paso c) y adjudicándose la entropía de mezcla calculada S al respectivo píxel de centro de gravedad de la ventana de evaluación, y porque en un paso de procedimiento adicional d1) se desplaza la ventana de evaluación en al menos un píxel en la dirección de la longitud y/o la anchura y porque20 en un paso de procedimiento adicional d2) se repite el paso de procedimiento d) hasta que se haya adjudicado una entropía de mezcla a cada píxel.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009009572A DE102009009572B3 (de) | 2009-02-19 | 2009-02-19 | Verfahren zur entropiebasierten Bestimmung von Objektrandkurven |
DE102009009572 | 2009-02-19 | ||
PCT/DE2010/000147 WO2010097069A1 (de) | 2009-02-19 | 2010-02-09 | Verfahren zur entopiebasierten bestimmung von objektrandkurven |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2394068T3 true ES2394068T3 (es) | 2013-01-16 |
Family
ID=42169010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES10711823T Active ES2394068T3 (es) | 2009-02-19 | 2010-02-09 | Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía |
Country Status (8)
Country | Link |
---|---|
US (1) | US8682067B2 (es) |
EP (1) | EP2399241B1 (es) |
AU (1) | AU2010217093A1 (es) |
BR (1) | BRPI1008595A2 (es) |
DE (1) | DE102009009572B3 (es) |
ES (1) | ES2394068T3 (es) |
RU (1) | RU2534824C2 (es) |
WO (1) | WO2010097069A1 (es) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019091577A1 (en) * | 2017-11-13 | 2019-05-16 | Koninklijke Philips N.V. | Systems and methods for monitoring and controlling intravenous flow/drip rate |
CN115100196B (zh) * | 2022-08-24 | 2022-11-18 | 聊城市洛溪信息科技有限公司 | 一种基于图像分割的冲压件除锈效果评估方法 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5448652A (en) * | 1991-09-27 | 1995-09-05 | E. I. Du Pont De Nemours And Company | Adaptive display system |
US5375177A (en) * | 1991-09-27 | 1994-12-20 | E. I. Du Pont De Nemours And Company | Method of identifying and characterizing a valid object by color |
US5579409A (en) * | 1991-09-27 | 1996-11-26 | E. I. Du Pont De Nemours And Company | Methods for determining the exterior points of an object in a background |
GB9810771D0 (en) * | 1998-05-19 | 1998-07-15 | Active Silicon Limited | Method of detecting colours |
JP2000293696A (ja) * | 1999-04-07 | 2000-10-20 | Matsushita Electric Ind Co Ltd | 画像認識装置 |
US7039229B2 (en) * | 2000-08-14 | 2006-05-02 | National Instruments Corporation | Locating regions in a target image using color match, luminance pattern match and hill-climbing techniques |
DE60109278T2 (de) * | 2001-06-26 | 2006-03-30 | Nokia Corp. | Verfahren und Gerät zur Lokalisierung von Schriftzeichen in Bildern aus einer Digitalkamera |
US7085426B2 (en) * | 2001-10-15 | 2006-08-01 | Jonas August | Volterra filters for enhancement of contours in images |
US6944331B2 (en) * | 2001-10-26 | 2005-09-13 | National Instruments Corporation | Locating regions in a target image using color matching, luminance pattern matching and hue plane pattern matching |
US7035461B2 (en) * | 2002-08-22 | 2006-04-25 | Eastman Kodak Company | Method for detecting objects in digital images |
RU2295297C2 (ru) * | 2003-12-02 | 2007-03-20 | Александр Васильевич Жукоцкий | Способ исследования и диагностики состояния биологического объекта или его части |
US20050207653A1 (en) * | 2004-03-16 | 2005-09-22 | Nikitin Alexei V | Method for analysis of line objects |
JP4540492B2 (ja) * | 2005-01-28 | 2010-09-08 | Hoya株式会社 | 色変換マトリクス算出方法および画像信号処理装置 |
US7545540B2 (en) * | 2005-05-27 | 2009-06-09 | Xerox Corporation | Method and system for processing color image data |
RU2338252C1 (ru) * | 2007-03-06 | 2008-11-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Способ предотвращения печати размытых фотографий |
-
2009
- 2009-02-19 DE DE102009009572A patent/DE102009009572B3/de not_active Expired - Fee Related
-
2010
- 2010-02-09 RU RU2011138072/08A patent/RU2534824C2/ru not_active IP Right Cessation
- 2010-02-09 EP EP10711823A patent/EP2399241B1/de active Active
- 2010-02-09 WO PCT/DE2010/000147 patent/WO2010097069A1/de active Application Filing
- 2010-02-09 US US13/202,246 patent/US8682067B2/en active Active
- 2010-02-09 BR BRPI1008595A patent/BRPI1008595A2/pt not_active IP Right Cessation
- 2010-02-09 ES ES10711823T patent/ES2394068T3/es active Active
- 2010-02-09 AU AU2010217093A patent/AU2010217093A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
WO2010097069A1 (de) | 2010-09-02 |
EP2399241B1 (de) | 2012-09-19 |
BRPI1008595A2 (pt) | 2016-03-15 |
US8682067B2 (en) | 2014-03-25 |
AU2010217093A1 (en) | 2011-09-08 |
RU2534824C2 (ru) | 2014-12-10 |
EP2399241A1 (de) | 2011-12-28 |
DE102009009572B3 (de) | 2010-06-17 |
RU2011138072A (ru) | 2013-04-10 |
US20120033877A1 (en) | 2012-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Alavipanah et al. | The effect of multi-dimensional indicators on urban thermal conditions | |
Geletič et al. | GIS-based delineation of local climate zones: The case of medium-sized Central European cities | |
Feng et al. | Using land use change trajectories to quantify the effects of urbanization on urban heat island | |
Garilli et al. | Automatic detection of stone pavement's pattern based on UAV photogrammetry | |
Quan | Enhanced geographic information system-based mapping of local climate zones in Beijing, China | |
CN104463868B (zh) | 一种基于无参数高分辨率影像的建筑高度快速获取方法 | |
JP6646527B2 (ja) | 物体検知評価システム及び物体検知評価方法 | |
Kwong et al. | Tree height mapping and crown delineation using LiDAR, large format aerial photographs, and unmanned aerial vehicle photogrammetry in subtropical urban forest | |
Equere et al. | Integration of topological aspect of city terrains to predict the spatial distribution of urban heat island using GIS and ANN | |
CN111178169A (zh) | 一种基于遥感影像的城市地表覆盖物精细分类方法及装置 | |
Chen et al. | The investigation of urbanization and urban heat island in Beijing based on remote sensing | |
CN111243003B (zh) | 车载双目摄像机及其检测道路限高杆的方法、装置 | |
CN109060133A (zh) | 遥感地表温度降尺度算法 | |
CN101403795A (zh) | 估算城区树覆盖率的遥感测量方法及其遥感测量系统 | |
Yang et al. | A multi-band watershed segmentation method for individual tree crown delineation from high resolution multispectral aerial image | |
Ren et al. | Spatial estimation of urban forest structures with Landsat TM data and field measurements | |
CN109614871A (zh) | 一种光伏屋顶及光伏障碍物自动识别算法 | |
CN105678225A (zh) | 一种城市热岛效应空间变化检测方法及系统 | |
ES2394068T3 (es) | Procedimiento para la determinación de curvas del borde de un objeto basada en la entropía | |
Zhang et al. | Surface urban heat island in Shanghai, China: Examining the relationship between land surface temperature and impervious surface fractions derived from Landsat ETM+ imagery | |
Rumora et al. | Spatial video remote sensing for urban vegetation mapping using vegetation indices | |
CN104602413A (zh) | 一种调节照明装置的方法及系统 | |
Mokroš et al. | Unmanned aerial vehicle use for wood chips pile volume estimation | |
Wang et al. | Building heights estimation using ZY3 data—A case study of Shanghai, China | |
Carretas et al. | Atmospheric visibility and Angström exponent measurements through digital photography |