ES2994029T3 - Image processing method - Google Patents

Image processing method Download PDF

Info

Publication number
ES2994029T3
ES2994029T3 ES21958589T ES21958589T ES2994029T3 ES 2994029 T3 ES2994029 T3 ES 2994029T3 ES 21958589 T ES21958589 T ES 21958589T ES 21958589 T ES21958589 T ES 21958589T ES 2994029 T3 ES2994029 T3 ES 2994029T3
Authority
ES
Spain
Prior art keywords
image
dimensional image
information
depth
grayscale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES21958589T
Other languages
English (en)
Inventor
Guannan Jiang
Lili Han
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Contemporary Amperex Technology Hong Kong Ltd
Original Assignee
Contemporary Amperex Technology Hong Kong Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Contemporary Amperex Technology Hong Kong Ltd filed Critical Contemporary Amperex Technology Hong Kong Ltd
Application granted granted Critical
Publication of ES2994029T3 publication Critical patent/ES2994029T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/506Illumination models
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30136Metal
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30152Solder
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

La presente solicitud se refiere a un método de procesamiento de imágenes. El método comprende: adquirir una imagen bidimensional y una imagen tridimensional de un objeto; extraer información de brillo e información de profundidad en la imagen tridimensional, de modo de generar una imagen de brillo y una imagen de profundidad del objeto; convertir en gris la imagen bidimensional para obtener una imagen en escala de grises de un solo canal; seleccionar al menos tres puntos de posición idénticos de la imagen en escala de grises y la imagen de brillo; calcular una matriz de transformación de coordenadas entre la imagen en escala de grises y la imagen de brillo sobre la base de las coordenadas de los al menos tres puntos de posición idénticos en la imagen en escala de grises y la imagen de brillo; y alinear la imagen bidimensional con la imagen de brillo y la imagen de profundidad sobre la base de la matriz de transformación de coordenadas, de modo de obtener datos de imagen fusionados, en donde los datos de imagen fusionados incluyen información de color de la imagen bidimensional e información de brillo e información de profundidad de la imagen tridimensional. La presente solicitud se refiere además a un medio de almacenamiento no volátil. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Método de procesamiento de imágenes
Campo técnico
La presente solicitud se refiere al campo del procesamiento de imágenes y, en particular, a un método de procesamiento de imágenes como se especifica en las reivindicaciones 1 a 6 y a un medio de almacenamiento no volátil especificado en la reivindicación 7.
Técnica anterior
Durante la generación industrial, un producto puede tener algún defecto debido a razones de proceso y equipo. Por lo tanto, es necesario detectar si el producto es defectuoso, para mejorar la tasa de rendimiento de los productos. En los métodos convencionales de detección de defectos, la detección manual presenta desventajas, tales como una baja eficiencia de detección. Por medio de tecnologías de imágenes visuales, se puede mejorar la eficiencia de detección y también se puede reducir en gran medida el coste de la intervención humana. Los métodos actuales de detección visual normalmente emplean una cámara CCD para obtener imágenes bidimensionales (2D), que a continuación se usan para la detección. Sin embargo, un método de detección de este tipo que usa imágenes 2D no es lo suficientemente preciso, lo que puede conducir a detecciones fallidas o falsas de los defectos. Juan Li ET AL: "FUSION OF LIDAR 3D POINTS CLOUD WITH 2D DIGITAL CAMERA IMAGE", Tesis, 1 de enero de 2015 (01-01-2015), documento XP055722335, menciona datos de fusión de múltiples sensores. Guan Limin ET AL: "Real-Time Vehicle Detection Framwork Based on the Fusion of LiDAR and Camera", Electronics, vol. 9, n.° 3, 7 de marzo de 2020 (07 03-2020), página 451, documento XP093094214, DOI: 3390/electronics9030451, menciona una detección de vehículos mediante el uso de LiDAR y cámara. El documento CN209432721U menciona un equipo de detección de defectos superficiales de batería de litio.
Sumario de la invención
En vista de los problemas descritos anteriormente, la presente solicitud propone un método de procesamiento de imágenes como se especifica en las reivindicaciones 1 a 6 y un medio de almacenamiento no volátil como se especifica en la reivindicación 7.
Para este fin, un primer aspecto de la presente invención proporciona un método de procesamiento de imágenes, donde el método de procesamiento de imágenes incluye:
obtener una imagen bidimensional y una imagen tridimensional de un objeto, en donde el objeto se selecciona de uno cualquiera de los siguientes: una superficie de batería, una soldadura de la cubierta superior de la batería y un pasador de sellado de la batería;
extraer información de luminancia e información de profundidad a partir de la imagen tridimensional para generar un mapa de luminancia y un mapa de profundidad para el objeto;
aplicar gris a la imagen bidimensional para obtener una imagen en escala de grises de un único canal;
seleccionar al menos los tres puntos de ubicación iguales de cada uno de la imagen en escala de grises y el mapa de luminancia; calcular una matriz de transformación de coordenadas entre la imagen en escala de grises y el mapa de luminancia basándose en las coordenadas de los al menos tres puntos de ubicación iguales en cada uno de la imagen en escala de grises y el mapa de luminancia; y
alinear la imagen bidimensional con el mapa de luminancia y el mapa de profundidad basándose en la matriz de transformación de coordenadas, para obtener datos de imágenes fusionadas, donde los datos de imágenes fusionadas incluyen información de color de la imagen bidimensional y la información de luminancia e información de profundidad de la imagen tridimensional, en donde los datos de imágenes fusionadas del objeto se introducen en un modelo de algoritmo de aprendizaje profundo actualizado para obtener un resultado de determinación de defectos del objeto.
En la presente invención, se aplica gris a la imagen bidimensional para obtener la imagen en escala de grises de un único canal. A continuación, se resuelve la matriz de transformación de coordenadas entre la imagen bidimensional y la imagen tridimensional. Las características de la imagen bidimensional se alinean con las de la imagen tridimensional, de modo que los datos de características de la imagen bidimensional se alinean con los de la imagen tridimensional, para obtener los datos de la imagen fusionada. De esta manera, se implementa la fusión de imágenes de la imagen bidimensional con la imagen tridimensional. Tales datos de imágenes fusionadas pueden proporcionar más información para el análisis del modelo de aprendizaje profundo posterior, obteniendo de esta manera un resultado de detección más preciso.
El propósito de la aplicación de gris es facilitar la alineación de las características de la imagen bidimensional con las de la imagen tridimensional. En algunas realizaciones, se puede usar un método de media ponderada para aplicar gris a una imagen en color con tres canales (RGB). Específicamente, un valor de escala de grises se puede calcular de acuerdo con la siguiente fórmula:
p = wxR+w2G+w-¿B
dondeprepresenta un valor en escala de grises de un punto de coordenadas,Rrepresenta un valor de rojo del punto de coordenadas,wirepresenta un peso del valor de rojo,Grepresenta un valor de verde del punto de coordenadas,W2representa un peso del valor de verde,Brepresenta un valor de azul del punto de coordenadas yW3representa un peso del valor de azul. Las investigaciones muestran que los ojos humanos son más sensibles al verde, seguido del rojo, y son menos sensibles al azul. Por lo tanto, en algunas realizaciones, puede establecerseW2>wi> W3. En algunas realizaciones,wipuede establecerse a 0,299,W2puede establecerse a 0,587 yW3puede establecerse a 0,114. Esto se debe a que los experimentos y las teorías demuestran que usando tales ajustes de peso se pueden obtener escalas de grises psicológicas que mejor se adaptan a la percepción de los ojos humanos. La información de rojo, verde y azul de la imagen se conserva completamente en los valores de escala de grises obtenidos usando el método de media ponderada. Debe entenderse que, la aplicación de gris se puede realizar usando otros métodos, tales como un método de componentes, un método de máximos, un método de promedio y un método de corrección gamma.
En algunas realizaciones, los al menos tres puntos de ubicación iguales son puntos del objeto con características. Estos puntos con características son ubicaciones particulares en patrones que están dentro de la imagen y pueden obtenerse mediante el análisis de los patrones. Por lo tanto, la selección de los al menos tres puntos de ubicación iguales puede implementarse usando algoritmos de inteligencia artificial.
En algunas realizaciones, los al menos tres puntos de ubicación iguales incluyen tres puntos de referencia no colineales. Cuando los tres puntos de referencia son colineales, la matriz de transformación de coordenadas no se puede obtener a partir de las coordenadas de los tres puntos de referencia. Por lo tanto, se requiere que los al menos tres puntos de ubicación iguales incluyan tres puntos de referencia no colineales.
En algunas realizaciones preferidas, un ángulo interior máximo de un triángulo formado por los tres puntos de referencia no es mayor que 160°. Cuanto mayor sea el ángulo interior máximo del triángulo formado por los tres puntos de referencia, más tenderán los tres puntos de referencia a ser colineales. Pequeños errores de muestreo pueden provocar que los tres puntos de referencia tiendan a ser colineales, de modo que la matriz de transformación de coordenadas obtenida basándose en las coordenadas de los tres puntos de referencia en cada una de las imágenes en escala de grises y el mapa de luminancia sea ineficaz. Por lo tanto, el ángulo interior máximo del triángulo formado por los tres puntos de referencia se establece no mayor que 160°, lo que mejora la fiabilidad de la matriz de transformación de coordenadas.
En algunas realizaciones específicas, el método de procesamiento de imágenes incluye:
alinear el mapa de luminancia y el mapa de profundidad con la imagen bidimensional basándose en la matriz de transformación de coordenadas usando las coordenadas de la imagen bidimensional como referencia; y
usar, como información de tres canales respectivamente, la información de escala de grises de la imagen en escala de grises,
y la información de luminancia y la información de profundidad que están alineadas con las coordenadas en la imagen bidimensional, para generar una imagen fusionada que contiene la información de los tres canales.
Debe entenderse que, una realización de la presente solicitud es alinear el mapa de luminancia y el mapa de profundidad obtenidos a partir de la imagen tridimensional con la imagen bidimensional usando las coordenadas de la imagen bidimensional como referencia. Los expertos en la materia pueden concebir que alinear la imagen bidimensional con el mapa de luminancia, es decir, alinear la imagen bidimensional con la imagen tridimensional usando coordenadas en el mapa de luminancia como referencia, implementa la alineación de la imagen bidimensional con la imagen tridimensional y, además, completa la alineación de datos de las dos imágenes. Sin embargo, la resolución de la imagen tridimensional es baja, por lo que el mapa de luminancia y el mapa de profundidad se alinean preferiblemente con la imagen bidimensional. Además, debe entenderse que únicamente es necesario alinear la información de la imagen bidimensional con la de la imagen tridimensional, y almacenar información de color, información de luminancia e información de profundidad, etc. para cada coordenada en la imagen, en lugar de sintetizar la imagen fusionada que contiene la información de los tres canales.
En algunas realizaciones, la información de color, la información de luminancia y la información de profundidad pueden apilarse en canales para obtener una imagen que tiene información de múltiples canales. En algunas otras realizaciones, la información de color, la información de luminancia y la información de profundidad pueden fusionarse mediante ponderación para obtener una imagen que tiene información de un único canal o de múltiples canales.
En algunas realizaciones específicas, antes de que la imagen bidimensional se alinee con el mapa de luminancia y el mapa de profundidad, los valores de profundidad en el mapa de profundidad se normalizan para generar un mapa de profundidad normalizado. Los valores de profundidad en el mapa de profundidad generado pueden ser muy grandes, por ejemplo, diez mil o más, por lo tanto, por medio de normalización, los valores de profundidad se pueden limitar entre 0 y 1, lo que facilita el cálculo y el procesamiento posteriores. En algunas realizaciones, los valores de profundidad en el mapa de profundidad pueden normalizarse de acuerdo con la siguiente fórmula:
d — d mfn
4s —~¡“ _ . ~
a máx a mín
dondeJrepresenta un valor de profundidad de un punto de coordenadas en el mapa de profundidad,dmnrepresenta un valor de profundidad mínimo en el mapa de profundidad,dmáxrepresenta un valor de profundidad máximo en el mapa de profundidad ydsrepresenta un valor de profundidad normalizado del punto de coordenadas en el mapa de profundidad.
En la presente invención, el objeto descrito anteriormente se selecciona de uno cualquiera de los siguientes: una superficie de batería, una soldadura de cubierta superior de la batería y un pasador de sellado de la batería. Las realizaciones de la presente solicitud son aplicables a una situación donde se requieren tanto una imagen bidimensional como una imagen tridimensional para la detección de defectos. Durante la producción de baterías, los procedimientos de detección de rayones en la superficie de la batería, defectos en la soldadura de la cubierta superior de la batería y defectos en la soldadura del pasador de sellado son todos importantes para garantizar la seguridad de una batería después de salir de la fábrica. La imagen bidimensional no puede reflejar directamente la información de profundidad de las partes relacionadas de la batería y, por lo tanto, no se puede implementar una formación de imágenes efectiva de las características sensibles a la profundidad, mientras que la imagen tridimensional tiene baja resolución y no puede cubrir todas las características objetivo. Por lo tanto, los rayones en la superficie de la batería, los defectos en la soldadura de la cubierta superior de la batería y los defectos en la soldadura del pasador de sellado se pueden detectar usando el método de procesamiento de imágenes de acuerdo con la presente solicitud, para obtener datos de imágenes fusionadas para la detección de características correspondientes.
En algunas realizaciones, la imagen bidimensional y la imagen tridimensional descritas anteriormente pueden ser imágenes adquiridas en diferentes posiciones de una línea de producción. Sin embargo, en algunas otras realizaciones, la imagen bidimensional y la imagen tridimensional descritas anteriormente pueden ser imágenes adquiridas en la misma posición de una línea de producción.
En algunas realizaciones, la imagen bidimensional y la imagen tridimensional descritas anteriormente pueden ser imágenes del mismo objeto tomadas en un ángulo consistente. Sin embargo, en algunas otras realizaciones, la imagen bidimensional y la imagen tridimensional descritas anteriormente pueden ser imágenes del mismo objeto tomadas desde diferentes ángulos.
Otro aspecto de la presente solicitud proporciona un medio de almacenamiento no volátil que almacena instrucciones, donde las instrucciones, cuando son ejecutadas por un procesador, hacen que el procesador realice el método de procesamiento de imágenes del primer aspecto descrito anteriormente.
Otra realización de la presente solicitud proporciona un método de detección de apariencia, que incluye:
obtener datos de imágenes fusionadas de una pluralidad de objetos de acuerdo con el método de procesamiento de imágenes del primer aspecto descrito anteriormente;
obtener resultados de determinación de defectos de la pluralidad de objetos;
usar los datos de imágenes fusionadas y los resultados de determinación de defectos de la pluralidad de objetos para entrenar iterativamente un modelo de algoritmo de aprendizaje profundo, para actualizar el modelo de algoritmo de aprendizaje profundo;
adquirir una imagen bidimensional y una imagen tridimensional de un objeto objetivo;
fusionar la imagen bidimensional y la imagen tridimensional del objeto objetivo de acuerdo con el método de procesamiento de imágenes del primer aspecto descrito anteriormente, para obtener datos de imágenes fusionadas del objeto objetivo; y, como se define en el primer aspecto, introducir los datos de imágenes fusionadas del objeto objetivo en un modelo de algoritmo de aprendizaje profundo actualizado, para obtener un resultado de determinación de defectos del objeto objetivo.
En realizaciones de la presente solicitud, el resultado de determinación de defectos del objeto objetivo se obtiene sustituyendo los datos de imágenes fusionadas del objeto objetivo en el modelo entrenado. Por lo tanto, se mejora la precisión de la detección y se reducen los fallos de detección y las detecciones falsas (falsos positivos) de defectos. Al mismo tiempo, dado que los datos de imágenes fusionadas se sustituyen en un modelo para el cálculo y el análisis, no hay necesidad de construir dos modelos o sustituir respectivamente datos de diferentes imágenes en los dos modelos para el cálculo y el análisis, ahorrando de esta manera recursos informáticos y aumentando la velocidad de detección. Además, dado que se usan únicamente datos de imágenes fusionadas, únicamente es necesario entrenar con antelación un modelo en lugar de dos.
En algunas realizaciones, los datos de imágenes fusionadas del objeto objetivo incluyen información de escala de grises, información de luminancia e información de profundidad del objeto objetivo, y el modelo de algoritmo de aprendizaje profundo descrito anteriormente incluye un canal de entrada de datos de escala de grises, un canal de entrada de datos de luminancia y un canal de entrada de datos de profundidad. En las realizaciones de la presente solicitud, el modelo de algoritmo de aprendizaje profundo puede incluir tres canales de entrada de datos, y el modelo detecta, basándose en la información de escala de grises de entrada, la información de luminancia y la información de profundidad, si hay un defecto.
En algunas realizaciones, el modelo de algoritmo de aprendizaje profundo descrito anteriormente incluye un canal de entrada de datos de rojo, un canal de entrada de datos de verde, un canal de entrada de datos de azul, un canal de entrada de datos de luminancia y un canal de entrada de datos de profundidad. En las realizaciones de la presente solicitud, el modelo de algoritmo de aprendizaje profundo puede incluir cinco canales de entrada de datos, y el modelo detecta, basándose en la información de color de entrada, la información de luminancia y la información de profundidad, si hay un defecto. Debe entenderse que, en la práctica, los expertos en la materia pueden elegir el número de canales de datos del modelo de acuerdo con los requisitos reales.
En algunas realizaciones, la imagen bidimensional adquirida del objeto objetivo incluye múltiples imágenes bidimensionales.
En algunas realizaciones, la imagen tridimensional adquirida del objeto objetivo incluye múltiples imágenes tridimensionales.
Otra realización de la presente solicitud proporciona un medio de almacenamiento no volátil que almacena instrucciones, donde las instrucciones, cuando son ejecutadas por un procesador, hacen que el procesador realice el método de detección de apariencia.
Breve descripción de los dibujos
Para ilustrar más claramente las soluciones técnicas de la presente solicitud, a continuación, se describirán brevemente los dibujos requeridos en la descripción de las realizaciones de la presente solicitud. Obviamente, los dibujos descritos a continuación son simplemente algunas realizaciones de la presente solicitud, y para los expertos en la materia, también se pueden obtener otros dibujos a partir de estos dibujos sin ningún esfuerzo creativo. En los dibujos:
La Figura 1 ilustra un diagrama de flujo de un método de procesamiento de imágenes de acuerdo con una realización de la presente solicitud;
La Figura 2 ilustra un diagrama de flujo de un método de procesamiento de imágenes de acuerdo con una realización de la presente solicitud;
Las Figuras 3a a 3d muestran fotos de una imagen bidimensional, un mapa de luminancia, un mapa de profundidad y una imagen fusionada de acuerdo con una realización de la presente solicitud; y
La Figura 4 ilustra un diagrama de flujo de un método de detección de apariencia de acuerdo con una realización de la presente solicitud.
Descripción detallada de realizaciones
A continuación, se describirán con más detalle realizaciones de la presente solicitud con referencia a los dibujos. Las siguientes realizaciones simplemente se pretenden para ilustrar más claramente las soluciones técnicas de la presente solicitud, por lo que simplemente sirven como ejemplos, pero no se pretenden para limitar el alcance de protección de la presente solicitud.
A menos que se defina de otra manera, todos los términos técnicos y científicos usados en el presente documento tienen los mismos significados que los comúnmente entendidos por los expertos en la materia a la que pertenece la presente solicitud. Los términos usados en el presente documento tienen únicamente el propósito de describir implementaciones específicas, pero no pretenden limitar la presente solicitud. Las expresiones "que comprende" y "que tiene" y cualquier variación de los mismos en la descripción y las reivindicaciones de la presente solicitud, así como la breve descripción de los dibujos adjuntos descritos anteriormente, tienen por objeto cubrir la inclusión no exclusiva.
El término "realización" mencionado en el presente documento significa que los rasgos, estructuras o características específicas descritas junto con la realización pueden abarcarse en al menos una realización de la presente solicitud. La expresión en diversas ubicaciones en la descripción no se refiere necesariamente a la misma realización, o a una realización independiente o alternativa exclusiva de otra realización. Los expertos en la materia entienden explícita o implícitamente que la realización descrita en el presente documento puede combinarse con otra realización.
Si las etapas se indican en secuencia en la descripción o en las reivindicaciones, esto no significa necesariamente que una realización o aspecto esté limitado a la secuencia indicada. Por el contrario, se puede prever que las etapas se realicen en una secuencia diferente o en paralelo entre sí, a menos que una etapa se establezca sobre otra, lo que requiere absolutamente que la etapa establecida se realice posteriormente (esto quedará claro en un caso individual). Por lo tanto, la secuencia indicada puede ser una realización preferida.
Los inventores de la presente solicitud han descubierto en la práctica que, dado que una imagen 2D no puede reflejar directamente la información de profundidad de cada parte de un producto y no puede cubrir completamente las formas de defectos en el producto, los métodos actuales para detectar defectos del producto usando una imagen 2D conducen fácilmente a la detección fallida o falsa de defectos. Además, los inventores también han reconocido que una imagen 3D adquirida usando una cámara tridimensional (3D) tiene baja resolución y tampoco puede cubrir completamente las formas de defectos en el producto, lo que fácilmente conduce a una detección fallida o falsa de defectos. Los inventores han concebido que, dado que la imagen 2D tiene suficiente resolución, puede usarse para detectar preliminarmente defectos de producto, y, a continuación, se usa la imagen 3D para volver a detectar los defectos de producto, para eliminar las detecciones falsas (falsos positivos) y añadir los defectos fallados.
Además, los inventores se han dado cuenta de que, si se extraen características de la imagen 2D y de la imagen 3D y se sustituyen respectivamente en dos modelos de redes neuronales diferentes para su análisis, es necesario realizar dos análisis y es necesario entrenar con antelación los dos modelos de redes neuronales. Basándose en esto, los inventores han concebido fusionar la imagen 2D con la imagen 3D para obtener datos de imágenes fusionadas y sustituir los datos en un modelo de red neuronal de señal para su análisis. Por lo tanto, se reducen los recursos computacionales requeridos y se mejoran la velocidad y la eficiencia de análisis.
La Figura 1 ilustra un diagrama de flujo de un método de procesamiento de imágenes 100 de acuerdo con un aspecto de implementación de la presente solicitud. Como se muestra en la Figura 1, en la etapa 102, se obtienen una imagen bidimensional y una imagen tridimensional de un objeto. En la etapa 104, se extraen a continuación la información de luminancia y la información de profundidad de la imagen tridimensional para generar un mapa de luminancia y un mapa de profundidad. En la etapa 106, se aplica gris a la imagen bidimensional para obtener una imagen en escala de grises de un único canal, para facilitar la alineación de las características de la imagen bidimensional con las de la imagen tridimensional. En la etapa 108, después de que se obtiene el mapa de luminancia y la imagen en escala de grises, se seleccionan al menos tres puntos de ubicación iguales a partir de cada uno de la imagen en escala de grises y del mapa de luminancia. En la etapa 110, se calcula una matriz de transformación de coordenadas entre la imagen en escala de grises y el mapa de luminancia basándose en las coordenadas de los al menos tres puntos de ubicación iguales en cada uno de la imagen en escala de grises y el mapa de luminancia.
Debe entenderse por los expertos en la materia que el mismo punto característico en imágenes adquiridas usando dos cámaras diferentes tiene diferentes coordenadas de puntos de imagen. Dado que las formas de producto en imágenes tomadas usando cámaras tienen la misma planitud y paralelismo, una transformación de coordenadas entre las coordenadas de puntos de imagen de las diferentes cámaras es una transformación afín, con la siguiente ecuación de transformación de matrices:
qx« i ¿i
qy a2 hClpy
•1- L O 0 lJ i
donde(py, py)representa las coordenadas de puntos de imagen de una cámara, (qx, qy) representa las coordenadas de puntos de imagen de la otra cámara y a1,b1, C1, a2,b2, y C2 representa coeficientes de transformación en la matriz de transformación de coordenadas. Tal transformación afín tiene seis coeficientes de transformación, es decir, seis grados de libertad. Por lo tanto, se requieren tres grupos de puntos para calcular los coeficientes de transformación en la matriz de transformación de coordenadas.
En la etapa 112, después de que se calcula la matriz de transformación de coordenadas, la imagen bidimensional se alinea con el mapa de luminancia y el mapa de profundidad de acuerdo con la matriz de transformación de coordenadas, para obtener datos de imágenes fusionadas. En la presente invención, se aplica gris a la imagen bidimensional para obtener la imagen en escala de grises de un único canal. A continuación, se resuelve la matriz de transformación de coordenadas entre la imagen bidimensional y la imagen tridimensional. Las características de la imagen bidimensional se alinean con las de la imagen tridimensional, de modo que los datos de características de la imagen bidimensional se alinean con los de la imagen tridimensional, para obtener los datos de la imagen fusionada. De esta manera, se implementa la fusión de imágenes de la imagen bidimensional con la imagen tridimensional. Tales datos de imágenes fusionadas pueden proporcionar más información para el análisis del modelo de aprendizaje profundo posterior, obteniendo de esta manera un resultado de detección más preciso.
La Figura 2 ilustra un diagrama de flujo de un método de procesamiento de imágenes de acuerdo con una realización de la presente solicitud. Como se muestra en la Figura 2, en la etapa 202, se obtiene una imagen tridimensional de un objeto. En la etapa 206, se extraen información de luminancia e información de profundidad de la imagen tridimensional para generar un mapa de luminancia y un mapa de profundidad, como se muestra en las Figuras 3b y 3c. A continuación, en la etapa 210, los valores de profundidad en el mapa de profundidad se normalizan para generar un mapa de profundidad normalizado. En algunas realizaciones, los valores de profundidad en el mapa de profundidad pueden normalizarse de acuerdo con la siguiente fórmula:
d S= , ,<— 7>----“ m áx “ rain
dondeJrepresenta un valor de profundidad de un punto de coordenadas en el mapa de profundidad,dmínrepresenta un valor de profundidad mínimo en el mapa de profundidad,dméxrepresenta un valor de profundidad máximo en el mapa de profundidad ydsrepresenta un valor de profundidad normalizado del punto de coordenadas en el mapa de profundidad. Los valores de profundidad en el mapa de profundidad generado en la etapa 206 pueden ser muy grandes, por ejemplo, diez mil o más, por lo tanto, por medio de normalización, los valores de profundidad se pueden limitar entre 0 y 1, lo que facilita el cálculo y el procesamiento posteriores.
En la etapa 204, se obtiene una imagen bidimensional del objeto, como se muestra en la Figura 3a. A continuación, en la etapa 208, se aplica gris a la imagen en color bidimensional con tres canales (RGB) mediante ponderación para obtener una imagen en escala de grises de un único canal. Específicamente, un valor de escala de grises se puede calcular de acuerdo con la siguiente fórmula:
dondeprepresenta un valor en escala de grises de un punto de coordenadas,Rrepresenta un valor de rojo del punto de coordenadas,wirepresenta un peso del valor de rojo,Grepresenta un valor de verde del punto de coordenadas,W2representa un peso del valor de verde,Brepresenta un valor de azul del punto de coordenadas yW3representa un peso del valor de azul. Las investigaciones muestran que los ojos humanos son más sensibles al verde, seguido del rojo, y son menos sensibles al azul. Por lo tanto, en algunas realizaciones, puede establecerseW2>wi> W3. En algunas realizaciones,wipuede establecerse a 0,299,W2puede establecerse a 0,587 yW3puede establecerse a 0,114. Esto se debe a que los experimentos y las teorías demuestran que usando tales ajustes de peso se pueden obtener escalas de grises psicológicas que mejor se adaptan a la percepción de los ojos humanos. Obtener el valor de escala de grises usando un método de media ponderada se implementa fácilmente usando algoritmos con una cantidad de cálculo relativamente pequeña. Además, la información de rojo, verde y azul de la imagen se conserva completamente. Debe entenderse que, la aplicación de gris se puede realizar usando otros métodos, tales como un método de componentes, un método de máximos, un método de promedio y un método de corrección gamma.
Debe entenderse que, como se muestra en la Figura 2, la etapa 202, la etapa 206 y la etapa 210 pueden realizarse antes, después o cuando se realizan la etapa 204 y la etapa 208. En la etapa 212, después de que se completan las etapas 206 y 208, se pueden seleccionar al menos los tres puntos de ubicación iguales con características de cada uno de la imagen en escala de grises y del mapa de luminancia. Estos puntos con características son ubicaciones particulares en patrones que están dentro de la imagen y pueden obtenerse mediante el análisis de los patrones. Por lo tanto, la selección de los tres puntos de ubicación iguales con características puede implementarse usando algoritmos de inteligencia artificial. Las Figuras 3a a 3d ilustran una realización de detección de defectos de soldadura de un pasador de sellado de batería de litio, de acuerdo con la presente solicitud. En esta realización, en las figuras, dos puntos centrales de ángulos entre una soldadura recta y una soldadura circular, y el punto central en el pasador de sellado pueden seleccionarse como los tres puntos de ubicación iguales con características. Los tres puntos de ubicación iguales no son colineales, para cumplir con los requisitos de cálculo de coeficientes de transformación en una matriz de transformación de coordenadas.
En algunas realizaciones preferidas, un ángulo interior máximo de un triángulo formado por los tres puntos de ubicación iguales no es mayor que 160°. Cuanto mayor sea el ángulo interior máximo del triángulo formado por los tres puntos de ubicación iguales, más tenderán los tres puntos de referencia a ser colineales. Pequeños errores de muestreo pueden provocar que los tres puntos de ubicación iguales tiendan a ser colineales, de modo que la matriz de transformación de coordenadas obtenida basándose en las coordenadas de los tres puntos de ubicación iguales en cada uno de las imágenes en escala de grises y el mapa de luminancia sea ineficaz. Por lo tanto, el ángulo interior máximo del triángulo formado por los tres puntos de ubicación iguales se establece no mayor que 160°, lo que mejora la fiabilidad de la matriz de transformación de coordenadas. Cuando los tres puntos de ubicación iguales no cumplen el requisito de que los puntos no sean colineales o el requisito de que el ángulo interior máximo del triángulo formado no sea mayor que 160°, se pueden seleccionar más puntos de ubicación, siempre que tres puntos de referencia de los puntos de ubicación iguales seleccionados cumplan cualquiera de los requisitos anteriores.
En la etapa 214, se calcula una matriz de transformación de coordenadas entre la imagen en escala de grises y el mapa de luminancia basándose en las coordenadas de los tres puntos de ubicación iguales en cada uno de la imagen en escala de grises y el mapa de luminancia. La etapa 214 es similar a la etapa 110 en la Figura 1, y el contenido relacionado no se repetirá en el presente documento.
En la etapa 216, después de que se calcula la matriz de transformación de coordenadas, el mapa de luminancia y el mapa de profundidad normalizada se alinean con la imagen bidimensional basándose en la matriz de transformación de coordenadas. De esta manera, la alineación de datos de los puntos de ubicación iguales se puede implementar en la dimensión de píxeles de la imagen bidimensional y, por lo tanto, se garantiza la efectividad y precisión de la fusión de información.
Finalmente, en la etapa 218, el mapa de luminancia transformado por coordenadas y el mapa de profundidad se apilan en canales con la imagen en escala de grises, para formar una imagen fusionada que tiene información de tres canales, como se muestra en la Figura 3d. Además, debe entenderse que únicamente es necesario alinear la información de la imagen bidimensional con la de la imagen tridimensional en coordenadas, y almacenar información de color, información de luminancia e información de profundidad, etc. para cada coordenada en la imagen, en lugar de sintetizar la imagen fusionada que contiene la información de los tres canales. En algunas otras realizaciones, la información de color, la información de luminancia y la información de profundidad pueden fusionarse, como alternativa, mediante ponderación para obtener una imagen que tiene información de un único canal o de múltiples canales.
El método de procesamiento de imágenes de la presente solicitud es aplicable a una situación en la que se requieren tanto una imagen bidimensional como una imagen tridimensional para la detección de defectos. Durante la producción de baterías, los procedimientos de detección de rayones en la superficie de la batería, defectos en la soldadura de la cubierta superior de la batería y defectos en la soldadura del pasador de sellado son todos importantes para garantizar la seguridad de una batería después de salir de la fábrica. La imagen bidimensional no puede reflejar directamente la información de profundidad de las partes relacionadas de la batería y, por lo tanto, no se puede implementar una formación de imágenes efectiva de las características sensibles a la profundidad, mientras que la imagen tridimensional tiene baja resolución y no puede cubrir todas las características objetivo. Por lo tanto, los rayones en la superficie de la batería, los defectos en la soldadura de la cubierta superior de la batería y los defectos en la soldadura del pasador de sellado se pueden detectar usando el método de procesamiento de imágenes de acuerdo con la presente solicitud, para obtener datos de imágenes fusionadas para la detección de características correspondientes. Las Figuras 3a a 3d ilustran una realización de detección de defectos de soldadura de un pasador de sellado de batería de litio, de acuerdo con la presente solicitud. Sin embargo, debe entenderse que el objeto en el método de procesamiento de imágenes de la presente solicitud puede ser, como alternativa, una superficie de batería, una soldadura de la cubierta superior de la batería, etc. En la realización ilustrada en las Figuras 3a a 3d, la imagen bidimensional de la Figura 3a y la imagen tridimensional correspondiente a las Figuras 3b y 3c son imágenes adquiridas en diferentes posiciones de una línea de producción. Sin embargo, en algunas otras realizaciones, la imagen bidimensional y la imagen tridimensional pueden ser imágenes adquiridas en la misma posición de una línea de producción.
La Figura 4 ilustra un diagrama de flujo de un método de detección de apariencia de acuerdo con la presente solicitud. Como se muestra en la Figura 4, en la etapa 402, se obtienen datos de imágenes fusionadas de una pluralidad de objetos de acuerdo con el método de procesamiento de imágenes de acuerdo con la presente solicitud. En la etapa 404, se obtienen los resultados de determinación de defectos de la pluralidad de objetos. Los resultados de determinación de defectos obtenidos en la etapa 404 se determinan por inspectores visuales. A continuación, en la etapa 406, los datos de imágenes fusionadas y los resultados de determinación de defectos de la pluralidad de objetos se usan para entrenar iterativamente un modelo de algoritmo de aprendizaje profundo y actualizar el modelo de algoritmo de aprendizaje profundo. En la etapa 408, después de que se obtiene un modelo de algoritmo de aprendizaje profundo útil a través del entrenamiento, se adquieren una imagen bidimensional y una imagen tridimensional de un objeto objetivo. En la etapa 410, la imagen bidimensional y la imagen tridimensional del objeto objetivo se fusionan de acuerdo con el método de procesamiento de imágenes descrito anteriormente, para obtener datos de imágenes fusionadas del objeto objetivo. Finalmente, en la etapa 412, los datos de imágenes fusionadas del objeto objetivo se introducen en un modelo de algoritmo de aprendizaje profundo actualizado para obtener un resultado de determinación de defectos del objeto objetivo.
En la realización ilustrada en la Figura 4, el resultado de determinación de defectos del objeto objetivo se obtiene sustituyendo los datos de imágenes fusionadas del objeto objetivo en el modelo entrenado. Por lo tanto, se mejora la precisión de la detección y se reducen los fallos de detección y las detecciones falsas (falsos positivos) de defectos. Al mismo tiempo, dado que los datos de imágenes fusionadas se sustituyen en un modelo para el cálculo y el análisis, no hay necesidad de construir dos modelos o sustituir respectivamente datos de diferentes imágenes en los dos modelos para el cálculo y el análisis, ahorrando de esta manera recursos informáticos y aumentando la velocidad de detección. Además, dado que se usan únicamente datos de imágenes fusionadas, únicamente es necesario entrenar con antelación un modelo en lugar de dos.
En algunas realizaciones, los datos de imágenes fusionadas del objeto objetivo descrito anteriormente incluyen información de escala de grises, información de luminancia e información de profundidad del objeto objetivo, y el modelo de algoritmo de aprendizaje profundo descrito anteriormente incluye un canal de entrada de datos de escala de grises, un canal de entrada de datos de luminancia y un canal de entrada de datos de profundidad. En esta realización, el modelo de algoritmo de aprendizaje profundo puede incluir tres canales de entrada de datos, y el modelo detecta, basándose en la información de escala de grises de entrada, la información de luminancia y la información de profundidad, si hay un defecto.
En algunas realizaciones, el modelo de algoritmo de aprendizaje profundo descrito anteriormente incluye un canal de entrada de datos de rojo, un canal de entrada de datos de verde, un canal de entrada de datos de azul, un canal de entrada de datos de luminancia y un canal de entrada de datos de profundidad. En esta realización, el modelo de algoritmo de aprendizaje profundo puede incluir cinco canales de entrada de datos, y el modelo detecta, basándose en la información de color de entrada, la información de luminancia y la información de profundidad, si hay un defecto. Debe entenderse que, en la práctica, los expertos en la materia pueden elegir el número de canales de datos del modelo de acuerdo con los requisitos reales.
La presente invención no se limita a las realizaciones específicas divulgadas en el presente documento, sino que incluye todas las soluciones técnicas que caen dentro del alcance de las reivindicaciones adjuntas.

Claims (7)

REIVINDICACIONES
1. Un método de procesamiento de imágenes implementado por ordenador, que comprende:
obtener una imagen bidimensional y una imagen tridimensional de un objeto (102; 408), en donde el objeto se selecciona de uno cualquiera de los siguientes: una superficie de batería, una soldadura de la cubierta superior de la batería y un pasador de sellado de la batería;
extraer información de luminancia e información de profundidad a partir de la imagen tridimensional para generar un mapa de luminancia y un mapa de profundidad para el objeto (104);
aplicar gris a la imagen bidimensional para obtener una imagen en escala de grises de un único canal (106); seleccionar al menos los tres puntos de ubicación iguales de cada uno de la imagen en escala de grises y del mapa de luminancia (108, 212);
calcular una matriz de transformación de coordenadas entre la imagen en escala de grises y el mapa de luminancia basándose en las coordenadas de los al menos tres puntos de ubicación iguales en cada uno de la imagen en escala de grises y el mapa de luminancia (110, 214); y
alinear la imagen bidimensional con el mapa de luminancia y el mapa de profundidad basándose en la matriz de transformación de coordenadas, para obtener datos de imágenes fusionadas (112; 410), en donde los datos de imágenes fusionadas comprenden información de color de la imagen bidimensional y la información de luminancia e información de profundidad de la imagen tridimensional,
en donde los datos de imágenes fusionadas del objeto se introducen en un modelo de algoritmo de aprendizaje profundo entrenado para obtener un resultado de determinación de defectos del objeto (412).
2. El método de procesamiento de imágenes de acuerdo con la reivindicación 1, en donde los al menos tres puntos de ubicación iguales son puntos del objeto con características (212).
3. El método de procesamiento de imágenes de acuerdo con la reivindicación 1 o 2, en donde los al menos tres puntos de ubicación iguales comprenden tres puntos de referencia no colineales.
4. El método de procesamiento de imágenes de acuerdo con la reivindicación 3, en donde un ángulo interior máximo de un triángulo formado por los tres puntos de referencia no es mayor que 160°.
5. El método de procesamiento de imágenes de acuerdo con una cualquiera de las reivindicaciones 1 a 4, que comprende:
alinear el mapa de luminancia y el mapa de profundidad con la imagen bidimensional basándose en la matriz de transformación de coordenadas usando las coordenadas de la imagen bidimensional como referencia; y usar, como información de tres canales respectivamente, la información de escala de grises de la imagen en escala de grises, y la información de luminancia y la información de profundidad que están alineadas con las coordenadas en la imagen bidimensional, para generar una imagen fusionada que contiene la información de los tres canales.
6. El método de procesamiento de imágenes de acuerdo con una cualquiera de las reivindicaciones 1 a 5, antes de que la imagen bidimensional se alinee con el mapa de luminancia y el mapa de profundidad, los valores de profundidad en el mapa de profundidad se normalizan para generar un mapa de profundidad normalizado (210).
7. Un medio de almacenamiento no volátil, que almacena instrucciones, en donde las instrucciones, cuando son ejecutadas por un procesador, hacen que el procesador realice el método de procesamiento de imágenes de acuerdo con una cualquiera de las reivindicaciones 1 a 6.
ES21958589T 2021-10-26 2021-10-26 Image processing method Active ES2994029T3 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2021/126393 WO2023070312A1 (zh) 2021-10-26 2021-10-26 图像处理方法

Publications (1)

Publication Number Publication Date
ES2994029T3 true ES2994029T3 (en) 2025-01-16

Family

ID=86158948

Family Applications (1)

Application Number Title Priority Date Filing Date
ES21958589T Active ES2994029T3 (en) 2021-10-26 2021-10-26 Image processing method

Country Status (8)

Country Link
US (1) US11823326B2 (es)
EP (1) EP4209993B1 (es)
CN (1) CN116457825B (es)
DK (1) DK4209993T3 (es)
ES (1) ES2994029T3 (es)
HU (1) HUE068863T2 (es)
PL (1) PL4209993T3 (es)
WO (1) WO2023070312A1 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116452485B (zh) * 2022-01-05 2026-01-27 通用汽车环球科技运作有限责任公司 基于图像相关联性的反射表面的检查
CN116542967B (zh) * 2023-06-29 2023-10-03 厦门微图软件科技有限公司 一种锂电池极柱缺陷的检测方法、装置以及设备
TWI890200B (zh) * 2023-11-17 2025-07-11 財團法人金屬工業研究發展中心 點雲與影像的感測系統與校正方法
CN117723551B (zh) * 2024-02-18 2024-07-16 宁德时代新能源科技股份有限公司 电池检测设备、点检方法、电池生产设备和检测方法
CN117890378B (zh) * 2024-02-22 2024-07-19 宁德时代新能源科技股份有限公司 电池外观缺陷检测系统及点检方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8610758B2 (en) * 2009-12-15 2013-12-17 Himax Technologies Limited Depth map generation for a video conversion system
US8149268B1 (en) * 2010-11-05 2012-04-03 The United States Of America As Represented By The Secretary Of The Army System and method for determining three-dimensional information from two-dimensional images
CN103930923A (zh) * 2011-12-02 2014-07-16 诺基亚公司 用于捕获图像的方法、装置和计算机程序产品
CN102508259A (zh) * 2011-12-12 2012-06-20 中国科学院合肥物质科学研究院 基于mems扫描微镜的小型化无镜头激光三维成像系统及其成像方法
US9736456B1 (en) * 2012-09-28 2017-08-15 Pixelworks, Inc. Two dimensional to three dimensional video conversion
CN103337069B (zh) * 2013-06-05 2016-06-29 余洪山 基于复合摄像机的高质量三维彩色图像获取方法及装置
CN108663677A (zh) * 2018-03-29 2018-10-16 上海智瞳通科技有限公司 一种多传感器深度融合提高目标检测能力的方法
CN209432721U (zh) * 2018-10-24 2019-09-24 东莞市乐琪光电科技有限公司 锂电池表面检测设备
CN109647733A (zh) 2018-11-30 2019-04-19 安徽东鸣智能存储设备有限公司 一种基于工业ccd的视觉识别分拣系统
US10708557B1 (en) * 2018-12-14 2020-07-07 Lyft Inc. Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors
CN110070532B (zh) * 2019-04-23 2023-06-27 江南大学 基于三维图像与二维图像特征结合的织物平整度评价方法
CN110599578B (zh) * 2019-07-29 2025-08-26 深圳市易尚展示股份有限公司 一种真实感三维彩色纹理重建方法
DE102019219743A1 (de) * 2019-12-16 2021-06-17 PLR Prüftechnik Linke & Rühe GmbH Verfahren zur Charakterisierung einer Schweißnaht
CN112541886A (zh) * 2020-11-27 2021-03-23 北京佳力诚义科技有限公司 一种激光雷达和相机融合人工智能矿石识别方法和装置
CN115118850B (zh) * 2022-06-22 2024-04-05 海信视像科技股份有限公司 图像处理方法及显示装置

Also Published As

Publication number Publication date
HUE068863T2 (hu) 2025-02-28
US11823326B2 (en) 2023-11-21
PL4209993T3 (pl) 2025-05-19
US20230281919A1 (en) 2023-09-07
DK4209993T3 (da) 2024-10-28
CN116457825A (zh) 2023-07-18
WO2023070312A1 (zh) 2023-05-04
EP4209993A4 (en) 2023-12-20
EP4209993B1 (en) 2024-10-02
CN116457825B (zh) 2025-09-02
EP4209993A1 (en) 2023-07-12

Similar Documents

Publication Publication Date Title
ES2994029T3 (en) Image processing method
CN114820924B (zh) 一种基于bim和视频监控的博物馆参观分析的方法及系统
CN103868460B (zh) 基于视差优化算法的双目立体视觉自动测量方法
US9824443B2 (en) Image processing device, image processing method, and program
US11328535B1 (en) Motion identification method and system
CN106204443A (zh) 一种基于多目复用的全景无人机系统
CN106683045A (zh) 一种基于双目像机的全景图像拼接方法
CN109069132A (zh) 用于辅助型3d扫描的系统和方法
CN108986164A (zh) 基于图像的位置检测方法、装置、设备及存储介质
CN108731587A (zh) 一种基于视觉的无人机动态目标跟踪与定位方法
CN104036522A (zh) 一种基于视频中运动目标识别的流水速度监测方法
CN110853002A (zh) 一种基于双目视觉的变电站异物检测方法
CN110231023A (zh) 一种智能视觉采样方法、系统及装置
US20110129127A1 (en) Object image correction apparatus and method for object identification
CN105513074B (zh) 一种羽毛球机器人相机以及车身到世界坐标系的标定方法
CN118376355B (zh) 一种盾构隧道衬砌渗漏水智能检测方法
CN110766170A (zh) 基于图像处理的多传感器融合和人员定位的方法
CN112017243A (zh) 一种介质能见度识别方法
CN117576461A (zh) 一种用于变电站场景的语义理解方法、介质及系统
Megalingam et al. Adding intelligence to the robotic coconut tree climber
CN115690219A (zh) 一种复杂环境下运行列车三维信息的检测方法及系统
CN120510590A (zh) 基于激光雷达与摄像头数据融合的码头感知方法及系统
ES2625730T3 (es) Sistema y método de medición estereoscópica
Tanner et al. Meshed up: Learnt error correction in 3D reconstructions
US12198394B2 (en) Object recognition method and apparatus, electronic device and readable storage medium