DE102019206083A1 - Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug - Google Patents

Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug Download PDF

Info

Publication number
DE102019206083A1
DE102019206083A1 DE102019206083.8A DE102019206083A DE102019206083A1 DE 102019206083 A1 DE102019206083 A1 DE 102019206083A1 DE 102019206083 A DE102019206083 A DE 102019206083A DE 102019206083 A1 DE102019206083 A1 DE 102019206083A1
Authority
DE
Germany
Prior art keywords
camera
image information
measurement object
abstracted
processing unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019206083.8A
Other languages
English (en)
Inventor
Dieter Schwarz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102019206083.8A priority Critical patent/DE102019206083A1/de
Publication of DE102019206083A1 publication Critical patent/DE102019206083A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8896Circuits specially adapted for system specific signal conditioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/956Inspecting patterns on the surface of objects
    • G01N21/95684Patterns showing highly reflecting parts, e.g. metallic elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Studio Devices (AREA)

Abstract

Verfahren zur optischen Inspektion mittels eines Kamerasystems (200), welches mindestens eine erste Kamera (210) und eine zweite Kamera (220) aufweist, wobei die erste und zweite Kamera (210, 220) jeweils dazu eingerichtet sind, einen Bereich eines Messobjektes zu erfassen, wobei die erste Kamera (210) mit einer ersten Recheneinheit (211) und die zweite Kamera (220) mit einer zweiten Recheneinheit (221) verbunden sind, umfassend eine Erfassung (110) mindestens eines ersten Kamerabildes mittels der ersten Kamera (210) und eine Erfassung (120) eines zweiten Kamerabildes mittels der zweiten Kamera (220), wobei das erste und zweite Kamerabild insbesondere zeitgleich erfasst werden; eine Ermittlung (130) wenigstens einer ersten abstrahierten Bildinformation in Abhängigkeit des erfassten ersten Kamerabildes mittels der ersten Recheneinheit (211); eine Ermittlung (140) wenigstens einer zweiten abstrahierten Bildinformation in Abhängigkeit des erfassten zweiten Kamerabildes mittels der zweiten Recheneinheit (221), wobei die erste und zweite abstrahierten Bildinformation insbesondere zeitgleich ermittelt werden; wobei eine Übertragung (151) der ersten abstrahierten Bildinformation und Übertragung (152) der zweiten abstrahierten Bildinformation an eine Hauptrecheneinheit durchgeführt wird, und ein Zustand des Messobjektes in Abhängigkeit der übertragenen ersten und zweiten abstrahierten Bildinformationen mittels der Hauptrecheneinheit bestimmt wird.

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur optischen Inspektion mittels eines Kamerasystems, insbesondere zur Bestimmung eines Zustands von Elektronikbauteilen, sowie das Kamerasystem zur optischen Inspektion. Des Weiteren betrifft die Erfindung auch ein Fahrzeug mit dem Kamerasystem.
  • Stand der Technik
  • JP 5870168 B2 offenbart ein Verfahren zur Analyse eines Objektes mittels mehrerer Kameras.
  • DE 103 01 941 A1 offenbart eine Kamera zur optischen Aufnahme eines Schirms, wobei für die optische Aufnahme eine vorbestimmte Gesamtauflösung vorgesehen ist.
    Es sind ein Array von optischen Einzelkameras sowie eine Bildverarbeitungseinrichtung zum Bearbeiten von digitalen Einzelbildern des Arrays von optischen Einzelkameras vorgesehen, um die optische Aufnahme des Schirms mit der vorbestimmten Gesamtauflösung zu erzeugen.
  • US 6,002,743 B offenbart ein Bilderfassungssystem, welches mehrere Kameras verwendet. Die Kameras oder Sensoren sind in Zeilen und Spalten angeordnet.
  • Die Aufgabe der vorliegenden Erfindung ist es, eine optische Inspektion bereitzustellen, welche eine Ermittlung eines Zustands eines Messobjektes mit hoher Gesamtauflösung verbessert durchführt.
  • Offenbarung der Erfindung
  • Die vorstehende Aufgabe wird durch ein Verfahren zur optischen Inspektion gemäß Anspruch 1 und durch ein Kamerasystem gemäß Anspruch 13 sowie durch ein Fahrzeug gemäß Anspruch 16 gelöst.
  • Durch die unabhängigen Ansprüche 1, 13 und 16 resultiert jeweils vorteilhafterweise bei einer optischen Inspektion mit hoher Gesamtauflösung eine geringe Bildverarbeitungsdauer, wobei kostengünstige Einzelkameras mit relativ geringer Auflösung und Recheneinheiten mit relativ geringer Rechenleistung verwendet werden. Dadurch ergeben sich geringe Herstellungskosten für das Kamerasystem und weitere technische Vorteile, wie beispielsweise eine höhere Geschwindigkeit bis zur Bestimmung des Zustands des Messobjektes und/oder eine schnellere und zuverlässigere Steuerung des Fahrzeugs.
  • Das erfindungsgemäße Kamerasystems zur optischen Inspektion umfasst mindestens eine erste Kamera und eine zweite Kamera, wobei die erste und zweite Kamera jeweils dazu eingerichtet sind, einen Bereich eines Messobjektes zu erfassen. Das Kamerasystem weist eine erste Recheneinheit auf, welche mit der ersten Kamera verbunden ist. Die erste Recheneinheit ist dazu eingerichtet, wenigstens eine erste abstrahierte Bildinformation zu ermitteln und die erste abstrahierte Bildinformation an eine Hauptrecheneinheit zu übertragen. Das Kamerasystem weist eine zweite Recheneinheit auf, welche mit der zweiten Kamera verbunden ist. Die zweite Recheneinheit ist dazu eingerichtet, wenigstens eine zweite abstrahierte Bildinformation zu ermitteln und die zweite abstrahierte Bildinformation an die Hauptrecheneinheit zu übertragen. Das Kamerasystem weist auch eine Hauptrecheneinheit auf, welche dazu eingerichtet ist, die erste und zweite abstrahierte Bildinformation zu empfangen, wobei der Empfang insbesondere kabellos erfolgt. Die Hauptrecheneinheit ist ferner dazu eingerichtet, einen Zustand des Messobjektes in Abhängigkeit der übertragenen ersten und zweiten abstrahierten Bildinformation zu ermitteln. Vorzugsweise sind die von der ersten und zweiten Kamera erfassten Bereiche des Messobjektes im Wesentlichen unterschiedlich. Alternativ überlappen die von der ersten und zweiten Kamera erfassten Bereiche des Messobjektes im Wesentlichen.
  • Das erfindungsgemäße Verfahren umfasst eine Erfassung mindestens eines ersten Kamerabildes mittels der ersten Kamera. Anschließend erfolgt eine Ermittlung wenigstens einer ersten abstrahierten Bildinformation in Abhängigkeit des erfassten ersten Kamerabildes mittels der ersten Recheneinheit. Die erste abstrahierte Bildinformation repräsentiert vorteilhafterweise eine Eigenschaft des von der ersten Kamera erfassten Bereichs des Messobjektes. Das Verfahren weist ferner eine Erfassung mindestens eines zweiten Kamerabildes mittels der zweiten Kamera auf. Diese Erfassung des zweiten Kamerabildes erfolgt vorteilhafterweise zeitgleich zur Erfassung des ersten Kamerabildes. Nach der Erfassung des zweiten Kamerabildes erfolgt die Ermittlung wenigstens einer zweiten abstrahierten Bildinformation in Abhängigkeit des erfassten zweiten Kamerabildes mittels der zweiten Recheneinheit. Die zweite abstrahierte Bildinformation repräsentiert vorteilhafterweise eine Eigenschaft des von der zweiten Kamera erfassten Bereichs des Messobjektes.
    Die Ermittlung der ersten und zweiten abstrahierten Bildinformation erfolgt vorteilhafte parallel beziehungsweise zeitgleich. Das Verfahren umfasst ferner eine Übertragung der ersten abstrahierten Bildinformation an eine Hauptrecheneinheit und eine Übertragung der zweiten abstrahierten Bildinformation an die Hauptrecheneinheit, beispielsweise jeweils mittels eines Kabels oder vorteilhafterweise jeweils kabellos mittels einer Funkverbindung, beispielsweise mittels Bluetooth. Danach erfolgt eine Bestimmung eines Zustands des Messobjektes in Abhängigkeit der übertragenen ersten abstrahierten Bildinformation und der übertragenen zweiten abstrahierten Bildinformation mittels der Hauptrecheneinheit. Durch das Verfahren resultiert der Vorteil, dass ein Messobjekt mittels eines Kamerasystems aus mehreren vergleichsweise günstiger beziehungsweise niedrig auflösender Kameras erfasst werden kann, wodurch ein hochauflösendes Kamerasystem resultiert. Durch das Verfahren wird dadurch vorteilhafterweise eine hochauflösende und teure Kamera, wie sie häufig in automatischen optischen Inspektionsverfahren des Standes der Technik eingesetzt wird, durch mehrere niedriger auflösende und günstigere Kameras des Kamerasystems ersetzt. Ferner wird die zur Hauptrecheneinheit übertragene Datenmenge trotz einer erreichten großen Gesamtauflösung des Kamerasystems gegenüber herkömmlichen Inspektionssystemen erheblich reduziert, da keine Kamerabilder sondern erste und/oder zweite abstrahierte Bildinformationen beziehungsweise Eigenschaften des Messobjektes an die Hauptrecheneinheit zur Bestimmung des Zustands des Messobjektes übertragen werden. Mit anderen Worten umfasst das Verfahren vorteilhafterweise einen effizienten zweistufigen Rechenprozess, wobei die Bestimmung des Zustandes des Messobjektes auf bereits ermittelten Bildinformationen basiert. Die einzelnen Ermittlungen der ersten und/oder zweiten Bildinformation werden vorteilhafterweise einfacher beziehungsweise weniger rechenintensiv, da die erste und/oder zweite Kamera vorteilhafterweise nicht das gesamte Messobjekt, sondern einen Teilbereich des Messobjektes erfassen. Durch eine insbesondere parallele Ermittlung der Bildinformationen basierend auf den jeweiligen Kamerabildern mit geringerer Auflösung beziehungsweise Datenmenge wird die Geschwindigkeit erhöht. Außerdem wird die benötigte Rechenleistung der Hauptrechnereinheit und eine erforderliche Kühlleistung der Hauptrechnereinheit reduziert. Die Bestimmung des Zustands des Messobjektes wird insgesamt zuverlässiger.
  • Bevorzugt weist das Kamerasystem eine Vielzahl beziehungsweise mehr als zwei Kameras auf, wobei die weiteren Kameras ergänzend zur ersten und zweiten Kamera des Kamerasystems angeordnet sind und jeweils ebenfalls weitere Recheneinheiten aufweisen, welche basierend auf den jeweils erfassten weiteren Kamerabildern weitere abstrahierte Bildinformation ermitteln und an die Hauptrecheneinheit übertragen. Vorteilhafterweise unterscheiden sich die mittels der Kameras erfassten Bereiche des Messobjektes im Wesentlichen. Dadurch wird der erfasste Bereich des Messobjektes und/oder die Auflösung des Kamerasystems vergrößert.
  • In einer bevorzugten Ausgestaltung erfolgt die Ermittlung der wenigstens einen ersten und/oder zweiten abstrahierten Bildinformation mittels eines Bildverarbeitungsalgorithmus und/oder mittels eines angelernten maschinellen Erkennungsverfahrens, welches insbesondere auf einem neuronalen Netz basiert. Mit anderen Worten werden vorteilhafterweise die erste und/oder zweite abstrahierte Bildinformation beziehungsweise eine Eigenschaft des Messobjektes mittels einer künstlichen Intelligenz erkannt und/oder analytisch mittels eines Bildverarbeitungsalgorithmus ermittelt. Beispielsweise erfolgt die Ermittlung der ersten und/oder zweiten abstrahierten Bildinformation vorteilhafterweise mittels einer künstlichen Intelligenz sehr schnell. Alternativ erfolgt die Ermittlung der ersten und/oder zweiten abstrahierten Bildinformation vorteilhafterweise mittels eines Bildverarbeitungsalgorithmus unabhängig von Trainingsdaten und anhand analytisch zugänglicherer beziehungsweise auf physikalischen Zusammenhängen basierenden Gleichungssystemen. Es kann vorgesehen sein, dass die erste und/oder zweite Bildinformation sowohl Daten umfassen, welche mittels eines Bildverarbeitungsalgorithmus und mittels eines angelernten maschinellen Erkennungsverfahrens ermittelt worden sind. Beispielsweise könnte die erste und/oder zweite Recheneinheit im jeweiligen ersten beziehungsweise zweiten Kamerabild Objekte mittels einer künstlichen Intelligenz erkennen und den erkannten Objekten eine mittels eines Bildverarbeitungsalgorithmus ermittelte Bewegungsrichtung und/oder Bewegungsgeschwindigkeit und/oder einen ermittelten Abstand zuordnen.
  • Vorzugsweise umfasst die als erste und/oder zweite abstrahierte Bildinformation ermittelte mindestens eine Eigenschaft des Messobjektes wenigstens einen Kantenverlauf des Messobjektes, einen Zustand einer Öffnung des Messobjektes (z.B. Via-Prüfung bei Elektronikbauteilen), ein erkanntes Segment und/oder ein erkanntes Objekt im beziehungsweise auf dem Messobjekt und/oder einen ermittelten optischen Fluss in Abhängigkeit einer Bewegung des Messobjekts und/oder einer Bewegung im Messobjekt.
  • In einer Weiterführung umfasst die erste und/oder zweite abstrahierte Bildinformation eine Lokalisation im erfassten Bereich des Messobjektes. Mit anderen Worten umfasst die erste und/oder zweite abstrahierte Bildinformation bevorzugt eine Information zur Lage einer ermittelten Eigenschaft des Messobjektes im ersten und/oder zweiten Kamerabild. Dadurch erfolgt die Bestimmung des Zustands des Messobjekts mittels der Hauptrecheneinheit genauer und/oder differenzierter.
  • In einer bevorzugten Ausführung sind die von der ersten und zweiten Kamera erfassten Bereiche des Messobjektes im Wesentlichen unterschiedlich. Mit anderen Worten weisen die von der ersten und zweiten Kamera erfassten Bereiche des Messobjektes keinen oder einen im Vergleich zu den jeweils erfassten Bereichen kleinen Überlappungsbereich auf. Dadurch wird der erfasste Bereich des Messobjektes vergrößert.
  • In einer Weiterführung erfassen die erste und zweite Kamera jeweils mehrere erste beziehungsweise zweite Kamerabilder unter unterschiedlicher Beleuchtung und/oder mit unterschiedlichen optischen Einstellungen und/oder mit unterschiedlichen optischen Filtern. Durch eine Erfassung mehrerer erster beziehungsweise zweiter Kamerabilder unter unterschiedlicher Beleuchtung und/oder mit unterschiedlichen optischen Einstellungen und/oder mit unterschiedlichen optischen Filtern lassen sich vorteilhafterweise unterschiedliche Eigenschaften des Messobjektes als Bildinformation ermitteln. Beispielsweise können unterschiedliche thermische Eigenschaften eines Messobjektes und/oder unterschiedliche Materialien eines Messobjektes und/oder unterschiedliche Reflektionseigenschaften für verschiedener Wellenlängen in verschiedenen Bereichen eines Messobjektes ermittelt werden. Dadurch wird der durch die Hauptrecheneinheit ermittelte Zustand des Messobjektes genauer.
  • In einer anderen Ausgestaltung überlappen die von der ersten und zweiten Kamera erfassten Bereiche des Messobjektes im Wesentlichen, wobei die erste und zweite Kamera insbesondere unterschiedliche Optiken und/oder optische Filter aufweisen und/oder unterschiedliche Wellenlängenbereiche erfassen. Durch diese Ausgestaltung wird der erfasste Bereich genauer erfasst, so dass weitere Eigenschaften des Messobjektes bestimmt werden können, und/oder eine Redundanz zwischen dem erfassten ersten und zweiten Kamerabild erzielt wird, so dass der Zustand des Messobjektes durch die Hauptrecheneinheit zuverlässiger und genauer bestimmt werden kann.
  • In einer Ausführung erfolgt die Übertragung der ersten und zweiten abstrahierten Bildinformation an eine Hauptrecheneinheit kabellos. Dadurch werden Kosten für eine Verkabelung und ein Montageaufwand des Kamerasystems reduziert. Ferner erlaubt diese Ausführung eine gegenüber der ersten und zweiten Kamera mobile Hauptrecheneinheit, beispielsweise kann die Hauptrecheneinheit als ein mobiles elektronisches Gerät, insbesondere als Smartphone oder Tablet, ausgestaltet sein.
  • In einer besonders bevorzugten Ausgestaltung ist das Messobjekt ein Elektronikbauteil, beispielsweise ein beschichtetes LTCC-Substrat. Wenn das Verfahren als automatisches optisches Inspektionssystem zur Überprüfung eines Elektronikbauteils beispielsweise in einer Fertigungslinie des Elektronikbauteils verwendet wird, kann auf eine bewegte sehr teure hochauflösende Kamera zur optischen Inspektion verzichtet werden. Dadurch können auch teure Linearachsen zur Bewegung der hochauflösenden Kamera und teure erschütterungsfreie Unterbauten zur Montage der hochauflösenden Kamera eingespart werden.
  • In einer alternativen Ausgestaltung ist das Messobjekt ein Innen- und/oder Außenraum beziehungsweise Innen- und/oder Außenbereich eines Gebäudes, wobei bevorzugt die erste und/oder zweite Kamera an einer Decke und/oder Wand eines Innenraums des Gebäudes angeordnet und nach unten auf den Boden des Innenraums gerichtet sind. Dadurch lässt sich beispielsweise eine Fertigung vorteilhafterweise zentral mittels kostengünstiger Komponenten überwachen.
  • In einer anderen alternativen Ausgestaltung des Verfahrens ist das Kamerasystems an einem Fahrzeug angeordnet und das Messobjekt ist die Umgebung des Fahrzeugs. Die Hauptrecheneinheit ist in dieser Ausgestaltung vorteilhafterweise zusätzlich dazu eingerichtet, das Fahrzeug automatisch durch Ansteuerung einer Lenkung und/oder eines Antriebssystems jeweils in Abhängigkeit des bestimmten Zustands der Umgebung des Fahrzeugs zu steuern. Die Hauptrecheneinheit kann in dieser Ausgestaltung alternativ oder zusätzlich dazu eingerichtet sein, ein abstrahiertes Umgebungsmodell in Abhängigkeit der ersten und/oder zweiten Bildinformation zu ermitteln und anzuzeigen, wobei das abstrahierte Umgebungsmodell insbesondere keine real erfassten Bilder umfasst. Dadurch wird vorteilhafterweise eine Anzeige von Bildartefakten vermieden, welche beispielsweise durch im Nahbereich vor einer Kamera platzierte Objekte resultieren kann. In dieser Ausgestaltung werden vorteilhafterweise mehrere Kameras, beispielsweise 10 Kameras, rund um das Fahrzeug angeordnet, wobei sich vorteilhafterweise von zumindest zwei unterschiedlichen Kameras erfasste Bereiche vorteilhafterweise so überlappen, dass bei einem Ausfall einer Kamera oder bei einer Verschmutzung einer Kameraoptik eine oder mehrere andere Kameras redundante Bildinformationen liefern. Ferner werden vorteilhafterweise Bereiche der Umgebung in dieser Ausgestaltung aus verschiedenen optischen Perspektiven gleichzeitig erfasst, so dass beispielsweise bei einer niedrig stehenden und in Fahrtrichtung aufgehenden Sonne eine Kamera weniger geblendet ist als eine andere Kamera oder eine Kameraperspektive ein Objekt besser erkennen lässt als eine andere Kameraperspektive. Demnach wird der Zustand der Umgebung mittels der Hauptrecheneinheit in dieser Ausgestaltung zuverlässiger bestimmt, wodurch die Hauptrecheneinheit das Fahrzeug sicherer steuern kann.
  • Vorzugsweise ist die Hauptrecheneinheit dazu eingerichtet, die erste Kamera, die zweite Kamera, die erste Recheneinheit und/oder die zweite Recheneinheit zu steuern, so dass die Erfassung des ersten Kamerabildes, die Erfassung des zweiten Kamerabildes, die Ermittlung der ersten abstrahierten Bildinformation und/oder die Ermittlung der zweiten abstrahierten Bildinformation durch die Steuerung angepasst werden. Dadurch kann vorteilhafterweise die Hauptrecheneinheit die Erfassung der ersten und/oder zweiten Kamerabilder und/oder die Ermittlung der ersten und/oder zweiten abstrahierten Bildinformationen in Abhängigkeit einer Fahrsituation beziehungsweise in Abhängigkeit einer Betriebsgröße des Fahrzeugs anpassen, beispielsweise werden Kamerabilder bei einer Geschwindigkeit des Fahrzeugs oberhalb eines Schwellenwertes mit anderen optischen Einstellungen der Optik erfasst und/oder abstrahierte Bildinformationen in Abhängigkeit der Geschwindigkeit des Fahrzeugs mit unterschiedlichen Ermittlungsverfahren ermittelt, beispielsweise wird zur Ermittlung der ersten und/oder zweiten abstrahierten Bildinformation ein erstes neuronales Netz oberhalb eines Ermittlungsschwellenwertes für die Geschwindigkeit und ein zweites neuronales Netz unterhalb des Ermittlungsschwellenwertes für die Geschwindigkeit verwendet. Insbesondere werden Objekte mittels der jeweiligen Recheneinheit in Abhängigkeit der Geschwindigkeit des Fahrzeugs im jeweiligen Kamerabild mit unterschiedlichen angelernten maschinellen Erkennungsverfahren erkannt. Die Hauptrecheneinheit kann zu diesem Zweck Betriebsparameter des Fahrzeugs erfassen und die Erfassungsverfahren der Kameras und/oder die Ermittlungsverfahren der Recheneinheiten in Abhängigkeit der Betriebsparameter anpassen. Es kann darüber hinaus vorgesehen sein, dass die Hauptrecheneinheit in Abhängigkeit der ersten und/oder zweiten Bildinformationen eine Beleuchtung des Messobjektes anpasst. Es kann darüber hinaus vorgesehen sein, dass sich die Hauptrecheneinheit in Abhängigkeit einer Position der Hauptrecheneinheit mit unterschiedlichen ersten und/oder zweiten Kameras beziehungsweise ersten und/oder zweiten Recheneinheiten verbindet beziehungsweise sich von diesen trennt.
  • In einer optionalen Ausgestaltung des Verfahrens erfolgt eine Verbindung der Hauptrecheneinheit per Funk mit mindestens einer anderen Recheneinheit in Abhängigkeit einer Position der Hauptrecheneinheit, wobei die Recheneinheit mit einer anderen Kamera verbunden ist. Die Hauptrecheneinheit ist insbesondere dazu eingerichtet, die Position zu erfassen, beispielsweise mittels eines Ortssensors, insbesondere mittels eines Sensors für ein globales Sattelitennavigationssystem. In dieser Ausgestaltung erfolgt ein Empfang einer anderen abstrahierten Bildinformation von der anderen Recheneinheit. Die Bestimmung des Zustands des Messobjektes erfolgt zusätzlich in Abhängigkeit der empfangenen anderen abstrahierten Bildinformationen. Durch diese Ausgestaltung kann insbesondere im Falle, dass das Messobjekt ein Fahrzeug ist, eine andere abstrahierte Bildinformation, welche beispielsweise von einer anderen ortsfesten Recheneinheit in Abhängigkeit einer beispielsweise ortsfesten Kamera ermittelt wurde, zur Bestimmung des Zustandes beziehungsweise der Fahrsituation des Fahrzeuges vorteilhafterweise berücksichtigt werden.
  • Die Erfindung betrifft auch ein Fahrzeug, umfassend ein erfindungsgemäßes Kamerasystem.
  • In einer bevorzugten Ausgestaltung ist die Hauptrecheneinheit des Fahrzeugs zusätzlich dazu eingerichtet, eine Lenkung und/oder ein Antriebssystem des Fahrzeugs in Abhängigkeit der ersten und/oder zweiten abstrahierten Bildinformation und/oder in Abhängigkeit des ermittelten Zustands der Umgebung des Fahrzeugs zu steuern oder diese Steuerung des Fahrzeuges anzupassen.
  • Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen mit Bezug zu den Figuren.
    • 1: Verfahren zur optischen Inspektion
    • 2: Kamerasystem
    • 3: Kamerasystem an einem Fahrzeug mit einer Umgebung als Messobjekt
    • 4: Kamerasystem zur optischen Inspektion mit einer Vielzahl an Kameras Ausführungsbeispiele
  • In 1 ist ein Ablaufdiagramm eines Verfahrens zur optischen Inspektion als Blockschaltbild dargestellt. Das Verfahren beginnt mit einer Erfassung 110 mindestens eines ersten Kamerabildes mittels einer ersten Kamera. Anschließend erfolgt eine Ermittlung 130 wenigstens einer ersten abstrahierten Bildinformation in Abhängigkeit des erfassten ersten Kamerabildes mittels einer ersten Recheneinheit. Das Verfahren umfasst auch eine Erfassung 120 mindestens eines zweiten Kamerabildes mittels einer zweiten Kamera, und eine anschließende Ermittlung 140 wenigstens einer zweiten abstrahierten Bildinformation in Abhängigkeit des erfassten zweiten Kamerabildes mittels einer zweiten Recheneinheit. Die Erfassung 110 des ersten Kamerabildes und die Erfassung 120 des zweiten Kamerabildes erfolgen bevorzugt zeitgleich. Die Ermittlung 130 der ersten abstrahierten Bildinformation zum ersten Kamerabild und die Ermittlung 140 der zweiten abstrahierten Bildinformation zum zweiten Kamerabild erfolgen bevorzugt zeitgleich. Mit anderen Worten werden vorteilhafterweise die unterschiedlichen Kamerabilder parallel erfasst und die abstrahierten Bildinformationen aus unterschiedlichen Kamerabildern parallel ermittelt. Bevorzugt werden weitere Kamerabilder mittels einer beliebigen Anzahl weiterer Kameras erfasst (siehe auch 4). Falls weitere Kameras vorgesehen sind, erfolgt nach der optionalen Erfassung 121, 122 jeweils eine Ermittlung 141, 142 weiterer Bildinformationen in Abhängigkeit des erfassten jeweiligen weiteren Kamerabildes mittels einer weiteren Recheneinheit, welche mit der jeweiligen Kamera 121, 122 verbunden ist. Gegenüber einer Erfassung eines Bereiches eines Messobjektes mittels nur einer hochauflösenden Kamera resultiert das Verfahren in einer erfassten geringeren Datenmenge pro Kamera bei gleicher Gesamtauflösung. Die resultierende geringere Datenmenge und die Parallelisierung der Rechenoperationen zur Ermittlung 130 und 140, 141, 142 resultieren vorteilhafterweise in einer erhöhten Geschwindigkeit des Verfahrens. Anschließend werden in einem Schritt 151 die erste abstrahierte Bildinformation an eine Hauptrecheneinheit und in einem Schritt 152 die zweite abstrahierte Bildinformation an die Hauptrecheneinheit übertragen. Falls weitere Kameras und Recheneinheiten vorgesehen sind, erfolgt jeweils eine weitere Übertragung 153 und 154 der jeweiligen abstrahierten weiteren Bildinformationen an die Hauptrecheneinheit mittels der jeweiligen Recheneinheit. Danach erfolgt mittels der Hauptrecheneinheit eine Bestimmung 160 eines Zustands des Messobjektes in Abhängigkeit der übertragenen ersten abstrahierten Bildinformation und in Abhängigkeit der zweiten abstrahierten Bildinformation und optional in Abhängigkeit der ermittelten weiteren Bildinformationen. Die Hauptrecheneinheit 230 kann dazu eingerichtet sein, die Optik und/oder die Erfassungsparameter der ersten und/oder zweiten Kamera zu steuern. Die Hauptrecheneinheit 230 ist optional ferner dazu eingerichtet, die die Ermittlungsverfahren der ersten und/oder zweiten Recheneinheit anzupassen, beispielsweise in Abhängigkeit der ersten und/oder zweiten abstrahierten Bildinformationen. Dadurch resultiert eine Überprüfung beziehungsweise Optimierung der Erfassung 110, 120, 121 und/oder 122 der Kamerabilder und/oder der Ermittlung 130, 140, 141 und/oder 142 abstrahierter Bildinformationen.
  • In 2 ist ein Kamerasystem 200 skizziert, welches die erste Kamera 210 und die zweite Kamera 220 umfasst. Die ersten Kamera 210 und die zweite Kamera 220 erfassen jeweils einen Bereich eines Messobjektes 290. Das Messobjekt 290 ist in diesem Beispiel ein Elektronikbauteil. Die erste Kamera 210 ist mit einer ersten Recheneinheit 211 und die zweite Kamera 220 ist mit einer zweiten Recheneinheit 221 verbunden. Die erste Recheneinheit weist eine erste Kommunikationsschnittstelle 212 zur Übertragung 151 der ersten abstrahierten Bildinformation an eine Hauptrecheneinheit 230 auf. Die erste Recheneinheit 211 ist mittels der ersten Kommunikationsschnittstelle 212 dazu eingerichtet, die erste abstrahierte Bildinformation kabellos zur Hauptrecheneinheit 230 zu übertragen. Die zweite Recheneinheit weist eine zweite Kommunikationsschnittstelle 222 zur Übertragung 152 der zweiten abstrahierten Bildinformation an die Hauptrecheneinheit 230 auf. Die zweite Recheneinheit 221 ist mittels der zweiten Kommunikationsschnittstelle 222 dazu eingerichtet, die erste abstrahierte Bildinformation kabellos zur Hauptrecheneinheit 230 zu übertragen. Die Hauptrecheneinheit 230 ist dazu eingerichtet, den Zustand des Messobjektes 290 in Abhängigkeit der übertragenen ersten und zweiten abstrahierten Bildinformationen zu bestimmen. Beispielsweise wird als Zustand eine Ausfüllung einer Durchkontaktierung beziehungsweise eines Vias des Elektronikbauteils bestimmt. Dazu kann vorteilhafterweise eine Beleuchtung des Elektronikbauteils von der den Kameras gegenüberliegenden Seite des Elektronikbauteils vorgesehen sein, so dass bei einer Öffnung Licht das Elektronikbauteil durchdringt. Die Hauptrecheneinheit ist optional dazu eingerichtet, mit der ersten und/oder zweite Kommunikationsschnittstelle 212, 222 zu kommunizieren, um die Ermittlung der ersten und/oder zweiten abstrahierten Bildinformation und/oder um die Erfassung des ersten und/oder zweiten Kamerabildes anzupassen beziehungsweise zu steuern. Die Hauptrecheneinheit 230 ist in diesem Beispiel gegenüber den Kameras 210 und 220 beweglich, was durch die kabellose Übertragung der ersten und zweiten Bildinformation ermöglicht bzw. vereinfacht wird. Optional ist es vorgesehen, entsprechend der ersten und zweiten Kamera, eine Vielzahl von weiteren Kameras 240, 250 mit einer jeweiligen weiteren Recheneinheit 241, 251 anzuordnen, wobei die weiteren Kameras 240 jeweils ein weiteres Kamerabild erfassen und mittels der zugeordneten Recheneinheit 241 die jeweilige weitere Bildinformation ermittelt wird. Die ermittelte weitere Bildinformation wird anschließend an die Hauptrecheneinheit 230 mittels weiteren Kommunikationsschnittstellen 242 und 252 übertragen, beispielsweise kabellos wie in 2 dargestellt. Es kann vorgesehen sein, dass sich die Hauptrecheneinheit 230 in Abhängigkeit einer Position der Hauptrecheneinheit 230 mit einer jeweiligen Recheneinheit 211, 221, 241, 251 verbindet oder trennt. Alternativ kann die erste Bildinformation und/oder die zweite Bildinformation und/oder jede weitere Bildinformation zwischen den Recheneinheiten 211, 221, 241 und 251 beziehungsweise zwischen den Kommunikationsschnittstellen 212, 222, 242, und 252 und der Hauptrecheneinheit 230 jeweils mittels eines Kabel übertragen werden. Die Erfassung der jeweiligen Kamerabilder mittels der Kameras 210, 220, 240 und 250 sowie die Ermittlung der jeweiligen Bildinformation mittels der Recheneinheiten 211, 221, 241 und 251 sowie die Übertragung der jeweils ermittelten Bildinformationen erfolgen bevorzugt jeweils zeitgleich, so dass eine Parallelisierung der benötigten Rechenoperationen erreicht wird, wodurch die Geschwindigkeit des Kamerasystems zur Bestimmung des Zustands des Messobjektes erhöht wird. Das in 2 skizzierte Prinzip des Kamerasystems 200 kann prinzipiell zur Bestimmung des Zustands einer Vielzahl von Messobjekten eingesetzt werden beziehungsweise in einer Vielzahl von unterschiedlichen Anwendungsbereichen zum Einsatz kommen. Beispielsweise können die Kameras je nach Anwendung unterschiedliche Bereiche eines Messobjektes aus unterschiedlichen Perspektiven und/oder mit unterschiedlichen Optiken erfassen. Das Kamerasystem kann beispielsweise zur Bestimmung eines Zustands eines Elektronikbauteils oder zur Bestimmung eines Zustands eines Innenbereichs eines Gebäudes oder zur Bestimmung eines Zustands einer Umgebung eines Fahrzeugs verwendet werden. Die Erfassung der Kamerabilder mittels der Kameras 210, 220 erfolgt optional unter einer Beleuchtung, wobei die Recheneinheit optional dazu eingerichtet ist, die Beleuchtung, insbesondere in Abhängigkeit der ersten und/oder zweiten abstrahierten Bildinformationen, anzupassen. Die Erfassung der Kamerabilder mittels der Kameras 210, 220 erfolgt ferner optional in unterschiedlichen Wellenlängenbereichen, beispielsweise im infraroten, im ultravioletten oder im sichtbaren Lichtspektrum, oder mit unterschiedlichen optischen Filtern, beispielsweise mit gekreuzt polarisierten optischen Filtern.
  • In 3 ist das Kamerasystem 200 an einem Fahrzeug 300 angeordnet, wobei das Messobjekt eine Umgebung 390 des Fahrzeugs 300 ist. Das Fahrzeug 300 umfasst ein Antriebssystem 301, beispielsweise einen Fahrzeugmotor, und eine Lenkung 302. Die Kameras 210, 220, 240, 250, 260, 270, 280, 290, 310, 320 und 330 sind dazu eingerichtet, jeweils einen Bereich beziehungsweise Teilbereich der Umgebung 390 des Fahrzeugs zu erfassen, wobei sich die erfassten Bereiche vorzugsweise überlappen und die Kamerabilder vorzugsweise zeitgleich erfasst werden. Die mittels der Kameras 310, 320 und 330 erfassten Bereiche 340, 341 und 342 der Umgebung überlappen sich in 3 in Fahrtrichtung 350 vor dem Fahrzeug 300. Jede Kamera weist eine ihr zugeordnete Recheneinheit 211, 221, 241, 251, 261, 271, 281, 291, 311, 321 und 331 auf. Jede Recheneinheit 211, 221, 241, 251, 261, 271, 281, 291, 311, 321 und 331 ist mittels einer Kommunikationsschnittstelle (nicht dargestellt in 3) und mittels eines Kabels und/oder kabellos mit der Hauptrecheneinheit 230 verbunden. Die Recheneinheiten 211, 221, 241, 251, 261, 271, 281, 291, 311, 321 und 331 sind dazu eingerichtet, insbesondere zeitgleich beziehungsweise parallel, abstrahierte Bildinformationen zu ermitteln, wobei die abstrahierten Bildinformationen jeweils in Abhängigkeit des mittels der jeweiligen Kamera 210, 220, 240, 250, 260, 270, 280, 290, 310, 320 oder 330 erfassten Kamerabilds ermittelt werden. Die Recheneinheiten 211, 221, 241, 251, 261, 271, 281, 291, 311, 321 und 331 sind auch dazu eingerichtet, beispielsweise mittels einer jeweiligen Kommunikationsschnittstelle, die jeweils ermittelten Bildinformationen an die Hauptrecheneinheit 230 zu übertragen. Die Hauptrecheneinheit 230 ist dazu eingerichtet, in Abhängigkeit der übertragenen abstrahierten Bildinformationen einen Zustand der Umgebung 390 zu bestimmen. Vorteilhafterweise ist die Recheneinheit des Weiteren dazu eingerichtet, das Fahrzeug 300 durch Ansteuerung des Fahrzeugmotors 301 und/oder durch Ansteuerung der Lenkung 302 in Abhängigkeit des bestimmten Zustands zu steuern beziehungsweise die Steuerung des Fahrzeugmotors 301 und/oder der Lenkung 302 anzupassen, beispielsweise zur Kollisionsvermeidung, teilautonom, beispielsweise durch Erkennung von Fahrspuren, oder vollständig autonom. Das erfindungsgemäße Kamerasystem 200 des Fahrzeugs 300 weist gegenüber bekannten Kamerasystemen den Vorteil einer höheren Rechengeschwindigkeit und einer größeren Zuverlässigkeit auf, da sich die mittels der Kameras erfassten Bereiche der Umgebung vorteilhafterweise zumindest teilweise überlappen. Bei einem technischen Defekt oder einer Verschmutzung der Optik an einer Kamera oder einem technischen Defekt einer Recheneinheit wird beispielsweise der Bereich der Umgebung zumindest teilweise noch durch eine andere Kamera erfasst. Insbesondere liegt in einem mittels der anderen Kamera erfassten Bereich der Umgebung eine hohe Wahrscheinlichkeit vor, dass ein Objekt basierend auf dem mittels der anderen Kamera aus einer anderen Kameraperspektive erfassten anderen Kamerabild als abstrahierte Bildinformation mittels der entsprechenden verbundenen anderen Recheneinheit ermittelt beziehungsweise erkannt wird. Es kann vorgesehen sein, dass für eine Anzeige eines Umgebungsmodells sowohl die abstrahierten Daten als auch die Kamerabilder an die Hauptrecheneinheit 230 übertragen und ein Umgebungsmodell in Abhängigkeit der Kamerabilder und der abstrahierten Bildinformationen ermittelt wird. Es kann ferner vorgesehen sein, dass die Hauptrecheneinheit des Fahrzeugs dazu eingerichtet ist, sich mit wenigstens einer ortsfesten oder mobilen Recheneinheit in der Umgebung des Fahrzeugs zu verbinden, wobei die Recheneinheit mit einer Kamera verbunden ist. Die Hauptrecheneinheit ist dazu eingerichtet, abstrahierte Bildinformationen von der ortsfesten oder mobilen Recheneinheit in der Umgebung des Fahrzeugs zu empfangen und den Zustand der Umgebung in Abhängigkeit der empfangenen abstrahierten Bildinformation zu ermitteln. Es kann ferner vorgesehen sein, dass die Hauptrecheneinheit des Fahrzeugs dazu eingerichtet ist, eine Beleuchtung des Fahrzeugs in Abhängigkeit des ermittelten Zustands der Umgebung und/oder in Abhängigkeit der empfangenen abstrahierten Bildinformation anzupassen.
  • In 4 ist ein Kamerasystem zur optischen Inspektion mit einer Vielzahl an Kameras 210, 220, 240, 250, 260, 270, 280, 410, 420, 430, 440, 450, 460 und 470 schematisch dargestellt. Die Kameras 210, 220, 240, 250, 260, 270 und 280 sind in einer ersten Reihe 510 und die Kameras 410, 420, 430, 440, 450, 460 und 470 sind in einer zweiten Reihe 520 angeordnet. Die Kamera 210 erfasst beispielsweise den Bereich 401 des Messobjektes beziehungsweise Elektronikbauteils 290. Analog erfassen die Kameras 220, 240, 250, 260, 270 und 280 jeweils den Bereich 402, 403, 404, 405, 406 oder 407 des Messobjektes 290. Die von der ersten Reihe 510 von Kameras erfassten Bereiche 401, 402, 403, 404, 405, 406 oder 407 überlappen sich in diesem Beispiel teilweise, wobei der überlappende Anteil klein ist, beispielsweise jeweils kleiner 10% des erfassten Bereichs 401, 402, 403, 404, 405, 406 oder 407. Jede Kamera 210, 220, 240, 250, 260, 270, 280, 410, 420, 430, 440, 450, 460, 470 erfasst bevorzugt gleichzeitig den jeweils zugeordneten Bereich des Messobjektes 290. Mit jeder Kamera ist ferner eine Recheneinheit 211, 221, 241, 251, 261, 271, 281, 411, 421, 431, 441, 451, 461 oder 471 verbunden. Diese Recheneinheit ermittelt jeweils eine abstrahierte Bildinformation zu dem jeweils erfassten Kamerabild der jeweiligen mit der Recheneinheit verbundenen Kamera und überträgt die Bildinformation an eine Hauptrecheneinheit 230 des Kamerasystems. Die Ermittlung der jeweiligen abstrahierten Bildinformationen mittels der Recheneinheiten 211, 221, 241, 251, 261, 271, 281, 411, 421, 431, 441, 451, 461 oder 471 erfolgt vorteilhafterweise zeitgleich beziehungsweise parallel. Die Übertragung der abstrahierten Bildinformationen, beispielsweise jeweils mittels einer Kommunikationsschnittstelle der entsprechenden Recheneinheit, umfasst gegenüber dem zugehörigen Kamerabild relativ wenige Daten und erfolgt deswegen schnell und beispielsweise kabellos. Die Hauptrecheneinheit 230 bestimmt in Abhängigkeit der empfangenen beziehungsweise übertragenen Bildinformationen einen Zustand des Messobjektes 290, beispielsweise eine Füllung einer Durchkontaktierung (Via) eines Elektronikbauteils, insbesondere eines LTCC-Substrates. Die Erfassung der Kamerabilder mittels der Kameras 210, 220, 240, 250, 260, 270, 280, 410, 420, 430, 440, 450, 460 und 470 erfolgt optional unter einer Bestrahlung mit Licht. Die Erfassung der Kamerabilder mittels der Kameras 210, 220, 240, 250, 260, 270, 280, 410, 420, 430, 440, 450, 460 und 470 erfolgt ferner optional in unterschiedlichen Wellenlängenbereichen, beispielsweise im infraroten, im ultravioletten oder im sichtbaren Lichtspektrum, oder mit unterschiedlichen optischen Filtern, beispielsweise mit gekreuzt polarisierten optischen Filtern.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 5870168 B2 [0002]
    • DE 10301941 A1 [0003]
    • US 6002743 [0004]

Claims (14)

  1. Verfahren zur optischen Inspektion mittels eines Kamerasystems (200), welches mindestens eine erste Kamera (210) und eine zweite Kamera (220) aufweist, wobei die erste und zweite Kamera (210, 220) jeweils dazu eingerichtet sind, einen Bereich eines Messobjektes (290, 390) zu erfassen, wobei die erste Kamera (210) mit einer ersten Recheneinheit (211) und die zweite Kamera (220) mit einer zweiten Recheneinheit (221) verbunden sind, umfassend folgende Schritte • Erfassung (110) mindestens eines ersten Kamerabildes mittels der ersten Kamera (210) und Erfassung (120) eines zweiten Kamerabildes mittels der zweiten Kamera (220), wobei das erste und zweite Kamerabild insbesondere zeitgleich erfasst werden, • Ermittlung (130) wenigstens einer ersten abstrahierten Bildinformation in Abhängigkeit des erfassten ersten Kamerabildes mittels der ersten Recheneinheit (211), • Ermittlung (140) wenigstens einer zweiten abstrahierten Bildinformation in Abhängigkeit des erfassten zweiten Kamerabildes mittels der zweiten Recheneinheit (221), wobei die erste und zweite abstrahierten Bildinformation insbesondere zeitgleich ermittelt werden, dadurch gekennzeichnet, dass die folgenden Schritte durchgeführt werden • Übertragung (151) der ersten abstrahierten Bildinformation und Übertragung (152) der zweiten abstrahierten Bildinformation an eine Hauptrecheneinheit (230), und • Bestimmung (160) eines Zustands des Messobjektes (290, 390) in Abhängigkeit der übertragenen ersten und zweiten abstrahierten Bildinformationen mittels der Hauptrecheneinheit (230).
  2. Verfahren nach Anspruch 1, wobei die Ermittlung (130, 140) der wenigstens einen ersten und/oder zweiten abstrahierten Bildinformation mittels eines Bildverarbeitungsalgorithmus und/oder eines angelernten maschinellen Erkennungsverfahrens erfolgt, wobei das angelernte maschinelle Erkennungsverfahren insbesondere auf einem neuronalen Netz basiert.
  3. Verfahren nach einem der vorhergehenden Ansprüche, wobei eine als erste und/oder zweite abstrahierten Bildinformation ermittelte mindestens eine Eigenschaft des Messobjektes wenigstens einen Kantenverlauf, einen Zustand einer Öffnung des Messobjektes, ein erkanntes Segment und/oder ein erkanntes Objekt im beziehungsweise auf dem Messobjekt und/oder einen ermittelten optischen Fluss in Abhängigkeit einer Bewegung des und/oder im Messobjekt umfasst.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei wenigstens die erste und zweite Kamera (210, 220) jeweils mehrere erste beziehungsweise zweite Kamerabilder unter unterschiedlicher Beleuchtung und/oder mit unterschiedlichen optischen Einstellungen und/oder mit unterschiedlichen optischen Filtern erfassen.
  5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die wenigstens von der ersten und zweiten Kamera (210, 220) erfassten Bereiche des Messobjektes (290, 390) im Wesentlichen überlappen, wobei die erste und zweite Kamera (210, 220) insbesondere unterschiedliche Optiken und/oder optische Filter aufweisen und/oder unterschiedliche Wellenlängenbereiche erfassen.
  6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Übertragung der ersten und zweiten abstrahierten Bildinformation an eine Hauptrecheneinheit (230) mittels eines Kabels und/oder kabellos erfolgt.
  7. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Messobjekt (290) ein Elektronikbauteil ist.
  8. Verfahren nach einem der Ansprüche 1 bis 6, wobei das Messobjekt ein Innen- oder Außenbereich eines Gebäudes ist, wobei bevorzugt die erste und zweite Kamera (210, 220) dazu eingerichtet sind, an einer Decke eines Raums des Gebäudes angeordnet und nach unten gerichtet zu sein.
  9. Verfahren nach einem der Ansprüche 1 bis 6, wobei das Kamerasystems (200) an einem Fahrzeug angeordnet und das Messobjekt (390) die Umgebung des Fahrzeugs ist, wobei die Hauptrecheneinheit (230) insbesondere zusätzlich dazu eingerichtet ist, das Fahrzeug (300) teilautonom oder vollständig automatisch durch Ansteuerung einer Lenkung (302) und/oder eines Antriebssystems (301) jeweils in Abhängigkeit des bestimmten Zustands der Umgebung (390) des Fahrzeugs (300) zu steuern und/oder ein abstrahiertes Umgebungsmodell anzuzeigen.
  10. Verfahren nach einem der vorhergehenden Ansprüche, wobei der folgende Schritt durchgeführt wird • Steuerung der ersten Kamera (210), der zweiten Kamera (220), der ersten Recheneinheit (211) und/oder der zweiten Recheneinheit (221) mittels der Hauptrecheneinheit (230).
  11. Verfahren nach einem der vorhergehenden Ansprüche, wobei die folgenden Schritte durchgeführt werden • Verbindung der Hauptrecheneinheit (230) per Funk mit mindestens einer anderen Recheneinheit, welche mit einer anderen Kamera verbunden ist, in Abhängigkeit einer Position der Hauptrecheneinheit, • Empfang einer anderen abstrahierten Bildinformation von der anderen Recheneinheit, und • Bestimmung (160) eines Zustands des Messobjektes (290, 390) zusätzlich in Abhängigkeit der empfangenen anderen abstrahierten Bildinformationen.
  12. Kamerasystem (200) zur optischen Inspektion, umfassend mindestens folgende Komponenten • eine erste Kamera (210) und eine zweite Kamera (220), wobei die erste und zweite Kamera (210, 220) jeweils dazu eingerichtet sind, einen Bereich eines Messobjektes (290, 390) zu erfassen, und • eine erste Recheneinheit (211), welche mit der ersten Kamera (210) verbunden ist, wobei die erste Recheneinheit (211) dazu eingerichtet ist, wenigstens eine erste abstrahierte Bildinformation zu ermitteln und die erste abstrahierte Bildinformation an eine Hauptrecheneinheit (230) zu übertragen, • eine zweite Recheneinheit (221), welche mit der zweiten Kamera (220) verbunden ist, wobei die zweite Recheneinheit (221) dazu eingerichtet ist, wenigstens eine zweite abstrahierte Bildinformation zu ermitteln und die zweite abstrahierte Bildinformation an die Hauptrecheneinheit (230) zu übertragen, und • die Hauptrecheneinheit (230), welche dazu eingerichtet ist, ein Verfahren nach einem der Ansprüche 1 bis 11 durchzuführen.
  13. Fahrzeug (300), umfassend ein Kamerasystem (200) nach Anspruch 12.
  14. Fahrzeug (300) nach Anspruch 13, wobei die Hauptrecheneinheit zusätzlich dazu eingerichtet ist, eine Lenkung und/oder ein Antriebssystem des Fahrzeugs in Abhängigkeit der ersten und/oder zweiten abstrahierten Bildinformation und/oder in Abhängigkeit des ermittelten Zustands der Umgebung des Fahrzeugs zu steuern.
DE102019206083.8A 2019-04-29 2019-04-29 Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug Pending DE102019206083A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019206083.8A DE102019206083A1 (de) 2019-04-29 2019-04-29 Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019206083.8A DE102019206083A1 (de) 2019-04-29 2019-04-29 Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug

Publications (1)

Publication Number Publication Date
DE102019206083A1 true DE102019206083A1 (de) 2020-10-29

Family

ID=72839864

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019206083.8A Pending DE102019206083A1 (de) 2019-04-29 2019-04-29 Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug

Country Status (1)

Country Link
DE (1) DE102019206083A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022203928A1 (de) 2022-04-22 2023-10-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung für optische Inspektionen
DE102022204175A1 (de) 2022-04-28 2023-11-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung für optische Inspektionen

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002743A (en) * 1996-07-17 1999-12-14 Telymonde; Timothy D. Method and apparatus for image acquisition from a plurality of cameras
DE10301941A1 (de) * 2003-01-20 2004-08-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kamera und Verfahren zur optischen Aufnahme eines Schirms
US20100067828A1 (en) * 2006-08-31 2010-03-18 Matthias Kube Apparatus and Method for Combining Several Sub-Images for any Imaging Surface Areas
DE102015007180A1 (de) * 2015-06-03 2015-12-10 Daimler Ag Umgebungserfassungseinrichtung für einen Kraftwagen und Verfahren zum Betreiben einer solchen
JP5870168B2 (ja) * 2008-01-16 2016-02-24 オルボテック リミテッド 複数のカメラを使用した基板検査
DE102017100199A1 (de) * 2016-01-15 2017-09-07 Ford Global Technologies, Llc FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
DE102016223171A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6002743A (en) * 1996-07-17 1999-12-14 Telymonde; Timothy D. Method and apparatus for image acquisition from a plurality of cameras
DE10301941A1 (de) * 2003-01-20 2004-08-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kamera und Verfahren zur optischen Aufnahme eines Schirms
US20100067828A1 (en) * 2006-08-31 2010-03-18 Matthias Kube Apparatus and Method for Combining Several Sub-Images for any Imaging Surface Areas
JP5870168B2 (ja) * 2008-01-16 2016-02-24 オルボテック リミテッド 複数のカメラを使用した基板検査
DE102015007180A1 (de) * 2015-06-03 2015-12-10 Daimler Ag Umgebungserfassungseinrichtung für einen Kraftwagen und Verfahren zum Betreiben einer solchen
DE102017100199A1 (de) * 2016-01-15 2017-09-07 Ford Global Technologies, Llc FUßGÄNGERERKENNUNG MIT AUFFÄLLIGKEITSKARTEN
DE102016223171A1 (de) * 2016-11-23 2018-05-24 Robert Bosch Gmbh Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022203928A1 (de) 2022-04-22 2023-10-26 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung für optische Inspektionen
DE102022204175A1 (de) 2022-04-28 2023-11-02 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren und Vorrichtung für optische Inspektionen

Similar Documents

Publication Publication Date Title
DE102017201639A1 (de) Vorrichtung zum Untersuchen eines Fahrerassistenzsystems eines Fahrzeugs und Verfahen zum Steuern von diesem
EP2898343B1 (de) Verfahren zur kalibrierung mehrerer umfeldsensoren in einem fahrzeug
EP2083209B1 (de) Sicherheitssystem zur berührungslosen Messung von Wegen und/oder Geschwindigkeiten
EP3545507B1 (de) Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
EP2946226B1 (de) Universelle sensoranordnung zur erfassung von bediengesten an fahrzeugen
DE102016219455A1 (de) Kraftfahrzeug, Verfahren und aktive Infrastruktur zur Überprüfung einer Umfelderfassung eines Kraftfahrzeugs
DE102016223185A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102019206083A1 (de) Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug
WO2018095640A1 (de) Verfahren und system zum detektieren eines sich innerhalb eines parkplatzes befindenden erhabenen objekts
DE102011082477A1 (de) Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
EP1575808A1 (de) Bildgeber
WO2016150440A1 (de) Vorrichtung zum automatischen erfassen eines zustands eines objekts, auswertevorrichtung zum automatischen bestimmen eines vorbestimmten zustands eines objekts und verfahren zum automatischen bestimmen eines vorbestimmten zustands eines objekts
DE102016223094A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
EP3811286A1 (de) Verfahren und anordnung zum erkennen von objekten an anlagen
DE102016212716A1 (de) Steuervorrichtung und verfahren
EP2511894B1 (de) Verfahren zum Überwachen eines Luftraums um ein Luftfahrzeug
EP4145238A1 (de) Verfahren zum steuern eines unbemannten fluggeräts für einen inspektionsflug zum inspizieren eines objekts und unbemanntes inspektionsfluggerät
DE102016223180A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE112017003626T5 (de) Biologisches informationsspeichersystem und fahrzeuginterne biologische informationsspeichervorrichtung
EP3655934B1 (de) Konzept zum überwachen eines parkraums
EP3934929A1 (de) Verfahren zur klassifizierung von objekten innerhalb eines kraftfahrzeugs
DE102016223144A1 (de) Verfahren und System zum Detektieren eines sich innerhalb eines Parkplatzes befindenden erhabenen Objekts
DE102013011927B4 (de) Verfahren zum Steuern einer Überwachungseinrichtung
DE102017212379A1 (de) Verfahren und System zum Detektieren eines freien Bereiches innerhalb eines Parkplatzes
DE102021115140B4 (de) Verfahren zum Steuern einer Flugbewegung eines Fluggeräts zum Landen oder zum Abwerfen einer Ladung sowie Fluggerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication