AT516140A1 - Verfahren zur Sicherheitssteuerung einer Anlage und entsprechendes Sicherheitssystem - Google Patents

Verfahren zur Sicherheitssteuerung einer Anlage und entsprechendes Sicherheitssystem Download PDF

Info

Publication number
AT516140A1
AT516140A1 ATA529/2015A AT5292015A AT516140A1 AT 516140 A1 AT516140 A1 AT 516140A1 AT 5292015 A AT5292015 A AT 5292015A AT 516140 A1 AT516140 A1 AT 516140A1
Authority
AT
Austria
Prior art keywords
signals
scene
vector
matrix
image
Prior art date
Application number
ATA529/2015A
Other languages
English (en)
Original Assignee
Scm Group Spa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Scm Group Spa filed Critical Scm Group Spa
Publication of AT516140A1 publication Critical patent/AT516140A1/de

Links

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die vorliegende Erfindung betrifft ein Verfahren zur Sicherheitssteuerung einer Anlage, wie beispielsweise eines Bearbeitungszentrums (2) für Werkstücke aus Holz, Glasfaserkunststoff und dergleichen, das die folgenden Phasen beinhaltet: (A)Aufnehmen eines virtuellen Referenzbildes der zu überwachenden Szene (S1, S2), mit Erzeugung eines Vektors oder einer Matrix von Referenzsignalen, wobei jedes dieser Signale eine entsprechende Information bezüglich des Abstandes der Gegenstände dieser Szene (S1, S2) enthält; (B)Auswählen einer oder mehrerer Gruppen der Signale des Vektors oder der Matrix von Referenzsignalen, wobei jede Gruppe von Signalen einem entsprechenden Sicherheitsraum der Szene (S1, S2) entspricht; (C)Aufnehmen der Szene (S1, S2), mit Erzeugung eines Vektors oder einer Matrix von Kontrollsignalen, wobei jedes dieser Signale eine entsprechende Information bezüglich des Abstandes der Gegenstände dieser Szene (S1, S2) enthält; und (D)Vergleichen des Vektors oder der Matrix von Referenzsignalen mit dem Vektor oder der Matrix von Kontrollsignalen, um festzustellen, ob, für jedes der in Phase (C) aufgenommenen Bilder, eine vordefinierbare Anzahl Ns von Signalen des Vektors oder der Matrix von Kontrollsignalen, die den Signalen einer der Gruppen von Signalen des Vektors oder der Matrix von Referenzsignalen entsprechen, eine Variation der auf den Abstand von der Szene (S1, S2) bezogenen Information aufweist, worin dieser erfasste Abstand auf eine potenzielle Gefährdung innerhalb eines der Sicherheitsräume oder einer der Sicherheitszonen der genannten Szene (S1, S2) hinweist.

Description

Die vorliegende Erfindung betrifft ein Verfahren zurSicherheitssteuerung einer Anlage und entsprechendesSicherheitssystem.
Genauer gesagt bezieht sich die Erfindung auf ein Verfahrenund ein Sicherheitssystem, das insbesondere fürBearbeitungszentren für Werkstücke aus Holz,Glasfaserkunststoff, Kunststoff, Glas und dergleichenentwickelt und hergestellt wurde, aber auch auf jede beliebigeandere Anlage anwendbar ist, die eine Interaktion zwischeneiner Maschine, Anlage oder einem Bearbeitungszentrum mitbewegten oder unbewegten Organen und einer Bedienpersonvorsieht.
In der Folge wird die Erfindung mit Bezug auf die Anwendungauf ein Holzbearbeitungszentrum beschrieben, aber es liegt aufder Hand, dass diese Beschreibung nicht als auf diesespezifische Anwendung beschränkt anzusehen ist.
Wie hinreichend bekannt ist, existieren gegenwärtigverschiedene Arten von Sicherheitssystemen fürHolzbearbeitungsanlagen, die dafür bestimmt sind, die Gefahrder Annäherung eines Benutzers an die in der Anlageinstallierten Bearbeitungswerkzeuge zu vermeiden.
Insbesondere sehen, wie hinreichend bekannt, solcheHolzbearbeitungsanlagen einen Arbeitstisch vor, auf dem die zubearbeitenden Werkstücke aufgelegt und befördert werden, einrelativ zu diesem Arbeitstisch bewegliches Portal, auf demeine entlang des Portals bewegliche Ausrüstung installiertist, sowie ein auf dieser Ausrüstung angeordnetesBearbeitungswerkzeug. Während des Betriebs werden solche Bearbeitungsanlagen voneinem Benutzer gesteuert, der mit der Anlage interagierenkann, beispielsweise im Falle einer Funktionsstörung oder zuWartungszwecken.
An solchen Bearbeitungsanlagen sind daher Sensoren vorgesehen,um das Risiko zu mindern, dass der Benutzer mit Anlagenteilenin Berührung kommt, die eine potenzielle Gefährdungdarstellen.
So sieht ein derzeit handelsübliches System optische Sensorenund Berührungssensoren vor. Durch optische Sensoren, wie Laserund dergleichen, wird ein bestimmter Bereich derartbeleuchtet, dass, falls der Laserstrahl auf einen Benutzertrifft, die Betriebsgeschwindigkeit der Anlage verringertwürde. Berührungssensoren sind hingegen in einer Weiseangeordnet, dass, falls der Benutzer eine Stelle berührt, ander ein Sensor angebracht ist, das Stoppen der Anlagevorgesehen ist.
Ein technisches Problem der Sicherheitssysteme nach demvorbekannten Stand der Technik betrifft die Tatsache, dass dieAnlagen oftmals unterschiedlich aufgebaut sind. DieInstallation solcher Sicherheitssysteme ist daher nichteinfach standardisierbar, mit der Auswirkung, dass die Kostender mit diesen Systemen ausgestatteten Anlagen und derenKomplexität erheblich ansteigen.
Es liegt auf der Hand, dass dieses Verfahren im Hinblicksowohl auf gewerbliche als auch auf wirtschaftliche Aspekteaufwändig ist.
Angesichts der obigen Ausführungen besteht das Ziel dervorliegenden Erfindung in der Bereitstellung einesSicherheitssystems für Bearbeitungsanlagen, das dieEinschränkungen der Systeme nach dem bekannten Stand derTechnik überwinden kann.
Der spezielle Gegenstand der vorliegenden Erfindung bestehtdaher in einem Verfahren zur Sicherheitssteuerung einerAnlage, wie beispielsweise eines Bearbeitungszentrums fürWerkstücke aus Holz, Glasfaserkunststoff und dergleichen, dasdie folgenden Phasen beinhaltet: (A) Aufnehmen eines virtuellen Referenzbildes der zuüberwachenden Szene, mit Erzeugung eines Vektors oder einerMatrix von Referenzsignalen, wobei jedes dieser Signale eineentsprechende Information bezüglich des Abstands derGegenstände dieser Szene enthält; (B) Auswählen einer oder mehrerer Gruppen der Signale desVektors oder der Matrix von Referenzsignalen, wobei jedeGruppe von Signalen einem entsprechenden Sicherheitsraum derSzene entspricht; (C) Aufnehmen der Szene, mit Erzeugung eines Vektors odereiner Matrix von Kontrollsignalen, wobei jedes dieser Signaleeine entsprechende Information bezüglich des Abstandes derGegenstände dieser Szene enthält; und (D) Vergleichen des Vektors oder der Matrix vonReferenzsignalen mit dem Vektor oder der Matrix vonKontrollsignalen, um festzustellen, ob, für jedes der in Phase(C) aufgenommenen Bilder, eine vordefinierbare Anzahl Ns vonSignalen des Vektors oder der Matrix von Kontrollsignalen, dieden Signalen einer der Gruppen von Signalen des Vektors oderder Matrix von Referenzsignalen entsprechen, eine Variationder auf den Abstand von der Szene bezogenen Informationaufweist, worin dieser erfasste Abstand auf eine potenzielle
Gefährdung innerhalb eines der Sicherheitsräume oder einer derSicherheitszonen der genannten Szene hinweist.
Ebenso erfindungsgemäß beinhalten die Phase der Erfassung (A)und die Phase der Aufnahme (C) jeweils die folgendenUnterphasen: Bereitstellen zumindest einer
Bildaufnahmeeinheit; und/oder Durchführen einer Kalibrierung,um eventuelle Ausrichtungsfehler oder Drehungen einer derKameras der Bildaufnahmeeinheit relativ zu der anderen, undungleichförmige Beleuchtungsbedingungen zu korrigieren, uminnere und äußere Parameter des Bildes der Szene zu erhalten;und/oder Durchführen einer Rektifizierung, um die mittels derKalibrierungsphase erhaltenen inneren und äußeren Parameter sozu verarbeiten, dass die von der Bildaufnahmeeinheitstammenden stereoskopischen Bilder so umgewandelt werden, dasseine oder mehrere Bedingungen erfüllt sind. * Ebenfalls erfindungsgemäß kann die mindestens eine
Bildaufnahmeeinheit vom Typ ToF (Time Of Fly - Laufzeit) odervom stereoskopischen Typ sein.
Vorteilhaft kann gemäß der Erfindung das genannte Verfahrendie Phase der Filterung der mehreren Signale beinhalten,vorzugsweise mittels Tiefpassfilterung.
Weiterhin erfindungsgemäß können, im Anschluss an die Phase(D), falls eine Anzahl von Signalen Ns einer der Gruppen vonSignalen des Vektors oder der Matrix von Signalen, die auf dasBild der betreffenden Szene bezogen sind, eine Variation derInformation bezüglich des Abstands von der Szene aufweist,welche auf eine potenzielle Gefährdung innerhalb eines derSicherheitsräume oder einer der Sicherheitszonen der Szenehinweist, Sicherheitseinrichtungen, wie beispielsweise ein
Alarm, ausgelöst werden, oder Organe oder Vorrichtungen zumVerlangsamen oder Anhalten des Betriebs der Anlage aktiviertwerden.
Ebenso erfindungsgemäß kann das Verfahren jeder der Gruppe vonSignalen des Vektors oder der Matrix von Referenzsignalen zweioder mehr Sicherheitsebenen zuweisen.
Ebenfalls erfindungsgemäß können die Phasen (C) und (D)iterativ wiederholt werden.
Ein weiterer Gegenstand der vorliegenden Erfindung besteht ineinem System zur Sicherheitssteuerung einer Anlage, wiebeispielsweise eines Bearbeitungszentrums für Werkstücke ausHolz, Kunststoff, Glasfaserkunststoff und dergleichen, daszumindest eine Bildaufnahmeeinheit beinhaltet, die in der Lageist, die Szene zu erfassen, in der, zumindest teilweise, daszu überwachende Bearbeitungszentrum enthalten ist, mitErzeugung eines Vektors oder einer Matrix von Signalen, wobeidiese Bildaufnahmeeinheit dafür ausgelegt ist, jedem dieserSignale eine entsprechende Information bezüglich des Abstandesder Gegenstände dieser Szene zuzuordnen, und eineSteuereinheit beinhaltet, die mit der zumindest einenBildaufnahmeeinheit verbunden ist und in der Lage ist, diegenannten Signale mittels des oben definierten Verfahrens zuverarbeiten.
Ebenso erfindungsgemäß kann die mindestens eineBildaufnahmeeinheit (31, 32) vom Typ ToF (Time Of Fly -Laufzeit) oder vom stereoskopischen Typ sein.
Vorteilhaft kann erfindungsgemäß das System zweiBildaufnahmeeinheiten zur Erfassung von zwei verschiedenenSzenen beinhalten.
Ebenfalls erfindungsgemäß kann die Bildaufnahmeeinheit derartangeordnet sein, dass in dem Bild der zu überwachenden Szene,zumindest teilweise, das Bearbeitungszentrum enthalten ist.
Ferner kann erfindungsgemäß die Bildaufnahmeeinheit auf einembeweglichen Teil oder auf einem feststehenden Teil desBearbeitungszentrums angeordnet sein.
Die vorliegende Erfindung wird nachfolgend mit Bezug auf diebeigefügten Zeichnungen beschrieben, die bevorzugteÄusführungsformen der Erfindung darstellen, ohne jedoch derenallgemeinen Anwendungsbereich einzuschränken. Hierbei zeigen: ·
Fig. 1 ein Blockdiagramm eines erfindungsgemäßenSicherheitssystems;
Fig. 2 eine Bildaufnahmeeinheit des Systems von Fig. 1;
Fig. 3 ein Flussdiagramm der Funktionsweise des Systems vonFig. 1; und
Fig. 4 ein ideales stereoskopisches Referenzschema.
In den verschiedenen Figuren werden ähnliche Teile mitdenselben Bezugsnummern gekennzeichnet.
Mit Bezug auf die Figuren 1 und 2 ist ein Prinzipschaubild deserfindungsgemäßen Sicherheitssystems 1 dargestellt, das aufein Bearbeitungszentrum 2 angewendet wird. Dieses
Bearbeitungszentrum 2 beinhaltet ein Grundgestell 21, das eineOberfläche 22 für das Verschieben der zu bearbeitendenWerkstücke P entlang einer Richtung F aufweist, sowie einPortal 23, auf dem eine entlang des Portals 23 beweglicheAusrüstung 24 installiert ist, welche ein Werkzeug zurBearbeitung der Werkstücke P beinhaltet.
Im untersuchten Fall sind die beweglichen Teile desBearbeitungszentrums 2, und somit zugleich auch diegefährlichsten für die Unversehrtheit des Benutzers, dasPortal 23 und die bewegliche Ausrüstung 24. DasSicherheitssystem 1 ermöglicht es, wie nachfolgend nochgenauer beschrieben wird, das Risiko zu vermindern, dass sichein Benutzer dem Bearbeitungszentrum 2, und insbesondere denbeweglichen Teilen, annähern kann, wenn dasBearbeitungszentrum 2 in Betrieb ist.
Das Sicherheitssystem 1 beinhaltet zwei Bildaufnahmeeinheiten,die jeweils mit 31 und 32 bezeichnet sind, und eine zentraleSteuereinheit 4.
Die Bildaufnahmeeinheiten 31 und 32 sind dafür ausgelegt,jeweils eine Szene, die mit S1 beziehungsweise S2 bezeichnetsind, zu erfassen, in denen zumindest teilweise das zuüberwachende Bearbeitungszentrum 2 enthalten ist. JedeBildaufnahmeeinheit 31 und 32 erzeugt mehrere Signale, dieeventuell jeweils einem der Pixel (Bildpunkte) entsprechen,aus denen sich das Bild der betreffenden Szenen S1 oder S2zusammensetzt, so dass ein Vektor oder eine Matrix vonKontrollsignalen erzeugt wird. Die Aufnahme wird im Lauf derZeit kontinuierlich vorgenommen, mit geeignetenProbenahmeintervallen.
Die Bildaufnahmeeinheiten 31 und 32 sind vorzugsweise vom TypToF (Time Of Fly - Laufzeit), wie in Fig. 2 dargestellt, da esdieser Gerätetyp ermöglicht, in Echtzeit den Abstand zwischender Kamera und den aufzunehmenden Gegenständen oder Szenen S1oder S2 zu beurteilen, indem die Zeit gemessen wird, die einLichtimpuls benötigt, um die Strecke Kamera-Gegenstand-Kamerazurückzulegen (die sog. Laufzeit).
Die Szene S1 oder S2 jeder der Bildaufnahmeeinheiten 31 und 32wird somit komplett aufgenommen, aber die Messung des Abstandswird unabhängig voneinander von jeder der
Bildaufnahmeeinheiten 31 und 32 für jedes Signal des Vektorsoder der Matrix von Signalen des aufgenommenen Bildesdurchgeführt, um die dreidimensionale Rekonstruktion desGegenstandes oder der Szene S1 oder S2, die erfasst undausgemessen wurde, zu ermöglichen.
Die Bildaufnahmeeinheiten 31 und 32 können auch vomstereoskopischen Typ (oder stereo vision) sein, da auch diesein der Lage sind, die Tiefe einer Szene und somit den Abstandeines Gegenstandes zu einem Referenzpunkt (im Allgemeinen dieKamera selbst) der aufgenommenen Szene zu erfassen. Zurerwähnten Visualisierungstechnik sind verschiedene Studien,sowohl im akademischen, als auch im gewerblichen Bereich,hinreichend bekannt.
Jede der Bildaufnahmeeinheiten 31 und/oder 32 beinhaltet eineentsprechende Halterung 31' .
Die Bildaufnahmeeinheiten 31 und/oder 32 sind mit derzentralen Steuereinheit 4 verbunden, welche die erfasstenSignale verarbeitet und somit die Identifikation einesGegenstandes und der Information „Abstand" jedes Gegenstandes oder Bestandteils der Szene S1 oder S2 vom Beobachtungspunktermöglicht. Diese mittels der gleichzeitig von jeder derBildaufnahmeeinheiten 31 oder 32 aufgenommenen Bildererhaltenen Informationen werden von einem Mikroprozessor odereinem DSP (Digital Signal Processor) verarbeitet, der übergeometrische Verarbeitungen den Abstand bestimmt, in dem sichjeder Gegenstand der aufgenommenen Szene befindet.
Mit anderen Worten kann, dank des Einsatzes derBildaufnahmeeinheiten 31 oder 32, die eine Stereo-Videoaufnahme bereitstellen, die wie bereits erwähnt dieBestimmung des Abstandes für die Signale ermöglicht, aus denensich das Bild der aufgenommenen Szene S1 oder S2zusammensetzt, in Echtzeit das Bild der Szene S1 oder S2aufgenommen werden, das die Elemente des Bearbeitungszentrums2 zeigt, wobei für jedes Signal die Information bezüglich desAbstandes von der Bildaufnahmeeinheit 31 oder 32 vorgesehenist.
Vorab ermöglicht das Sicherheitssystem ferner die Aufnahmeeines virtuellen Referenzbildes der Szene SI, S2, in der, wieerwähnt, das zu überwachende Bearbeitungszentrüm 2 enthaltenist, mit Erzeugung eines Vektors oder einer Matrix vonReferenzsignalen. Dieses Referenzbild kann, falls bekannt,auch vorab i das Sicherheitssystem 1 eingegeben werden.
In der Folge ermöglicht das erfindungsgemäße Sicherheitssystem1, unter Berücksichtigung der Tatsache, dass die von denBildaufnahmeeinheiten 31 und 32 aufgenommene Szene S1 oder S2wie bereits erwähnt Zonen oder Räume aufweisen wird, diekeinerlei Gefährdung für den Benutzer darstellen, sowieweitere Zonen, insbesondere in der Nähe der Werkzeuge desBearbeitungszentrums, die eine besondere Gefährdung für die körperliche Unversehrtheit eines Benutzers darstellen, wenndas Bearbeitungszentrum in Betrieb ist, eine Vorauswahl derSicherheitsräume der erfassten Szene S1 oder S2.
Insbesondere ermöglicht es das Sicherheitssystem 1, vor denKontrollphasen eine oder mehrere Gruppen der Signale desVektors oder der Matrix von Referenzsignalen auszuwählen. JedeGruppe von Signalen entspricht einem entsprechendenSicherheitsraum oder einer Sicherheitszone der Szene SI, S2.
In der Folge ermöglicht das System das Vergleichen des Vektorsoder der Matrix von Referenzsignalen mit dem Vektor oder derMatrix von Kontrollsignalen, welche sequentiell durchProbenahme erfasst wurden, um festzustellen, ob, für jedes deraufgenommenen Bilder, eine vordefinierbare Anzahl Ns vonSignalen des Vektors oder der Matrix von Kontrollsignalen, dieden Signalen einer der Gruppen von Signalen des Vektors oderder Matrix von Referenzsignalen entsprechen, welcheentsprechende Sicherheitsräume oder Sicherheitszonendefinieren, einer Variation des erfassten Abstandesunterliegt, wobei der für jedes Signal erhalten Abstand aufeine potenzielle Gefährdung innerhalb eines der Räume odereiner der Sicherheitszonen der genannten Szenen S1 oder S2hinweist.
Auf diese Weise würden, falls sich ein Benutzer einembesonders gefährlichen Raum oder einer Zone in der Nähe desBearbeitungszentrums 2 nähert oder darin eindringt, z.B. derBereich in Nähe des Portals 23 oder der beweglichen Ausrüstung24, eine vordefinierte Gruppe oder Anzahl von Signalen desVektors oder der Matrix von Kontrollsignalen eine Variation(in diesem Fall eine Verringerung) des Abstandes gegenüber denentsprechenden Signalen des Vektors oder der Matrix von
Referenzsignalen aufweisen und somit auf eine potenzielleGefährdung hinweisen.
Somit kann die zentrale Steuereinheit 4 in angebrachter Weiseden Betrieb des Bearbeitungszentrums 2 anhalten oderverlangsamen oder Alarme auslösen, um die Risiken für denBenutzer in der Nähe des Bearbeitungszentrums 2 zu vermindern.
Um das oben genannte Ergebnis zu erhalten, führt die zentraleSteuereinheit 4 ein Programm zur Verarbeitung der von denBildaufnahmeeinheiten 31 und 32 aufgenommenen Bilder aus, daswie bereits erwähnt auf dem in Echtzeit vorgenommenenVergleich des Vektors oder der Matrix von Referenzsignalen mitdem Vektor oder der Matrix von Kontrollsignalen beruht.
Die Hauptphasen dieses Programms sind in der Fig. 3dargestellt und sind: - Aufnehmen der Bilder, d.h. eine Punktwolke imkartesischen Koordinatensystem, mittels zumindest einer derBildaufnahmeeinheiten 31 und 32, mit Aufnahme der Matrix vonSignalen, die jeweils vorzugsweise auf einen entsprechendenBildpunkt (Pixel) bezogen sind, aus denen sich das Bild deraufgenommenen Szene S1 oder S2 zusammensetzt; - digitales Filtern der Bildsignale; - Definieren einer oder mehrerer Gruppen dieser Signaledes Bildes, wobei jede Gruppe von Signalen einem oder mehrerenvordefinierbaren Sicherheitsräumen entspricht, welche diepotenziell eine Gefährdung darstellenden Teile der Szene (Sl,S2) umgeben; - Beurteilung, für jeden Bildpunkt (Pixel) jedesMatrixsignals, der Position innerhalb der genanntenvordefinierten Sicherheitsräume, anhand eines in Echtzeitvorgenommenen Vergleichs zwischen dem Vektor oder der Matrix von Referenzsignalen mit dem Vektor oder der Matrix vonKontrollsignalen; und - Überprüfung, ob eine Anzahl Ns von Signalen innerhalbvon zumindest einem der vordefinierten Sicherheitsräume einerVariation des erfassten Abstandes unterliegt.
Die erste Phase der Aufnahme beinhaltet eine Reihe vonUnterphase der Bildverarbeitung, d.h.: - Kalibrierung; - Rektifizierung; - Stereo-Matching (die letztgenannte Phase ist nur fürBildaufnahmeeinheiten 31 und 32. vom stereoskopischen Typvorgesehen); die nachfolgend kurz beschrieben werden.
Die Phase der Kalibrierung ermöglicht es, eventuelleAusrichtungsfehler oder Drehungen einer der Kameras relativ zuder anderen sowie ungleichförmige Beleuchtungsbedingungen zukorrigieren.
Die Kalibrierung ist ein Verfahren, das im Allgemeinen offlineausgeführt wird und dazu dient, Parameter zu ermitteln, dieein System für stereoskopisches Sehen kennzeichnen. Diesesogenannten inneren (intrinsic) und äußeren (extrinsic)Parameter werden von dem Rektifizierungsverfahren verwendet,um die vom stereoskopischen System aufgenommenen Bilder soumzuformen, dass stereoskopische Bilder einer besonderen Form(Standard-Form) erhalten und die dreidimensionalen Koordinaten(3D) der Punkte durch das Triangulationsverfahren erhaltenwerden.
Es sind verschiedene Techniken zur Durchführung derKalibrierung eines stereoskopischen Systems bekannt. ImAllgemeinen wird dieser Vorgang mit Techniken ausgeführt, die auf der Verwendung geometrischer Muster (pattern) beruhen,deren Merkmale in verschiedenen Positionen genau bekannt sind,so dass die inneren und äußeren Parameter, die dasstereoskopische System kennzeichnen, beurteilt werden können.
Die Phase der Rektifizierung ist ein Verfahren, das unterAusnutzung der durch die Kalibrierung erhaltenen inneren undäußeren Parameter dazu dient, die von dem Aufnahmegerätstammenden stereoskopischen Bilder so umzuformen, dass einigeBedingungen erfüllt sind. Unter anderem ermöglicht dieRektifizierung die Umwandlung der Bilder in die Standard-Form. .
Im Falle binokularer Systeme stellt dies sicher, dass fürjeden gegebenen Punkt in einem Bild sein homologer Punkt aufder gleichen Zeile des anderen Bildes gefunden werden kann, sodass eine deutliche Reduzierung der Berechnungen und einehöhere Zuverlässigkeit bei der Lösung desKorrespondenzproblems ermöglicht wird.
Mittels der Rektifizierung können die Bilder derartumgewandelt werden, dass die homologen Punkte einer Zeile(scanline) des Bildes in der entsprechenden Zeile des anderenBildes gesucht werden können.
Die Phase der Rektifizierung ermöglicht es auch, die durch dievon den Optiken verursachten Verzerrungen bedingten Problemezu verringern und Bilder mit derselben Brennweite zu erhalten.
Die Phase des Stereo-Matching (Lösung desKorrespondenzproblems) ist, wie bereits erwähnt, nur fürBildaufnahmeeinheiten 31 und 32 vom stereoskopischen Typvorgesehen. Die Bibliographie zum stereoskopischen oderräumlichen Sehen ist sehr umfangreich und die Algorithmen für das Stereo-Matching können zunächst einmal in zweiHauptkategorien eingeteilt werden: - Algorithmen vom Typ feature-based (merkmalbasiert); und - dichtes Stereo (dense stereo).
Erstere ermöglichen es, Disparitätsinformationen (sog.Disparitätskarten oder disparity maps) für eine begrenzteAnzahl von Punkten der Bilder zu erhalten, für die besondereMerkmale wie Linien, Segmente oder Winkel identifiziertwurden. Diese Algorithmen erweisen sich im Hinblick auf dieBerechnungen als effizient, aufgrund der verminderten Anzahlder in den Bildern vorhandenen identifizierbaren Merkmale imVergleich zu der Gesamtanzahl von Punkten, und sind außerdemauch außerordentlich zuverlässig, da die aus den Bildernextrahierten Merkmale im Allgemeinen originär unterscheidungskräftig sind und keine Mehrdeutigkeitsproblemebei der Lösung des Korrespondenzproblems verursachen.
Allerdings werden diese Algorithmen derzeit wenig verwendet,da die Disparitätskarten nur auf solche Punkte beschränktsind, die Unterscheidungsmerkmale aufweisen. Algorithmen vomTyp dichtes Stereo ermöglichen hingegen die Erzeugung vonDisparitätskarten für jeden Bildpunkt und können gemäß einerjüngeren Taxonomie in zwei Hauptgruppen eingeteilt werden:lokale Algorithmen {local) und globale Algorithmen (global).
Lokale Algorithmen suchen die homologen Punkte einzeln undvoneinander unabhängig und nutzen dabei generell einen lokalenStützpunkt (local support) in der Umgebung jedes untersuchtenPunktes (dieser Bereich in der Umgebung jedes Punktes wirdauch als Korrelationsfenster (correlation window) bezeichnet),um die Signal-Rausch-Verhältnisse zu erhöhen.
Durch die Verwendung eines lokalen Stützpunktes gehen dieseAlgorithmen implizit davon aus, dass im Innern des lokalenStützpunktes die Disparität konstant ist, auch wenn diese,nicht immer überprüfte, Hypothese zu einer Diskrepanz zwischenden Gegenständen der Szene und den Disparitätskarten in derNähe der Punkte führt, die in unterschiedlichem Abstand vonden Kameras angeordnet sind.
Es ist zu beachten, dass auch Algorithmen existieren, dieihren Stützpunkt auf Grundlage der lokalen Merkmale der Bilderanpassen und mit denen hervorragende Ergebnisse erzielt werdenkönnen. Im Allgemeinen weisen die Algorithmen vom lokalenStandard-Typ eine im Hinblick auf die Berechnungen sehrregelmäßige Struktur auf und können wirksam sowohl unterAusnutzung rekursiver Berechnungsschemata als auch unterVerwendung von Anweisungen vom Typ SIMD (Single InstructionMultiple Data) implementiert werden, wie sie derzeit in nahezuallen Architekturen und auch in den Grafikbeschleunigern derjüngsten Generation verfügbar sind.
Aus diesem Grund können solche Algorithmen derzeit inEchtzeit-Anwendungen eingesetzt werden. Neben der Annahme derKonstanz der Disparität innerhalb des Korrelationsfenstersweisen die lokalen Algorithmen eine weitere Beschränkung auf,die durch die Tatsache bedingt ist, dass sie nicht unbedingtin der Lage sind, vollständig dichte Disparitätskarten zuerzeugen (z.B. ist nicht gewährleistet, dass für jedenBildpunkt ein Disparitätswert ermittelt werden kann). Dies isthauptsächlich auf zwei Ursachen zurückzuführen: uniformeRegionen und Okklusionen. Im ersten Fall ist es nicht möglich,Disparitätsinformationen in Regionen zu bestimmen, die einekonstante Intensität oder in jedem Fall wenige
Unterscheidungselemente aufgrund hoher Mehrdeutigkeiten beider Lösung des Korrespondenzproblems aufweisen.
Im zweiten Fall ergibt sich, aufgrund der Geometrie desstereoskopischen Systems, bei Vorhandensein benachbarterPunkte, die in unterschiedlichem Abstand von den Kamerasangeordnet sind, dass einige Punkte in einem Bild, aber nichtim anderen Bild des Stereo-Paars sichtbar sind:
In solchen Fällen ist die Lösung des Korrespondenzproblemsnicht möglich.
Im Unterschied zu den lokalen Algorithmen verwenden dieglobalen Algorithmen vom dichten Typ keine lokalenStützpunkte, sondern streben, indem sie einige Hypothesen überdie Beschaffenheit der Gegenstände anstellen (smoothnessassumption) eine Disparitätszuweisung an, die eine Minimierungeiner globalen Kostenfunktion (global cost function)beinhaltet.
Der Hautunterschied zwischen diesen Algorithmen besteht in demVerfahren, mit dem die Kostenfunktion minimiert wird (z.B.simulated annealing, probabilistic diffusion, graph-cuts) .Solche Algorithmen, insbesondere die auf den graph-cutsbasierenden, ermöglichen es, deutlich bessere
Disparitätskarten zu erhalten als mit den Algorithmen vom Typlocal, allerdings zu extrem hohen Berechnungskosten, diederzeit eine Verwendbarkeit in real-time-Anwendungenausschließen.
Ferner können, auch wenn einige Algorithmen durch Ausnutzungder Methoden zur Minimierung der Kostenfunktion in der Lagesind, das Problem der Okklusionen zu lösen, die Okklusionen analog zu den Algorithmen vom Typ local zu nicht vollständigdichten Disparitätskarten führen.
Es ist zu beachten, dass auch lokale oder semi-globaleAlgorithmen existieren, die eine nicht punktuelleKostenfunktion verwenden, sondern eine auf variablenStützpunkten basierende, mit der hervorragende Ergebnisseerzielt werden können. Wenngleich den beiden beschriebenenKategorien von Algorithmen (local und global) der Großteil derin der Literatur bekannten Algorithmen angehört, ist derVollständigkeit halber zu erwähnen, dass auch Algorithmenexistieren, die auf anderen Ansätzen beruhen.
Nachdem die Entsprechungen (Korrespondenzen) hergestellt undmittels Kalibrierung erhaltenen Parameter des stereoskopischenSystems bekannt sind, kann für die Punkte, für die einhomologer Punkt existiert und ermittelt werden konnte, derAbstand des Punktes von den Kameras bestimmt werden.
Insbesondere wird, mit Bezug auf die Fig. 4, ein idealesstereoskopisches System betrachtet oder eines, in dem dieBilder mittels des Verfahrens der Rektifizierung in dieStandard-Form gebracht wurden. Ferner seien mit (xi,yi) und(Xr,yr) die Koordinaten (in Millimetern) der Projektionen desPunktes P auf den zwei Bildebenen θι und 0r angegeben, mitBezug auf die Referenzsysteme mit Ursprung in den optischenMittelpunkten der zwei Kameras.
Diese Punkte weisen die Koordinaten (ui,vi) und (ur,vr) bezogenauf die Referenzsysteme mit Ursprung in dem oberen linkenPunkt jedes Bildes auf. Es wird darauf hingewiesen, dass zumErhalten der in Millimetern angegebenen Koordinaten der Punkte(ui,vi) und (ur,vr), die den zwei Bildebenen in Bezug auf das
Referenzsystem mit Mittelpunkt in der optischen Achse jederKamera angehören, der Ursprung der Koordinaten in denHauptpunkt (principal point) jeder Kamera verschoben wird unddieser Wert mit dem horizontalen Maß des Bildpunktes im Falleder x-Koordinate und mit dem vertikalen Maß des Bildpunktes imFalle der y-Koordinate multipliziert wird.
Die Maße des Bildpunktes können im Falle von Bildsensoren mitquadratischen Bildpunkten übereinstimmen oder verschiedensein. Im letztgenannten Fall ist es erforderlich, sowohl diehorizontalen Maße (Dimx) als auch die vertikalen Maße (Dimy)der Bildpunkte zu kennen, um die Koordinaten in Millimetern zuerhalten.
Falls als Referenzsystem dasjenige gewählt wird, dessenUrsprung im optischen Mittelpunkt Oi liegt, mit den Achse xund y parallel zu den Bildebenen und der durch den optischenMittelpunkt Οχ und den Bildmittelpunkt geführten Achse z,können die Beziehungen geschrieben werden, welche dieKoordinaten X und Y in Bezug auf dieses Referenzsystemausgehend von den Bildkoordinaten χχ und yi bestimmen.
Wenn mit f die Brennweite und mit b die baseline angegebenwird und die Ähnlichkeit zwischen den Dreiecken OiPOr und xiPxrverwendet wird, kann die folgende Beziehung geschriebenwerden, die den Abstand Z des Punktes P von der durch dieoptischen Mittelpunkte Οχ und 0r der zwei Kameras führendenGeraden bestimmt:
Daraus können auch die verbleibenden Koordinaten x und yermittelt werden.
Wie ersichtlich, ist es dank des Sicherheitssystems 1 und desvon der zentralen Steuereinheit 4 durchgeführten Verfahrenszur Sicherheitssteuerung möglich, direkt auf dem aufgenommenenzweidimensionalen Bild, welches Informationen zu dem Abstandenthält, der den verschiedenen Bildpunkten (Pixeln) zugeordnetist, aus denen sich jedes der mittels zumindest einerBildaufnahmeeinheit 31 oder 32 erfassten Bilder zusammensetzt,Gruppen von Bildpunkten, d.h. Bereiche des aufgenommenenBildes, auszuwählen und zu bestimmen, die den Räumen deraufgenommenen Szene S1 oder S2 entsprechen, die im Hinblickauf die Sicherheit als sensibel zu erachten sind. DiesenGruppen von Bildpunkten kann ein Risikogradient zugeordnetwerden, so dass es, im Falle der Annäherung eines Benutzersund der Variation der Tiefe einer vordefinierbaren Anzahl vonaneinander angrenzenden Bildpunkten und/oder mittelsgeeigneter Muster, möglich ist, das Eindringen in dieSicherheitsräume durch den Benutzer, d.h. eine Person, zuerfassen, damit die zentrale Steuereinheit 4 automatischSicherheitsvorgänge ausführen kann, wie beispielsweise dasAuslösen eines Alarms, die Verlangsamung des Betriebs desBearbeitungszentrums 2 oder das Stillsetzen der Maschine.
Diese Sicherheitsräume können in recht flexibler Weise, jenach Bedarf, eingerichtet werden. Generell reichen in jedemFall diese Sicherheitsräume nicht bis zum Boden, sondernlassen einen geeigneten Raum unbedeckt, da es recht häufigvorkommt, dass in der Nähe eines Bearbeitungszentrums 2Werkstücke P angeordnet bzw. auf dem Boden abgestellt werden,die somit am Sicherheitssystem 1 Fehlalarme bereitstellenkönnten.
Ein Vorteil der vorliegenden Erfindung besteht darin, dass sieein vollständig optisches Sicherheitssystem bereitstellt, dasan alle Arten zu überwachender Systeme angepasst werden kannund daher auch leicht auf bereits bestehendeBearbeitungszentren oder Maschinen anwendbar ist, die überkein Schutzsystem verfügen, ohne jegliche funktionale oderstrukturelle Änderungen an den Bearbeitungszentren oderMaschinen vornehmen zu müssen.
Die vorliegende Erfindung wurde zum Zwecke der Erläuterung,jedoch nicht in einschränkender Weise beschrieben, und zwarentsprechend ihrer bevorzugten Ausführungsformen; es gilt,dass von Fachleuten Variationen und/oder Änderungen daranvorgenommen werden können, wobei der von den in Anlagebeigefügten Patentansprüchen festgelegte Schutzbereich nichtverlassen wird.

Claims (12)

  1. Patentansprüche: 1. Verfahren zur Sicherheitssteuerung einer Anlage, wiebeispielsweise eines Bearbeitungszentrums (2) für Werkstückeaus Holz, Glasfaserkunststoff und dergleichen, das diefolgenden Phasen beinhaltet: (A) Aufnehmen eines virtuellen Referenzbildes der zuüberwachenden Szene (SI, S2), mit Erzeugung eines Vektors odereiner Matrix von Referenzsignalen, wobei jedes dieser Signaleeine entsprechende Information bezüglich des Abstandes derGegenstände in dieser Szene (Si, S2) enthält; (B) Auswahlen einer oder mehrerer Gruppen der Signale desVektors oder der Matrix von Referenzsignalen, wobei jedeGruppe von Signalen einem entsprechenden Sicherheitsraum derSzene (Si, S2) entspricht; (C) Aufnehmen der Szene (SI, S2), mit Erzeugung einesVektors oder einer Matrix von Kontrollsignalen, wobei jedesdieser Signale eine entsprechende Information bezüglich desAbstandes der Gegenstände in dieser Szene (SI, S2) enthält; und (D) Vergleichen des Vektors oder der Matrix vonReferenzsignalen mit dem Vektor oder der Matrix vonKontrollsignalen, um festzustellen, ob, für jedes der in Phase(C) aufgenommenen Bilder, eine vordefinierbare Anzahl Ns vonSignalen des Vektors oder der Matrix von Kontrollsignalen, dieden Signalen einer der Gruppen von Signalen des Vektors oderder Matrix von Referenzsignalen entsprechen, eine Variationder auf den Abstand von der Szene (SI, S2) bezogenenInformation aufweist, worin dieser erfasste Abstand auf einepotenzielle Gefährdung innerhalb der Sicherheitsräume oder-zonen der genannten Szene (SI, S2) hinweist.
  2. 2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass diePhase der Erfassung (A) und die Phase der Aufnahme (C) jeweilsdie folgenden Unterphasen beinhalten: - Bereitstellen zumindest einer Bildaufnahmeeinheit (31,32); und/oder - Durchführen einer Kalibrierung, um eventuelleAusrichtungsfehler oder Drehungen einer der Kameras derBildaufnahmeeinheit (31, 32) relativ zu der anderen, undungleichförmige Beleuchtungsbedingungen zu korrigieren, uminnere und äußere Parameter des Bildes der Szene (SI, S2) zuerhalten; und/oder - Durchführen einer Rektifizierung, um die mittels derKalibrierungsphase erhaltenen inneren und äußeren Parameter sozu verarbeiten, dass die von der Bildaufnahmeeinheit (31, 32)stammenden stereoskopischen Bilder so umgewandelt werden, dasseine oder mehrere Bedingungen erfüllt sind.
  3. 3. Verfahren nach einem der vorhergehenden Ansprüche, dadurchgekennzeichnet, dass die zumindest eine Bildaufnahmeeinheit(31, 32) vom Typ ToF (Time Of Fly - Laufzeit) oder vomstereoskopischen Typ ist.
  4. 4. Verfahren nach einem der vorhergehenden Ansprüche, dadurchgekennzeichnet, dass es die Phase der Filterung der mehrerenSignale beinhaltet, vorzugsweise mittels Tiefpassfilterung.
  5. 5. Verfahren nach einem der vorhergehenden Ansprüche, dadurchgekennzeichnet, dass im Anschluss an die Phase (D), falls eineAnzahl von Signalen Ns einer der Gruppen von Signalen desVektors oder der Matrix von Signalen, die auf das Bild derbetreffenden Szene (SI, S2) bezogen sind, eine Variation derInformation bezüglich des Abstandes von der Szene (SI, S2)aufweist, welche auf eine potenzielle Gefährdung innerhalb eines der Sicherheitsräume oder einer der Sicherheitszonen der .Szene (Si, S2) hinweist, Sicherheitseinrichtungen, wiebeispielsweise ein Alarm, ausgelöst werden, oder Organe oderVorrichtungen zum Verlangsamen oder Anhalten des Betriebs derAnlage (2) aktiviert werden.
  6. 6. Verfahren nach einem der vorhergehenden Ansprüche, dadurchgekennzeichnet, dass es jeder der Gruppen von Signalen desVektors oder der Matrix von Referenzsignalen zwei oder mehrSicherheitsebenen zuweist.
  7. 7. Verfahren nach einem der vorhergehenden Ansprüche, dadurchgekennzeichnet, dass die Phasen (C) und (D) iterativwiederholt werden.
  8. 8. System (1) zur Sicherheitssteuerung einer Anlage, wiebeispielsweise eines Bearbeitungszentrums (2) für Werkstückeaus Holz, Glasfaserkunststoff und dergleichen, Folgendesbeinhaltend: zumindest eine Bildaufnahmeeinheit (31, 32), die in derLage ist, die Szene (SI, S2) zu erfassen, in der, zumindestteilweise, das zu überwachende Bearbeitungszentrum (2)enthalten ist, mit Erzeugung eines Vektors oder einer Matrixvon Signalen, wobei diese Bildaufnahmeeinheit (31, 32) dafürausgelegt ist, jedem dieser Signale eine entsprechendeInformation bezüglich des Abstandes der Gegenstände dieserSzene (SI, S2) zuzuordnen, und eine Steuereinheit (4), die mit der zumindest einenBildaufnahmeeinheit (31, 32) verbunden ist und die in der Lageist, die genannten Signale unter Anwendung des in denPatentansprüchen 1-7 beschriebenen Verfahrens zu verarbeiten.
  9. 9. System (1) nach Anspruch 8, dadurch gekennzeichnet, dassdie zumindest eine Bildaufnahmeeinheit (31, 32) vom Typ ToF(Time Of Fly - Laufzeit) oder vom stereoskopischen Typ ist.
  10. 10. System (1) nach einem der Ansprüche 8 oder 9, dadurchgekennzeichnet, dass es zwei Bildaufnahmeeinheiten (31, 32)zur Erfassung von zwei verschiedenen Szenen (SI, S2) beinhaltet.
  11. 11. System (1) nach einem der Ansprüche von 8 bis 10, dadurchgekennzeichnet, dass die Bildaufnahmeeinheit (31, 32) derartangeordnet ist, dass in dem Bild der zu überwachenden Szene(SI, S2), zumindest teilweise, das Bearbeitungszentrum (2)enthalten ist.
  12. 12. System (1) nach einem der Ansprüche von 8 bis 11, dadurchgekennzeichnet, dass die Bildaufnahmeeinheit (31, 32) aufeinem beweglichen Teil oder auf einem feststehenden Teil desBearbeitungsZentrums (2) angeordnet ist.
ATA529/2015A 2014-08-11 2015-08-11 Verfahren zur Sicherheitssteuerung einer Anlage und entsprechendes Sicherheitssystem AT516140A1 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITRM20140469 2014-08-11

Publications (1)

Publication Number Publication Date
AT516140A1 true AT516140A1 (de) 2016-02-15

Family

ID=51799242

Family Applications (1)

Application Number Title Priority Date Filing Date
ATA529/2015A AT516140A1 (de) 2014-08-11 2015-08-11 Verfahren zur Sicherheitssteuerung einer Anlage und entsprechendes Sicherheitssystem

Country Status (2)

Country Link
AT (1) AT516140A1 (de)
DE (1) DE102015215211B4 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IT201900004211A1 (it) * 2019-03-22 2020-09-22 Comacchio S R L Sistema di sicurezza per organi di lavoro di macchine di perforazione o di lavorazione in genere, e metodo di funzionamento di detto sistema di sicurezza

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10000287A1 (de) * 2000-01-07 2001-07-19 Leuze Lumiflex Gmbh & Co Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
WO2002073086A1 (en) * 2001-03-14 2002-09-19 Honeywell International Inc. Object detection
DE102004018016A1 (de) * 2004-04-14 2005-11-10 Sick Ag Verfahren zur Überwachung eines Überwachungsbereichs

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2386876B1 (de) 2010-05-04 2013-07-10 Sick AG Entfernungsmessender optoelektronischer Sicherheitssensor und Verfahren zur Überwachung eines Überwachungsbereichs
JP6102930B2 (ja) 2011-10-14 2017-03-29 オムロン株式会社 射影空間監視のための方法および装置
DE102014209338A1 (de) 2013-05-17 2014-11-20 Ifm Electronic Gmbh Lichtlaufzeitkamerasystem zur Freifelderkennung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10000287A1 (de) * 2000-01-07 2001-07-19 Leuze Lumiflex Gmbh & Co Vorrichtung und Verfahren zur Überwachung eines Erfassungsbereichs an einem Arbeitsmittel
WO2002073086A1 (en) * 2001-03-14 2002-09-19 Honeywell International Inc. Object detection
DE102004018016A1 (de) * 2004-04-14 2005-11-10 Sick Ag Verfahren zur Überwachung eines Überwachungsbereichs

Also Published As

Publication number Publication date
DE102015215211A1 (de) 2016-02-11
DE102015215211B4 (de) 2021-10-21

Similar Documents

Publication Publication Date Title
EP3421189B1 (de) Verfahren zum überwachen einer maschine
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
EP2461181B1 (de) Sensoranordnung zur Objekterkennung
DE102014101587B4 (de) Registrierung einer Szene mit Konsistenzprüfung
EP3195256B1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
WO2000066973A1 (de) Verfahren zur optischen formerfassung von gegenständen
DE102009030644B4 (de) Berührungslose Erfassungseinrichtung
EP2275989A1 (de) Stereoskopische 3D-Kamera
EP3775767B1 (de) Verfahren und system zur vermessung eines objekts mittels stereoskopie
DE102018101162B4 (de) Messsystem und Verfahren zur extrinsischen Kalibrierung
EP3640583A1 (de) Verfahren zur 3d-erfassung eines messobjekts
EP2930652A1 (de) Verfahren zur thermischen Überwachung von Objekten
EP3572971B1 (de) Absichern eines überwachungsbereichs mit mindestens einer maschine
DE102014012693B4 (de) System und Verfahren sowie Computerprogramm zur Positions-und Lagebestimmung von Objekten
DE102014202977A1 (de) Bestimmung von Koordinaten eines Werkstücks unter Verwendung eines Koordinatenmessgeräts
AT516140A1 (de) Verfahren zur Sicherheitssteuerung einer Anlage und entsprechendes Sicherheitssystem
DE102018002659B4 (de) Bildvorrichtung zum Erfassen von Anomalien von Entfernungsbildern
DE102012005966A1 (de) Vorrichtung und Verfahren zur Erzeugung einer flächenhaften Darstellung eines dreidimensionalen Körpers sowie Beleuchtungseinrichtung dazu
DE102012105401B3 (de) 3D-Kamera und Verfahren zur Bestimmung des diffusen Remissionsvermögens von Objekten
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE102014206677A1 (de) Kamerasystem und Verfahren zum Erfassen eines Umfeldes eines Fahrzeuges
DE3817321A1 (de) Verfahren und vorrichtung zur durchfuehrung der masskontrolle eines werkstuecks auf optoelektronischem weg
EP3496398B1 (de) Sichere stereokamera und verfahren zum prüfen der funktionsfähigkeit der bildsensoren
EP3573023A1 (de) Verfahren zur bestimmung räumlicher informationen einer gasförmigen struktur