DE102019001036A1 - Objektüberwachungsvorrichtung, die einen Sensor verwendet - Google Patents

Objektüberwachungsvorrichtung, die einen Sensor verwendet Download PDF

Info

Publication number
DE102019001036A1
DE102019001036A1 DE102019001036.1A DE102019001036A DE102019001036A1 DE 102019001036 A1 DE102019001036 A1 DE 102019001036A1 DE 102019001036 A DE102019001036 A DE 102019001036A DE 102019001036 A1 DE102019001036 A1 DE 102019001036A1
Authority
DE
Germany
Prior art keywords
area
sensor
monitoring
judging section
monitoring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102019001036.1A
Other languages
English (en)
Other versions
DE102019001036B4 (de
Inventor
Minoru Nakamura
Atsushi Watanabe
Yuuki Takahashi
Takahiro IWATAKE
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102019001036A1 publication Critical patent/DE102019001036A1/de
Application granted granted Critical
Publication of DE102019001036B4 publication Critical patent/DE102019001036B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F16ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
    • F16PSAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
    • F16P3/00Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
    • F16P3/12Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
    • F16P3/14Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
    • F16P3/142Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V99/00Subject matter not provided for in other groups of this subclass
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/87Combinations of radar systems, e.g. primary radar and secondary radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/881Radar or analogous systems specially adapted for specific applications for robotics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V1/00Seismology; Seismic or acoustic prospecting or detecting
    • G01V1/28Processing seismic data, e.g. analysis, for interpretation, for correction
    • G01V1/282Application of seismic models, synthetic seismograms
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/0008Industrial image inspection checking presence/absence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10044Radar image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Abstract

Überwachungsvorrichtung, die in der Lage ist, ein Objekt selbst dann korrekt zu erkennen, wenn für einen Sensor eine Blindzone auftreten kann. Die Überwachungsvorrichtung weist einen Sensor, der für einen vorbestimmten räumlichen Bereich konfiguriert ist, und einen Beurteilungsabschnitt auf, der dazu konfiguriert ist, basierend auf durch den Sensor erhaltenen Messdaten das Vorhandensein oder Nichtvorhandensein eines Objekts innerhalb eines vorbestimmten Überwachungsbereichs in dem räumlichen Bereich zu beurteilen. Der Beurteilungsabschnitt ist so konfiguriert, dass er vorab so eingestellt wird, dass, wenn der Sensor feststellt, dass sich das Objekt in einem Zwischenbereich zwischen dem Sensor und dem Überwachungsbereich vorhanden ist, der Beurteilungsabschnitt aufgrund des Vorhandenseins des Objekts in dem Zwischenbereich beurteilt oder nicht, dass sich das Objekt in dem Überwachungsbereich befindet.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft eine Objektüberwachungsvorrichtung, die einen Sensor verwendet.
  • Beschreibung des Standes der Technik
  • In einer herkömmlichen Technik wird unter Verwendung einer Entfernungsbildmessvorrichtung, wie beispielsweise eine Stereosichtvorrichtung oder ein Entfernungsmesser, eine Überschneiden zwischen dem Entfernungsbild und einem bestimmten Bereich überprüft, und dann werden eine Annäherung eines Objekts in den bestimmten Bereich und ein Abstand zu dem Objekt erkannt (siehe z.B. JP 2003-162776 A ).
  • Um eine Überschneidung oder Kollision zwischen einem Roboter und einem Bediener zu vermeiden, ist ferner eine Technik einer Verwendung eines dreidimensionalen Sensors oder einer Kamera zur Messung eines Arbeitsbereichs des Roboters bekannt (siehe z.B. JP 2010-208002 A , JP 2012-223831 A und JP 2017-013172 A ).
  • In einer Überwachungsvorrichtung, die dazu konfiguriert ist, das Vorhandensein eines Objekts innerhalb eines vorbestimmten Überwachungsbereichs unter Verwendung eines Sensors zu erkennen, kann aufgrund des Vorhandenseins eines Objekts außerhalb des Überwachungsbereichs eine Blindzone bei der Überwachung erzeugt werden. In einem solchen Fall beurteilt die Überwachungseinrichtung aus Sicherheitsgründen in der Regel, dass ein Objekt in dem Überwachungsbereich vorhanden ist. Wenn jedoch davon ausgegangen wird, dass das Objekt vorhanden ist, auch wenn tatsächlich das Objekt nicht in dem Überwachungsbereich vorhanden ist, kann eine Einrichtung innerhalb des Überwachungsbereichs unnötig gestoppt werden und/oder ein Bediener innerhalb des Überwachungsbereichs gezwungen werden, so zu handeln, dass aufgrund der Bewegung des Bedieners keine Blindzone entsteht.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Ein Aspekt der vorliegenden Offenbarung ist eine Überwachungsvorrichtung, die umfasst: mindestens einen Sensor, der für einen vorbestimmten räumlichen Bereich konfiguriert ist; und einen Beurteilungsabschnitt, der dazu konfiguriert ist, das Vorhandensein oder Nichtvorhandensein eines Objekts innerhalb eines vorbestimmten Überwachungsbereichs in dem räumlichen Bereich basierend auf durch den Sensor erhaltenen Messdaten zu beurteilen, wobei der Beurteilungsabschnitt so konfiguriert ist, dass er vorab so eingestellt wird, dass, wenn der Sensor erkennt, dass sich das Objekt innerhalb eines Zwischenbereichs zwischen dem Sensor und dem Überwachungsbereich befindet, der Beurteilungsabschnitt aufgrund des Vorhandenseins des Objekts innerhalb des Zwischenbereichs beurteilt oder nicht, dass das Objekt innerhalb des Überwachungsbereichs vorhanden ist.
  • Figurenliste
  • Die vorstehenden und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden durch die folgende Beschreibung ihrer bevorzugten Ausführungsformen mit Bezug auf die beigefügten Zeichnungen deutlicher sichtbar gemacht, wobei:
    • 1 eine Ansicht ist, die eine schematische Konfiguration einer Überwachungsvorrichtung zeigt;
    • 2 eine Ansicht ist, die eine Funktion der Überwachungsvorrichtung darstellt;
    • 3 eine Ansicht ist, die eine Positionsbeziehung zwischen einem Überwachungsbereich und einem Zwischenbereich erklärt;
    • 4 ein Beispiel zeigt, in dem ein Sensor eine Mehrzahl von Überwachungsbereichen überwacht;
    • 5 ein Beispiel zeigt, in dem zwei Sensoren einen Überwachungsbereich überwachen;
    • 6 ein Beispiel zeigt, in dem eine Mehrzahl von Sensoren eine Mehrzahl von Überwachungsbereichen überwachen; und
    • 7 ein weiteres Beispiel zeigt, in dem eine Mehrzahl von Sensoren eine Mehrzahl von Überwachungsbereichen überwacht.
  • AUSFÜHRLICHE BESCHREIBUNGEN
  • 1 stellt schematisch eine Objektüberwachungsvorrichtung (nachfolgend auch Überwachungsvorrichtung bezeichnet) 10 gemäß einer bevorzugten Ausführungsform und einen von der Überwachungsvorrichtung 10 zu überwachenden Überwachungsbereich 16 dar. Die Überwachungsvorrichtung 10 umfasst: einen ersten Sensor 14, der für einen vorbestimmten räumlichen Bereich 12 konfiguriert ist; und einen Beurteilungsabschnitt 18, der dazu konfiguriert ist, das Vorhandensein oder Nichtvorhandensein eines Objekts innerhalb eines im räumlichen Bereich 12 vorbestimmten Überwachungsbereichs 16 basierend auf durch den ersten Sensor 14 erhaltenen Messdaten zu beurteilen.
  • In der vorliegenden Ausführungsform ist der räumliche Bereich 12 innerhalb eines Messbereichs des ersten Sensors 14 eingestellt und der Überwachungsbereich 16 ist im räumlichen Bereich 12 so eingestellt, dass der Eintritt oder das Vorhandenseins des Objekts im Überwachungsbereich 16 (bevorzugt immer) überwacht werden kann. Solche Einstellungen können beispielsweise von einem Konstrukteur eines Überwachungssystems über eine geeignete Eingabevorrichtung usw. ausgeführt werden, und Inhalte der Einstellungen können in einem Speicher (nicht dargestellt) usw. der Überwachungsvorrichtung 10 gespeichert werden. In diesem Fall wird, wie in 2 dargestellt, der Überwachungsbereich 16 als ein (im Allgemeinen quaderförmiger) Bereich eingestellt, der basierend auf einer Größe und/oder einem Bewegungsbereich eines gefährlichen Objekts (z.B. eines Roboters) 22 definiert wird, und der Überwachungsbereich 16 kann virtuell von (einem Prozessor usw.) der Überwachungsvorrichtung 10 bestimmt werden. Wenn das Objekt 24, wie etwa ein Mensch, den Überwachungsbereich 16 betritt, gibt ein Eingabeabschnitt 19, der dazu konfiguriert ist, ein Ergebnis der Beurteilung des Beurteilungsabschnitts 18 auszugeben, eine Information (z.B. ein Erkennungssignal) aus, die anzeigt, dass das Objekt im Überwachungsbereich 16 erkannt wird. So kann beispielsweise die ausgegebene Information von einer Steuerung 30 empfangen werden, die mit dem Roboter 22 verbunden und dazu konfiguriert ist, die Bewegung des Roboters 22 zu steuern. Die Steuerung 30 ist dazu konfiguriert, nach dem Empfangen des Erkennungssignals die Stromversorgung eines Motors zum Antreiben des Roboters abzuschalten und/oder einen Alarm auszugeben, usw.
  • Wie in 2 gezeigt, kann selbst dann, wenn das Objekt 24 (z.B. ein Bediener) im Überwachungsbereich 16 nicht vorhanden ist, abhängig von der Positionsbeziehung zwischen Sensor 14 und Überwachungsbereich 16 aufgrund des Objekts 24 eine Blindzone in dem Überwachungsbereich 16 auftreten. Genauer gesagt, wenn das Objekt 24 in einem Zwischenbereich 20 vorhanden ist, wird ein Bereich 26 im Überwachungsbereich 16 zu einer Blindzone, und somit kann das Vorhandensein oder Nichtvorhandensein des Objekts in der Blindzone 26 nicht anhand der Messdaten des Sensors 14 beurteilt werden. In einem solchen Fall ist eine herkömmliche Überwachungsvorrichtung in der Regel dazu konfiguriert, aus Sicherheitsgründen ein Ergebnis der Beurteilung (z.B. ein Erkennungssignal) auszugeben, das anzeigt, dass das Objekt in der Überwachungseinrichtung vorhanden ist. Im Stand der Technik ist deshalb der Bediener gezwungen, wie durch die Bezugsziffer 24 in 2 angegeben, einen Vorgang durchzuführen, ohne in den Zwischenbereich 20 einzutreten (d.h. sich weit weg vom Überwachungsbereich 16 zu befinden), um das obengenannte Problem zu vermeiden.
  • In der vorliegenden Offenbarung bezeichnet der „Zwischenbereich“ einen dreidimensionalen Raum, der durch Oberflächen definiert wird, die durch gerade Linien definiert werden, die sich von einem repräsentativen Punkt 28 (z.B. einer Mitte einer Kameralinse) des Sensors 14 bis zu einer Außenlinie (oder Kontur) des Überwachungsbereichs 16 erstrecken. Wenn sich das Objekt in dem Zwischenbereich befindet, ist mindestens ein Teil des Überwachungsbereichs 16 in einem Rückprojektionsbereich des Objekts in Bezug auf den repräsentativen Punkt 28 des Sensors 14 umfasst, und der umfasste Teil kann die Blindzone sein. Genauer gesagt entspricht der Zwischenbereich 20, wie in 3 dargestellt, unter der Annahme, dass der Überwachungsbereich 16 ein Quader mit acht Eckpunkten A bis H ist, einem Bereich (mit einer vierseitigen Pyramidenform), der durch den repräsentativen Punkt 28 des Sensors 14 und vier Eckpunkten B, C, G und H definiert wird. Wenn sich das Objekt in dem Zwischenbereich 20 befindet, tritt daher die Blindzone in dem Bereich 26 auf. Mit anderen Worten, nur die Blindzone 26, die im Überwachungsbereich 16 durch den Bediener 24 auftreten kann, kann von dem Sensor 14 durch den Zwischenbereich 20 betrachtet werden.
  • Der Beurteilungsabschnitt 18 der Überwachungsvorrichtung 10 ist so konfiguriert, dass er vorab so eingestellt wird (z.B. durch einen Konstrukteur des Überwachungssystems mit der Überwachungsvorrichtung 10), dass, wenn der erste Sensor 14 erkennt, dass sich das Objekt innerhalb eines Zwischenbereichs 20 befindet, der Beurteilungsabschnitt 18 aufgrund des Vorhandenseins des Objekts innerhalb des Zwischenbereichs 20 beurteilt oder nicht, dass das Objekt innerhalb des Überwachungsbereichs 16 vorhanden ist. In der Ausführungsform ist der Beurteilungsabschnitt 18 vorab so eingestellt, dass, wenn der erste Sensor 14 erkennt, dass sich das Objekt in dem Zwischenbereich 20 befindet, der Beurteilungsabschnitt 18 nicht beurteilt, dass sich das Objekt in dem Überwachungsbereich 16 befindet (d.h. der Beurteilungsabschnitt 18 führt die Objekterkennung nicht aus). In diesem Fall gibt die Überwachungsvorrichtung 10 (Ausgabeabschnitt 19) nichts aus, so dass die Vorrichtung (z.B. Robotersteuerung 30) zum Empfangen der Ausgabe von der Überwachungsvorrichtung 10 keinen Prozess zum Stoppen der Bewegung des gefährlichen Objekts (z.B. zum Abschalten der Stromversorgung eines Motors zum Antreiben des Roboters) innerhalb des Überwachungsbereichs 16 ausführt. Somit kann selbst dann, wenn der Bediener dem Überwachungsbereich 16 nahekommt, verhindert werden, dass der Roboter unnötig gestoppt wird, wodurch eine Beeinträchtigung des den Roboter umfassenden Systems, wie etwa eine Verringerung der Arbeitseffizienz des Systems, vermieden werden kann.
  • 4 zeigt ein Beispiel, in dem eine Mehrzahl von Überwachungsbereichen in dem räumlichen Bereich definiert ist. Wenn beispielsweise die (der Sensor 14 der) Überwachungsvorrichtung 10 einen räumlichen Bereich 32 messen kann, der größer ist als der räumlicher Bereich 12 von 2, kann ein zweiter Überwachungsbereich 34 eingestellt oder hinzugefügt werden, sowie der erste Überwachungsbereich 16, wie vorstehend beschrieben. Im Beispiel von 4 tritt in dem zweiten Überwachungsbereich 34 keine Blindzone aufgrund des Vorhandenseins des Objekts auf (genauer gesagt, es wird nicht angenommen, dass das Objekt in einem zweiten Zwischenbereich 36 zwischen Sensor 14 und zweitem Überwachungsbereich 34 vorhanden ist). Daher kann die Überwachungsvorrichtung 10 so eingestellt werden, dass, wenn das Objekt in dem Zwischenbereich 36 erkannt wird, der Ausgabeabschnitt 19 ein Erkennungssignal usw. ausgibt, das anzeigt, dass das Objekt innerhalb des zweiten Überwachungsbereichs 34 erkannt wird. Das ist dadurch begründet, dass es in einem solchen Fall aus Sicherheitsgründen vorzuziehen ist, zu beurteilen, dass das Objekt in dem Überwachungsbereich 34 vorhanden ist, wenn das Vorhandensein oder der Zutritt des Objekts im oder in den Zwischenbereich 36 erkannt wird. Wenn also die Mehrzahl von Überwachungsbereichen definiert ist, kann die (der Beurteilungsabschnitt 18 der) Überwachungsvorrichtung 10 vorab so eingestellt werden, dass, wenn das Objekt innerhalb des jedem Überwachungsbereich entsprechenden Zwischenbereichs erkannt wird, der Beurteilungsabschnitt 18 aufgrund des Vorhandenseins des Objekts innerhalb jedes Zwischenbereichs beurteilt oder nicht, dass das Objekt innerhalb des Überwachungsbereichs vorhanden ist. Darüber hinaus kann die Überwachungsvorrichtung 10 ein Ergebnis der Beurteilung durch den Beurteilungsabschnitt als ein Erkennungssignal in Bezug auf jeden Überwachungsbereich ausgeben.
  • Wie in 4 beispielhaft veranschaulicht, kann der erste Überwachungsbereich 16 in den Bereich 26, der aufgrund des Objekts 24 usw. die Blindzone sein kann, wie in 2 dargestellt, und den Bereich 38, der nicht zur Blindzone wird, unterteilt werden, wodurch der Zwischenbereich ebenfalls entsprechend unterteilt werden kann. In dem Beispiel von 4 kann das Objekt (wie etwa der Bediener) in den mit dem Bereich 26 zusammenhängenden Zwischenbereich 20 eintreten, während nicht davon ausgegangen wird, dass das Objekt in den mit dem Bereich 38 zusammenhängenden Zwischenbereich 40 eintreten kann. In dem Beispiel von 3 ist der Zwischenbereich 40 ein Bereich (mit einer vierseitigen Pyramidenform), der durch den repräsentativen Punkt 28 des Sensors 14 und die vier Eckpunkte A, B, C und D definiert wird. Daher kann der Überwachungsbereich 16 (virtuell) in eine Mehrzahl von (in diesem Fall zwei) Überwachungsbereichen unterteilt werden, der Zwischenbereich kann ebenfalls entsprechend aufgeteilt werden, und das obige Beurteilungsverfahren kann in Bezug auf jeden der aufgeteilten Zwischenbereiche durchgeführt werden. Genauer gesagt, wenn das Vorhandensein des Objekts in dem Zwischenbereich 20 erkannt wird, wird aufgrund des Erkennungsergebnisses nicht beurteilt, dass das Objekt im Überwachungsbereich 16 vorhanden ist, und somit gibt die Überwachungsvorrichtung 10 nichts aus. Wird dagegen das Vorhandensein oder der Eintritt des Objekts in dem Zwischenbereich 40 erkannt, gibt die Überwachungsvorrichtung 10 die Beurteilung (oder das Erkennungssignal) aus, die anzeigt, dass das Objekt im Überwachungsbereich 16 vorhanden ist. Dadurch kann in Bezug auf den Bereich, der nicht die Blindzone sein kann, aus Sicherheitsgründen die Objekterkennung mit hoher Sicherheit durchgeführt werden.
  • In diesem Zusammenhang kann die Festlegung des Zwischenbereichs 20 (oder die Einstellung der aufgeteilten Bereiche) durch Vorgeben eines Sichtfeldes des Sensors 14 erfolgen. Wie beispielsweise in 3 dargestellt, kann durch die Festlegung einer durch die Eckpunkte B, C, G und F definierten Fläche 42 der Zwischenbereich festgelegt werden. Andernfalls kann durch Festlegen (der Koordinaten) eines dreidimensionalen Bereichs, der dem Bereich 26 entspricht, unter Verwendung eines CAD usw. der Zwischenbereich festgelegt werden. Das Verfahren zum Einstellen der aufgeteilten Flächen ist jedoch nicht auf eine solche Flächenfestlegung oder Bereichsfestlegung beschränkt.
  • Wie in 4 gezeigt, kann ein Überwachungsbereich 16 in zwei unabhängige Überwachungsbereiche 26 und 38 unterteilt oder eingestellt werden. In Bezug auf den Überwachungsbereich 26 kann dann, wenn das Objekt innerhalb des Zwischenbereichs 20 erkannt wird, die Überwachungsvorrichtung 10 so eingestellt werden, dass sie das Vorhandensein oder Nichtvorhandensein des Objekts im Überwachungsbereich 16 aufgrund des Erkennungsergebnisses nicht beurteilt. Die Bereiche 26 und 38 sind jedoch von Natur aus ein Überwachungsbereich, weshalb es bevorzugt ist, dass ein Überwachungsergebnis (oder ein Signal) für den einen Überwachungsbereich ausgegeben wird. Daher kann in einem solchen Fall die (der Ausgabeabschnitt 19 der) Überwachungsvorrichtung 10 das Ergebnis der Beurteilung des Beurteilungsabschnitts 18 in Bezug auf jede Gruppe (in diesem Fall in Bezug auf den Bereich 16 mit den Bereichen 26 und 38) ausgeben, die durch Integrieren der Überwachungsbereiche erhalten wurde. Wenn, in diesem Beispiel, das Vorhandensein des Objekts in einem der Bereiche 26 und 38 erkannt wird, wird beurteilt, dass das Objekt in der integrierten Gruppe (z.B. Bereich 16) selbst dann vorhanden ist, wenn das Vorhandensein des Objekts in dem anderen der Bereiche 26 und 38 nicht erkannt wird.
  • 5 zeigt eine Ausführungsform einer Überwachungsvorrichtung mit einer Mehrzahl von Sensoren. Wie in 2 gezeigt, kann es bei Verwendung von nur einem Sensor 14 vorkommen, dass die Objekterkennung in Bezug auf den gesamten Überwachungsbereich 16 nicht korrekt durchgeführt wird, da der Überwachungsbereich 16 eine Zone umfasst, die zur Blindzone werden kann. Daher wird in der Ausführungsform von 5 die Mehrzahl der an verschiedenen Positionen angeordneten Sensoren dazu verwendet, das oben genannte Problem zu lösen. Genauer gesagt umfasst diese Ausführungsform zusätzlich zu den Komponenten von 2 einen zweiten Sensor 44, der an einer anderen Position als der erste Sensor 14 angeordnet ist, und einen zweiten Beurteilungsabschnitt 46, der dazu konfiguriert ist, das Vorhandensein oder Nichtvorhandensein des Objekts innerhalb eines vorbestimmten Überwachungsbereichs (in diesem Fall eines Bereichs, der der Blindzone 26 innerhalb des Überwachungsbereichs 16 entspricht) basierend auf den durch den zweiten Sensor 44 erhaltenen Messdaten zu beurteilen. Hierdurch kann in Bezug auf den Bereich 26, der durch das Vorhandensein des Objekts (z.B. Bediener 24) in dem Zwischenbereich 20 in Bezug auf den ersten Sensor 14 zur Blindzone werden kann, die Objekterkennung basierend auf den Messdaten des zweiten Sensors 44 durchgeführt werden. Weiterhin kann in Bezug auf den Bereich 38 in dem Überwachungsbereich 16, der nicht der Bereich 26 ist, die Objekterkennung basierend auf den Messdaten des ersten Sensors 14 durchgeführt werden. Außerdem kann das Ergebnis des Prozesses (Beurteilung) des zweiten Beurteilungsabschnitts 46 von einem mit dem Beurteilungsabschnitt 46 verbundenen Ausgabeabschnitt 48 an die Steuerung 30 usw. als ein Form- oder Erkennungssignal usw. ausgegeben werden.
  • Wie in 5 gezeigt, kann durch die Verwendung der Mehrzahl von Sensoren der Bereich, der in Bezug auf einen Sensor zur Blindzone werden kann, von dem anderen Sensor erkannt werden und somit kann die Objekterkennung in Bezug auf die Gesamtheit des Überwachungsbereichs korrekt durchgeführt werden. Wenn das Objekt in dem Zwischenbereich 20 vorhanden ist, wird von dem ersten Sensor 14 keine Ausgabe zur Gewährleistung der Sicherheit (die darstellt, dass das Objekt im Überwachungsbereich vorhanden ist) ausgegeben, und weiterhin wird auch dann, wenn das Vorhandensein des Objekts im Bereich 26 nicht erkannt werden kann, die Ausgabe, die anzeigt, dass das Objekt in dem Überwachungsbereich vorhanden ist, nicht ausgegeben. Da andererseits der zweite Sensor 44 so positioniert ist, dass die Blindzone im Zusammenhang mit dem zweiten Sensor 44 auch dann nicht in dem Bereich 26 auftritt, wenn das Objekt im Zwischenbereich 20 vorhanden ist, kann das Vorhandensein des Objekts im Bereich 26 anhand der Messdaten des zweiten Sensors 44 sicher erkannt werden. Diesbezüglich ist es vorzuziehen, dass der zweite Beurteilungsabschnitt 46 beurteilt, dass das Objekt im Überwachungsbereich 16 vorhanden ist, wenn der zweite Sensor 44 erkennt, dass das Objekt in einem Zwischenbereich zwischen dem zweiten Sensor 44 und dem Überwachungsbereich 16 vorhanden ist.
  • In der Ausführungsform von 5 ist es nicht notwendig, dass der Beurteilungsabschnitte 18 oder 46 einen Prozess zum Integrieren oder gemeinsamen Beurteilen der Ausgaben der beiden Sensoren durchführt. Gleichermaßen ist es nicht notwendig, dass die Steuerung 30 einen Prozess zum Integrieren oder gemeinsamen Beurteilen der Ausgabesignale von den beiden Beurteilungsabschnitten (oder den Ausgabeabschnitten) ausführt. Mit anderen Worten, die Steuerung 30 kann den Roboter 22 basierend auf jedem Ausgabesignal steuern, kann z.B. den Roboter 22 stoppen, wenn eines der Ausgabesignale anzeigt, dass sich das Objekt in dem Überwachungsbereich befindet. Daher ist es nicht notwendig, zwischen den Sensoren (oder den Bewertungsabschnitten) eine Verbindung durch eine komplizierte Verkabelung usw. herzustellen, und des Weiteren kann die Objekterkennung korrekt durchgeführt werden, ohne die Ausgaben der beiden Sensoren (Beurteilungsabschnitte) in Bezug auf denselben Überwachungsbereich zu integrieren oder gemeinsam zu bewerten. Dementsprechend kann eine gesamte Überwachungsvorrichtung kostengünstig aufgebaut werden.
  • 6 zeigt eine weitere Ausführungsform einer Überwachungsvorrichtung mit einer Mehrzahl von Sensoren, bei der zwei Sensoren verwendet werden, um drei voneinander getrennte Überwachungsbereiche 50, 52 und 54 zu überwachen. Normalerweise kann die Anordnung der Überwachungsbereiche und/oder der Sensoren in der Überwachungsvorrichtung von einem Konstrukteur eines die Überwachungsvorrichtung umfassenden Überwachungssystems ausgelegt oder bestimmt werden.
  • Da der erste Sensor 14 im Allgemeinen knapp über dem linken Überwachungsbereich 50 positioniert ist, tritt im Überwachungsbereich 50 keine Blindzone auf. Da gleichermaßen der zweite Sensor 44 im Allgemeinen knapp über dem rechten Überwachungsbereich 54 positioniert ist, tritt auch im Überwachungsbereich 54 keine Blindzone auf.
  • Andererseits kann in der Mitte des Überwachungsbereich 52 ein Bereich 56 innerhalb Überwachungsbereichs 52 durch das Vorhandensein des Objekts in einem Zwischenbereich 58 zwischen erstem Sensor 14 und Überwachungsbereich 52 zu einer Blindzone werden, und gleichermaßen kann ein Bereich 60 innerhalb des Überwachungsbereichs 52 durch das Vorhandensein des Objekts in einem Zwischenbereich 62 zwischen dem zweitem Sensor 44 und dem Überwachungsbereich 52 zu einer Blindzone werden. In diesem Fall kann der zweite Sensor 44 das Vorhandensein des Objekts im Bereich 56, der im Zusammenhang mit dem ersten Sensor 14 zur Blindzone werden kann, korrekt erkennen. Daher kann der erste Sensor 14 so eingestellt werden, dass der erste Sensor 14 das Vorhandensein oder Nichtvorhandensein des Objekts im Überwachungsbereich 52 nicht beurteilt, wenn der erste Sensor 14 das Objekt innerhalb des Zwischenbereichs 58 im Zusammenhang mit der Blindzone 56 erfasst. Alternativ kann, ähnlich wie bei der Ausführungsform von 4, der Überwachungsbereich 52 in den der Blindzone entsprechenden Bereich 56 und den anderen Bereich unterteilt werden, und nur der Bereich 56 kann als Nicht-Erkennungsbereich in Bezug auf den ersten Sensor 14 eingestellt werden.
  • Da gleichermaßen der erste Sensor 14 das Vorhandensein des Objekts im Bereich 60 des Überwachungsbereichs 52, der zur Blindzone im Zusammenhang mit dem zweiten Sensor 44 werden kann, korrekt erkennen kann, kann der zweite Sensor 44 so eingestellt werden, dass der zweite Sensor 44 das Vorhandensein oder Nichtvorhandensein des Objekts innerhalb des Überwachungsbereichs 52 nicht beurteilt, wenn der zweite Sensor 44 das Objekt innerhalb des Zwischenbereichs 62 im Zusammenhang mit der Blindzone 60 erkennt. Alternativ kann, ähnlich wie bei der Ausführungsform von 4, der Überwachungsbereich 52 in den der Blindzone entsprechenden Bereich 60 und den anderen Bereich unterteilt werden, und nur der Bereich 60 kann als ein Nicht-Erkennungsbereich im Zusammenhang mit dem zweiten Sensor 44 eingestellt werden. Wenn also die Mehrzahl von Überwachungsbereichen durch die Mehrzahl von Sensoren erfasst wird, kann die Blindzone, die im Zusammenhang mit einem Sensor steht, durch den anderen Sensor erkannt werden, indem die Positionsbeziehung zwischen den Überwachungsbereichen und den Sensoren sachgerecht bestimmt wird, wodurch die Objekterkennung für jeden Überwachungsbereich ordnungsgemäß durchgeführt werden kann.
  • In der Überwachungsvorrichtung gemäß der vorliegenden Offenbarung kann die Anzahl der Sensoren leicht erhöht werden. Falls beispielsweise, wie in 7 dargestellt, die Bedienerbereiche 64a bis 64d (in die der Bediener eintreten kann) und die Überwachungsbereiche 66a bis 66c (in denen das Vorhandensein oder der Eintritt des Bedieners überwacht werden sollte) abwechselnd positioniert werden, kann durch Positionieren der Sensoren derart, dass ein Überwachungsbereich von mindestens zwei Sensoren überwacht wird, das Vorhandensein des Objekts in den Überwachungsbereichen vollständig selbst dann erfasst werden, wenn die Blindzone in den Überwachungsbereichen auftreten kann. Obwohl beispielsweise in Bezug auf den Sensor 68b eine Blindzone in einem unteren rechten Teil des Überwachungsbereichs 66a auftreten kann, wenn der Bediener in der Nähe eines linken Rands in dem Bedienerbereich 64b vorhanden ist, kann das Vorhandensein des Objekts in dieser Blindzone von dem Sensor 68a erfasst werden. Ebenso kann in Bezug auf den Sensor 68b, obwohl eine Blindzone in einem unteren linken Teil des Überwachungsbereichs 66c auftreten kann, wenn sich der Bediener in der Nähe eines rechten Rands im Bedienerbereich 64c befindet, das Vorhandensein des Objekts in dieser Blindzone von dem Sensor 68c erkannt werden. An sich kann die Anzahl der Sensoren abhängig von der Größe und/oder der Anzahl der Bedienerbereiche und der Überwachungsbereiche unbegrenzt erhöht werden. Weiterhin ist es bei jedem Sensor ausreichend, dass eine Einstellung dahingehend konfiguriert ist, ob der Sensor das Objekt innerhalb eines vorgegebenen Messbereichs erkennt oder nicht. Daher ist es nicht notwendig, zwischen den Sensoren eine Verbindung herzustellen, sodass ein kostengünstiges Überwachungsgerät mit einfachem Aufbau ausgebildet werden kann.
  • Wie in 7 beispielhaft veranschaulicht, kann, wenn die Anzahl der Überwachungsbereiche oder der Sensoren relativ hoch ist, eine optimale Anzahl der Sensoren und/oder optimale Einsatzstellen der Sensoren je nach Größe, Position und Anzahl der Überwachungsbereiche vorab durch eine Berechnung (oder Simulation) unter Verwendung eines Hilfswerkzeugs, wie einem Simulator (z.B. einem Personalcomputer) usw. bestimmt werden.
  • In der obigen Ausführungsform gibt der Beurteilungsabschnitt (Ausgabeabschnitt) auch dann nichts aus, wenn der Sensor erkennt, dass das Objekt im Zwischenbereich vorhanden ist. Alternativ kann, wenn der Sensor erkennt, dass das Objekt im Zwischenbereich vorhanden ist, der Beurteilungsabschnitt (Ausgabeabschnitt) eine Ausgabe (z.B. ein Nicht-Erkennungssignal) senden, die anzeigt, dass die Objekterkennung in dem Überwachungsbereich nicht durchgeführt wird (d.h. der Beurteilungsabschnitt beurteilt nicht das Vorhandensein oder Nichtvorhandensein des Objekts innerhalb des Überwachungsbereichs).
  • In der obigen Ausführungsform ist der Sensor ein Entfernungssensor, der dazu konfiguriert ist, Information (oder Messdaten) in Bezug auf die Position des Objekts innerhalb des Messbereichs (oder des räumlichen Bereichs) zu erhalten. Der Sensor kann beispielsweise sein: eine Triangulations-Abstandsmessvorrichtung mit einem optischen Projektorsystem und einem optischen Photodetektorsystem; eine Stereo-Abstandsmessvorrichtung mit zwei Bildgeräten (z.B. CCD-Kameras); ein Radar mit einer Reflexionsverzögerungszeit einer Radiowelle; oder ein TOF-Sensor mit einer Reflexionsverzögerungszeit eines Lichts (z.B. Laser oder Nahinfrarotstrahl), usw.. Der Sensor ist jedoch insofern nicht eingeschränkt.
  • In der obigen Ausführungsform kann das Einstellen (z.B. das Eingeben der Größen und Positionen) des Überwachungsbereichs und des Zwischenbereichs für die Überwachungsvorrichtung vorab von einem Administrator des Überwachungssystems über eine geeignete Eingabevorrichtung, wie eine Tastatur oder ein Touchpanel, ausgeführt werden. Andernfalls kann der Beurteilungsabschnitt den Zwischenbereich basierend auf der Information, wie die Eingabeposition und die Größe des Überwachungsbereichs, automatisch berechnen. Weiterhin können der Beurteilungsabschnitt und der Ausgabeabschnitt als Software zur Aktivierung eines Prozessors, wie etwa eine CPU eines Computers, realisiert werden. Alternativ können der Beurteilungsabschnitt und der Ausgabeabschnitt als Hardware, wie beispielsweise ein Prozessor, zum Ausführen mindestens eines Teils der Prozesse der Software realisiert werden.
  • Die Überwachungsvorrichtung der vorliegenden Offenbarung kann vorab so eingestellt werden, dass, wenn das Objekt im Zwischenbereich erkannt wird, die Überwachungsvorrichtung aufgrund des Vorhandenseins des Objekts innerhalb des Zwischenbereichs beurteilt oder nicht, dass das Objekt innerhalb des Überwachungsbereichs vorhanden ist. Wenn die Blindzone aufgrund des Objekts in dem Zwischenbereich in dem Überwachungsbereich auftreten kann, ist es daher vorzuziehen, dass die Überwachungseinrichtung so eingestellt wird, dass sie die oben genannte Beurteilung nicht ausführt, und der Bereich in dem Überwachungsbereich, der zur Blindzone werden kann, von einem anderen Sensor überwacht wird. Dadurch wird auch dann, wenn das Objekt (z.B. der Administrator des Überwachungssystems) dem Überwachungsbereich nahekommt und die Blindzone in dem Überwachungsbereich auftritt, nicht beurteilt, dass das Objekt in dem Überwachungsbereich vorhanden ist. Daher wird kein unnötiger oder übermäßiger Prozess (z.B. sofortiges Stoppen des gefährlichen Objekts, wie etwa ein Roboter im Überwachungsbereich) durchgeführt, wodurch der Bediener eine Arbeit sicher und effektiv ausführen kann.
  • Um das Objekt innerhalb eines bestimmten Bereichs, der der Blindzone entspricht, korrekt zu erfassen, kann ein weiterer Sensor verwendet werden, der so positioniert ist, dass der bestimmte Bereich nicht aufgrund des Vorhandenseins des Objekts innerhalb des Zwischenbereichs zur Blindzone wird. In diesem Fall ist es nicht notwendig, die Sensoren über ein Netzwerk usw. zu verbinden, und es genügt, dass jeder Beurteilungsabschnitt den Beurteilungsprozess des Objekts in Bezug auf den bestimmten Überwachungsbereich und Zwischenbereich basierend auf den Daten von dem mit dem Beurteilungsabschnitt verbundenen Sensor durchführt und das Ergebnis des Beurteilungsprozesses ausgibt.
  • In vielen Fällen wird die Überwachungsvorrichtung der vorliegenden Offenbarung als Sicherheitseinrichtung verwendet, und in einem solchen Fall ist es wünschenswert, dass eine Zeitspanne ab der Erkennung des Objekts in dem Überwachungsbereich bis zur Ausgabe des Ergebnisses der Erkennung an eine andere Vorrichtung so kurz wie möglich ist. Wenn diesbezüglich die Funktion der vorliegenden Offenbarung nicht verwendet wird, kann es notwendig sein, die mehreren Sensoren mit einem Bewertungsabschnitt zu verbinden und/oder eine Mehrzahl von Hochgeschwindigkeitsnetzwerken zu verwenden, um die Bewertungsergebnisse der Mehrzahl von Bewertungsabschnitten zu integrieren und zu beurteilen. Andererseits ist es in der vorliegenden Offenbarung nicht notwendig, eine Verbindung zwischen den Sensoren herzustellen, und es ist nicht notwendig, die Objekterkennung durch Integrieren und Beurteilen der Ausgaben von den mehreren Sensoren durchzuführen, wodurch eine ausreichend praktikable Überwachungsvorrichtung kostengünstig aufgebaut werden kann.
  • Gemäß der vorliegenden Offenbarung kann die Einstellung vorab so konfiguriert werden, dass, wenn das Objekt innerhalb des Zwischenbereichs erkannt wird, der Prozess zum Beurteilen des Vorhandenseins oder Nichtvorhandenseins des Objekts in dem Überwachungsbereich nicht ausgeführt wird. Somit kann der Nachteil aufgrund der Beurteilung, dass das Objekt in dem Überwachungsbereich vorhanden ist, vermieden werden, wenn der Bediener usw. in den Zwischenbereich eintritt und die Blindzone in dem Überwachungsbereich erzeugt wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2003162776 A [0002]
    • JP 2010208002 A [0003]
    • JP 2012223831 A [0003]
    • JP 2017013172 A [0003]

Claims (7)

  1. Überwachungsvorrichtung (10), umfassend: mindestens einen Sensor (14), der für einen vorbestimmten räumlichen Bereich (12) konfiguriert ist; und einen Beurteilungsabschnitt (18), der dazu konfiguriert ist, das Vorhandensein oder Nichtvorhandensein eines Objekts (24) innerhalb eines vorbestimmten Überwachungsbereichs (16) in dem räumlichen Bereich basierend auf durch den Sensor erhaltenen Messdaten zu beurteilen, wobei der Beurteilungsabschnitt so konfiguriert ist, dass er vorab so eingestellt wird, dass, wenn der Sensor erkennt, dass das Objekt in einem Zwischenbereich (20) zwischen dem Sensor und dem Überwachungsbereich vorhanden ist, der Beurteilungsabschnitt aufgrund des Vorhandenseins des Objekts in dem Zwischenbereich beurteilt oder nicht, dass das Objekt in dem Überwachungsbereich vorhanden ist.
  2. Überwachungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass eine Mehrzahl der Überwachungsbereiche (16, 34) in dem räumlichen Bereich vorbestimmt sind und der Zwischenbereich (20, 36) für jeden der Überwachungsbereiche definiert ist.
  3. Überwachungsvorrichtung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Beurteilungsabschnitt vorab so eingestellt wird, dass der Beurteilungsabschnitt aufgrund des Vorhandenseins des Objekts innerhalb jedes der Bereiche (20, 40), die durch Unterteilung des Zwischenbereichs erhalten werden, beurteilt oder nicht, dass das Objekt innerhalb des Überwachungsbereichs vorhanden ist.
  4. Überwachungsvorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Überwachungsvorrichtung ferner einen Ausgabeabschnitt (19) umfasst, der dazu konfiguriert ist, ein Ergebnis der Beurteilung des Beurteilungsabschnitts auszugeben, wobei der Ausgabeabschnitt das Ergebnis der Beurteilung des Beurteilungsabschnitts in Bezug auf jeden aus einer Mehrzahl von durch den Beurteilungsabschnitt bestimmten Überwachungsbereichen (26, 38), oder in Bezug auf jede durch Integrieren der Überwachungsbereiche erhaltene Gruppe (16) ausgibt.
  5. Überwachungsvorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der Sensor einen ersten Sensor (14) und einen zweiten Sensor (44), der an einer anderen Position als der erste Sensor angeordnet ist, umfasst, und wobei der Beurteilungsabschnitt das Vorhandensein oder Nichtvorhandensein des Objekts innerhalb des Überwachungsbereichs (16) basierend auf Messdaten des zweiten Sensors beurteilt, falls der Beurteilungsabschnitt vorab so eingestellt ist, dass, wenn der erste Sensor erkennt, dass das Objekt innerhalb des Zwischenbereichs (20) zwischen dem ersten Sensor und dem Überwachungsbereich vorhanden ist, der Beurteilungsabschnitt nicht beurteilt, dass das Objekt innerhalb des Überwachungsbereichs vorhanden ist.
  6. Überwachungsvorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass in dem Überwachungsbereich (26), der so eingestellt ist, dass der Beurteilungsabschnitt das Vorhandensein oder Nichtvorhandensein des Objekts durch den ersten Sensor nicht beurteilt, eine Blindzone in Bezug auf den ersten Sensor in dem Überwachungsbereich aufgrund des Vorhandenseins des Objekts in dem Zwischenbereich (20) zwischen dem ersten Sensor und dem Überwachungsbereich auftreten kann, und wobei der zweite Sensor so positioniert ist, dass, aufgrund des Vorhandenseins des Objekts in dem Zwischenbereich zwischen dem ersten Sensor und dem Überwachungsbereich, eine Blindzone in Bezug auf den zweiten Sensor in dem Überwachungsbereich nicht auftritt.
  7. Überwachungsvorrichtung nach Anspruch 6, dadurch gekennzeichnet, dass der Beurteilungsabschnitt beurteilt, dass das Objekt innerhalb des Überwachungsbereichs vorhanden ist, wenn der zweite Sensor erkennt, dass das Objekt in dem Zwischenbereich zwischen dem zweiten Sensor und dem Überwachungsbereich (26) vorhanden ist.
DE102019001036.1A 2018-02-19 2019-02-12 Objektüberwachungsvorrichtung, die einen Sensor verwendet Active DE102019001036B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018026919A JP6626138B2 (ja) 2018-02-19 2018-02-19 センサを用いた物体監視装置
JP2018-026919 2018-02-19

Publications (2)

Publication Number Publication Date
DE102019001036A1 true DE102019001036A1 (de) 2019-08-22
DE102019001036B4 DE102019001036B4 (de) 2022-08-04

Family

ID=67482201

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019001036.1A Active DE102019001036B4 (de) 2018-02-19 2019-02-12 Objektüberwachungsvorrichtung, die einen Sensor verwendet

Country Status (4)

Country Link
US (1) US20190257978A1 (de)
JP (1) JP6626138B2 (de)
CN (1) CN110174706B (de)
DE (1) DE102019001036B4 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6838027B2 (ja) * 2018-10-31 2021-03-03 ファナック株式会社 ロボットシステム
US11210536B2 (en) 2020-01-06 2021-12-28 Toyota Jidosha Kabushiki Kaisha Moving object recognition system, moving object recognition method, and program
JP2022121820A (ja) * 2021-02-09 2022-08-22 トヨタ自動車株式会社 ロボット制御システム、ロボット制御方法、及び、制御プログラム
DE102022112728A1 (de) * 2022-05-20 2023-11-23 Evocortex Gmbh Sensoreinrichtung, Anordnung, Roboter, stationärer Aufbau und Verfahren

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162776A (ja) 2001-11-27 2003-06-06 National Institute Of Advanced Industrial & Technology 空間マーキング装置
JP2010208002A (ja) 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
JP2012223831A (ja) 2011-04-15 2012-11-15 Mitsubishi Electric Corp 衝突回避装置
JP2017013172A (ja) 2015-06-30 2017-01-19 ファナック株式会社 視覚センサを用いたロボットシステム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6297844B1 (en) * 1999-11-24 2001-10-02 Cognex Corporation Video safety curtain
JP3880759B2 (ja) * 1999-12-20 2007-02-14 富士通株式会社 移動物体検出方法
JP3704706B2 (ja) * 2002-03-13 2005-10-12 オムロン株式会社 三次元監視装置
US7787013B2 (en) * 2004-02-03 2010-08-31 Panasonic Corporation Monitor system and camera
JP3902222B2 (ja) * 2005-06-07 2007-04-04 松下電器産業株式会社 監視システム、監視方法及びカメラ端末
DE102007058959A1 (de) * 2007-12-07 2009-06-10 Robert Bosch Gmbh Konfigurationsmodul für ein Überwachungssystem, Überwachungssystem, Verfahren zur Konfiguration des Überwachungssystems sowie Computerprogramm
JP5086899B2 (ja) * 2008-06-03 2012-11-28 株式会社キーエンス エリア監視センサ
JP5027270B2 (ja) * 2010-03-31 2012-09-19 セコム株式会社 物体検出センサ
JP5027273B2 (ja) * 2010-03-31 2012-09-19 セコム株式会社 物体検出センサおよび警備システム
US8963883B2 (en) * 2011-03-17 2015-02-24 Symbol Technologies, Inc. Touchless interactive display system
EP2772676B1 (de) * 2011-05-18 2015-07-08 Sick Ag 3D-Kamera und Verfahren zur dreidimensionalen Überwachung eines Überwachungsbereichs
US9723272B2 (en) * 2012-10-05 2017-08-01 Magna Electronics Inc. Multi-camera image stitching calibration system
US9514369B2 (en) * 2012-12-06 2016-12-06 Nec Corporation Program, method, and system for displaying image recognition processing suitability
JP6100581B2 (ja) * 2013-03-29 2017-03-22 株式会社デンソーウェーブ 監視装置
GB2536475B (en) * 2015-03-18 2018-02-14 Jaguar Land Rover Ltd Reducing erroneous detection of input command gestures
JP6747665B2 (ja) * 2016-06-07 2020-08-26 トヨタ自動車株式会社 ロボット
JP6360105B2 (ja) * 2016-06-13 2018-07-18 ファナック株式会社 ロボットシステム
JP6729146B2 (ja) * 2016-08-03 2020-07-22 コベルコ建機株式会社 障害物検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003162776A (ja) 2001-11-27 2003-06-06 National Institute Of Advanced Industrial & Technology 空間マーキング装置
JP2010208002A (ja) 2009-03-12 2010-09-24 Ihi Corp ロボット装置の制御装置及びロボット装置の制御方法
JP2012223831A (ja) 2011-04-15 2012-11-15 Mitsubishi Electric Corp 衝突回避装置
JP2017013172A (ja) 2015-06-30 2017-01-19 ファナック株式会社 視覚センサを用いたロボットシステム

Also Published As

Publication number Publication date
JP6626138B2 (ja) 2019-12-25
JP2019144040A (ja) 2019-08-29
DE102019001036B4 (de) 2022-08-04
CN110174706A (zh) 2019-08-27
CN110174706B (zh) 2021-10-22
US20190257978A1 (en) 2019-08-22

Similar Documents

Publication Publication Date Title
DE102019001036B4 (de) Objektüberwachungsvorrichtung, die einen Sensor verwendet
EP2386876B1 (de) Entfernungsmessender optoelektronischer Sicherheitssensor und Verfahren zur Überwachung eines Überwachungsbereichs
DE102006010735B4 (de) Fahrzeugumgebungsüberwachungsvorrichtung
DE102015223710A1 (de) Bereichsüberwachungssensor
DE102017116952A1 (de) System und verfahren für verbessertes scoring von 3d-lagen und entfernen von störpunkten in 3d-bilddaten
DE102017008638A1 (de) Berührungsfreier sicherheitssensor und arbeitsweise
DE102012209316A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Sensordaten eines Stereosensorsystems
EP2819109B1 (de) Optoelektronischen 3D-Sensor und Verfahren zum Erkennen von Objekten
DE102016201741A1 (de) Verfahren zur Höhenerkennung
DE102018101162A1 (de) Messsystem und Verfahren zur extrinsischen Kalibrierung
DE102018125266B3 (de) Verfahren und Robotersystem zur Eingabe eines Arbeitsbereichs
EP3572971B1 (de) Absichern eines überwachungsbereichs mit mindestens einer maschine
DE102019006438B4 (de) Objektüberwachungssystem mit Abstandsmesseinrichtung
DE102014104514B4 (de) Verfahren zur Messdatenvisualisierung und Vorrichtung zur Durchführung des Verfahrens
DE202010005042U1 (de) Optoelektronische Vorrichtung
EP2527868B1 (de) Entfernungsmessender optoelektronischer Sicherheitssensor zur Überwachung eines Überwachungsbereichs
DE102018002659B4 (de) Bildvorrichtung zum Erfassen von Anomalien von Entfernungsbildern
EP3409541B1 (de) Vorrichtung zur fahrschlauchabsicherung
WO2015149799A1 (de) Stereokamerasystem
DE102018121158A1 (de) Verfahren zum Erfassen von Bodenabtastpunkten und Fahrerunterstützungssystem, das dafür konfiguriert ist, ein derartiges Verfahren auszuführen
EP2818824B1 (de) Vorrichtung umfassend einen optoelektronischen 3D-Sensor und Verfahren zum Erkennen von Objekten
EP3770804A1 (de) Flurförderzeug mit einer objekterkennung
DE102019220607A1 (de) Verwendung von ultraschallbasierten Subsystemen zur 360° Umfelderfassung
DE112018007135B4 (de) Objekterkennungsvorrichtung, fahrzeug, objekterkennungsverfahren und objekterkennungsprogramm
DE102017119283B4 (de) Sensorsystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final