DE112019006463T5 - Personendetektionsvorrichtung und personendetektionsverfahren - Google Patents

Personendetektionsvorrichtung und personendetektionsverfahren Download PDF

Info

Publication number
DE112019006463T5
DE112019006463T5 DE112019006463.0T DE112019006463T DE112019006463T5 DE 112019006463 T5 DE112019006463 T5 DE 112019006463T5 DE 112019006463 T DE112019006463 T DE 112019006463T DE 112019006463 T5 DE112019006463 T5 DE 112019006463T5
Authority
DE
Germany
Prior art keywords
human body
area
candidate
bounding box
fisheye image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019006463.0T
Other languages
English (en)
Inventor
Ayana Tsuji
Kiyoaki Tanaka
Jumpei Matsunaga
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE112019006463T5 publication Critical patent/DE112019006463T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Vascular Medicine (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Eine Personendetektionsvorrichtung, die eingerichtet ist, ein Fischaugenbild zu analysieren, das von einer Fischaugenkamera erhalten wird, die über einem zu detektierenden Bereich installiert ist, um eine Person zu detektieren, die in dem zu detektierenden Bereich existiert, umfasst einen Detektor für menschliche Körper, der eingerichtet ist, einen Kandidaten für einen menschlichen Körper aus einem Fischaugenbild zu detektieren und als ein Detektionsergebnis einen Begrenzungsrahmen auszugeben, die einen Bereich auf dem Fischaugenbild jedes detektierten Kandidaten für einen menschlichen Körper anzeigt, einen Referenzspeicher, der eingerichtet ist, eine Referenz für eine Form und/oder Größe des Begrenzungsrahmens für jede Position oder jeden Bereich auf dem Fischaugenbild vorzuspeichern, und eine Falscherkennungs-Bestimmungseinheit, die eingerichtet ist, die Form und/oder Größe des Begrenzungsrahmens des Kandidaten für einen menschlichen Körper, der in dem Erkennungsergebnis enthalten ist, mit der Referenz zu vergleichen, die einer Position entspricht, an der der Kandidaten für einen menschlichen Körper erkannt wird, um zu bestimmen, ob der Kandidaten für einen menschlichen Körper aus einer Falscherkennung resultiert.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Erkennung einer Person unter Verwendung eines von einer Fischaugenkamera aufgenommenen Bildes.
  • STAND DER TECHNIK
  • In den Bereichen Gebäudeautomation (BA) und Fabrikautomation (FA) wird eine Anwendung benötigt, die automatisch die „Anzahl“, „Position“, „Fließlinie“ und dergleichen von Personen mittels eines Bildsensors misst und Geräte wie Beleuchtung oder Klimaanlage optimal steuert. Um in einer solchen Anwendung Bildinformationen über einen möglichst großen Bereich zu erfassen, wird häufig eine Ultraweitwinkelkamera mit einem Fischaugenobjektiv verwendet (auch als Fischaugenkamera, Rundumkamera oder 360-Grad-Kamera bezeichnet, wobei der Begriff „Fischaugenkamera“ (Fisheye-Kamera) hier jeweils gleichbedeutend ist).
  • Ein mit einer solchen Fischaugenkamera aufgenommenes Bild ist stark verzerrt. Um einen menschlichen Körper, ein Gesicht oder Ähnliches aus dem von der Fischaugenkamera aufgenommenen Bild (im Folgenden als „Fischaugenbild“ bezeichnet) zu erkennen, wird daher üblicherweise ein Verfahren verwendet, bei dem das Fischaugenbild vorab in einer Ebene entwickelt wird, um die Verzerrung so weit wie möglich zu beseitigen, und dann der Erkennungsverarbeitung unterzogen wird (siehe Patentdokument 1).
  • DOKUMENT ZUM STAND DER TECHNIK
  • PATENTSCHRIFT
  • Patentdokument 1: Japanische ungeprüfte Patentveröffentlichung Nr. 2016-39539
  • ÜBERBLICK ÜBER DIE ERFINDUNG
  • AUFGABEN, DIE DURCH DIE ERFINDUNG GELÖST WERDEN SOLLEN
  • Der einschlägige Stand der Technik hat jedoch die folgenden Probleme. Eines der Probleme ist ein Anstieg der Gesamtverarbeitungskosten aufgrund der Vorverarbeitung der Entwicklung des Fischaugenbildes in einer Ebene. Dies erschwert die Verarbeitung der Erkennung in Echtzeit und kann zu Verzögerungen bei der Gerätesteuerung führen, was nicht wünschenswert ist. Das andere Problem ist das Risiko einer Falscherkennung aufgrund einer signifikanten Verformung oder Teilung, die durch die Verarbeitung während der Entwicklung der Ebene verursacht wird, eines Bildes einer Person oder eines Objekts, das zum Zeitpunkt der Entwicklung der Ebene an einer Grenze (Bildbruch) vorhanden ist, wie z. B. direkt unterhalb der Fischaugenkamera.
  • Um diese Probleme zu vermeiden, haben die gegenwärtigen Erfinder einen Ansatz untersucht, bei dem das Fischaugenbild, so wie es ist (d. h. „ohne Ebenenentwicklung“), der Erkennungsverarbeitung unterzogen wird. Im Vergleich zu einem Bild, das mit einer normalen Kamera aufgenommen wurde, weist das Fischaugenbild jedoch große Variationen des Aussehens einer zu erkennenden Person auf (Neigung, Verzerrung, Größe des menschlichen Körpers), was die Erkennung erschwert. Insbesondere bei einer Anwendung wie BA oder FA gibt es viele Objekte wie z. B. einen Stuhl, einen Personal-Computer, einen Mülleimer, einen elektrischen Ventilator und einen Umwälzthermostaten, die dazu neigen, als menschlicher Körper oder Kopf im Bild fehlinterpretiert zu werden, was zu einer Verringerung der Erkennungsgenauigkeit führt.
  • Die vorliegende Erfindung wurde in Anbetracht der oben beschriebenen Umstände gemacht, und es ist daher ein Ziel der vorliegenden Erfindung, ein Verfahren zur Erkennung einer Person aus einem Fischaugenbild mit hoher Geschwindigkeit und mit hoher Genauigkeit bereitzustellen.
  • MITTEL ZUR LÖSUNG DER AUFGABE
  • Die vorliegende Erfindung verwendet die folgende Konfiguration, um das oben beschriebene Ziel zu erreichen.
  • Gemäß einem ersten erfindungsgemäßen Aspekt wird eine Personendetektionsvorrichtung bereitgestellt, die eingerichtet ist, ein Fischaugenbild zu analysieren, das von einer Fischaugenkamera erhalten wird, die über einem zu detektierenden Bereich installiert ist, um eine Person zu detektieren, die in dem zu detektierenden Bereich existiert, wobei die Personendetektionsvorrichtung einen Detektor für menschliche Körper enthält, der eingerichtet ist, einen Kandidaten für einen menschlichen Körper aus einem Fischaugenbild zu detektieren und als ein Detektionsergebnis einen Begrenzungsrahmen auszugeben, der einen Bereich auf dem Fischaugenbild jedes detektierten Kandidaten für einen menschlichen Körper anzeigt, einen Referenzspeicher, der eingerichtet ist, eine Referenz für eine Form und/oder Größe des Begrenzungsrahmens für jede Position oder jeden Bereich auf dem Fischaugenbild vorzuspeichern, und eine Falscherkennungs-Bestimmungseinheit, die eingerichtet ist, die Form und/oder Größe des Begrenzungsrahmens des Kandidaten für einen menschlichen Körper, der in dem Erkennungsergebnis enthalten ist, mit der Referenz zu vergleichen, die einer Position entspricht, an der der Kandidat für einen menschlichen Körper erkannt wird, um zu bestimmen, ob der Kandidat für einen menschlichen Körper aus einer Falscherkennung resultiert.
  • Die Fischaugenkamera („Fisheye-Kamera“) ist eine Kamera, die mit einem Fischaugen-Objektiv (Fisheye-Objektiv) ausgestattet ist und in der Lage ist, im Vergleich zu einer normalen Kamera ein Bild mit einem ultraweiten Winkel aufzunehmen. Beispiele für die Fischaugenkamera sind eine Rundumkamera und eine 360-Grad-Kamera. Die Fischaugenkamera kann so installiert werden, dass sie von oberhalb des zu erfassenden Bereichs nach unten gerichtet ist. Typischerweise wird die Fischaugenkamera so installiert, dass ihre optische Achse vertikal nach unten gerichtet ist, jedoch kann die optische Achse der Fischaugenkamera bezüglich der vertikalen Richtung auch geneigt sein. Der „menschliche Körper“ kann der ganze Körper einer Person oder ein Halbkörper (z. B. ein Oberkörper, ein Kopf oder ein Torso) sein. Der Begrenzungsrahmen („Bounding Box“) ist eine geschlossene Figur oder eine Rahmenlinie, die den Bereich des Kandidaten für einen menschlichen Körper anzeigt, und eine Figur wie ein Polygon oder eine Ellipse, die den Bereich des Kandidaten für einen menschlichen Körper umgibt, kann als Begrenzungsrahmen verwendet werden.
  • Erfindungsgemäß ermöglicht die Durchführung der Falscherkennungsbestimmung nach einem einfachen Verfahren zur Überprüfung der Gültigkeit der Form oder Größe des Begrenzungsrahmens des erkannten Kandidaten für einen menschlichen Körper eine hochgenaue Personenerkennung auf einfache Weise. Darüber hinaus ermöglicht der Wegfall der Notwendigkeit einer Vorverarbeitung, wie z. B. der Ebenenentwicklung des Fischaugenbildes, eine Hochgeschwindigkeitsverarbeitung .
  • Die Referenz für die Form des Begrenzungsrahmens kann eine Referenz für ein Seitenverhältnis des Begrenzungsrahmens enthalten. Dies liegt daran, dass sich das Seitenverhältnis des Begrenzungsrahmens in einer Weise ändert, die von einer Änderung des Einfalls- oder Azimutwinkels abhängt, wenn der menschliche Körper von der Fisheye-Kamera entsprechend einer Position auf dem Fisheye-Bild betrachtet wird. Beispielsweise kann die Referenz für das Seitenverhältnis so eingestellt werden, dass der Begrenzungsrahmen in einem mittleren Bereich des Fisheye-Bildes und in einem Bereich, der sich in einem Winkel von 45 Grad in Bezug auf den mittleren Bereich befindet, eine annähernd quadratische Form hat, dass der Begrenzungsrahmen in oberen und unteren Bereichen relativ zum mittleren Bereich vertikal eine lange rechteckige Form hat und dass der Begrenzungsrahmen in linken und rechten Bereichen relativ zum mittleren Bereich horizontal eine lange rechteckige Form hat.
  • Die Referenz für die Größe des Begrenzungsrahmens kann eine Referenz für eine Fläche des Begrenzungsrahmens umfassen. Dies liegt daran, dass sich die Fläche des Begrenzungsrahmens in einer Weise ändert, die von einer Änderung des Abstands von der Fisheye-Kamera zum menschlichen Körper gemäß einer Position auf dem Fisheye-Bild abhängt. Beispielsweise kann die Referenz für den Bereich so eingestellt werden, dass der Bereich größer wird, wenn sich der Bereich näher an der Mitte des Fisheye-Bildes befindet.
  • Die Falscherkennungs-Bestimmungseinheit kann aus dem Erkennungsergebnis einen Kandidaten für einen menschlichen Körper eliminieren, der als Ergebnis einer Falscherkennung bestimmt wurde. Wenn das Erkennungsergebnis Informationen über die Zuverlässigkeit jedes erkannten Kandidaten für einen menschlichen Körper enthält, kann die Falscherkennungs-Bestimmungseinheit alternativ die Zuverlässigkeit eines Kandidaten für einen menschlichen Körper, der als Ergebnis einer Falscherkennung bestimmt wurde, verringern.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Personendetektionsverfahren zum Analysieren eines Fischaugenbildes bereitgestellt, das von einer über einem zu detektierenden Bereich installierten Fischaugenkamera erhalten wird, um eine in dem zu detektierenden Bereich existierende Person zu detektieren, wobei das Personendetektionsverfahren die Schritte des Detektierens eines Kandidaten für einen menschlichen Körper aus einem Fischaugenbild und des Ausgebens eines Begrenzungsrahmens, der einen Bereich auf dem Fischaugenbild jedes detektierten Kandidaten für einen menschlichen Körper anzeigt, als ein Detektionsergebnis umfasst, und Vergleichen, durch Konsultieren eines Referenzspeichers, der eingerichtet ist, eine Referenz für eine Form und/oder Größe des Begrenzungsrahmens für jede Position oder Fläche auf dem Fischaugenbild vorzuspeichern, der Form und/oder Größe des Begrenzungsrahmens des Kandidaten für einen menschlichen Körper, der in dem Erfassungsergebnis enthalten ist, mit der Referenz, die einer Position entspricht, an der der Kandidat für einen menschlichen Körper erfasst wird, um zu bestimmen, ob der Kandidat für einen menschlichen Körper aus einer Falscherfassung resultiert.
  • Erfindungsgemäß kann als eine Personendetektionsvorrichtung, die zumindest einige der oben beschriebenen Komponenten enthält, eine Personenerkennungsvorrichtung, die eine erkannte Person erkennt (identifiziert), eine Personenverfolgungsvorrichtung, die eine erkannte Person verfolgt, eine Bildverarbeitungsvorrichtung oder ein Überwachungssystem angesehen werden. Ferner kann als erfindungsgemäß ein Personendetektionsverfahren, ein Personenerkennungsverfahren, ein Personenverfolgungsverfahren, ein Bildverarbeitungsverfahren oder ein Überwachungsverfahren angesehen werden, die jeweils zumindest einige der oben beschriebenen Verfahren umfassen. Weiterhin kann die vorliegende Erfindung als ein Programm zur Implementierung eines solchen Verfahrens oder ein nicht-flüchtiges Aufzeichnungsmedium, das das Programm aufzeichnet, betrachtet werden. Es ist zu beachten, dass die oben beschriebenen Einheiten und Verfahren in zulässigem Umfang miteinander kombiniert werden können, um die vorliegende Erfindung zu bilden.
  • WIRKUNG DER ERFINDUNG
  • Erfindungsgemäß kann eine Person aus einem Fisheye-Bild mit hoher Geschwindigkeit und hoher Genauigkeit erkannt werden.
  • Figurenliste
    • 1 ist eine Ansicht, die ein Anwendungsbeispiel einer erfindungsgemäßen Personendetektionsvorrichtung zeigt.
    • 2 ist eine Ansicht, die ein Beispiel für ein Fischaugenbild und einen Begrenzungsrahmen zeigt.
    • 3 ist eine Ansicht, die den Aufbau eines Überwachungssystems mit der Personendetektionsvorrichtung zeigt.
    • 4 ist ein Flussdiagramm zur Verarbeitung der Personenerkennung.
    • 5 ist ein Diagramm, das ein Beispiel für ein Erkennungsergebnis eines Detektors für menschliche Körper zeigt.
    • 6 ist ein Diagramm, das Beispiele für ein Referenz-Seitenverhältnis zeigt.
    • 7 ist ein Flussdiagramm einer Falscherkennungsbestimmung basierend auf einem Seitenverhältnis.
    • 8 ist eine Ansicht Diagramm, das Beispiele für einen Referenzbereich zeigt.
    • 9 ist ein Flussdiagramm einer Falscherkennungsbestimmung basierend auf einem Bereich.
  • MODUS ZUR AUSFÜHRUNG DER ERFINDUNG
  • <Anwendungsbeispiel>
  • Ein Anwendungsbeispiel einer erfindungsgemäßen Personendetektionsvorrichtung wird bezugnehmend auf 1 beschrieben. Eine Personendetektionsvorrichtung 1 analysiert ein Fischaugenbild, das von einer oberhalb eines zu erfassenden Bereichs 11 (z.B. an einer Decke 12) installierten Fischaugenkamera 10 aufgenommen wurde, um eine im zu erfassenden Bereich 11 befindliche Person 13 zu erkennen. Die Personendetektionseinrichtung 1 detektiert, erkennt und verfolgt die Person 13, die den zu detektierenden Bereich 11 durchläuft, z. B. in einem Büro oder einer Fabrik. In dem in 1 gezeigten Beispiel werden die jeweiligen Bereiche von vier menschlichen Körpern, die aus dem Fischaugenbild erkannt wurden, jeweils durch einen Begrenzungsrahmen 14 mit einer viereckigen Form dargestellt. Ein Erkennungsergebnis wird von der Personendetektionsvorrichtung 1 an ein externes Gerät ausgegeben, um beispielsweise die Anzahl der Personen zu zählen, verschiedene Geräte wie Beleuchtung und Klimaanlage zu steuern und eine verdächtige Person unter Beobachtung zu halten.
  • Nimmt die Fischaugenkamera 10 ein Bild des zu erfassenden Bereichs 11 aus der Vogelperspektive auf, so ändert sich das Erscheinungsbild (Bild) eines menschlichen Körpers erheblich in einer Weise, die von der Positionsbeziehung zur Fischaugenkamera 10 abhängt. Daher neigt das Fischaugenbild dazu, die Form oder Größe des Begrenzungsrahmens 14 in einer Weise zu ändern, die von einer Erfassungsposition auf dem Bild abhängt. Die Personenerkennungsvorrichtung 1 ist dadurch gekennzeichnet, dass sie in der Lage ist, unter Berücksichtigung solcher Eigenschaften des Fischaugenbildes eine Falscherkennungsbestimmung nach einem einfachen Verfahren zur Überprüfung der Gültigkeit der Form oder Größe des Begrenzungsrahmens 14 eines erkannten Kandidaten für einen menschlichen Körper vorzunehmen, um festzustellen, ob der Kandidat für einen menschlichen Körper aus einer Falscherkennung resultiert. Die Personendetektionsvorrichtung 1 ist weiterhin dadurch gekennzeichnet, dass sie in der Lage ist, das Fischaugenbild so wie es ist (d.h. ohne Vorverarbeitung wie z.B. Ebenenentwicklung oder Beseitigung von Verzerrungen) für die Personendetektionsverarbeitung zu verwenden.
  • <Charakteristik des Fischaugenbildes>
  • 2 zeigt ein Beispiel für ein Fischaugenbild, das von der Fischaugenkamera 10 aufgenommen wurde. Ein Bildkoordinatensystem hat einen Ursprung (0,0) an einer unteren linken Ecke des Fischaugenbildes, eine x-Achse, die sich nach rechts entlang einer horizontalen Richtung erstreckt, und eine y-Achse, die sich nach oben entlang einer vertikalen Richtung erstreckt.
  • Ist die Fischaugenkamera 10 mit einer vertikal nach unten gerichteten optischen Achse installiert, erscheint in der Draufsicht ein Bild einer Person, die sich direkt unterhalb der Fischaugenkamera 10 befindet, in der Mitte des Fischaugenbildes. Dann wird ein Einfallswinkel in Richtung eines Randes des Fischaugenbildes kleiner, und ein Bild der Person erscheint in der Schrägansicht von oben. Außerdem hat ein menschlicher Körper, der im Fischaugenbild erscheint, seine Füße in der Nähe der Bildmitte und seinen Kopf in der Nähe des Bildrandes und ist ungefähr parallel zu einer radialen Linie (eine gestrichelte Linie in 2), die durch die Bildmitte verläuft. Außerdem ist die Mitte des Fischaugenbildes weniger anfällig für Verzerrungen und die Bildverzerrung nimmt zum Rand des Fischaugenbildes hin zu.
  • Die Bezugsziffern 14a bis 14f bezeichnen jeweils einen Begrenzungsrahmen, der so angeordnet ist, dass er einen Bereich des menschlichen Körpers im Fischaugenbild umgibt. Gemäß der Ausführungsform wird zur Vereinfachung der Bildverarbeitung ein Begrenzungsrahmen verwendet, der die Form eines Vierecks mit vier zur x-Achse oder y-Achse parallelen Seiten hat.
  • Wie in 2 gezeigt, hat der Begrenzungsrahmen (z. B. 14a), der sich in einem zentralen Bereich des Fischaugenbildes befindet, eine annähernd quadratische Form. Ferner hat der Begrenzungsrahmen (z. B. 14b, 14c), der sich in einem Bereich mit einem Winkel von 45 Grad in Bezug auf den zentralen Bereich befindet, ebenfalls eine annähernd quadratische Form. Der Begrenzungsrahmen (z. B. 14d), der sich in oberen und unteren Bereichen relativ zum Mittelbereich befindet, hat vertikal eine langgestreckte rechteckige Form (rechteckige Form mit langen Seiten parallel zur y-Achse). Je näher an der Bildmitte, desto mehr nähert sich der Begrenzungsrahmen einer quadratischen Form an, und je weiter von der Bildmitte entfernt, desto mehr nähert sich der Begrenzungsrahmen einer vertikal langen Form an. Der Begrenzungsrahmen (z. B. 14e, 14f), der sich im linken und rechten Bereich relativ zum mittleren Bereich befindet, hat horizontal eine lange rechteckige Form (rechteckige Form mit langen Seiten parallel zur x-Achse). Je näher an der Bildmitte, desto mehr nähert sich der Begrenzungsrahmen einer quadratischen Form an, und je weiter von der Bildmitte entfernt, desto mehr nähert sich der Begrenzungsrahmen einer horizontal langen Form an.
  • Wie oben beschrieben, hat das Fischaugenbild eine Eigenschaft, durch die sich die Form (z. B. das Seitenverhältnis) des Begrenzungsrahmens in einer Weise ändert, die von der Ausrichtung relativ zu der und dem Abstand von der Mitte des Bildes abhängt. Das Seitenverhältnis des Begrenzungsrahmens für jede Position oder jeden Bereich auf dem Fischaugenbild kann geometrisch berechnet (vorhergesagt) werden, basierend auf optischen Eigenschaften der Fischaugenkamera 10, einer Positionsbeziehung zwischen der Fischaugenkamera 10 und dem zu erfassenden Bereich 11 und der durchschnittlichen menschlichen Körpergröße.
  • Wie in 2 gezeigt, ist die Größe des menschlichen Körpers, der im Fischaugenbild erscheint, in der Mitte des Fischaugenbildes am größten, und je näher am Rand des Fischaugenbildes, desto kleiner ist die Größe des menschlichen Körpers. Das heißt, das Fischaugenbild hat eine Eigenschaft, bei der sich die Größe (z. B. die Fläche) des Begrenzungsrahmens in Abhängigkeit vom Abstand zur Bildmitte ändert (je größer der Abstand, desto kleiner die Größe). Die Fläche des Begrenzungsrahmens für jede Position oder jeden Bereich auf dem Fischaugenbild kann auch, basierend auf den optischen Eigenschaften der Fischaugenkamera 10, der Positionsbeziehung zwischen der Fischaugenkamera 10 und dem zu erfassenden Bereich 11 und der durchschnittlichen menschlichen Körpergröße, geometrisch berechnet (vorhergesagt) werden.
  • <Monitoring-System>
  • Eine Beschreibung der erfindungsgemäßen Ausführungsform wird unter Bezugnahme auf 3 gegeben. 3 ist ein Blockdiagramm, das den Aufbau eines Überwachungssystems zeigt, in dem die Personendetektionsvorrichtung nach der erfindungsgemäßen Ausführungsform eingesetzt wird. Ein Überwachungssystem 2 umfasst im Wesentlichen die Fischaugenkamera 10 und die Personendetektionsvorrichtung 1.
  • Die Fischaugenkamera 10 ist eine Abbildungsvorrichtung, die ein optisches System mit einem Fischaugen-Objektiv und einem Abbildungselement (einem Bildsensor wie einem CCD oder CMOS) umfasst. Wie in 1 gezeigt, kann die Fischaugenkamera 10 z. B. an der Decke 12 des zu erfassenden Bereichs 11 installiert werden, wobei die optische Achse senkrecht nach unten gerichtet ist, um ein omnidirektionales (360-Grad-) Bild des zu erfassenden Bereichs 11 aufzunehmen. Die Fischaugenkamera 10 ist mit der Personendetektionsvorrichtung 1 drahtgebunden (z. B. über ein USB-Kabel oder ein LAN-Kabel) oder über Funk (z. B. WiFi) verbunden, und die Personendetektionsvorrichtung 1 erfasst die von der Fischaugenkamera 10 aufgenommenen Bilddaten. Die Bilddaten können entweder ein monochromes Bild oder ein Farbbild sein, und die Auflösung, die Bildrate und das Format der Bilddaten werden nach Wunsch bestimmt. Gemäß der Ausführungsform wird davon ausgegangen, dass ein monochromes Bild, das mit 10 fps (10 Bilder pro Sekunde) aufgenommen wurde, verwendet wird.
  • Die Personendetektionsvorrichtung 1 gemäß der Ausführungsform umfasst eine Bilderfassungseinheit 20, einen Detektor 21 für menschliche Körper, einen Speicher 23, einen Referenzspeicher 24, eine Falscherkennungs-Bestimmungseinheit 25 und eine Ausgabeeinheit 26. Die Bilderfassungseinheit 20 ist in der Lage, die Bilddaten von der Fischaugenkamera 10 zu erfassen. Die so erfassten Bilddaten werden an den Detektor 21 für menschliche Körper weitergeleitet. Diese Bilddaten können in dem Speicher 23 gespeichert werden. Der Detektor 21 für menschliche Körper ist in der Lage, einen Kandidaten für einen menschlichen Körper auf dem Fischaugenbild zu erkennen, indem er einen Algorithmus zur Erkennung eines menschlichen Körpers verwendet. Ein Verzeichnis 22 zur Erkennung menschlicher Körper ist ein Verzeichnis, in dem die Bildmerkmale menschlicher Körper, die im Fischaugenbild erscheinen, im Voraus aufgezeichnet werden. Der Speicher 23 ist in der Lage, das Fischaugenbild, das Erkennungsergebnis und dergleichen zu speichern. Der Referenzspeicher 24 kann eine Referenz (auch als vorhergesagter Wert oder Standardwert bezeichnet) für die Form und/oder Größe des Begrenzungsrahmens speichern. Diese Referenz wird voreingestellt, bevor das Überwachungssystem 2 in Betrieb genommen wird (z. B. zum Zeitpunkt der Auslieferung, Installation oder Wartung des Überwachungssystems 2). Die Falscherkennungs-Bestimmungseinheit 25 ist in der Lage, das Erkennungsergebnis des Detektor 21 für menschliche Körper zu überprüfen, um das Vorhandensein oder Fehlen einer Falscherkennung festzustellen. Die Ausgabeeinheit 26 ist in der Lage, Informationen wie das Fischaugenbild oder das Detektionsergebnis an ein externes Gerät auszugeben. Beispielsweise kann die Ausgabeeinheit 26 Informationen auf einem Display anzeigen, das als externe Vorrichtung dient, Informationen an einen Computer übertragen, der als externe Vorrichtung dient, oder Informationen oder ein Steuersignal an eine Beleuchtungsvorrichtung, eine Klimaanlage oder eine FA-Vorrichtung senden, die als externe Vorrichtung dient.
  • Die Personenerkennungsvorrichtung 1 kann z. B. ein Computer mit einer CPU (Prozessor), einem Hauptspeicher, einem Massenspeicher und dergleichen sein. Dadurch wird die in 3 gezeigte Struktur durch Laden eines im Massenspeicher abgelegten Programms in den Hauptspeicher und Ausführen des Programms durch die CPU realisiert. Ein solcher Computer kann ein Allzweckcomputer wie ein Personal-Computer, ein Servercomputer, ein Tablet-Terminal oder ein Smartphone sein, oder alternativ ein eingebetteter Computer wie ein Bordcomputer. Alternativ kann die gesamte oder ein Teil der in 3 gezeigten Struktur durch einen ASIC, ein FPGA oder dergleichen implementiert werden. Alternativ kann die gesamte oder ein Teil der in 3 dargestellten Struktur durch Cloud-Computing oder verteiltes Computing implementiert werden.
  • <Verarbeitung von Personendetektion >
  • 4 ist ein Flussdiagramm der Personendetektionsverarbeitung, die vom Überwachungssystem 2 ausgeführt wird. Anhand von 4 wird der Gesamtablauf der Personendetektionsverarbeitung beschrieben. Es ist zu beachten, dass das in 4 gezeigte Flussdiagramm die Verarbeitung des Fischaugenbildes für ein Einzelbild zeigt. Wird das Fischaugenbild mit 10 fps aufgenommen, so wird die in 4 gezeigte Verarbeitung 10 Mal pro Sekunde ausgeführt.
  • Zuerst nimmt die Bilderfassungseinheit 20 das Fischaugenbild für ein Bild von der Fischaugenkamera 10 auf (Schritt S40). Wie im Abschnitt STAND DER TECHNIK beschrieben, wird im einschlägigen Stand der Technik ein flächig entwickeltes Bild erstellt, das aus der Beseitigung der Verzerrung des Fischaugenbildes resultiert, und dann wird eine Bildverarbeitung, etwa eine Detektion oder Erkennung, ausgeführt, das Überwachungssystem 2 gemäß der Ausführungsform führt hingegen die Detektions- oder Erkennungsverarbeitung an dem Fischaugenbild aus, das so belassen wird, wie es ist (links verzerrt).
  • Als nächstes erkennt der Detektor 21 für menschliche Körper einen menschlichen Körper auf dem Fischaugenbild (Schritt S41). Sind im Fischaugenbild mehrere Personen vorhanden, so wird eine Anzahl menschlicher Körper erkannt. Außerdem kann in vielen Fällen ein Objekt, das kein menschlicher Körper ist (z. B. ein elektrischer Ventilator, ein Schreibtischstuhl oder ein Garderobenständer, der in Form oder Farbe einem menschlichen Körper ähnelt), falsch erkannt werden. Das Erkennungsergebnis des Detektors 21 für menschliche Körper kann ein solches nicht-menschliches Körperobjekt enthalten; daher wird das Erkennungsergebnis in diesem Stadium als „Kandidat für einen menschlichen Körper“ („Humankörperkandidat“) bezeichnet. Das Erkennungsergebnis kann z. B. Informationen zum Begrenzungsrahmen (Bounding Box) enthalten, der einen Bereich des so erkannten Kandidaten für einen menschlichen Körper anzeigt, sowie Informationen zur Zuverlässigkeit der Erkennung (Wahrscheinlichkeit, dass es sich um einen menschlichen Körper handelt). Die Informationen zum Begrenzungsrahmen können z.B. Zentralkoordinaten (x, y) (entsprechend einer Position, an der der Kandidat für einen menschlichen Körper erkannt wird), eine Höhe h und eine Breite w des Begrenzungsrahmens enthalten. Das Erkennungsergebnis wird in dem Speicher 23 gespeichert.
  • 5 ist ein Beispiel für das Erkennungsergebnis des Detektors 21 für menschliche Körper. In diesem Beispiel wurden zusätzlich zu den menschlichen Körpern 50, 51, 52, 53 auch nicht-menschliche Körperobjekte 54, 55 als Kandidat für einen menschlichen Körper erkannt. Die Bezugsziffern 50a bis 55a bezeichnen jeweils einen Begrenzungsrahmen eines entsprechenden Kandidaten für einen menschlichen Körper.
  • Es ist zu beachten, dass jeder beliebige Algorithmus bei der menschlichen Körpererkennung eingesetzt werden kann. Beispielsweise kann ein Klassifikator, der eine Kombination aus Bildmerkmalen wie HoG oder Haarähnlich und Boosting ist, eingesetzt werden, oder die Erkennung des menschlichen Körpers basierend auf Deep Learning (z. B. R-CNN, Fast R-CNN, YOLO, SSD o. Ä.) kann eingesetzt werden. Gemäß der Ausführungsform wird der gesamte Körper einer Person als menschlicher Körper erkannt, die vorliegende Erfindung ist aber nicht auf eine solche Erkennung beschränkt, und auch ein Teil des Körpers, wie z. B. der Oberkörper, kann erkannt werden.
  • Als nächstes vergleicht die Falscherkennungs-Bestimmungseinheit 25 jeden der Begrenzungsrahmen 50a bis 55a, die im Erkennungsergebnis des Detektors 21 für den menschlichen Körper enthalten sind, mit dem Referenzsatz im Referenzspeicher 24, um die Falscherkennung zu bestimmen (Schritt S42). In dem in 5 gezeigten Beispiel erfüllen die Begrenzungsrahmen 54a, 55a die Bedingung nicht, und die Kandidaten für einen menschlichen Körper 54, 55 werden dementsprechend als Ergebnisse einer Falscherkennung bestimmt. Details der Falscherkennungsbestimmung werden später beschrieben.
  • Wird ein Kandidat für einen menschlichen Körperkandidat gefunden, der als Ergebnis einer Falscherkennung bestimmt wurde (d. h. als kein menschlicher Körper bestimmt wurde) (JA in Schritt S43), korrigiert die Falscherkennungs-Bestimmungseinheit 25 das im Speicher 23 gespeicherte Erkennungsergebnis (Schritt S44). Insbesondere kann die Falscherkennungs-Bestimmungseinheit 25 Informationen über den Kandidaten für einen menschlichen Körper, der als Ergebnis einer Falscherkennung bestimmt wurde, aus dem Erkennungsergebnis eliminieren, oder die Zuverlässigkeit des Kandidaten für einen menschlichen Körper, der als Ergebnis einer Falscherkennung bestimmt wurde, verringern. Schließlich gibt die Ausgabeeinheit 26 das Detektionsergebnis an das externe Gerät aus (Schritt S45). Damit ist die Verarbeitung des Fisheye-Bildes für ein Bild beendet.
  • Bei der Personendetektionsverarbeitung gemäß der Ausführungsform wird das Fischaugenbild analysiert, wie es ist, und eine Person wird direkt auf dem Fischaugenbild erkannt. Dadurch entfällt die Notwendigkeit einer Vorverarbeitung, wie z. B. der Ebenenentwicklung des Fischaugenbildes oder der Beseitigung von Verzerrungen aus dem Fischaugenbild, was eine sehr schnelle Verarbeitung der Personendetektion ermöglicht. Das Verfahren, bei dem das Fischaugenbild unverändert für die Detektionsverarbeitung verwendet wird, hat den Nachteil, dass die Erkennungsgenauigkeit geringer ist als bei dem Verfahren, bei dem die Erkennungsverarbeitung nach der Ebenenentwicklung (der Beseitigung der Verzerrung) durchgeführt wird; gemäß der Ausführungsform wird jedoch durch die Überprüfung der Gültigkeit der Form oder Größe des Begrenzungsrahmens eine falsche Erkennung vermieden, was eine sehr genaue Erkennung ermöglicht.
  • <Falscherkennungsbestimmung>
  • Es wird ein konkretes Beispiel für die Falscherkennungsbestimmung durch die Falscherkennungs-Bestimmungseinheit 25 beschrieben.
  • Bestimmung anhand des Seitenverhältnisses
  • Wie oben beschrieben, hat das Fischaugenbild eine Charakteristik, durch die sich das Seitenverhältnis des Begrenzungsrahmens in einer Weise ändert, die von der Orientierung relativ zu dem und dem Abstand von dem Zentrum des Bildes abhängt. Diese Charakteristik kann durch eine Berechnung im Voraus in eine numerische Form umgewandelt werden. 6 zeigt ein Beispiel, bei dem das Fischaugenbild in 64 (8 mal 8) kleine Bereiche unterteilt wird und ein Seitenverhältnis h/w jedes kleinen Bereichs berechnet wird (h bezeichnet die Höhe des Begrenzungsrahmens in y-Richtung und w die Breite des Begrenzungsrahmens in x-Richtung). Im Referenzspeicher 24 kann eine Tabelle gespeichert werden, in der ein Referenzwert für das so ermittelte Seitenverhältnis jedes kleinen Bereichs (im Folgenden als „Referenz-Seitenverhältnis“ bezeichnet) definiert ist. Wie in 6 gezeigt, sind eine A-Achse und eine B-Achse definiert, wobei die A-Achse und die B-Achse durch die Mitte des Bildes und parallel zur x-Achse bzw. y-Achse verlaufen, so dass sich das Referenz-Seitenverhältnis symmetrisch um die A-Achse und die B-Achse unterscheidet. Die Verwendung dieser Symmetrie ermöglicht es dem Referenzspeicher 24, nur eine Tabelle zu speichern, die einem Quadranten, einem Viertel, des Fischaugenbildes entspricht (z. B. dem schraffierten Teil in 6). Dies wiederum ermöglicht eine Reduzierung der Speicherkapazität.
  • 7 ist ein Flussdiagramm der Falscherkennungsbestimmung basierend auf dem Seitenverhältnis. In Schritt S70 liest die Falscherkennungs-Bestimmungseinheit 25 aus dem Speicher 23 die in 4 gezeigten Informationen über den in Schritt S41 erkannten Kandidaten für einen menschlichen Körper aus. In Schritt S71 berechnet die Falscherkennungs-Bestimmungseinheit 25 das Seitenverhältnis h/w des Begrenzungsrahmens des Kandidaten für einen menschlichen Körper. In Schritt S72 liest die Falscherkennungs-Bestimmungseinheit 25 aus dem Referenzspeicher 24 das Referenz-Seitenverhältnis des kleinen Bereichs aus, der der Position entspricht, an der der Kandidat für einen menschlichen Körper erkannt wird (Mittelkoordinaten des Begrenzungsrahmens). In Schritt S73 vergleicht die Falscherkennungs-Bestimmungseinheit 25 das Seitenverhältnis des Kandidaten für einen menschlichen Körper mit dem Referenz-Seitenverhältnis, um zu bestimmen, ob der Kandidat für einen menschlichen Körper ein menschlicher Körper oder ein Ergebnis einer Falscherkennung ist. Dabei wird beispielsweise, wenn ein relativer Fehler REa im Seitenverhältnis des Kandidaten für einen menschlichen Körper zum Referenzseitenverhältnis gleich oder kleiner als ein Schwellenwert Trea ist, der Kandidat für einen menschlichen Körper als „menschlicher Körper“ bestimmt, und wenn der relative Fehler REa größer als der Schwellenwert Trea ist, wird der Kandidat für einen menschlichen Körper als Ergebnis einer „Falscherkennung“ bestimmt.
  • Beträgt beispielsweise das Seitenverhältnis des Begrenzungsrahmens 51a des in 5 gezeigten Kandidaten für einen menschlichen Körper 51 1,02 und ist ein entsprechendes Referenz-Seitenverhältnis 1,00, so ergibt sich der relative Fehler REa wie folgt: Relativer Fehler REa= | 1,02 1,00 | / 1,00 × 100 = 2,0 [ % ] .
    Figure DE112019006463T5_0001
  • Beträgt der Schwellenwert Trea z.B. 3%, so wird der Kandidat 51 für einen menschlichen Körper als „menschlicher Körper“ bestimmt. Ist andererseits das Seitenverhältnis des Begrenzungsrahmens 55a des Kandidaten für einen menschlichen Körper 55 0,48 und ist ein entsprechendes Referenz-Seitenverhältnis 0,71, so wird der relative Fehler REa wie folgt erhalten: Relativer Fehler REa = | 0,48 0,71 | / 0,71 × 100 = 32,4 [ % ] .
    Figure DE112019006463T5_0002
  • Da REa größer als Trea ist, wird der Kandidat für einen menschlichen Körper 55 als Ergebnis einer „Falscherkennung“ bestimmt.
  • Bestimmung anhand der Fläche
  • Wie oben beschrieben, hat das Fischaugenbild eine Charakteristik, bei der sich der Bereich des Begrenzungsrahmens in Abhängigkeit vom Abstand zum Bildmittelpunkt ändert. Diese Eigenschaft kann durch eine Berechnung vorab in eine numerische Form umgewandelt werden. 8 zeigt ein Beispiel, bei dem das Fischaugenbild in 64 (8 mal 8) kleine Bereiche unterteilt wird und für jeden kleinen Bereich eine Fläche (Anzahl der Pixel) berechnet wird. Eine Tabelle, in der ein Referenzwert für die Fläche jedes so erhaltenen kleinen Bereichs (im Folgenden als „Referenzbereich“ bezeichnet) definiert ist, kann im Referenzspeicher 24 gespeichert werden. Wie in 8 gezeigt, ist der Referenzbereich symmetrisch um die Bildmitte herum angeordnet. Die Verwendung dieser Symmetrie erlaubt es dem Referenzspeicher 24, nur eine Tabelle zu speichern, die einem Quadranten, also einem Viertel, des Fischaugenbildes entspricht (z.B. dem schraffierten Bereich in 8). Dies wiederum ermöglicht eine Reduzierung der Speicherkapazität.
  • 9 ist ein Flussdiagramm der Falscherkennungsbestimmung basierend auf der Fläche. In Schritt S90 liest die Falscherkennungs-Bestimmungseinheit 25 aus dem Speicher 23 die Informationen über den Kandidaten für einen menschlichen Körper aus, der in dem in 4 gezeigten Schritt S41 erkannt wurde. In Schritt S91 berechnet die Falscherkennungs-Bestimmungseinheit 25 die Fläche des Begrenzungsrahmes des Kandidaten für einen menschlichen Körper. In Schritt S92 liest die Falscherkennungs-Bestimmungseinheit 25 aus dem Referenzspeicher 24 die Referenzfläche der kleinen Fläche aus, die der Position entspricht, an der der Kandidat für einen menschlichen Körper erkannt wird (Mittelpunktskoordinaten des Begrenzungsrahmens). In Schritt S93 vergleicht die Falscherkennungs-Bestimmungseinheit 25 die Fläche des Kandidaten für einen menschlichen Körper mit der Referenzfläche, um zu bestimmen, ob der Kandidat für einen menschlichen Körper ein menschlicher Körper oder ein Ergebnis einer Falscherkennung ist. Dabei wird beispielsweise, wenn ein relativer Fehler REs in der Fläche des Kandidaten für einen menschlichen Körper zur Referenzfläche gleich oder kleiner als ein Schwellenwert Tres ist, der Kandidat für einen menschlichen Körper als „menschlicher Körper“ bestimmt, und wenn der relative Fehler REs größer als der Schwellenwert Tres ist, wird der Kandidat für einen menschlichen Körper als ein Ergebnis einer „Falscherkennung“ bestimmt.
  • Wenn z.B. die Fläche des Begrenzungsrahmens 51a des in 5 gezeigten Kandidaten für einen menschlichen Körper 51 130 ist und eine entsprechende Referenzfläche 144 ist, erhält man den relativen Fehler REs wie folgt: Relativer Fehler REs = | 130 144 | / 144 × 100 = 9,7 [ % ] .
    Figure DE112019006463T5_0003
  • Wenn der Schwellenwert Tres z.B. 10% beträgt, wird der Körperkandidat 51 als „menschlicher Körper“ bestimmt. Wenn andererseits die Fläche des Begrenzungsrahmens 54a des Kandidaten für einen menschlichen Körper 54 130 und eine entsprechende Referenzfläche 72 ist, ergibt sich der relative Fehler REs wie folgt: Relativer Fehler REs = | 130 72 | / 72 × 100 = 80,6 [ % ] .
    Figure DE112019006463T5_0004
  • Da REs größer als Tres ist, wird der Kandidat für einen menschlichen Körper 54 als Ergebnis einer „Falscherkennung“ bestimmt.
  • Bestimmung basierend auf dem Seitenverhältnis und der Fläche
  • Um die Genauigkeit der Falscherkennungsbestimmung zu erhöhen, kann eine Kombination aus der oben beschriebenen „(1) Bestimmung anhand des Seitenverhältnisses“ und „(2) Bestimmung anhand der Fläche“ verwendet werden.
  • Als eines der konkreten Verfahren werden ein Fehler im Seitenverhältnis und ein Fehler in der Fläche individuell ausgewertet, wenn beide Auswertungen zu einer positiven Bestimmung führen, kann „menschlicher Körper“ als Bestimmungsergebnis ausgegeben werden, und wenn eine der Auswertungen zu einer negativen Bestimmung führt, kann „Falscherkennung“ als Bestimmungsergebnis ausgegeben werden. Zum Beispiel kann eine Bestimmung auf der Grundlage des oben beschriebenen relativen Fehlers und Schwellenwerts wie folgt vorgenommen werden:
    • wenn REa ≤ Trea und REs ≤ Tres erfüllt sind, wird „menschlicher Körper“ bestimmt, und
    • wenn REa > Trea oder REs > Tres erfüllt ist, wird als Ergebnis eine „Falscherkennung“ bestimmt.
  • Alternativ kann ein Gesamtfehler, der sich aus der Summe des Fehlers im Seitenverhältnis und des Fehlers in der Fläche ergibt, ausgewertet werden, um zu bestimmen, ob es sich um einen „menschlichen Körper“ oder um das Ergebnis einer „Falscherkennung“ handelt. Im folgenden Beispiel wird eine Bestimmung vorgenommen, indem ein Gesamtfehler RE, der sich aus der Gewichtung und Aufsummierung der beiden relativen Fehler REa und REs ergibt, mit einem Schwellenwert Tre verglichen wird, wa und wb bezeichnen Gewichte, Gesamtfehler RE = wa × REa + wb × REs ,
    Figure DE112019006463T5_0005

    wenn RE ≤ Tre erfüllt ist, wird „menschlicher Körper“ bestimmt, und
    wenn RE > Tre erfüllt ist, wird im Ergebnis eine „Falscherkennung“ bestimmt.
  • <Andere>
  • Die oben beschriebene Ausführungsform stellt lediglich ein erfindungsgemäßes Ausführungsbeispiel dar. Die vorliegende Erfindung ist nicht auf die oben beschriebenen spezifischen Ausführungsformen beschränkt, und es können verschiedene Modifikationen im Rahmen der technischen Erfindungsidee vorgenommen werden. Beispielsweise sind die Werte in den Tabellen in 6 und 8, und die Schwellenwerte, die in der oben beschriebenen Ausführungsform gezeigt sind, lediglich zum Zwecke der Beschreibung angegebene Beispiele. Weiter wurde in der oben beschriebenen Ausführungsform der Begrenzungsrahmen mit einer viereckigen Form als Beispiel angegeben, es kann jedoch auch ein Begrenzungsrahmen mit einer anderen Form als der viereckigen Form (ein Polygon, eine Ellipse, eine Freiform oder dergleichen) verwendet werden. Weiter wird in der oben beschriebenen Ausführungsform der relative Fehler im Seitenverhältnis oder in der Fläche ausgewertet, stattdessen kann jedoch auch ein absoluter Fehler ausgewertet werden. In diesem Fall wäre bevorzugt der Wert des Seitenverhältnisses auf den Maximalwert oder der Flächenwert auf die Fläche des Fischaugenbildes zu normieren.
  • <Anhang 1 >
    • (1) Eine Personendetektionsvorrichtung (1), die eingerichtet ist, ein Fischaugenbild zu analysieren, das von einer Fischaugenkamera (10) erhalten wird, die über einem zu detektierenden Bereich (11) installiert ist, um eine Person (13) zu detektieren, die in dem zu detektierenden Bereich (11) vorhanden ist, wobei die Personendetektionsvorrichtung (1) umfasst:
      • einen Detektor (21) für menschliche Körper, der eingerichtet ist, einen Kandidaten für einen menschlichen Körper in einem Fischaugenbild zu erkennen und als ein Erkennungsergebnis einen Begrenzungsrahmen (14) auszugeben, der einen Bereich auf dem Fischaugenbild jedes erkannten Kandidaten für einen menschlichen Körper anzeigt;
      • einen Referenzspeicher (24), der eingerichtet ist, eine Referenz für eine Form und/oder Größe des Begrenzungsrahmens für jede Position oder jeden Bereich auf dem Fischaugenbild vorzuspeichern; und
      • eine Falscherkennungs-Bestimmungseinheit (25), die eingerichtet ist, die Form und/oder Größe des Begrenzungsrahmens des Kandidaten für einen menschlichen Körper, der in dem Erkennungsergebnis enthalten ist, mit der Referenz zu vergleichen, die einer Position entspricht, an der der Kandidat für einen menschlichen Körper erkannt wird, um zu bestimmen, ob der Kandidat für einen menschlichen Körper aus einer Falscherkennung resultiert.
    • (2) Personendetektionsverfahren zum Analysieren eines Fischaugenbildes, das von einer Fischaugenkamera (10) erhalten wird, die über einem zu detektierenden Bereich (11) installiert ist, um eine Person zu detektieren, die in dem zu detektierenden Bereich (11) vorhanden ist, wobei das Personendetektionsverfahren die folgenden Schritte umfasst:
      • Erkennen eines Kandidaten für einen menschlichen Körper aus einem Fischaugenbild und Ausgeben eines Begrenzungsrahmens, der einen Bereich jedes erkannten Kandidaten für einen menschlichen Körper auf dem Fischaugenbild als ein Erkennungsergebnis anzeigt (S41); und
      • Vergleichen, durch Konsultieren eines Referenzspeichers (24), der eingerichtet ist, eine Referenz für eine Form und/oder Größe des Begrenzungsrahmens für jede Position oder jeden Bereich auf dem Fischaugenbild vorzuspeichern, der Form und/oder Größe des Begrenzungsrahmens des Kandidaten für einen menschlichen Körper, der in dem Erkennungsergebnis enthalten ist, mit der Referenz, die einer Position entspricht, an der der Kandidat für einen menschlichen Körper erkannt wird, um zu bestimmen, ob der Kandidat für einen menschlichen Körper aus einer Falscherkennung resultiert (S42).
  • Bezugszeichenliste
  • 1
    Personendetektionsvorrichtung
    2
    Überwachungssystem
    10
    Fischaugenkamera (Fisheye-Kamera)
    11
    zu detektierender Bereich
    12
    Decke
    13
    Person
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 201639539 [0004]

Claims (9)

  1. Personendetektionsvorrichtung, die eingerichtet ist, ein Fischaugenbild zu analysieren, das von einer über einem zu detektierenden Bereich installierten Fischaugenkamera erhalten wird, um eine in dem zu detektierenden Bereich vorhandene Person zu detektieren, wobei die Personendetektionsvorrichtung umfasst: einen Detektor für menschliche Körper, der eingerichtet ist, bei einem Fischaugenbild einen Kandidaten für einen menschlichen Körper zu erkennen und als Erkennungsergebnis eine Begrenzungsbox auszugeben, die auf dem Fischaugenbild einen Bereich für jeden erkannten Kandidaten für einen menschlichen Körper anzeigt; einen Referenzspeicher, der eingerichtet ist, eine Referenz für Form und/oder Größe des Begrenzungsrahmens für jede Position oder jeden Bereich auf dem Fischaugenbild vorzuspeichern; und eine Falscherkennungs-Bestimmungseinheit, die eingerichtet ist, die Form und/oder Größe des Begrenzungsrahmens des im Erkennungsergebnis enthaltenen Kandidaten für einen menschlichen Körper mit der Referenz zu vergleichen, die einer Position entspricht, an der der Kandidat für einen menschlichen Körper erkannt wird, um zu bestimmen, ob der Kandidat für einen menschlichen Körper aus einer Falscherkennung resultiert.
  2. Personendetektionsvorrichtung nach Anspruch 1, wobei die Referenz für die Form des Begrenzungsrahmens eine Referenz für ein Seitenverhältnis des Begrenzungsrahmens umfasst.
  3. Personendetektionsvorrichtung nach Anspruch 2, wobei die Referenz für das Seitenverhältnis eingestellt wird, um zu bewirken, dass der Begrenzungsrahmen eine annähernd quadratische Form in einem zentralen Bereich des Fischaugenbildes und in einem Bereich, der sich in einem Winkel von 45 Grad in Bezug auf den zentralen Bereich befindet, hat, um zu bewirken, dass der Begrenzungsrahmen vertikal in oberen und unteren Bereichen relativ zu dem zentralen Bereich eine lange rechteckige Form hat, und um zu bewirken, dass der Begrenzungsrahmen horizontal in linken und rechten Bereichen relativ zu dem zentralen Bereich eine lange rechteckige Form hat.
  4. Personendetektionsvorrichtung nach einem der Ansprüche 1 bis 3, wobei die Referenz für die Größe des Begrenzungsrahmens eine Referenz für eine Fläche des Begrenzungsrahmens umfasst.
  5. Personendetektionsvorrichtung nach Anspruch 4, wobei die Referenz für den Bereich derart eingestellt wird, dass der Bereich größer wird, wenn er sich näher an der Mitte des Fischaugenbildes befindet.
  6. Personendetektionsvorrichtung nach einem der Ansprüche 1 bis 5, wobei die Falscherkennungs-Bestimmungseinheit aus dem Erkennungsergebnis einen Kandidaten für einen menschlichen Körper eliminiert, der als Ergebnis einer Falscherkennung bestimmt wurde.
  7. Personendetektionsvorrichtung nach einem der Ansprüche 1 bis 5, wobei das Erkennungsergebnis Informationen über die Zuverlässigkeit jedes erkannten Kandidaten für einen menschlichen Körper enthält, und die Falscherkennungs-Bestimmungseinheit die Zuverlässigkeit eines Kandidaten für einen menschlichen Körper verringert, der als Ergebnis einer Falscherkennung bestimmt wurde.
  8. Personendetektionsverfahren zum Analysieren eines Fischaugenbildes, das von einer über einem zu detektierenden Bereich installierten Fischaugenkamera erhalten wird, um eine in dem zu detektierenden Bereich vorhandene Person zu detektieren, wobei das Personendetektionsverfahren die folgenden Schritte umfasst: Erkennen eines Kandidaten für einen menschlichen Körper aus einem Fischaugenbild und Ausgeben, als ein Erkennungsergebnis, eines Begrenzungsrahmens, der einen Bereich jedes erkannten Kandidaten für einen menschlichen Körper auf dem Fischaugenbild anzeigt; und Vergleichen, durch Konsultieren eines Referenzspeichers, der eingerichtet ist, eine Referenz für eine Form und/oder Größe des Begrenzungsrahmens für jede Position oder jeden Bereich auf dem Fischaugenbild vorzuspeichern, der Form und/oder Größe des Begrenzungsrahmens des Kandidaten für einen menschlichen Körper, der in dem Erkennungsergebnis enthalten ist, mit der Referenz, die einer Position entspricht, an der der Kandidat für einen menschlichen Körper erkannt wird, um zu bestimmen, ob der Kandidat für einen menschlichen Körper aus einer Falscherkennung resultiert.
  9. Programm, um einen Computer zu veranlassen, jeden der Schritte des Personendetektionsverfahrens nach Anspruch 8 auszuführen.
DE112019006463.0T 2018-12-27 2019-11-01 Personendetektionsvorrichtung und personendetektionsverfahren Pending DE112019006463T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018245230A JP7188067B2 (ja) 2018-12-27 2018-12-27 人検出装置および人検出方法
JP2018-245230 2018-12-27
PCT/JP2019/043051 WO2020137160A1 (ja) 2018-12-27 2019-11-01 人検出装置および人検出方法

Publications (1)

Publication Number Publication Date
DE112019006463T5 true DE112019006463T5 (de) 2021-09-16

Family

ID=71126503

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019006463.0T Pending DE112019006463T5 (de) 2018-12-27 2019-11-01 Personendetektionsvorrichtung und personendetektionsverfahren

Country Status (5)

Country Link
US (1) US11770504B2 (de)
JP (1) JP7188067B2 (de)
CN (1) CN113168693B (de)
DE (1) DE112019006463T5 (de)
WO (1) WO2020137160A1 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7610378B2 (ja) 2020-09-18 2025-01-08 極東開発工業株式会社 作業車両
JP2022168621A (ja) * 2021-04-26 2022-11-08 オムロン株式会社 検出装置、検出装置の制御方法、学習済モデルを生成するモデル生成装置によるモデル生成方法、情報処理プログラム、および記録媒体
US11869250B2 (en) * 2021-08-24 2024-01-09 GM Global Technology Operations LLC Systems and methods for detecting traffic objects
JP2024008196A (ja) * 2022-07-07 2024-01-19 オムロン株式会社 情報処理装置および情報処理方法
WO2025017208A1 (en) * 2023-07-20 2025-01-23 Summa Ip B.V. System for tracking walkways

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039539A (ja) 2014-08-08 2016-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8855360B2 (en) * 2008-07-23 2014-10-07 Qualcomm Technologies, Inc. System and method for face tracking
US9215358B2 (en) * 2009-06-29 2015-12-15 Robert Bosch Gmbh Omni-directional intelligent autotour and situational aware dome surveillance camera system and method
JP5810296B2 (ja) * 2011-06-07 2015-11-11 パナソニックIpマネジメント株式会社 画像表示装置及び画像表示方法
CN103854272B (zh) * 2012-11-28 2018-10-16 比亚迪股份有限公司 全景泊车系统自动找点匹配方法
JP2015104016A (ja) * 2013-11-26 2015-06-04 キヤノン株式会社 被写体検出装置、撮像装置、被写体検出装置の制御方法、被写体検出装置の制御プログラムおよび記憶媒体
KR101566784B1 (ko) * 2014-04-25 2015-11-13 주식회사 영신 산업용 및 건설용 중장비 접근감시 및 작동제어 시스템
JP2015210702A (ja) * 2014-04-28 2015-11-24 キヤノン株式会社 画像処理装置及び画像処理方法
EP2988248B1 (de) * 2014-07-22 2019-09-18 Canon Kabushiki Kaisha Bildverarbeitungsvorrichtung, bildverarbeitungsverfahren, informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und programm
CN104881866A (zh) * 2015-04-30 2015-09-02 长安通信科技有限责任公司 一种扩展小孔成像模型的鱼眼相机矫正与标定方法
US9594984B2 (en) * 2015-08-07 2017-03-14 Google Inc. Business discovery from imagery
WO2017182225A1 (en) * 2016-04-21 2017-10-26 Osram Gmbh Training method and detection method for object recognition
US11431893B2 (en) * 2018-10-18 2022-08-30 Panasonic Intellectual Property Management Co., Ltd. Imaging apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016039539A (ja) 2014-08-08 2016-03-22 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Also Published As

Publication number Publication date
CN113168693B (zh) 2024-04-30
JP7188067B2 (ja) 2022-12-13
US20220019768A1 (en) 2022-01-20
WO2020137160A1 (ja) 2020-07-02
US11770504B2 (en) 2023-09-26
JP2020107070A (ja) 2020-07-09
CN113168693A (zh) 2021-07-23

Similar Documents

Publication Publication Date Title
DE112019006463T5 (de) Personendetektionsvorrichtung und personendetektionsverfahren
DE112020001202T5 (de) Objektverfolgungsvorrichtung und Objektverfolgungsverfahren
DE102020100684B4 (de) Kennzeichnung von graphischen bezugsmarkierern
DE112019006414T5 (de) Vorrichtung und Verfahren zur Detektion von Menschen
DE602004005984T2 (de) Gesichtsidentifikationsverifikation unter verwendung von vorder- und seitenansichten
US10430951B2 (en) Method and device for straight line detection and image processing
DE102016120775A1 (de) System und Verfahren zum Erkennen von Linien in einem Bild mit einem Sichtsystem
CN112633144A (zh) 人脸遮挡检测方法、系统、设备及存储介质
CN111191532A (zh) 基于施工区域的人脸识别方法、装置、计算机设备
DE112020001706T5 (de) Personenerkennungsvorrichtung und personenerkennungsverfahren
KR100752640B1 (ko) 방향성 기울기 필터를 이용한 지문 영역 분할 장치 및 방법
DE102007055912A1 (de) Augenliderfassungsvorrichtung, Augenliderfassungsverfahren und zugehöriges Programm
DE112021003775T5 (de) Informationsverarbeitungsvorrichtung und informationsverarbeitungsverfahren
DE102017220752B4 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE602004002837T2 (de) Objekterkennung
DE102007050568A1 (de) Verfahren und Einrichtung zur Objekterkennung in einem Bild
DE112020005223T5 (de) Objektverfolgungseinrichtung und Objektverfolgungsverfahren
DE112014006439T5 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
CN112085753A (zh) 基于图像处理的水位监测方法、设备、介质及监测系统
DE112011105435B4 (de) Augenliderfassungsvorrichtung
DE102015207903A1 (de) Vorrichtung und Verfahren zum Erfassen eines Verkehrszeichens vom Balkentyp in einem Verkehrszeichen-Erkennungssystem
CN106940791A (zh) 一种基于低维方向梯度直方图的行人检测方法
DE102023125422A1 (de) Hybrides Objekterkennungsverfahren auf der Basis von Wärmebildern in Kombination mit YOLO-Modellen und Objektverfolgungstechniken
DE112022005609T5 (de) Verfahren und Vorrichtung zum Verknüpfen von Sicherheitsinspektions-informationen, elektronische Vorrichtung und lesbares Speichermedium
WO2021196925A1 (zh) 移动物体检测和跟踪方法以及装置

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: OMRON CORPORATION, JP

Free format text: FORMER OWNER: OMRON CORPORATION, KYOTO-SHI, KYOTO, JP

R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000