DE112018005610T5 - Identifikationseinrichtung und elektronische einrichtung - Google Patents

Identifikationseinrichtung und elektronische einrichtung Download PDF

Info

Publication number
DE112018005610T5
DE112018005610T5 DE112018005610.4T DE112018005610T DE112018005610T5 DE 112018005610 T5 DE112018005610 T5 DE 112018005610T5 DE 112018005610 T DE112018005610 T DE 112018005610T DE 112018005610 T5 DE112018005610 T5 DE 112018005610T5
Authority
DE
Germany
Prior art keywords
light
information
direct reflection
identification
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112018005610.4T
Other languages
English (en)
Inventor
Hiroaki Ono
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of DE112018005610T5 publication Critical patent/DE112018005610T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/242Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Remote Sensing (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

[Ziel] Die Identifikationseinrichtung, die eine Identifikation genau durchführt, ohne durch Variationen im Umgebungslicht beeinträchtigt zu werden, und eine elektronische Einrichtung bereitzustellen.
[Lösung] Eine Identifikationseinrichtung ist bereitgestellt, die Folgendes beinhaltet: eine Direktreflexionslichtinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Direktreflexionslichtinformationen über direkt reflektiertes Licht vom Objekt zu berechnen, eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen zu detektieren, und eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen über das detektierte Objekt zu identifizieren.

Description

  • Technisches Gebiet
  • Die vorliegende Offenbarung betrifft eine Identifikationseinrichtung und eine elektronische Einrichtung.
  • Stand der Technik
  • In den vergangenen Jahren wird an mehr und mehr elektronischen Einrichtungen, wie etwa Smartphones, eine Identifikationseinrichtung befestigt, um die Sicherheit der elektronischen Einrichtungen zu verbessern. Insbesondere nimmt eine Identifikationseinrichtung ein Gesichtsbild einer Person auf, die beabsichtigt, eine derartige elektronische Einrichtung zu verwenden, um eine Verifizierung durchzuführen, und gestattet nur einer Person, die als ein Benutzer der elektronischen Einrichtung identifiziert worden ist, die elektronische Einrichtung zu verwenden.
  • Die untenstehende Patentliteratur 1 offenbart zum Beispiel eine Identifikationseinrichtung, die ein Gesichtsbild eines Benutzers im Voraus registriert und ein neu aufgenommenes Gesichtsbild mit dem registrierten Gesichtsbild vergleicht. In der Patentliteratur 1 wird die Genauigkeit der Identifikation verbessert, indem die Beleuchtung gesteuert wird, sodass das neue Gesichtsbild unter denselben Beleuchtungsbedingungen aufgenommen wird wie die Beleuchtungsbedingungen in dem Fall, bei dem das registrierte Gesichtsbild aufgenommen worden ist.
  • Entgegenhal tungsli ste
  • Patentliteratur
  • Patentliteratur 1: JP 2017-027492A
  • Offenbarung der Erfindung
  • Technisches Problem
  • Wie oben beschrieben, ist es für die Verbesserung der Genauigkeit der Identifikation wünschenswert, ein neues Gesichtsbild unter Umgebungslicht desselben Zustands wie Umgebungslicht, unter dem das registrierte Gesichtsbild aufgenommen worden ist, aufzunehmen. Das Umgebungslicht tendiert jedoch dazu, zu variieren, und in gewissen Situationen ist eine Bildaufnahme durch Reproduzieren von Umgebungslicht desselben Zustands wie Umgebungslicht, unter dem das registrierte Gesichtsbild aufgenommen worden ist, schwierig.
  • Angesichts dessen schlägt die vorliegende Offenbarung eine neue und verbesserte Identifikationseinrichtung, die eine Identifikation genau durchführt, ohne durch Variationen im Umgebungslicht beeinträchtigt zu werden, und eine elektronische Einrichtung vor.
  • Lösung des Problems
  • Gemäß der vorliegenden Offenbarung ist eine Identifikationseinrichtung bereitgestellt, die Folgendes beinhaltet: eine Direktreflexionslichtinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Direktreflexionslichtinformationen über direkt reflektiertes Licht vom Objekt zu berechnen; eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen zu detektieren; und eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen über das detektierte Objekt zu identifizieren.
  • Zusätzlich dazu ist gemäß der vorliegenden Offenbarung eine Identifikationseinrichtung bereitgestellt, die Folgendes beinhaltet: eine Abstandsinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Abstandsinformationen über das Objekt zu berechnen; eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Abstandsinformationen zu detektieren; und eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Abstandsinformationen über das detektierte Objekt zu identifizieren.
  • Des Weiteren ist gemäß der vorliegenden Offenbarung eine elektronische Einrichtung mit einer an der elektronischen Einrichtung befestigten Identifikationseinrichtung bereitgestellt. Die Identifikationseinrichtung beinhaltet eine Direktreflexionslichtinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Direktreflexionslichtinformationen über direkt reflektiertes Licht vom Objekt zu berechnen, eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen zu detektieren, und eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen über das detektierte Objekt zu identifizieren.
  • Vorteilhafte Auswirkungen der Erfindung
  • Wie oben beschrieben, können gemäß der vorliegenden Offenbarung die Identifikationseinrichtung, die eine Identifikation genau durchführt, ohne durch Variationen im Umgebungslicht beeinträchtigt zu werden, und eine elektronische Einrichtung bereitgestellt werden.
  • Es wird angemerkt, dass die oben beschriebenen Effekte nicht notwendigerweise beschränkend sind. Mit den oder an Stelle der obigen Effekte(n) kann ein beliebiger der Effekte, die in dieser Beschreibung beschrieben sind, oder können andere Effekte, die aus dieser Beschreibung erhalten werden können, erzielt werden.
  • Figurenliste
    • [1] 1 ist ein erläuterndes Diagramm zum Veranschaulichen eines Identifikationsverfahrens durch eine Identifikationseinrichtung eines Vergleichsbeispiels.
    • [2] 2 ist ein erläuterndes Diagramm zum Veranschaulichen eines Bildes, das in einer Identifikationseinrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung verwendet wird.
    • [3] 3 ist ein erläuterndes Diagramm zum Veranschaulichen einer Differenz zwischen einem Identifikationsverfahren gemäß einer Ausführungsform der vorliegenden Offenbarung und einem Identifikationsverfahren eines Vergleichsbeispiels.
    • [4] 4 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines Identifikationssystems 10 gemäß einer ersten Ausführungsform der vorliegenden Offenbarung darstellt.
    • [5] 5 ist ein Blockdiagramm, das ein Konfigurationsbeispiel eines TOF-Sensors 100 gemäß der ersten Ausführungsform darstellt.
    • [6] 6 ist ein erläuterndes Diagramm zum Veranschaulichen des Prinzips eines Berechnungsverfahrens von Abstandsinformationen.
    • [7] 7 ist ein erläuterndes Diagramm zum Veranschaulichen eines Berechnungsverfahrens von Abstandsinformationen mit dem TOF-Sensor 100 gemäß der ersten Ausführungsform.
    • [8] 8 ist ein erläuterndes Diagramm zum schematischen Darstellen einer Aufhebung von Umgebungslicht (indirekt reflektiertem Licht) in der ersten Ausführungsform.
    • [9] 9 ist ein erläuterndes Diagramm zum Veranschaulichen eines Beispiels für eine Normierung bei der ersten Ausführungsform.
    • [10] 10 ist ein Flussdiagramm zum Veranschaulichen einer Registrierungsstufe eines Identifikationsverfahrens gemäß der ersten Ausführungsform.
    • [11] 11 ist ein Flussdiagramm zum Veranschaulichen einer Identifikationsstufe eines Identifikationsverfahrens gemäß der ersten Ausführungsform.
    • [12] 12 ist ein Flussdiagramm zum Veranschaulichen einer Registrierungsstufe eines Identifikationsverfahrens gemäß der zweiten Ausführungsform der vorliegenden Offenbarung.
    • [13] 13 ist ein Flussdiagramm zum Veranschaulichen einer Identifikationsstufe eines Identifikationsverfahrens gemäß der zweiten Ausführungsform.
    • [14] 14 ist ein Diagramm, das ein Konfigurationsbeispiel eines gestapelten Bildsensors 20 gemäß einer dritten Ausführungsform der vorliegenden Offenbarung darstellt.
    • [15] 15 ist ein Blockdiagramm, das ein ausführliches Konfigurationsbeispiel des gestapelten Bildsensors 20 gemäß der dritten Ausführungsform darstellt.
    • [16] 16 ist ein Diagramm, das ein Konfigurationsbeispiel eines gestapelten Bildsensors 20a gemäß einem modifizierten Beispiel der dritten Ausführungsform darstellt.
    • [17] 17 ist ein Blockdiagramm, das ein ausführliches Konfigurationsbeispiel des gestapelten Bildsensors 20a gemäß einem modifizierten Beispiel der dritten Ausführungsform darstellt.
    • [18] 18 ist ein Blockdiagramm, das ein Beispiel für die Hardwarekonfiguration einer elektronischen Einrichtung 900 gemäß einer vierten Ausführungsform der vorliegenden Offenbarung darstellt.
  • Ausführungsweise(n) der Erfindung
  • Nachfolgend wird/werden (eine) bevorzugte Ausführungsform(en) der vorliegenden Offenbarung unter Bezugnahme auf die angehängten Zeichnungen ausführlich beschrieben. Es ist zu beachten, dass in dieser Beschreibung und den angehängten Zeichnungen strukturelle Elemente, die im Wesentlichen die gleiche Funktion und Struktur aufweisen, mit den gleichen Bezugsziffern bezeichnet werden und eine wiederholte Erläuterung dieser strukturellen Elemente ausgelassen wird.
  • Es ist anzumerken, dass in der vorliegenden Spezifikation und in den Zeichnungen strukturelle Elemente, die im Wesentlichen dieselbe oder eine ähnliche Funktion und Struktur aufweisen, manchmal unter Verwendung unterschiedlicher Nummern nach demselben Bezugszeichen unterschieden werden. Wenn es jedoch eine Notwendigkeit insbesondere zum Unterscheiden von strukturellen Elementen gibt, die im Wesentlichen dieselbe oder eine ähnliche Funktion und Struktur aufweisen, ist nur dasselbe Bezugszeichen beigefügt. Des Weiteren gibt es Fälle, bei denen ähnliche strukturelle Elemente unterschiedlicher Ausführungsformen unterschieden werden, indem dieselbe Bezugsziffer gefolgt von unterschiedlichen Buchstaben hinzugefügt werden. In einem Fall, bei dem es jedoch nicht notwendig ist, jedes von ähnlichen strukturellen Elementen besonders zu unterscheiden, sind nur dieselben Bezugszeichen beigefügt.
  • Die Beschreibung wird in der folgenden Reihenfolge gegeben.
    1. 1. Hintergrund, in dem der vorliegende Erfinder Ausführungsformen gemäß der vorliegenden Offenbarung erzeugt
    2. 2. Überblick über Ausführungsformen der vorliegenden Offenbarung
    3. 3. Erste Ausführungsform
      • 3.1 Überblick des Identifikationssystems 10 gemäß der ersten Ausführungsform
      • 3.2 Ausführliche Konfiguration des TOF-Sensors 100
      • 3.3 Ausführliche Konfiguration der Verarbeitungseinheit 200
      • 3.4 Identifikationsverfahren
        • 3.4.1 Registrierungsstufe
        • 3.4.2 Identifikationsstufe
    4. 4. Zweite Ausführungsform
      • 4.1 Identifikationsverfahren
        • 4.1.1 Registrierungsstufe
        • 4.2.2 Identifikationsstufe
    5. 5. Dritte Ausführungsform
    6. 6. Vierte Ausführungsform
    7. 7. Zusammenfassung
    8. 8. Ergänzung
  • «1. Hintergrund, in dem der vorliegende Erfinder Ausführungsformen gemäß der vorliegenden Offenbarung erzeugt»
  • Als Nächstes wird der Hintergrund, in dem der vorliegenden Erfinder die Ausführungsformen gemäß der vorliegenden Offenbarung erzeugt, unter Bezugnahme auf 1 beschrieben, bevor die Ausführungsformen gemäß der vorliegenden Offenbarung ausführlich beschrieben werden. 1 ist ein erläuterndes Diagramm zum Veranschaulichen eines Identifikationsverfahrens durch eine Identifikationseinrichtung eines Vergleichsbeispiels. Das Vergleichsbeispiel hierin bedeutet eine Identifikationseinrichtung oder ein Identifikationsverfahren, die bzw. das der vorliegende Erfinder weiterhin untersucht hatte, bis der vorliegende Erfinder die Ausführungsformen gemäß der vorliegenden Offenbarung erzeugte.
  • In der Identifikationseinrichtung gemäß dem Vergleichsbeispiel wird ein Gesichtsbild einer spezifischen Person im Voraus registriert und ein neu aufgenommenes Gesichtsbild wird mit dem Gesichtsbild, das im Voraus registriert worden ist, verglichen; dadurch wird eine Identifikation einer Person, deren Gesichtsbild neu aufgenommen wird, durchgeführt. In der Identifikationseinrichtung gemäß dem Vergleichsbeispiel zeigt das Ergebnis des Vergleichs manchmal jedoch, dass die Person, deren Gesichtsbild neu aufgenommen wird, eine andere Person ist, obwohl die Person, deren Gesichtsbild neu aufgenommen wird, tatsächlich dieselbe Person wie die spezifische Person ist, was eine Verbesserung in der Genauigkeit der Identifikation einschränkt.
  • Das Folgende beschreibt spezifisch unter Bezugnahme auf 1 die fehlerhafte Identifikation, wie oben beschrieben, durch die Identifikationseinrichtung gemäß dem Vergleichsbeispiel. Hier wird ein Fall in Betracht gezogen, bei dem die Identifikationseinrichtung gemäß dem Vergleichsbeispiel ein Registrierungsgesichtsbild 502, wie links in 1 dargestellt, für einen Vergleich verwendet. In diesem Fall nimmt die Identifikationseinrichtung gemäß dem Vergleichsbeispiel ein Gesichtsbild einer Person neu auf, um ein Vergleichsgesichtsbild 504 zu erhalten, und vergleicht das neu erhaltene Vergleichsgesichtsbild 504 mit dem Registrierungsgesichtsbild 502.
  • In einem Fall, bei dem die Identifikationseinrichtung gemäß dem Vergleichsbeispiel zum Beispiel ein Bild derselben Person wie die Person, die dem Registrierungsgesichtsbild 502 entspricht, unter Beleuchtungsbedingungen aufnimmt, die sich von Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502 unterscheiden, wird in manchen Fällen ein Vergleichsgesichtsbild 504b oder 504c, wie rechts in 1 dargestellt, erhalten. Genauer gesagt, fällt zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502 Licht auf die Vorderseite des Gesichts der Person (Vorwärtslicht), sodass das Registrierungsgesichtsbild 502 über das gesamte Gesicht ein klares Bild ist, wie links in 1 dargestellt. Andererseits fällt zu der Zeit der Bildaufnahme des Vergleichsgesichtsbildes 504b Licht nur auf die linke Hälfte des Gesichts der Person, sodass das Vergleichsgesichtsbild 504b eine große Schattendifferenz im Bild aufweist, wie oben rechts in 1 dargestellt, und insbesondere ist das Vergleichsgesichtsbild 504b ein Bild, bei dem eine Hälfte des Gesichts klar und die andere Hälfte unklar ist. Des Weiteren fällt zu der Zeit der Bildaufnahme des Vergleichsgesichtsbildes 504c nicht genug Licht auf das gesamte Gesicht der Person, sodass das Vergleichsgesichtsbild 504c über das gesamte Gesicht ein unklares Bild ist, wie unten rechts in 1 dargestellt.
  • Mit anderen Worten ist im Gegensatz zum Registrierungsgesichtsbild 502 die gesamten oder ein Teil der Vergleichsgesichtsbilder 504b und 504c ein unklares Bild. In einem Fall, bei dem das Registrierungsgesichtsbild 502 und die Vergleichsgesichtsbilder 504b und 504c somit für einen Vergleich verwendet werden, bestimmt die Identifikationseinrichtung gemäß dem Vergleichsbeispiel manchmal, dass die Bilder 502, 504b und 504c Gesichtsbilder unterschiedlicher Personen sind, obwohl die Bilder 502, 504b und 504c Gesichtsbilder derselben Person sind. Infolgedessen scheitert die Identifikationseinrichtung gemäß dem Vergleichsbeispiel daran, die Person als dieselbe Person zu identifizieren.
  • Der Grund dafür, dass die Identifikationseinrichtung gemäß dem Vergleichsbeispiel die fehlerhafte Identifikation durchführt, liegt daran, dass sich die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502 von den Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Vergleichsgesichtsbildes 504 unterscheiden, sodass die Gesichtsbilder unterschiedlicher Zustände aufgenommen werden, obwohl die Gesichtsbilder Gesichtsbilder derselben Person sind. Somit kann gesagt werden, dass die Genauigkeit der Indikation in der Identifikationseinrichtung gemäß dem Vergleichsbeispiel leicht durch Variationen in den Beleuchtungsbedingungen (Umgebungslicht) zu der Zeit der Bildaufnahme beeinflusst (beeinträchtigt) wird.
  • Angesichts dessen wird in der Identifikationseinrichtung, die in der obigen Patentliteratur 1 offenbart ist, die Beleuchtung gesteuert, sodass die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Vergleichsgesichtsbildes 504 dieselben wie die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502 gemacht werden. Dies ermöglicht zu der Zeit der Bildaufnahme des Vergleichsgesichtsbildes 504 eine Einstellung derselben Beleuchtungsbedingungen wie die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502, sodass Gesichtsbilder, die im Wesentlichen dieselben sind (im Wesentlichen gleich zueinander sind), für dieselbe Person aufgenommen werden. Somit wird in der Identifikationseinrichtung, die in der obigen Patentliteratur 1 offenbart ist, die Wahrscheinlichkeit für das Erhalten eines Ergebnisses, die Person als dieselbe Person zu identifizieren, erhöht, was zu einer Verbesserung in der Genauigkeit der Identifikation führt.
  • Insbesondere werden gemäß der obigen Patentliteratur 1 die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502 geschätzt, und die Beleuchtung wird gesteuert, sodass die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Vergleichsgesichtsbildes 504 so gesetzt werden, dass sie dieselben sind wie die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502. Es ist jedoch aufgrund des Einflusses von Variationen, zum Beispiel im Sonnenlicht im Außenbereich oder dergleichen, schwierig, die Beleuchtungsbedingungen so zu steuern, dass sie stabile gewünschte Beleuchtungsbedingungen werden. Des Weiteren, da die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502 geschätzt werden und die Beleuchtung gesteuert wird, ist es in der obigen Patentliteratur 1 schwierig, eine längere Verarbeitungszeit und eine Zunahme im Leistungsverbrauch zu vermeiden, und es ist außerdem schwierig, die zunehmenden Komplexitäten der Konfiguration der Identifikationseinrichtung und eine Zunahme in den Herstellungskosten zu vermeiden.
  • Angesichts der vorstehenden Situation hat der vorliegende Erfinder eine Identifikation unter Verwendung von Abstandsinformationen (2,5-dimensionalen Informationen oder dreidimensionalen Informationen), die die Tiefeninformationen eines Motivs (Objekts) angeben, anstatt eines zweidimensionalen Bildes (zum Beispiel Farbbilder, wie etwa des Registrierungsgesichtsbildes 502 und des Vergleichsgesichtsbildes 504, oder eines Infrarotlichtbildes), das leicht durch Variationen im Umgebungslicht beeinflusst wird, konzipiert. Es ist anzumerken, dass die 2,5-dimensionalen Informationen hierin Informationen sind, die durch Verknüpfen von Abstandsinformationen (Tiefeninformationen), die für jedes Pixel eines später beschriebenen TOF-Sensors erhalten werden, mit Positionsinformationen des entsprechenden Pixels erzeugt werden. Zusätzlich dazu sind die dreidimensionalen Informationen hierin dreidimensionale Koordinateninformationen im realen Raum (insbesondere eine Aggregation mehrerer Teile von dreidimensionalen Koordinateninformationen), die durch Umwandeln der Positionsinformationen des Pixels der 2,5-dimensionalen Informationen in Koordinaten im realen Raum erzeugt werden, um die entsprechenden Abstandsinformationen mit den durch die Umwandlung erhaltenen Koordinaten zu verknüpfen.
  • Eines der Verfahren zum Erhalten der Abstandsinformationen ist ein Verfahren mit einer Stereokamera. Die Stereokamera nimmt Bilder mit zwei Kameras auf und erhält Abstandsinformationen über den Abstand zu einem Motiv unter Verwendung von Parallaxe der Kameras. Es ist jedoch aufgrund der Verwendung von zwei Kameras schwierig, zu verhindern, dass die Stereokamera eine große Struktur aufweist. Zusätzlich dazu weist die Stereokamera gemäß der Untersuchung durch den vorliegenden Erfinder eine Schwierigkeit beim Erhalten von Abstandsinformationen über eine einheitliche Oberfläche ohne Muster auf, zum Beispiel eine Schwierigkeit beim Erhalten von Abstandsinformationen über einen Hautbereich mit wenig Mustern, wie etwa ein Gesicht. Zusätzlich dazu wird die Genauigkeit der Abstandsinformationen mit der Stereokamera leicht durch Variationen im Umgebungslicht beeinflusst.
  • Ein anderes Verfahren zum Erhalten der Abstandsinformationen ist ein strukturiertes Lichtverfahren. Das strukturierte Lichtverfahren ist ein Verfahren zum Schätzen eines Abstands zu einem Motiv durch Projizieren von Licht mit einem vorbestimmten Muster auf eine Oberfläche des Motivs, um Verformungen des Musters des Lichts, das auf das Motiv projiziert wird, zu analysieren. Es kann gesagt werden, dass das strukturierte Lichtverfahren im Vergleich zum Vergleichsbeispiel weniger wahrscheinlich durch Variationen im Umgebungslicht beeinflusst wird; das vollständige Aufheben des Einflusses von Variationen im Umgebungslicht ist jedoch im strukturierten Lichtverfahren schwierig. Des Weiteren wird im strukturierten Lichtverfahren ein Bild des Motivs, auf das das vorbestimmte Muster projiziert wird, aufgenommen. In einem Fall, bei dem ein derartiges Bild für eine Identifikation einer Person oder dergleichen verwendet wird, ist eine Verbesserung der Genauigkeit der Identifikation aufgrund des Einflusses des projizierten Musters schwierig.
  • Ein anderes Verfahren zum Erhalten der Abstandsinformationen ist ein Verfahren zum kontinuierlichen Aufnehmen von Bildern eines Motivs mit einer Kamera, die sich um das Motiv herum bewegt, um mehrere aufgenommene Einzelbilder des Motivs zu erhalten und Abstandsinformationen des Motivs auf Basis der somit erhaltenen mehreren aufgenommenen Einzelbilder zu berechnen. Mit diesem Verfahren ist jedoch eine Aufhebung des Einflusses von Variationen im Umgebungslicht schwierig. Des Weiteren ist das Verfahren zeitaufwendig, damit mehrere aufgenommene Einzelbilder erhalten werden. Des Weiteren gestattet bei diesem Verfahren eine Bewegung des Motivs oder eine Änderung im Umriss des Motivs nicht die Berechnung von Abstandsinformationen. Es ist daher schwierig, das Verfahren in einer Identifikationseinrichtung zum Identifizieren einer Person oder dergleichen zu verwenden.
  • Es ist voraussichtlich auch möglich, sowohl eine Kamera zum Aufnehmen eines zweidimensionalen Bildes, wie im Vergleichsbeispiel beschrieben, als auch eine Kamera zum Erhalten von Abstandsinformationen, wie oben beschrieben, gleichzeitig zur Identifikation zu verwenden. In diesem Fall ist es jedoch aufgrund der Verwendung der mehreren Kameras schwierig, zu verhindern, dass die Identifikationseinrichtung eine große Struktur aufweist.
  • Um dies anzusprechen, hat der vorliegende Erfinder auf Basis der oben beschriebenen Untersuchung eine Identifikationseinrichtung gemäß Ausführungsformen der vorliegenden Offenbarung erfunden, die eine Identifikation genau durchführen kann, ohne durch Variationen im Umgebungslicht beeinträchtigt zu werden. Das Folgende beschreibt nacheinander die Einzelheiten der Ausführungsformen der vorliegenden Offenbarung, die durch den vorliegenden Erfinder erfunden wurden.
  • «2. Überblick über Ausführungsformen der vorliegenden Offenbarung»
  • Zuerst wird der Überblick der Ausführungsformen der vorliegenden Offenbarung unter Bezugnahme auf 2 und 3 beschrieben. 2 ist ein erläuterndes Diagramm zum Veranschaulichen eines Bildes, das in einer Identifikationseinrichtung gemäß einer Ausführungsform der vorliegenden Offenbarung verwendet wird. 3 ist ein erläuterndes Diagramm zum Veranschaulichen einer Differenz zwischen einem Identifikationsverfahren gemäß einer Ausführungsform der vorliegenden Offenbarung und einem Identifikationsverfahren des Vergleichsbeispiels.
  • Der vorliegende Erfinder verstand auf Basis der obigen Untersuchung, dass Abstandsinformationen und dergleichen unter Verwendung eines Laufzeit(TOF: Time of Flight)-Sensors erhalten werden und eine Identifikation auf Basis der erhaltenen Abstandsinformationen und dergleichen durchgeführt wird. Der TOF-Sensor scheint zum Beispiel Bestrahlungslicht mit einer vorbestimmten Periode auf ein Motiv, detektiert das Licht (reflektierte Licht), das vom Motiv reflektiert wird, und detektiert eine Zeitdifferenz oder eine Phasendifferenz zwischen dem Bestrahlungslicht und dem reflektierten Licht, sodass die Tiefe (Abstandsinformationen) des Motivs erhalten werden kann. Es ist anzumerken, dass in den Ausführungsformen der vorliegenden Offenbarung, die durch den vorliegenden Erfinder erzeugt werden, angenommen wird, dass der TOF-Sensor ein Sensor ist, der in der Lage ist, die Tiefe des Motivs durch Detektieren der Phasendifferenz zwischen dem Bestrahlungslicht und dem reflektierten Licht zu erhalten.
  • Der TOF-Sensor kann die Abstandsinformationen wie oben beschrieben erhalten. Der TOF-Sensor gemäß den unten beschriebenen Ausführungsformen kann zum Beispiel ein Bild 600 (nachfolgend als ein Entfernungsbild 600 bezeichnet) basierend auf Abstandsinformationen des Motivs (des Gesichts einer Person hierin) erhalten, wie rechts in 2 dargestellt. Das Entfernungsbild 600 ist ein Bild, das durch Projizieren (durch Verleihen von Farbe oder Helligkeit gemäß den Abstandsinformationen) von 2,5-dimensionalen Informationen auf eine Ebene erhalten wird, indem die Abstandsinformationen, die auf Basis von reflektiertem Licht, das vom Gesicht der Person reflektiert wird, erhalten werden, mit Positionsinformationen eines Pixels des TOF-Sensors verknüpft werden. Da die Abstandsinformationen als ein konstanter Wert erhalten werden, obwohl das Umgebungslicht variiert, kann gesagt werden, dass die Abstandsinformationen Informationen sind, die nicht durch Variationen im Umgebungslicht beeinträchtigt werden. Es ist anzumerken, dass das Entfernungsbild 600 ein Bild sein kann, das durch Projizieren der dreidimensionalen Informationen auf eine Ebene erhalten wird.
  • Des Weiteren, da der TOF-Sensor Licht (zum Beispiel Infrarotlicht) auf ein Motiv scheinen und das vom Motiv reflektierte Licht detektieren kann, kann ein Bild (zum Beispiel ein Infrarotbild) basierend auf dem detektierten reflektierten Licht auch zur selben Zeit mit dem Entfernungsbild 600 erhalten werden. Genauer gesagt, kann der TOF-Sensor gemäß den Ausführungsformen auch ein Bild 700 (nachfolgend als ein Direktreflexionslichtbild 700 bezeichnet) basierend auf Direktreflexionslichtinformationen eines Motivs (des Gesichts einer Person hierin) erhalten, wie links in 2 dargestellt. Das Direktreflexionslichtbild 700 ist ein Bild basierend auf den Direktreflexionslichtinformationen, die durch Scheinen von Bestrahlungslicht auf das Motiv mit dem TOF-Sensor erhalten werden, um reflektiertes Licht zu detektieren, das vom Motiv direkt reflektiert wird. Genauer gesagt, ist das Direktreflexionslichtbild 700 ein Bild, das die durch den TOF-Sensor detektierte Lichtintensität in Abstufungen repräsentiert, wie links in 2 dargestellt. Bei den Ausführungsformen der vorliegenden Offenbarung, die durch den vorliegenden Erfinder erzeugt werden, ähnelt das Direktreflexionslichtbild 700 jedoch dem Registrierungsgesichtsbild 502 oder dem Vergleichsgesichtsbild 504 (siehe 1) des Vergleichsbeispiels, wie oben beschrieben. Das Direktreflexionslichtbild 700 unterscheidet sich jedoch im Wesentlichen darin vom Vergleichsbeispiel, dass das Direktreflexionslichtbild 700 ein Bild ist, das einer Verarbeitung zum Aufheben des Einflusses von Umgebungslicht an Informationen über das durch den TOF-Sensor detektierte Licht (Erfassungsdaten) unterzogen wurde. Wie aus der Tatsache gesehen werden kann, dass der Einfluss von Umgebungslicht aufgehoben wird, kann gesagt werden, dass das Direktreflexionslichtbild 700 ein Bild ist, das nicht durch Variationen im Umgebungslicht beeinträchtigt wird. Mit anderen Worten konzipierte der vorliegende Erfinder ursprünglich eine Identifikation unter Verwendung des Direktreflexionslichtbildes 700 basierend auf den Informationen (Direktreflexionslichtinformationen), die nach einer Verarbeitung zum Aufheben des Einflusses von Umgebungslicht erhalten werden, die an den Erfassungsdaten des TOF-Sensors durchgeführt wird. Es ist anzumerken, dass die Aufhebung des Einflusses von Umgebungslicht in den Ausführungsformen der vorliegenden Offenbarung, die durch den vorliegenden Erfinder erzeugt werden, später ausführlich dargelegt wird.
  • Des Weiteren können das Entfernungsbild 600 und das Direktreflexionslichtbild 700 gleichzeitig mit einer Aufnahme durch den TOF-Sensor gemäß den Ausführungsformen erhalten werden. Daher gibt es in den Ausführungsformen keine Notwendigkeit, mehrere Einzelbilder des Bildes aufzunehmen, um zum Beispiel zwei Bilder zu erhalten, was eine Zunahme in der Zeit für die Identifikation verhindert. Zusätzlich dazu, da der TOF-Sensor gemäß den Ausführungsformen Licht auf das Motiv scheint, ist es möglich, das Motiv bei den Ausführungsformen selbst im Dunklen oder dergleichen zu identifizieren. Es ist anzumerken, dass das Entfernungsbild 600 und das Direktreflexionslichtbild 700, die in 2 dargestellt sind, lediglich Beispiele sind, und dass das Entfernungsbild 600 und das Direktreflexionslichtbild 700 gemäß den Ausführungsformen nicht auf die Beispiele in 2 beschränkt sind.
  • Wie oben beschrieben, wird bei den Ausführungsformen der vorliegenden Offenbarung, die durch den vorliegenden Erfinder erzeugt werden, mindestens ein Teil der Abstandsinformationen (Entfernungsbild 600) oder der Direktreflexionslichtinformationen (Direktreflexionslichtbild 700), der weniger wahrscheinlich durch Variationen im Umgebungslicht beeinflusst wird, zum Durchführen einer Identifikation verwendet, sodass eine Identifikation genau durchgeführt werden kann, ohne durch Variationen im Umgebungslicht beeinträchtigt zu werden.
  • Genauer gesagt, unter Bezugnahme auf 3, wird das Identifikationsverfahren gemäß einer Ausführungsform der vorliegenden Offenbarung im Vergleich mit dem Identifikationsverfahren des Vergleichsbeispiels beschrieben. Insbesondere ist ein Registrierungsgesichtsbild 502a in dem Identifikationsverfahren gemäß dem Vergleichsbeispiel im oberen linken Teil von 3 dargestellt, und die Vergleichsgesichtsbilder 504b, 504c und 504d in dem Identifikationsverfahren gemäß dem Vergleichsbeispiel sind in dem unteren linken Teil von 3 dargestellt. Des Weiteren sind ein Registrierungsentfernungsbild 602a und ein Registrierungsdirektreflexionslichtbild 702a in dem Identifikationsverfahren gemäß dieser Ausführungsform in dem oberen rechten Teil von 3 dargestellt. Zusätzlich dazu sind Vergleichsentfernungsbilder 604b, 604c und 604d und Vergleichsdirektreflexionslichtbilder 704b, 704c und 704d in dem Identifikationsverfahren gemäß dieser Ausführungsform in dem unteren rechten Teil von 3 dargestellt. Es ist anzumerken, dass angenommen wird, dass alle der in 3 dargestellten Bilder Gesichtsbilder derselben Person sind. Des Weiteren, wie in der Mitte von 3 dargestellt, wird angenommen, dass das Registrierungsgesichtsbild 502a, das Registrierungsentfernungsbild 602a und das Registrierungsdirektreflexionslichtbild 702a Bilder sind, die unter Beleuchtungsbedingungen A aufgenommen werden. Zusätzlich dazu wird angenommen, dass das Vergleichsgesichtsbild 504, das Vergleichsentfernungsbild 604 und das Vergleichsdirektreflexionslichtbild 704 Bilder sind, die unter Beleuchtungsbedingungen B, C und D aufgenommen werden, die sich voneinander und auch von den Beleuchtungsbedingungen A unterscheiden.
  • Wie links in 3 dargestellt, kann im Vergleichsbeispiel gesehen werden, dass eine Änderung in den Beleuchtungsbedingungen die Vergleichsgesichtsbilder 504b, 504c und 504d von dem Registrierungsgesichtsbild 502a unterschiedlich macht. Genauer gesagt, ist in dem Vergleichsgesichtsbild 504b eine Hälfte des Gesichts klar und die andere Hälfte unklar. Das Vergleichsgesichtsbild 504c ist über das gesamte Gesicht hinweg ein unklares Bild, mit anderen Worten ist es ein Bild, das schwer als ein Gesichtsbild zu erkennen ist. Dementsprechend bewirkt in dem Vergleichsbeispiel eine Änderung in den Beleuchtungsbedingungen, d. h. eine Änderung im Umgebungslicht, eine Änderung im Zustand des Bildes. Dies veranlasst, dass das Vergleichsgesichtsbild 504 im Wesentlichen vom Registrierungsgesichtsbild 502a unterschiedlich ist, obwohl beide Bilder Gesichtsbilder derselben Person sind, was es schwierig gestaltet, die Person als dieselbe Person zu identifizieren. Dies liegt daran, dass in dem Vergleichsbeispiel nicht nur Licht, das direkt vom Motiv reflektiert wird, sondern auch indirektes Licht der Beleuchtung oder dergleichen (indirekt reflektiertes Licht), das heißt Umgebungslicht, auch gleichzeitig detektiert wird, und ein Bild des Motivs aufgenommen wird, sodass der Einfluss von Umgebungslicht auf das Bild unvermeidbar ist.
  • Im Gegensatz dazu sind bei der Ausführungsform der vorliegenden Offenbarung, wie rechts in 3 dargestellt, selbst in einem Fall, bei dem sich die Beleuchtungsbedingungen ändern, die Vergleichsentfernungsbilder 604b, 604c und 604d und die Vergleichsdirektreflexionslichtbilder 704b, 704c und 704d Bilder, die im Wesentlichen dieselben (im Wesentlichen gleich) wie das Registrierungsentfernungsbild 602a und das Registrierungsdirektreflexionslichtbild 702a sind. Mit anderen Worten ändert sich bei dieser Ausführungsform der Zustand der Bilder selbst in einem Fall nicht, bei dem die Beleuchtungsbedingungen, d. h. das Umgebungslicht, variieren. Bei dieser Ausführungsform ist daher selbst in einem Fall, bei dem die Beleuchtungsbedingungen, d. h. das Umgebungslicht, variieren, eine Änderung im Zustand des Bildes im Fall derselben Person klein, was eine Identifikation der Person als dieselbe Person ermöglicht.
  • Gemäß den Ausführungsformen der vorliegenden Offenbarung ist es somit möglich, eine Identifikation mit hoher Genauigkeit durchzuführen, ohne durch Variationen im Umgebungslicht beeinträchtigt zu werden. Nachfolgend werden die Ausführungsformen der vorliegenden Offenbarung nacheinander ausführlich dargelegt. Bei den unten beschriebenen Ausführungsformen der vorliegenden Offenbarung wird angenommen, dass eine Identifikation unter Verwendung von sowohl den Abstandsinformationen als auch den Direktreflexionslichtinformationen (genauer gesagt, sowohl dem Entfernungsbild 600 als auch dem Direktreflexionslichtbild 700) durchgeführt wird. Bei den Ausführungsformen ist die Identifikation jedoch nicht auf die Identifikation unter Verwendung von sowohl den Abstandsinformationen als auch den Direktreflexionslichtinformationen beschränkt, sondern es ist auch eine Identifikation unter Verwendung von mindestens einem Teil der Abstandsinformationen oder der Direktreflexionslichtinformationen möglich.
  • «3. Erste Ausführungsform»
  • <Überblick des Identifikationssystems 10 gemäß der ersten Ausführungsform>
  • Zuerst wird ein Überblick über das Identifikationssystem (die Identifikationseinrichtung) 10 gemäß der ersten Ausführungsform der vorliegenden Offenbarung unter Bezugnahme auf 4 beschrieben. 4 ist ein Blockdiagramm, das ein Konfigurationsbeispiel des Identifikationssystems 10 gemäß dieser Ausführungsform darstellt. Wie in 4 dargestellt, beinhaltet das Identifikationssystem 10 gemäß dieser Ausführungsform hauptsächlich einen TOF-Sensor 100, eine Verarbeitungseinheit 200, eine Speicherungseinheit 300 und eine Anzeigeeinheit 400. Das Folgende beschreibt einen Überblick über jede der Einrichtungen, die in dem Identifikationssystem 10 gemäß dieser Ausführungsform enthalten sind.
  • (TOF-Sensor 100)
  • Der TOF-Sensor 100 erhält Erfassungsdaten zum Erhalten von Abstandsinformationen und Direktreflexionslichtinformationen eines Motivs (genauer gesagt das Entfernungsbild 600 und das Direktreflexionslichtbild 700, die in 2 dargestellt sind). Insbesondere gibt der TOF-Sensor 100, zu der später beschriebenen Verarbeitungseinheit 200, Erfassungsdaten aus, die durch Scheinen von Bestrahlungslicht, wie etwa Infrarotlicht, auf das Motiv (Objekt) und Detektieren von zum Beispiel direkt reflektiertem Licht, das vom Motiv reflektiert wird, erhalten werden. Die Verarbeitungseinheit 200 kann die Abstandsinformationen (die Tiefe) des Motivs durch Berechnen einer Phasendifferenz zwischen dem Bestrahlungslicht und dem reflektierten Licht auf Basis der Erfassungsdaten erhalten. Zusätzlich dazu kann die Verarbeitungseinheit 200 auch die Direktreflexionslichtinformationen des Motivs durch Verarbeiten der Erfassungsdaten erhalten. Es ist anzumerken, dass das Verfahren zum Erhalten der Abstandsinformationen unter Verwendung der Phasendifferenz, wie oben beschrieben, ein indirektes TOF-Verfahren genannt wird. Der TOF-Sensor 100 wird später ausführlich dargelegt.
  • Es ist anzumerken, dass bei dieser Ausführungsform, da ein TOF-Sensor 100 anstatt mehrere Kameras verwendet wird, die zunehmende Größe des Identifikationssystems 10 oder die zunehmenden Komplexitäten von diesem vermieden werden können. Dies vermeidet eine Zunahme in den Herstellungskosten des Identifikationssystems 10.
  • (Verarbeitungseinheit 200)
  • Die Verarbeitungseinheit 200 beinhaltet hauptsächlich eine Zentralverarbeitungseinheit (CPU: Central Processing Unit), einen Direktzugriffsspeicher (RAM: Random Access Memory) und einen Nurlesespeicher (ROM: Read Only Memory). Die Verarbeitungseinheit 200 kann in die später beschriebene Speicherungseinheit 300 ein Registrierungsbild (genauer gesagt, das Registrierungsentfernungsbild 602, das Registrierungsdirektreflexionslichtbild 702 oder dergleichen) speichern, eine Person unter Verwendung des in der Speicherungseinheit 300 gespeicherten Registrierungsbildes identifizieren, und so weiter. Es ist anzumerken, dass die Verarbeitungseinheit 200 später ausführlich dargelegt wird.
  • (Speicherungseinheit 300)
  • Die Speicherungseinheit 300 wird durch einen ROM, einen RAM oder dergleichen implementiert und speichert das Registrierungsbild, das zur Identifikation, wie oben beschrieben, verwendet wird.
  • (Anzeigeeinheit 400)
  • Die Anzeigeeinheit 400 ist eine Funktionseinheit, die ein Identifikationsergebnis und so weiter zu einem Benutzer ausgibt, und wird zum Beispiel durch eine Flüssigkristallanzeige(LCD)-Einrichtung, eine organische Leuchtdioden(OLED)-Einrichtung oder dergleichen implementiert. In einem Fall, bei dem ein neu aufgenommenes Gesichtsbild einer Person zum Beispiel mit dem in der Speicherungseinheit 300 gespeicherten Registrierungsbild übereinstimmt, zeigt die Anzeigeeinheit 400 Informationen an, wie etwa den Namen einer Person, die mit dem Registrierungsbild verknüpft ist. Andererseits, in einem Fall, bei dem das neu aufgenommene Gesichtsbild der Person nicht mit dem Registrierungsbild übereinstimmt, zeigt die Anzeigeeinheit 400 die Tatsache an, dass es keine Übereinstimmung zwischen diesen gibt.
  • Es ist anzumerken, dass bei dieser Ausführungsform ein Teil oder alle des TOF-Sensors 100, der Verarbeitungseinheit 200, der Speicherungseinheit 300 und der Anzeigeeinheit 400 als eine einzige Einheit bereitgestellt werden können. In einem Fall, bei dem der TOF-Sensor 100, die Verarbeitungseinheit 200, die Speicherungseinheit 300 und die Anzeigeeinheit 400 zum Beispiel als eine einzige Einheit bereitgestellt sind, ist die einzige Einheit funktionsfähig, eine Verarbeitung bezüglich der Identifikation als eine unabhängige Einrichtung durchzuführen. Zusätzlich dazu kann die Verarbeitungseinheit 200 unter der Annahme einer Verbindung mit einem Netzwerk, wie etwa zum Beispiel Cloud-Computing, durch ein System konstruiert sein, das mehrere Einrichtungen beinhaltet.
  • <Ausführliche Konfiguration des TOF-Sensors 100>
  • Der Überblick über das Identifikationssystem 10 gemäß dieser Ausführungsform ist oben beschrieben. Als Nächstes wird die ausführliche Konfiguration des TOF-Sensors 100 gemäß dieser Ausführungsform unter Bezugnahme auf 5 beschrieben. 5 ist ein Blockdiagramm, das ein Konfigurationsbeispiel des TOF-Sensors 100 gemäß dieser Ausführungsform darstellt. Wie in 5 dargestellt, beinhaltet der TOF-Sensor 100 hauptsächlich eine Bestrahlungseinheit 102 und eine Lichtempfangseinheit 104. Jede der Funktionseinheiten des TOF-Sensors 100 wird unten ausführlich dargelegt.
  • (Bestrahlungseinheit 102)
  • Die Bestrahlungseinheit 102 weist eine Laserlichtquelle (nicht dargestellt) und ein optisches Element (nicht dargestellt) auf. Die Laserlichtquelle ist zum Beispiel eine Laserdiode und die Laserlichtquelle kann eine anzuwendende Lichtwellenlänge durch zweckmäßiges Auswählen der Laserdiode ändern. Es ist anzumerken, dass die Beschreibung dieser Ausführungsform ein Beispiel der Bestrahlungseinheit 102 annimmt, die Infrarotlicht mit einer Wellenlänge von zum Beispiel 785 nm oder so anwendet. Bei dieser Ausführungsform ist die Bestrahlungseinheit 102 jedoch nicht auf die Anwendung von derartigem Infrarotlicht beschränkt.
  • (Lichtempfangseinheit 104)
  • Die Lichtempfangseinheit 104 beinhaltet eine Kondensorlinse (nicht dargestellt) und ein Lichtempfangselement (nicht dargestellt). Die Kondensorlinse weist eine Funktion zum Sammeln des empfangenen Lichts an dem Lichtempfangselement auf. Zusätzlich dazu beinhaltet das Lichtempfangselement zum Beispiel einen CMOS-Bildsensor (CMOS: Complementary Metal Oxide Semiconductor - komplementärer Metalloxidhalbleiter) mit mehreren Pixeln, erzeugt für jedes Pixel ein Lichtempfangssignal auf Basis der Intensität des empfangenen Lichts und gibt das erzeugte Lichtempfangssignal zu der Verarbeitungseinheit 200 aus.
  • Es ist anzumerken, dass die Verarbeitungseinheit 200 die Bestrahlungseinheit 102 und die Lichtempfangseinheit 104 des TOF-Sensors 100 steuern kann. Alternativ dazu kann eine im TOF-Sensor 100 bereitgestellte Steuereinheit (nicht dargestellt) die Bestrahlungseinheit 102 und die Lichtempfangseinheit 104 steuern.
  • Hier wird das Prinzip eines Verfahrens zum Berechnen der Abstandsinformationen durch den TOF-Sensor 100 unter Bezugnahme auf 6 beschrieben. 6 ist ein erläuterndes Diagramm zum Veranschaulichen des Prinzips des Verfahrens zum Berechnen der Abstandsinformationen. Insbesondere stellt 6 schematisch Zeitvariationen in der Intensität des Bestrahlungslichts und des reflektierten Lichts im TOF-Sensor 100 dar.
  • Wie in 6 dargestellt, scheint der TOF-Sensor 100 Licht, das so moduliert worden ist, dass die Intensität des Lichts periodisch variiert, von der Bestrahlungseinheit 102 zu dem Motiv hin. Das geschienene Licht wird vom Motiv reflektiert und wird durch die Lichtempfangseinheit 104 des TOF-Sensors 100 als das reflektierte Licht detektiert. Wie in 6 dargestellt, weist das detektierte reflektierte Licht (der untere Teil von 6) eine Phasendifferenz bezüglich des Bestrahlungslichts (des oberen Teils von 6) auf. Die Phasendifferenz ist größer, wenn der Abstand vom TOF-Sensor 100 zum Motiv länger ist, und ist kleiner, wenn der Abstand vom TOF-Sensor 100 zum Motiv kürzer ist.
  • Angesichts dessen erfasst der TOF-Sensor 100 zum Beispiel die Lichtintensität von vier Phasen (0 Grad, 90 Grad, 180 Grad, 270 Grad) des reflektierten Lichts. Die Erfassungsdaten (q0 , q90 , q180 , q270 ) werden in die folgende mathematische Formel (1) substituiert, sodass die Phasendifferenz (Phase) berechnet werden kann. Des Weiteren werden die somit berechnete Phasendifferenz und die Wellenlänge (der Bereich) des Lichts verwendet, sodass Abstandsinformationen (Abstand), die einen Abstand zum Motiv angeben, gemäß der folgenden mathematischen Formel (1) erhalten werden können.

    [Math. 1] I = q 0 q 180 Q = q 90 q 270 P h a s e = t a n 1 ( Q I ) A b s t a n d = P h a s e × E n t f e r n u n g 2 π
    Figure DE112018005610T5_0001
  • Es ist anzumerken, dass, da die Abstandsinformationen für jedes Pixel der Lichtempfangseinheit 104 erhalten werden können, die oben beschriebenen 2,5-dimensionalen Informationen durch Verknüpfen der Positionsinformationen des entsprechenden Pixels mit den Abstandsinformationen erhalten werden können.
  • Des Weiteren weist die Lichtempfangseinheit 104 gemäß dieser Ausführungsform eine erste und zweite Lichtempfangseinheit 104a und 104b auf, die sich im Betrieb voneinander unterscheiden, wie in 5 dargestellt. Insbesondere weisen die erste und zweite Lichtempfangseinheit 104a und 104b gemäß dieser Ausführungsform im Wesentlichen dieselben (fast dieselben) Charakteristiken auf, da die erste und zweite Lichtempfangseinheit 104a und 104b gleichzeitig gebildet werden. Ferner wird angenommen, dass, obwohl die erste und zweite Lichtempfangseinheit 104a und 104b in einer Periode mit derselben Länge arbeiten, die erste und zweite Lichtempfangseinheit 104a und 104b so arbeiten, dass sie eine Phasendifferenz von 180 Grad zueinander aufweisen (siehe 7). Es ist anzumerken, dass der TOF-Sensor 100, der zwei derartige oben beschriebene Lichtempfangseinheiten aufweist, ein 2-Abgriff-TOF-Sensor genannt wird.
  • Als Nächstes wird das Verfahren zum Berechnen der Abstandsinformationen in dem 2-Abgriff-TOF-Sensor 100 gemäß dieser Ausführungsform unter Bezugnahme auf 7 beschrieben. 7 ist ein erläuterndes Diagramm zum Veranschaulichen eines Berechnungsverfahrens von Abstandsinformationen mit dem TOF-Sensor 100 gemäß dieser Ausführungsform. In 7 sind das Bestrahlungslicht (der erste Teil in 7) und das reflektierte Licht (der zweite Teil in 7) zum leichten Verständnis als gepulstes Licht dargestellt, und es wird angenommen, dass die Phasendifferenz zwischen dem Bestrahlungslicht und dem reflektierten Licht durch φ bezeichnet wird. Des Weiteren stellt 7 den Betrieb der Lichtempfangseinheit 104a (der dritte Teil in 7) und der zweiten Lichtempfangseinheit 104b (der vierte Teil in 7) dar, und es wird angenommen, dass die Lichtempfangseinheiten 104a und 104b während einer Periode mit einer konvexen Aufwärtsausrichtung arbeiten. Daher, wie in 7 dargestellt, überlappen die Perioden, während denen die erste und zweite Lichtempfangseinheit 104a und 104b arbeiten, einander nicht, was zeigt, dass sich die erste und zweite Lichtempfangseinheit 104a und 104b im Betrieb voneinander unterscheiden.
  • Wie in 7 dargestellt, können, in einem Fall, bei dem das reflektierte Licht eine Phasendifferenz φ bezüglich des Bestrahlungslichts aufweist, die erste Lichtempfangseinheit 104a und die zweite Lichtempfangseinheit 104b das reflektierte Licht in Gebieten 800a und 800b detektieren, die in 7 in grau angegeben sind. Insbesondere wird die Intensität des Lichts, das durch die erste und zweite Lichtempfangseinheit 104a und 104b detektiert wird, separat integriert, sodass Lichtempfangssignale, die Flächen des Gebiets 800a und des Gebiets 800b von 7 entsprechen, erhalten werden können. Wie aus 7 ersichtlich wird, variiert die Differenz zwischen dem integrierten Wert in der ersten Lichtempfangseinheit 104a und dem integrierten Wert in der zweiten Lichtempfangseinheit 104b gemäß der Phasendifferenz φ des reflektierten Lichts. Bei dieser Ausführungsform kann daher die Differenz zwischen den integrierten Werten der ersten und zweiten Lichtempfangseinheit 104a und 104b berechnet werden, die Phasendifferenz φ kann auf Basis der berechneten Differenz berechnet werden und ferner können die Abstandsinformationen berechnet werden. Es ist anzumerken, dass es bei dieser Ausführungsform möglich ist, die Abstandsinformationen durch Berechnen der Phasendifferenz φ unter Verwendung des Verhältnisses der integrierten Werte anstatt unter Verwendung der Differenz zwischen den integrierten Werten zu berechnen.
  • In der Praxis detektieren die erste und zweite Lichtempfangseinheit 104a und 104b indirekt reflektiertes Licht (Umgebungslicht) einer Beleuchtung oder dergleichen zur selben Zeit wie das reflektierte Licht (direkt reflektierte Licht), das direkt vom Motiv reflektiert wird. Genauer gesagt, detektieren die erste und zweite Lichtempfangseinheit 104a und 104b Licht wie das, das im oberen Teil von 8 dargestellt ist, die ein erläuterndes Diagramm zum schematischen Darstellen einer Aufhebung von Umgebungslicht (indirekt reflektiertem Licht) bei dieser Ausführungsform ist.
  • Angesichts dessen, wie im oberen Teil von 8 dargestellt, in einem Fall, bei dem das indirekt reflektierte Licht (Umgebungslicht) als Licht betrachtet wird, dessen Intensität im Gegensatz zu dem direkt reflektierten Licht während einer vorbestimmten Periode nicht periodisch variiert, detektieren sowohl die erste Lichtempfangseinheit 104a als auch die zweite Lichtempfangseinheit 104b das indirekt reflektierte Licht mit derselben Intensität. Somit wird eine Differenz zwischen dem integrierten Wert der ersten Lichtempfangseinheit 104a und dem integrierten Wert der zweiten Lichtempfangseinheit 104b berechnet, sodass eine integrierte Komponente infolge der Intensität des indirekt reflektierten Lichts, die ihnen gemein ist, aufgehoben werden kann. Somit kann nur das direkt reflektierte Licht, wie im unteren Teil von 8 dargestellt, extrahiert werden. In Kürze wird bei dieser Ausführungsform die Differenz zwischen dem integrierten Wert der ersten Lichtempfangseinheit 104a und dem integrierten Wert der zweiten Lichtempfangseinheit 104b aufgehoben, was eine Aufhebung des Einflusses des indirekt reflektierten Lichts (Umgebungslichts) ermöglicht. Gemäß dieser Ausführungsform werden die Direktreflexionslichtinformationen nach der Aufhebung des indirekt reflektierten Lichts verwendet, was das Direktreflexionslichtbild 700 (siehe 2) erhalten kann, das weniger wahrscheinlich durch Variationen im Umgebungslicht beeinflusst wird. Es ist anzumerken, dass diese Ausführungsform nicht auf die Anordnung beschränkt ist, bei der die Differenz zwischen dem integrierten Wert der ersten Lichtempfangseinheit 104a und dem integrierten Wert der zweiten Lichtempfangseinheit 104b berechnet wird, und wodurch das direkt reflektierte Licht mit dem aufgehobenen Einfluss des indirekt reflektierten Lichts extrahiert wird. Bei dieser Ausführungsform ist es zum Beispiel möglich, das direkt reflektierte Licht mit dem aufgehobenen Einfluss des indirekt reflektierten Lichts unter Verwendung des Verhältnisses des integrierten Werts der ersten Lichtempfangseinheit 104a und des integrierten Werts der zweiten Lichtempfangseinheit 104b zu extrahieren.
  • Es ist anzumerken, dass, da die oben beschriebenen Abstandsinformationen weniger wahrscheinlich durch Variationen im Umgebungslicht beeinflusst werden, die Abstandsinformationen nicht darauf beschränkt sind, unter Verwendung der Differenz zwischen den integrierten Werten, wie oben beschrieben, berechnet zu werden. Es wird jedoch bevorzugt, dass die Abstandsinformationen unter Verwendung der Differenz zwischen den integrierten Werten berechnet werden, da ein Rauschsignal, das der ersten und zweiten Lichtempfangseinheit 104a und 104b gemein und für diese eindeutig ist, aus den Abstandsinformationen entfernt werden kann.
  • Des Weiteren ist der 2-Abgriff-TOF-Sensor 100 bei dieser Ausführungsform nicht auf den TOF-Sensor mit den beiden Lichtempfangseinheiten 14a und 104b beschränkt. Der 2-Abgriff-TOF-Sensor 100 gemäß dieser Ausführungsform kann zum Beispiel ein Sensor sein, der eine Lichtempfangseinheit 104 und zwei Ausleseeinheiten (eine erste Ausleseeinheit und eine zweite Ausleseeinheit) (nicht dargestellt) zum Auslesen von Licht, das durch eine Lichtempfangseinheit 104 zu unterschiedlichen Zeiten empfangen worden ist, aufweist. Selbst der TOF-Sensor 100, der eine derartige Lichtempfangseinheit und zwei derartige Ausleseeinheiten aufweist, kann, wie oben beschrieben, das direkt reflektierte Licht mit dem aufgehobenen Einfluss des indirekt reflektierten Lichts und ein Abstandssignal, aus dem das Rauschsignal entfernt worden ist, erhalten.
  • <Ausführliche Konfiguration der Verarbeitungseinheit 200>
  • Die ausführliche Konfiguration des TOF-Sensors 100 gemäß dieser Ausführungsform ist oben beschrieben. Als Nächstes wird die ausführliche Konfiguration der Verarbeitungseinheit 200 gemäß dieser Ausführungsform unter Bezugnahme auf 4 beschrieben. Wie in 4 dargestellt, beinhaltet die Verarbeitungseinheit 200 eine Abstandsinformationen-Berechnungseinheit 202, eine Direktreflexionslicht-Berechnungseinheit (Direktreflexionslichtinformationen-Berechnungseinheit) 204, eine Motivdetektionseinheit (Objektdetektionseinheit) 206, eine Dreidimensionale-Umwandlung-Einheit (Dreidimensionale-Koordinaten-Berechnungseinheit) 208, eine Motivnormierungseinheit (Normierungsverarbeitungseinheit) 210 und eine Motividentifikationseinheit (Objektidentifikationseinheit) 212. Jede der Funktionseinheiten der Verarbeitungseinheit 200 wird unten ausführlich dargelegt.
  • (Abstandsinformationen-Berechnungseinheit 202)
  • Wie oben beschrieben, berechnet die Abstandsinformationen-Berechnungseinheit 202 eine Phasendifferenz zwischen dem Bestrahlungslicht und dem reflektierten Licht auf Basis der Erfassungsdaten vom TOF-Sensor 100 und berechnet die Abstandsinformationen (das Entfernungsbild 600) des Motivs auf Basis der Phasendifferenz. Die durch die Abstandsinformationen-Berechnungseinheit 202 berechneten Abstandsinformationen sind Informationen, die mit Positionsinformationen eines Pixels der Lichtempfangseinheit 104 des TOF-Sensors 100 verknüpft sind, und somit kann gesagt werden, dass die Abstandsinformationen die oben beschriebenen 2,5-dimensionalen Informationen sind. Des Weiteren kann die Abstandsinformationen-Berechnungseinheit 202 die berechneten Abstandsinformationen zu zum Beispiel der Motivdetektionseinheit 206, der Dreidimensionale-Umwandlung-Einheit 208 und der Motivnormierungseinheit 210, die später beschrieben werden, ausgeben.
  • (Direktreflexionslicht-Berechnungseinheit 204)
  • Die Direktreflexionslicht-Berechnungseinheit 204 verwendet das wie oben beschriebene Verfahren zum Durchführen der Verarbeitung zum Aufheben des indirekt reflektierten Lichts (Umgebungslichts) an den Erfassungsdaten vom TOF-Sensor 100 und berechnet somit die Direktreflexionslichtinformationen (das Direktreflexionslichtbild 700) des Motivs. Des Weiteren kann die Direktreflexionslicht-Berechnungseinheit 204 die berechneten Direktreflexionslichtinformationen zu zum Beispiel der Motivdetektionseinheit 206 und der Motivnormierungseinheit 210, die später beschrieben werden, ausgeben.
  • (Motivdetektionseinheit 206)
  • Die Motivdetektionseinheit 206 detektiert ein durch das Motiv belegtes Gebiet (Motivgebiet) des Entfernungsbildes 600 basierend auf den Abstandsinformationen, die durch die Abstandsinformationen-Berechnungseinheit 202 erhalten werden, oder des Direktreflexionslichtbildes 700 basierend auf den Direktreflexionslichtinformationen, die durch die Direktreflexionslicht-Berechnungseinheit 204 erhalten werden. In einem Fall, bei dem die Motivdetektionseinheit 206 als das Motiv ein Gebiet des Gesichts einer Person aus dem Entfernungsbild 600 detektiert, kann die Motivdetektionseinheit 206 das Gebiet des Gesichts zum Beispiel auf Basis einer vorbestimmten Konturlinie (Kontur des Gesichts) detektieren. In einem Fall, bei dem die Motivdetektionseinheit 206 das Gebiet des Gesichts der Person aus dem Direktreflexionslichtbild 700 detektiert, kann die Motivdetektionseinheit 206 das Gebiet des Gesichts zum Beispiel auf Basis der Positionsbeziehung vorbestimmter Merkmalspunkte (Augen, Nase, Mund) oder dergleichen detektieren. In einem Fall, bei dem sich das Motiv nahe am TOF-Sensor 100 befindet, ist das durch die Motivdetektionseinheit 206 detektierte Motivgebiet groß. In einem Fall, bei dem sich das Motiv entfernt vom TOF-Sensor 100 befindet, ist das detektierte Motivgebiet klein. Des Weiteren kann die Motivdetektionseinheit 206 das Ergebnis des detektierten Motivgebiets zu der Dreidimensionale-Umwandlung-Einheit 208, der Motivnormierungseinheit 210 und so weiter ausgeben.
  • Zusätzlich dazu kann die Motivdetektionseinheit 206 auch das Motivgebiet aus entweder dem Entfernungsbild 600 oder dem Direktreflexionslichtbild 700 detektieren, um das detektierte Motivgebiet in der vorliegenden Form für das Motivgebiet des anderen Bildes zu verwenden. Insbesondere, da das Entfernungsbild 600 und das Direktreflexionslichtbild 700 Bilder sind, die von derselben Aufnahme vom TOF-Sensor 100 aufgenommen werden, wird keine Ausrichtung zwischen den beiden Bildern benötigt; daher kann das Motivgebiet von einem der Bilder in der vorliegenden Form als das Motivgebiet des anderen Bildes verwendet werden.
  • Des Weiteren kann die Motivdetektionseinheit 206 ein endgültiges Motivgebiet unter Verwendung von sowohl einem Detektionsergebnis des Motivgebiets des Entfernungsbildes 600 als auch einem Detektionsergebnis des Motivgebiets des Direktreflexionslichtbildes 700 bestimmen. Insbesondere ist in dem Direktreflexionslichtbild 700 zum Beispiel das Detektieren der Kontur des Gesichts einer Person in einem Fall schwierig, bei dem der Kontrast zwischen dem Gesicht der Person und einem Hintergrund davon niedrig ist. Andererseits ist in dem Entfernungsbild 600, selbst in einem Fall, bei dem der Kontrast niedrig ist, wie oben beschrieben, das Detektieren der Kontur des Gesichts leicht, da die Position des Gesichts der Person und die Position des Hintergrunds unterschiedlich sind. In dem Entfernungsbild 600 ist es jedoch schwierig, Merkmalspunkte mit weniger Ungleichheit, wie etwa Augen, Nase und Mund des Gesichts, zu detektieren. Dementsprechend verwendet die Motivdetektionseinheit 206 sowohl das Entfernungsbild 600 als auch das Direktreflexionslichtbild 700, um das Motivgebiet zu detektieren; wodurch Schwachpunkte bei der Detektion des Entfernungsbildes 600 und des Direktreflexionslichtbildes 700 kompensiert werden, was zu einer weiteren Verbesserung der Genauigkeit der Detektion des Motivgebiets führt.
  • (Dreidimensionale-Umwandlung-Einheit 208)
  • Die Dreidimensionale-Umwandlung-Einheit 208 wandelt die Abstandsinformationen, das heißt 2,5-dimensionale Informationen, die durch die Abstandsinformationen-Berechnungseinheit 202 berechnet werden, zu Koordinatenwerten eines dreidimensionalen Raums in dem realen Raum um. Insbesondere wandelt die Dreidimensionale-Umwandlung-Einheit 208 die Abstandsinformationen zu Koordinaten (X, Y, Z) des dreidimensionalen Raums durch Umwandeln der Positionsinformationen eines Pixels der Lichtempfangseinheit 104 des TOF-Sensors 100 zu Koordinatenwerten des realen Raums um und erzeugt dann dreidimensionale Koordinateninformationen (dreidimensionale Informationen). Die oben beschriebene Umwandlung ermöglicht, dass die Abstandsinformationen als der tatsächliche Abstand im Raum behandelt werden. Des Weiteren kann die Dreidimensionale-Umwandlung-Einheit 208 die dreidimensionalen Koordinateninformationen zum Beispiel zu der später beschriebenen Motivnormierungseinheit 210 ausgeben. Es ist anzumerken, dass die Dreidimensionale-Umwandlung-Einheit 208 nicht notwendigerweise in der Verarbeitungseinheit 200 bereitgestellt ist.
  • (Motivnormierungseinheit 210)
  • Die Motivnormierungseinheit 210 normiert die Motivgebiete des Entfernungsbildes 600, des Direktreflexionslichtbildes 700 und der dreidimensionalen Informationen (nicht dargestellt). Beispiele für die Normierung, die durch die Motivnormierungseinheit 210 durchgeführt wird, beinhalten Richtungsnormierung, Maßstabsnormierung und Helligkeitsnormierung. Die Motivnormierungseinheit 210 gibt das normierte Motivgebiet zu der Motividentifikationseinheit 212 und der Speicherungseinheit 300, die später beschrieben sind, aus. Es ist anzumerken, dass, wie oben beschrieben, die dreidimensionalen Informationen eine Aggregation von dreidimensionalen Koordinateninformationen (Koordinateninformationen von X, Y und Z) sind.
  • Ein Beispiel für die Normierung durch die Motivnormierungseinheit 210 wird unter Bezugnahme auf 9 beschrieben. 9 ist ein erläuterndes Diagramm zum Veranschaulichen eines Beispiels der Normierung bei dieser Ausführungsform, insbesondere ein Beispiel für die Richtungsnormierung des Gesichts einer Person. Insbesondere stellt 9 auf ihrer linken Seite ein Motivgebiet 710 eines Direktreflexionslichtbildes vor der Normierung dar und 9 stellt auf ihrer rechten Seite ein Motivgebiet 712 des Direktreflexionslichtbildes nach der Normierung dar. In dem Motivgebiet 710 des Direktreflexionslichtbildes vor der Normierung ist das Gesicht der Person schräg und nicht von vorne orientiert. Dementsprechend detektiert die Motivnormierungseinheit 210 die schräge Orientierung des Gesichts der Person zum Beispiel auf Basis der Positionsbeziehung, der Form oder dergleichen der vorbestimmten Merkmalspunkte (Augen, Nase, Mund) im Motivgebiet 710 des Direktreflexionslichtbildes vor der Normierung und normiert das Motivgebiet 710 des Direktreflexionlichtbildes vor der Normierung, sodass das Gesicht nach vorne orientiert ist. Infolgedessen kann die Motivnormierungseinheit 210 das Motivgebiet 712 des Direktreflexionslichtbildes nach der Normierung erhalten, das auf der rechten Seite von 9 dargestellt ist.
  • Bei dieser Ausführungsform ist die Motivnormierungseinheit 210 nicht auf das Durchführen der Normierung beschränkt, sodass das Gesicht nach vorne orientiert wird, wie in 9 dargestellt, sondern kann eine Normierung durchführen, sodass die Gesichter von Personen zu einer voreingestellten und insbesondere nicht beschränkten vorbestimmten Richtung (Orientierung) zeigen, sodass z. B. eine Richtung in dem in der Speicherungseinheit 300 gespeicherten Bild angepasst wird. Das Durchführen der Normierung, sodass eine Richtung in dem in der Speicherungseinheit 300 gespeicherten Bild angepasst wird, ergibt zum Beispiel, dass die Richtung in einem zu vergleichenden Bild dieselbe ist wie die Richtung in dem in der Speicherungseinheit 300 gespeicherten Bild, was zu einer weiteren Verbesserung in der Genauigkeit des Vergleichs durch die später beschriebene Motividentifikationseinheit 212 führt.
  • Zusätzlich dazu ist die Motivnormierungseinheit 210 bei dieser Ausführungsform nicht auf das Durchführen der Normierung des Motivgebiets 710 des Direktreflexionslichtbildes, wie in 9 dargestellt, beschränkt und kann auch ein Motivgebiet (nicht dargestellt) oder die dreidimensionalen Informationen (nicht dargestellt) des Entfernungsbildes 600 normieren. In diesem Fall kann die Motivnormierungseinheit 210 eine Normierung, sodass das Gesicht der Person nach vorne orientiert ist, zum Beispiel auf Basis einer Form einer vorbestimmten Kontur (Gesichtskontur) im Motivgebiet des Entfernungsbildes 600 durchführen. Mit anderen Worten kann die Motivnormierungseinheit 210 die Motivnormierungseinheit 210 die Motivgebiete des Entfernungsbildes 600 und/oder des Direktreflexionslichtbildes 700 und/oder der dreidimensionalen Informationen normieren.
  • Es wird jedoch bevorzugt, dass die Motivnormierungseinheit 210 zwei Motivgebiete des Motivgebiets des Entfernungsbildes 600 oder der dreidimensionalen Informationen (nicht dargestellt) und des Motivgebiets des Direktreflexionslichtbildes 700 normiert. Dies verbessert zusätzlich die Genauigkeit der Normierung. Insbesondere wird bevorzugt, dass die Motivnormierung 210 Parameter zur Normierung unter Verwendung sowohl des Ergebnisses der Detektion der Gesichtsorientierung im Motivgebiet des Entfernungsbildes 600 oder der dreidimensionalen Informationen als auch des Ergebnisses der Detektion der Gesichtsorientierung der Person im Motivgebiet des Direktreflexionslichtbildes 700 bestimmt. Wie oben beschrieben, unterscheiden sich das Entfernungsbild 600 oder die dreidimensionalen Informationen vom Direktreflexionslichtbild 700 in der Detektionsleichtigkeit und Schwierigkeit. Um dies anzusprechen, verwendet die Motivnormierung 210 beide Ergebnisse der Detektion, um die Gesichtsorientierung zu bestimmen, und kann dadurch Schwachpunkte bei der Detektion in dem Entfernungsbild 600 oder den dreidimensionalen Informationen und dem Direktreflexionslichtbild 700 kompensieren, was zu einer Verbesserung in der Genauigkeit der Detektion der Gesichtsorientierung führt.
  • Des Weiteren kann die Motivnormierungseinheit 210 bei dieser Ausführungsform eine Normierung durchführen, sodass die Größe (der Maßstab) des Motivgebiets in dem Entfernungsbild 600, dem Direktreflexionslichtbild 700 und den dreidimensionalen Informationen (nicht dargestellt) zu einer vorbestimmten Größe (einem vorbestimmten Maßstab) angepasst wird. Wie oben beschrieben, ist das Motivgebiet in einem Fall, bei dem der Abstand vom TOF-Sensor 100 zum Motiv lang ist, klein und ist das Motivgebiet in einem Fall, bei dem der Abstand vom TOF-Sensor 100 zum Motiv kurz ist, groß. Daher führt die Motivnormierungseinheit 210 zum Beispiel eine Normierung durch Vergrößern oder Verringern der Größe des Motivgebiets in dem Entfernungsbild 600, dem Direktreflexionslichtbild 700 und den dreidimensionalen Informationen durch die Motivnormierungseinheit 210 durch, sodass das Motivgebiet dieselbe Größe aufweist wie die des in der Speicherungseinheit 300 gespeicherten Bildes. Anders gesagt, kann die Motivnormierungseinheit 210 das Motivgebiet unter Verwendung des in der Speicherungseinheit 300 gespeicherten Bildes als eine Referenz auf eine Art und Weise normieren, dass es ein Bild ist, das mit demselben Abstand aufgenommen wird wie der Abstand (vorbestimmte Abstand) zwischen dem Motiv und dem TOF-Sensor 100 für den Fall, wenn das Referenzbild aufgenommen worden wird. Dies macht die Genauigkeit (Auflösung) des in der Speicherungseinheit 300 gespeicherten Bildes und die Genauigkeit des zu vergleichenden Bildes gleich, was die Genauigkeit des Vergleichs in der später beschriebenen Motividentifikationseinheit 212 weiter verbessert.
  • Zusätzlich dazu kann die Motivnormierungseinheit 210 bei dieser Ausführungsform das Motivgebiet in dem Entfernungsbild 600, dem Direktreflexionlichtbild 700 und den dreidimensionalen Informationen (nicht dargestellt) unter Verwendung des in der Speicherungseinheit 300 gespeicherten Bildes als eine Referenz normieren, sodass es ein Bild mit derselben Helligkeit, demselben Kontrast oder dergleichen wie das Referenzbild ist. Dies macht die Helligkeit oder dergleichen des Bildes oder der Informationen, das bzw. die in der Speicherungseinheit 300 gespeichert ist bzw. sind, und die Helligkeit oder dergleichen des Bildes oder der Informationen, das bzw. die zu vergleichen ist bzw. sind, gleich, was die Genauigkeit des Vergleichs in der später beschriebenen Motividentifikationseinheit 212 weiter verbessert.
  • Wie oben beschrieben, kann die Motivnormierungseinheit 210 mindestens eines der Motivgebiete des Entfernungsbildes 600, des Direktreflexionslichtbildes 700 oder der dreidimensionalen Informationen (nicht dargestellt) normieren und einen Teil oder alle der Motivgebiete davon normieren, und bei dieser Ausführungsform gibt es keine spezielle Beschränkung. Des Weiteren kann die Motivnormierungseinheit 210 zu der Zeit der Normierung eines Motivgebiets eines anderen Bildes die Parameter zur Normierung (zum Beispiel Parameter, die für die Richtungsnormierung verwendet werden) verwenden, die in einem der Motivgebiete des Entfernungsbildes 600, des Direktreflexionlichtbildes 700 und der dreidimensionalen Informationen verwendet werden. Da das Entfernungsbild 600, das Direktreflexionslichtbild 700 und die dreidimensionalen Informationen Informationen sind, die mit derselben Aufnahme durch den TOF-Sensor 100 erhalten werden, wird keine Ausrichtung zwischen den beiden benötigt, was eine direkte Verwendung der Parameter ermöglicht.
  • (Motividentifikationseinheit 212)
  • In der später beschriebenen Identifikationsstufe liest die Motividentifikationseinheit 212 das in der Speicherungseinheit 300 gespeicherte Bild aus und vergleicht das ausgelesene Bild mit den Motivgebieten des Entfernungsbildes 600, des Direktreflexionslichtbildes 700 und der dreidimensionalen Informationen (nicht dargestellt), die aus der Motivnormierungseinheit 210 erhalten werden. Insbesondere kann die Motividentifikationseinheit 212 den Vergleich durch Prüfung der Merkmalspunkte von jedem der Bilder, der Positionsbeziehung davon oder dergleichen vornehmen. Zu dieser Zeit verwendet die Motividentifikationseinheit 212 Bilder derselben Art, um einen Vergleich vorzunehmen, wie etwa bei einem Fall, bei dem die Motividentifikationseinheit 212 das Entfernungsbild 600 aus der Speicherungseinheit 300 ausliest, in dem Fall des Motivgebiets des Entfernungsbildes 600. In einem Fall, bei dem das ausgelesene Bild mit dem Motivgebiet übereinstimmt, gibt die Motividentifikationseinheit 212 zum Beispiel Informationen zu der Anzeigeeinheit 400 aus, die angeben, dass das ausgelesene Bild mit dem Motivgebiet und gespeicherten Informationen (Name und so weiter) übereinstimmt, sodass sie mit dem ausgelesen Bild verknüpft werden. In einem Fall, bei dem das ausgelesene Bild nicht mit dem Motivgebiet übereinstimmt, gibt die Motividentifikationseinheit 212 zum Beispiel Informationen zu der Anzeigeeinheit 400 aus, die angeben, dass das ausgelesene Bild nicht mit dem Motivgebiet übereinstimmt. Es ist anzumerken, dass die Motividentifikationseinheit 212 das Identifikationsergebnis, das durch den Vergleich, wie oben beschrieben, erhalten wird, zu einer Funktionseinheit (nicht dargestellt) außer der Anzeigeeinheit 400 ausgibt, und die Funktionseinheit ferner eine andere Funktionseinheit auf Basis des Identifikationsergebnisses steuern kann.
  • <Identifikationsverfahren>
  • Jede der im Identifikationssystem 10 gemäß dieser Ausführungsform enthaltenen Einrichtungen ist oben ausführlich dargelegt. Als Nächstes wird ein Identifikationsverfahren gemäß dieser Ausführungsform beschrieben. Das Identifikationsverfahren gemäß dieser Ausführungsform ist hauptsächlich in zwei Stufen einer Registrierungsstufe bis zu einer Speicherung eines Bildes in die Speicherungseinheit 300 und einer Identifikationsstufe zum Durchführen einer Identifikation unter Verwendung des in der Speicherungseinheit 300 gespeicherten Bildes unterteilt. Es ist anzumerken, dass in dem unten beschriebenen Identifikationsverfahren die Verarbeitungseinheit 200 nicht notwendigerweise mit der oben beschriebenen Dreidimensionale-Umwandlung-Einheit 208 ausgestattet ist.
  • <Registrierungsstufe>
  • Zuerst wird die Registrierungsstufe des Identifikationsverfahrens gemäß dieser Ausführungsform unter Bezugnahme auf 10 beschrieben. 10 ist ein Flussdiagramm zum Veranschaulichen der Registrierungsstufe des Identifikationsverfahrens gemäß dieser Ausführungsform. Wie in 10 dargestellt, beinhaltet die Registrierungsstufe gemäß dieser Ausführungsform mehrere Schritte von Schritt S101 bis Schritt S113. Das Folgende beschreibt die Einzelheiten jedes der Schritte, die in der Registrierungsstufe gemäß dieser Ausführungsform enthalten sind.
  • (Schritt S101)
  • Zuerst scheint der TOF-Sensor 100 Licht auf ein Motiv (zum Beispiel das Gesicht einer Person) und gibt Erfassungsdaten, die durch Detektieren des reflektierten Lichts (Erfassung durch den TOF-Sensor 100) erhalten werden, zu der Verarbeitungseinheit 200 aus.
  • (Schritt S103)
  • Die Verarbeitungseinheit 200 führt eine Verarbeitung zum Aufheben von Umgebungslicht (indirekt reflektiertem Licht) an den Erfassungsdaten, wie oben beschrieben, durch.
  • (Schritt S105)
  • Die Verarbeitungseinheit 200 berechnet die Abstandsinformationen (das Entfernungsbild 600) des Motivs auf Basis der Erfassungsdaten, in denen das Umgebungslicht im oben beschriebenen Schritt S103 aufgehoben worden ist.
  • (Schritt S107)
  • Die Verarbeitungseinheit 200 berechnet die Direktreflexionslichtinformationen (das Direktreflexionslichtbild 700) des Motivs auf Basis der Erfassungsdaten, in denen das Umgebungslicht im oben beschriebenen Schritt S103 aufgehoben worden ist.
  • (Schritt S109)
  • Die Verarbeitungseinheit 200 detektiert ein Motivgebiet (nicht dargestellt) in dem im oben beschriebenen Schritt S105 erhaltenen Entfernungsbild 600. Die Verarbeitungseinheit 200 detektiert ferner das Motivgebiet 710 in dem im oben beschriebenen Schritt S107 erhaltenen Direktreflexionslichtbild 700. Es ist anzumerken, dass in 10 die Veranschaulichung der Detektion des Motivgebiets im Entfernungsbild 600 weggelassen ist.
  • (Schritt S111)
  • Die Verarbeitungseinheit 200 normiert die Motivgebiete 710 des Entfernungsbildes 600 und des Direktreflexionslichtbildes 700, die im oben beschriebenen Schritt S109 erhalten werden, um ein Motivgebiet 612 des Entfernungsbildes nach der Normierung und das Motivgebiet 712 des Direktreflexionslichtbildes nach der Normierung zu erhalten. Es ist anzumerken, dass die Normierung hierin eine Richtungsnormierung, eine Maßstabsnormierung, eine Helligkeitsnormierung und so weiter sein kann und insbesondere nicht darauf beschränkt ist.
  • (Schritt S113)
  • Die Verarbeitungseinheit 200 speichert das normierte Motivgebiet 612 und das normierte Motivgebiet 712, die im oben beschriebenen Schritt S111 erhalten werden, in die Speicherungseinheit 300.
  • <Identifikationsstufe>
  • Als Nächstes wird die Identifikationsstufe des Identifikationsverfahrens gemäß dieser Ausführungsform unter Bezugnahme auf 11 beschrieben. 11 ist ein Flussdiagramm zum Veranschaulichen der Identifikationsstufe des Identifikationsverfahrens gemäß dieser Ausführungsform. Wie in 11 dargestellt, beinhaltet die Identifikationsstufe gemäß dieser Ausführungsform mehrere Schritte von Schritt S201 bis Schritt S213. Da Schritt S201 bis Schritt S211 in 11 dieselben sind wie Schritt S101 bis Schritt S111 in 10, die oben beschrieben sind, ist anzumerken, dass die ausführliche Beschreibung von diesen Schritten hierin weggelassen wird und nur Schritt S213 beschrieben wird. Zusätzlich dazu wird in 11 auch die Veranschaulichung der Detektion des Motivgebiets im Entfernungsbild 600 weggelassen.
  • (Schritt S213)
  • Die Verarbeitungseinheit 200 liest das in der Speicherungseinheit 300 gespeicherte Bild (zum Beispiel das Gesichtsbild der Person, das in der Registrierungsstufe gespeichert wird) aus und vergleicht das ausgelesene Bild und das normierte Motivgebiet 612 und das normierte Motivgebiet 712 (das Gesichtsbild der Person hierin). In einem Fall, bei dem das ausgelesene Bild mit den normierten Motivgebieten 612 und 712 übereinstimmt, gibt die Verarbeitungseinheit 200 dann Informationen, die angeben, dass das ausgelesene Bild mit den normierten Motivgebieten 612 und 712 übereinstimmt, und gespeicherte Informationen (der Name der Person und so weiter), sodass sie mit dem ausgelesenen Bild verknüpft werden, zu dem Benutzer aus. In einem Fall, bei dem das ausgelesene Bild nicht mit den normierten Motivgebieten übereinstimmt, gibt die Verarbeitungseinheit 200 zu dem Benutzer Informationen aus, die angeben, dass das ausgelesene Bild nicht mit den normierten Motivgebieten übereinstimmt.
  • Wie oben beschrieben, wird die Identifikation bei dieser Ausführungsform unter Verwendung des Entfernungsbildes 600 oder des Direktreflexionslichtbildes 700, das weniger wahrscheinlich durch Variationen im Umgebungslicht beeinflusst wird, anstatt unter Verwendung eines zweidimensionalen Bildes, das leicht durch Variationen im Umgebungslicht beeinflusst wird, durchgeführt. Somit ist es möglich, eine stabile Identifikation mit hoher Genauigkeit durchzuführen.
  • <<Zweite Ausführungsform>>
  • Bei der oben beschriebenen ersten Ausführungsform wird das Entfernungsbild 600, das heißt 2,5-dimensionale Informationen, verwendet. Die unten beschriebene zweite Ausführungsform unterscheidet sich von der ersten Ausführungsform darin, dass die 2,5-dimensionalen Informationen in dreidimensionale Informationen (dreidimensionale Koordinateninformationen) umgewandelt werden. Das Folgende beschreibt die Einzelheiten der zweiten Ausführungsform.
  • Es ist anzumerken, dass in der folgenden Beschreibung nur die Punkte, die sich von der ersten Ausführungsform unterscheiden, beschrieben werden, und eine Beschreibung von Punkten, die der ersten Ausführungsform gemein sind, weggelassen wird. Genauer gesagt, sind bei dieser Ausführungsform die ausführliche Konfiguration des Identifikationssystems 10 und die ausführliche Konfiguration der in dem Identifikationssystem 10 enthaltenen Einrichtungen denen der ersten Ausführungsform gemein, mit der Ausnahme, dass die Verarbeitungseinheit 200 die Dreidimensionale-Umwandlung-Einheit 208 enthält. Dementsprechend wird die Beschreibung der ausführlichen Konfiguration des Identifikationssystems 10 gemäß dieser Ausführungsform und der ausführlichen Konfiguration der in dem Identifikationssystem 10 enthaltenen Einrichtungen hierin weggelassen.
  • <Identifikationsverfahren>
  • Das Identifikationsverfahren gemäß dieser Ausführungsform wird beschrieben. Wie bei der ersten Ausführungsform, kann das Identifikationsverfahren gemäß dieser Ausführungsform hauptsächlich in zwei Stufen einer Registrierungsstufe bis zu einer Speicherung eines Bildes in die Speicherungseinheit 300 und einer Identifikationsstufe zum Durchführen einer Identifikation unter Verwendung des in der Speicherungseinheit 300 gespeicherten Bildes unterteilt werden.
  • <Registrierungsstufe>
  • Zuerst wird die Registrierungsstufe des Identifikationsverfahrens gemäß dieser Ausführungsform unter Bezugnahme auf 12 beschrieben. 12 ist ein Flussdiagramm zum Veranschaulichen der Registrierungsstufe des Identifikationsverfahrens gemäß dieser Ausführungsform. Wie in 12 dargestellt, beinhaltet die Registrierungsstufe gemäß dieser Ausführungsform mehrere Schritte von Schritt S301 bis Schritt S315. Es ist anzumerken, dass die Beschreibung von Schritt S301 bis Schritt S309 von 12 hierin weggelassen wird, da Schritt S301 bis Schritt S309 dieselben sind wie Schritt S101 bis Schritt S109 von 10 bei der ersten Ausführungsform. Zusätzlich dazu wird in 12 auch die Veranschaulichung der Detektion des Motivgebiets im Entfernungsbild 600 weggelassen.
  • (Schritt S311)
  • Die Verarbeitungseinheit 200 wandelt das Motivgebiet (nicht dargestellt) des Entfernungsbildes 600, das im Schritt S309 erhalten wird, in dreidimensionale Koordinateninformationen um, um ein Motivgebiet 620 der dreidimensionalen Informationen des Motivs zu erhalten.
  • (Schritt S313)
  • Wie mit Schritt S111 von 10 bei der ersten Ausführungsform normiert die Verarbeitungseinheit 200 das Motivgebiet 620 der dreidimensionalen Informationen, das im Schritt S311 erhalten wird, und das Motivgebiet 710 des Direktreflexionslichtbildes 700, das im Schritt S309 erhalten wird. Die Verarbeitungseinheit 200 erhält dann ein Motivgebiet 622 der dreidimensionalen Informationen nach der Normierung und das Motivgebiet 712 des Direktreflexionslichtbildes nach der Normierung.
  • (Schritt S315)
  • Die Verarbeitungseinheit 200 speichert das normierte Motivgebiet 622 und das normierte Motivgebiet 712, die im oben beschriebenen Schritt S313 erhalten werden, in die Speicherungseinheit 300.
  • <Identifikationsstufe>
  • Als Nächstes wird die Identifikationsstufe des Identifikationsverfahrens gemäß dieser Ausführungsform unter Bezugnahme auf 13 beschrieben. 13 ist ein Flussdiagramm zum Veranschaulichen der Identifikationsstufe des Identifikationsverfahrens gemäß dieser Ausführungsform. Wie in 13 dargestellt, beinhaltet die Registrierungsstufe gemäß dieser Ausführungsform mehrere Schritte von Schritt S401 bis Schritt S415. Da Schritt S401 bis Schritt S413 in 13 dieselben sind wie Schritt S301 bis Schritt S313 in 12, die oben beschrieben sind, und sich Schritt S415 in 13 dem Schritt S213 in 11 der ersten Ausführungsform ähnelt, ist anzumerken, dass die ausführliche Beschreibung von diesen Schritten hierin weggelassen wird. Zusätzlich dazu wird in 13 auch die Veranschaulichung der Detektion des Motivgebiets im Entfernungsbild 600 weggelassen.
  • Wie bei der ersten Ausführungsform wird die Identifikation bei dieser Ausführungsform unter Verwendung der dreidimensionalen Informationen (nicht dargestellt) oder des Direktreflexionslichtbildes 700, die bzw. das weniger wahrscheinlich durch Variationen im Umgebungslicht beeinflusst werden bzw. wird, anstatt unter Verwendung eines zweidimensionalen Bildes, das leicht durch Variationen im Umgebungslicht beeinflusst wird, durchgeführt. Somit ist es möglich, eine stabile Identifikation mit hoher Genauigkeit durchzuführen.
  • «5. Dritte Ausführungsform»
  • Bei der oben beschriebenen ersten und zweiten Ausführungsform beinhaltet das Identifikationssystem 10 mehrere Einrichtungen; zumindest ein Teil des Identifikationssystems 10 kann jedoch durch einen gestapelten Bildsensor gebildet sein. Angesichts dessen wird die dritte Ausführungsform, bei der der TOF-Sensor 100 und die Verarbeitungseinheit 200 durch einen gestapelten Bildsensor implementiert werden, unter Bezugnahme auf 14 und 15 beschrieben. 14 ist ein Diagramm, das ein Konfigurationsbeispiel eines gestapelten Bildsensors 20 gemäß dieser Ausführungsform darstellt. 15 ist ein Blockdiagramm, das ein ausführliches Konfigurationsbeispiel des gestapelten Bildsensors 20 gemäß dieser Ausführungsform darstellt.
  • Wie in 14 dargestellt, sind in dem gestapelten Bildsensor 20 ein Pixelgebiet 120 und ein Signalverarbeitungsschaltungsgebiet 220 übereinander gestapelt. Es ist anzumerken, dass in 14 das Pixelgebiet 120 als auf dem Signalverarbeitungsschaltungsgebiet 220 gestapelt dargestellt ist, bei dieser Ausführungsform ist die Stapelreihenfolge jedoch nicht auf die in 14 dargestellte Reihenfolge beschränkt und kann die umgekehrte Reihenfolge aufweisen.
  • Des Weiteren, wie in 15 dargestellt, beinhaltet das Signalverarbeitungsschaltungsgebiet 220 die Abstandsinformationen-Berechnungseinheit 202, die Direktreflexionslicht-Berechnungseinheit 204, die Motivdetektionseinheit 206, die Motivnormierungseinheit 210 und die Motividentifikationseinheit 212. Mit anderen Worten fungiert das Pixelgebiet 120 in dem gestapelten Bildsensor 20 als der TOF-Sensor 100 und gibt die Erfassungsdaten zu dem Signalverarbeitungsschaltungsgebiet 220 aus. Das Signalverarbeitungsschaltungsgebiet 220 fungiert als die Verarbeitungseinheit 200, gibt ein Bild, das durch eine Verarbeitung der Erfassungsdaten erhalten wird, zu der Speicherungseinheit 300 aus und führt eine Identifikation unter Verwendung des in der Speicherungseinheit 300 gespeicherten Bildes durch. In 15 kann das Signalverarbeitungsschaltungsgebiet 220 mit der Dreidimensionale-Umwandlung-Einheit 208, wie erforderlich, ausgestattet sein oder kann mit einer nicht veranschaulichten anderen Funktionseinheit ausgestattet sein. Mit anderen Worten kann das Identifikationssystem 10 bei dieser Ausführungsform einen gestapelten Bildsensor 20 und die Speicherungseinheit 300 extern zu dem gestapelten Bildsensor 20 beinhalten.
  • Zusätzlich dazu kann der gestapelte Bildsensor ein dreischichtiger gestapelter Bildsensor sein. Als ein modifiziertes Beispiel für diese Ausführungsform wird ein Beispiel für einen dreischichtigen gestapelten Bildsensor 20a unter Bezugnahme auf 17 und 18 beschrieben. 16 ist ein Diagramm, das ein Konfigurationsbeispiel des gestapelten Bildsensors 20a gemäß einem modifizierten Beispiel dieser Ausführungsform darstellt. 17 ist ein Blockdiagramm, das ein ausführliches Konfigurationsbeispiel des gestapelten Bildsensors 20a gemäß dem modifizierten Beispiel dieser Ausführungsform darstellt.
  • Wie in 16 dargestellt, ist in dem dreischichtigen gestapelten Bildsensor 20a ein Speichergebiet 320 zusätzlich zu dem Pixelgebiet 120 und dem Signalverarbeitungsschaltungsgebiet 220 gestapelt. Es ist anzumerken, dass 16 das Pixelgebiet 120 auf dem Speichergebiet 320 gestapelt und das Speichergebiet 320 auf dem Signalverarbeitungsschaltungsgebiet 220 gestapelt darstellt. Bei dieser Ausführungsform ist die Stapelreihenfolge jedoch nicht auf die wie in 16 dargestellte Reihenfolge beschränkt und kann eine andere Reihenfolge sein.
  • Bei diesem modifizierten Beispiel, wie in 17 dargestellt, ist das Speichergebiet 320 mit der Speicherungseinheit 300 zum Speichern eines für eine Identifikation verwendeten Bildes ausgestattet. Mit anderen Worten kann das Identifikationssystems 10 bei diesem modifizierten Beispiel durch einen gestapelten Bildsensor 20a implementiert werden. Anders gesagt, kann der gestapelte Bildsensor 20a selbst eine Identifikation durchführen. Es ist anzumerken, dass in diesem modifizierten Beispiel auch das Signalverarbeitungsschaltungsgebiet 220 mit der Dreidimensionale-Umwandlung-Einheit 208 und so weiter, wie erforderlich, ausgestattet sein kann.
  • Wie oben beschrieben, wird gemäß dieser Ausführungsform und diesem modifizierten Beispiel zumindest ein Teil des Identifikationssystems 10 durch den gestapelten Bildsensor 20 implementiert; dadurch kann das Identifikationssystem 10 ein kompakteres System mit verringertem Leistungsverbrauch sein. Infolge des Vorstehenden kann das Identifikationssystem 10 gemäß den Ausführungsformen der vorliegenden Offenbarung an verschiedenen elektronischen Einrichtungen befestigt werden, wie später beschrieben.
  • «6. Vierte Ausführungsform»
  • Wie oben beschrieben, kann das Identifikationssystem 10 (der gestapelte Bildsensor 20) gemäß der ersten bis dritten Ausführungsform an einer elektronischen Einrichtung befestigt sein, wie etwa einem Desktop-Personal-Computer (PC), einem Notebook-PC, einem Laptop-PC, einem Smartphone, einem Mobiltelefon, einer Kamera oder einer tragbaren Einrichtung.
  • Das Identifikationssystem 10 gemäß dieser Ausführungsform kann zum Beispiel an verschiedenen PCs, Smartphones, Mobiltelefonen oder dergleichen als eine Gesichtsauthentifizierungseinrichtung befestigt sein, um eine Authentifizierung eines Benutzers durchzuführen, der eine derartige elektronische Einrichtung verwendet, oder um eine elektronische Zahlung durchzuführen. Zusätzlich dazu kann das Identifikationssystem 10 an einer Sicherheitskamera, einem Sicherheitssystem oder dergleichen befestigt sein, wie etwa einer Einrichtung zum Detektieren einer verdächtigen Person oder dergleichen. Zusätzlich dazu kann das Identifikationssystem 10 gemäß dieser Ausführungsform an einem Inspektionssystem oder dergleichen als eine Inspektionseinrichtung zur Bildidentifikation, ob ein Produkt bei verschiedenen Fertigungsanlagen richtig hergestellt wird, auf Basis der Form oder dergleichen des Produkts, befestigt sein.
  • Zusätzlich dazu kann das Identifikationssystem 10 als eine Einrichtung zum Erkennen des umliegenden Raums an einer am Kopf befestigten Anzeige (HDM: Head Mounted Display) oder einer brillenartigen tragbaren Einrichtung befestigt sein, um den Raum um einen Benutzer herum genau zu erkennen. Des Weiteren kann das Identifikationssystem 10 gemäß dieser Ausführungsform an einem selbstfahrenden Roboter oder dergleichen befestigt sein, um Hindernisse um ihn herum zu erkennen. Zusätzlich dazu kann das Identifikationssystem 10 an einer Kamera mit einer Autofokusfunktion befestigt sein, sodass die Genauigkeit der Detektion eines Motivs durch die Kamera verbessert wird und ein Kamerafokus genauer gesteuert wird.
  • Angesichts dessen wird als die vierte Ausführungsform der vorliegenden Offenbarung ein Konfigurationsbeispiel für eine elektronische Einrichtung 900, an der das Identifikationssystem 10 befestigt ist, unter Bezugnahme auf 18 beschrieben. 18 ist ein Blockdiagramm, das ein Beispiel für die Hardwarekonfiguration der elektronischen Einrichtung 900 gemäß dieser Ausführungsform darstellt.
  • Die elektronische Einrichtung 900 beinhaltet zum Beispiel eine CPU 950, einen ROM 952, einen RAM 954, ein Aufzeichnungsmedium 956, eine Eingabe/Ausgabe-Schnittstelle 958 und eine Operationseingabeeinrichtung 960. Die elektronische Einrichtung 900 beinhaltet ferner eine Anzeigeeinrichtung 962, eine Kommunikationsschnittstelle 968 und einen TOF-Sensor 980. Des Weiteren sind die individuellen strukturellen Elemente in der elektronischen Einrichtung 900 durch zum Beispiel einen Bus 970 als einen Datenübertragungspfad miteinander verbunden.
  • (CPU 950)
  • Die CPU 950 beinhaltet unterschiedliche Verarbeitungsschaltungen und mindestens einen oder zwei Prozessoren mit arithmetischen Schaltungen, wie etwa eine CPU, und fungiert als eine Steuereinheit, die die gesamte elektronische Einrichtung 900 steuert. Genauer gesagt, fungiert die CPU 950 als zum Beispiel die Abstandsinformationen-Berechnungseinheit 202, die Direktreflexionslicht-Berechnungseinheit 204, die Motivdetektionseinheit 206, die Dreidimensionale-Umwandlung-Einheit 208, die Motivnormierungseinheit 210, die Motividentifikationseinheit 212 und so weiter.
  • (ROM 952 und RAM 954)
  • Der ROM 952 speichert Steuerdaten, wie etwa ein Programm, Betriebsparameter und so weiter, die durch die CPU 950 verwendet werden. Der RAM 954 speichert zum Beispiel ein Programm und so weiter temporär, das durch die CPU 950 ausgeführt wird.
  • (Aufzeichnungsmedium 956)
  • Das Aufzeichnungsmedium 956 speichert zum Beispiel verschiedene Daten, wie etwa ein Bild, das in dem Identifikationsverfahren gemäß dieser Ausführungsform verwendet wird. Das Aufzeichnungsmedium 956 hierin ist zum Beispiel ein nichtflüchtiger Speicher, wie etwa ein Flash-Speicher. Zusätzlich dazu kann das Aufzeichnungsmedium 956 von der elektronischen Einrichtung 900 abtrennbar sein.
  • (Eingabe/Ausgabe-Schnittstelle 958, Operationseingabeeinrichtung 960 und Anzeigeeinrichtung 962)
  • Die Operationseingabeeinrichtung 960, die Anzeigeeinrichtung 962 oder dergleichen ist zum Beispiel mit der Eingabe/Ausgabe-Schnittstelle 958 verbunden. Beispiele für die Eingabe/Ausgabe-Schnittstelle 958 beinhalten einen USB(Universal Serial Bus)-Anschluss, einen DVI(Digital Visual Interface)-Anschluss, einen HDMI(High-Definition Multimedia Interface)-Anschluss (eingetragenes Markenzeichen) und verschiedene Verarbeitungsschaltungen.
  • Die Operationseingabeeinrichtung 960 fungiert zum Beispiel als eine Eingabeeinheit, die eine Benutzeroperation an der elektronischen Einrichtung 900 empfängt, und ist mit der Eingabe/Ausgabe-Schnittstelle 958 innerhalb der elektronischen Einrichtung 900 verbunden.
  • Die Anzeigeeinrichtung 962 fungiert zum Beispiel als die Anzeigeeinheit 400, die ein Identifikationsergebnis zu dem Benutzer ausgibt. Die Anzeigeeinrichtung 962 ist an der elektronischen Einrichtung 900 bereitgestellt und ist mit der Eingabe/Ausgabe-Schnittstelle 958 innerhalb der elektronischen Einrichtung 900 verbunden. Beispiele für die Anzeigeeinrichtung 962 beinhalten eine Flüssigkristallanzeige und eine organische Elektro-Lumineszenz(EL)-Anzeige.
  • Es ist anzumerken, dass die Eingabe/Ausgabe-Schnittstelle 958 mit einer externen Einrichtung, wie etwa einer Operationseingabeeinrichtung (zum Beispiel Tastatur, Maus oder dergleichen) extern zu der elektronischen Einrichtung 900, einer externen Anzeigeeinrichtung und so weiter verbunden werden kann. Zusätzlich dazu kann die Eingabe/Ausgabe-Schnittstelle 958 auch mit einem Laufwerk (nicht dargestellt) verbunden sein. Das Laufwerk ist ein Lese-/Schreibgerät für ein entfernbares Aufzeichnungsmedium, wie etwa eine magnetische Platte, eine optische Platte oder ein Halbleiterspeicher, und ist eingebaut oder extern an der elektronischen Einrichtung 900 angebracht. Das Laufwerk liest Informationen, die auf dem angebrachten entfernbaren Aufzeichnungsmedium aufgezeichnet sind, aus und gibt die Informationen zu dem RAM 954 aus. Zusätzlich dazu kann das Laufwerk Datensätze auf das angebrachte entfernbare Aufzeichnungsmedium schreiben.
  • (Kommunikationsschnittstelle 968)
  • Die Kommunikationsschnittstelle 968 fungiert als eine Kommunikationseinheit zum drahtlosen oder verdrahteten Kommunizieren mit einer Einrichtung extern zu der elektronischen Einrichtung 900. Beispiele für die Kommunikationsschnittstelle 968 beinhalten eine Kommunikationsantenne und eine Hochfrequenz(HF)-Schaltung (Drahtloskommunikation), einen IEEE 802.15.1-Port und/oder eine Übertragungs-/Empfangsschaltung (Drahtloskommunikation), einen IEEE 802.11-Port und eine Übertragungs-/Empfangsschaltung (Drahtloskommunikation) und einen Lokalnetz(LAN: Local Area Network)-Anschluss und eine Übertragungs-/Empfangsschaltung (verdrahtete Kommunikation).
  • (TOF-Sensor 980)
  • Der TOF-Sensor 980 fungiert als der TOF-Sensor 100.
  • Die Beschreibung eines Beispiels der Hardwarekonfiguration der elektronischen Einrichtung 900 ist oben bereitgestellt. Es ist anzumerken, dass die Hardwarekonfiguration der elektronischen Einrichtung 900 nicht auf die in 18 dargestellte Konfiguration beschränkt ist. Insbesondere kann jedes der strukturellen Elemente unter Verwendung eines Allgemeinzweckglieds implementiert werden oder kann durch Hardware implementiert werden, die für die Funktion jedes der strukturellen Elemente spezialisiert ist. Eine derartige Konfiguration kann zweckmäßig gemäß einem technischen Niveau zu der Zeit der Implementierung modifiziert werden.
  • Die elektronische Einrichtung 900 weist zum Beispiel in einem Fall, bei dem die elektronische Einrichtung 900 dazu ausgelegt ist, eine Verarbeitung unabhängig durchzuführen, nicht notwendigerweise die Kommunikationsschnittstelle 968 auf. Zusätzlich dazu kann die Kommunikationsschnittstelle 968 eine Konfiguration aufweisen, die in der Lage ist, mit mindestens einer oder zwei externen Einrichtungen mit mehreren Kommunikationsverfahren zu kommunizieren. Zusätzlich dazu kann die elektronische Einrichtung 900 dazu ausgelegt sein, zum Beispiel nicht das Aufzeichnungsmedium 956, die Operationseingabeeinrichtung 960, die Anzeigeeinrichtungen 962 oder dergleichen aufzuweisen.
  • Zusätzlich dazu kann die elektronische Einrichtung 900 gemäß dieser Ausführungsform unter der Voraussetzung einer Verbindung mit einem Netzwerk (oder einer Kommunikation zwischen den Einrichtungen), wie etwa Cloud-Computing, ein System einschließlich mehrerer Einrichtungen sein. In einem derartigen Fall kann die Verarbeitung für die Identifikation oder für das zur Identifikation verwendete Bild durch einen Computer (nicht dargestellt) in der Cloud durchgeführt werden. Mit anderen Worten kann die oben beschriebene elektronische Einrichtung 900 gemäß dieser Ausführungsform auch als ein Verarbeitungssystem implementiert werden, bei dem mehrere Einrichtungen die Verarbeitung bezüglich des Identifikationsverfahrens gemäß dieser Ausführungsform durchführen.
  • <<Zusammenfassung>>
  • Wie oben beschrieben, werden bei jeder der Ausführungsformen der vorliegenden Offenbarung, anstatt eines zweidimensionalen Bildes, das leicht durch Variationen im Umgebungslicht beeinflusst wird, das Entfernungsbild 600, die dreidimensionalen Informationen (nicht dargestellt) und das Direktreflexionslichtbild 700, die weniger wahrscheinlich durch Variationen im Umgebungslicht beeinflusst werden, zur Identifikation verwendet. Gemäß den Ausführungsformen ist es somit möglich, eine stabile Identifikation mit hoher Genauigkeit selbst in einem Fall durchzuführen, bei dem das Umgebungslicht variiert.
  • Insbesondere ist es, im Gegensatz zu der obigen Patentliteratur 1, gemäß den Ausführungsformen nicht notwendig, Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502 zu schätzen und die Beleuchtung zu steuern, sodass die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Vergleichsgesichtsbildes 504 dieselben wie die Beleuchtungsbedingungen zu der Zeit der Bildaufnahme des Registrierungsgesichtsbildes 502 gemacht werden. Gemäß den Ausführungsformen kann somit eine längere Verarbeitungszeit oder eine Zunahme im Leistungsverbrauch im Vergleich zur Patentliteratur 1 vermieden werden, und ferner können auch die zunehmenden Komplexitäten der Konfiguration des Identifikationssystems oder eine Zunahme in den Herstellungskosten vermieden werden.
  • Zusätzlich dazu besteht gemäß den Ausführungsformen, im Gegensatz zu dem früher beschriebenen Verfahren mit einer Stereokamera, keine Notwendigkeit, zwei Kameras bereitzustellen. Gemäß den Ausführungsformen ist es somit möglich, zu verhindern, dass die Einrichtung eine große Struktur aufweist, und eine Zunahme in den Herstellungskosten zu vermeiden.
  • Des Weiteren besteht gemäß den Ausführungsformen, im Gegensatz zu dem früher beschriebenen strukturierten Lichtverfahren, keine Notwendigkeit, Licht mit einem vorbestimmten Muster auf die Oberfläche eines Motivs zu projizieren. Gemäß den Ausführungsformen kann somit die Genauigkeit der Identifikation verbessert werden, da keine Identifikation unter Verwendung eines Bildes des Motivs, auf das das vorbestimmte Muster projiziert wird, durchgeführt wird.
  • Zusätzlich dazu ist es gemäß den Ausführungsformen möglich, Abstandsinformationen des Motivs ohne eine kontinuierliche Aufnahme von Bildern des Motivs zu berechnen, während die Kamera um das Motiv herum bewegt wird und mehrere aufgenommene Einzelbilder des Motivs erhalten werden. Gemäß den Ausführungsformen kann das Motiv somit selbst in einem Fall identifiziert werden, bei dem sich das Motiv bewegt oder sich der Umriss des Motivs ändert.
  • In jeder der Ausführungsformen der vorliegenden Offenbarung, wie oben beschrieben, kann die Identifikation unter Verwendung von mindestens einem Teil der Abstandsinformationen (Entfernungsbild 600), der Direktreflexionslichtinformationen (Direktreflexionslichtbild 700) oder der dreidimensionalen Koordinateninformationen (dreidimensionales Bild) durchgeführt werden. Bei den Ausführungsformen kann die Genauigkeit der Identifikation jedoch weiter verbessert werden; daher wird bevorzugt, eine Identifikation unter Verwendung von zwei Teilen der Direktreflexionslichtinformationen (Reflexionslichtbild 700) und der Abstandsinformationen (Entfernungsbild 600) und der dreidimensionalen Koordinateninformationen (dreidimensionales Bild) durchzuführen.
  • Zusätzlich dazu wird bei den Ausführungsformen der vorliegenden Offenbarung die Beschreibung unter der Annahme bereitgestellt, dass das Gesicht einer Person identifiziert wird. Bei den Ausführungsformen ist die Identifikation jedoch nicht auf die Identifikation des Gesichts einer Person beschränkt und ist bei einer Identifikation eines anderen Objekts, wie etwa einer Identifikation der Form eines Produkts, anwendbar.
  • «8. Ergänzung»
  • Jeder der Schritte im Identifikationsverfahren gemäß den Ausführungsformen wird nicht notwendigerweise entlang der dargelegten Reihenfolge verarbeitet. Zum Beispiel kann jeder der Schritte mit einer zweckmäßig geänderten Reihenfolge verarbeitet werden. Des Weiteren kann jeder der Schritte teilweise parallel oder separat verarbeitet werden, anstatt in der chronologischen Reihenfolge verarbeitet zu werden. Des Weiteren wird die Verarbeitung jedes der Schritte nicht notwendigerweise gemäß dem beschriebenen Verfahren verarbeitet und kann zum Beispiel durch einen anderen Funktionsblock unter Verwendung eines anderen Verfahrens verarbeitet werden.
  • Des Weiteren kann zumindest ein Teil des Identifikationsverfahrens gemäß den Ausführungsformen durch Software als ein Informationsverarbeitungsprogramm, das einen Computer zum Arbeiten veranlasst, implementiert werden. In diesem Fall kann ein Programm zum Implementieren von zumindest einem Teil dieser Verfahren in einem Aufzeichnungsmedium gespeichert sein und kann in die Verarbeitungseinheit 200, die elektronische Einrichtung 900 und dergleichen oder in eine andere Einrichtung, die mit der Verarbeitungseinheit 200 oder der elektronischen Einrichtung 900 verbunden ist, gelesen oder durch diese ausgeführt werden. Zusätzlich dazu kann ein Programm zum Implementieren von zumindest einem Teil des Identifikationsverfahrens über eine Kommunikationsleitung (einschließlich Drahtloskommunikation), wie etwa das Internet, verteilt sein. Des Weiteren kann das Programm verschlüsselt, moduliert oder komprimiert sein und dann kann das resultierende Programm über eine verdrahtete Leitung, wie etwa das Internet, oder eine drahtlose Leitung verteilt werden oder in einem Aufzeichnungsmedium zur Verteilung gespeichert werden.
  • Die bevorzugte(n) Ausführungsform(en) der vorliegenden Offenbarung wurde(n) oben unter Bezugnahme auf die begleitenden Zeichnungen beschrieben, wenngleich die vorliegende Offenbarung nicht auf die obigen Beispiele beschränkt ist. Ein Fachmann kann verschiedene Abänderungen und Modifikationen innerhalb des Schutzumfangs der angehängten Ansprüche finden und es versteht sich, dass sie natürlich in dem technischen Schutzumfang der vorliegenden Offenbarung liegen werden.
  • Ferner sind die in dieser Spezifikation beschriebenen Effekte lediglich veranschaulichende oder beispielhafte Effekte und sind nicht beschränkend. Das heißt, die Technologie gemäß der vorliegenden Offenbarung kann mit den oder anstelle der obigen Effekte andere Effekte erzielen, die einem Fachmann aus der Beschreibung dieser Spezifikation ersichtlich sind.
  • Zusätzlich dazu kann die vorliegende Technologie auch wie unten beschrieben konfiguriert sein.
    1. (1) Eine Identifikationseinrichtung, die Folgendes beinhaltet:
      • eine Direktreflexionslichtinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Direktreflexionslichtinformationen über direkt reflektiertes Licht vom Objekt zu berechnen;
      • eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen zu detektieren; und
      • eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen über das detektierte Objekt zu identifizieren.
    2. (2) Die Identifikationseinrichtung nach (1), wobei der TOF-Sensor eine erste und zweite Lichtempfangseinheit beinhaltet, die sich im Betrieb voneinander unterscheiden, und die Direktreflexionslichtinformationen-Berechnungseinheit die Direktreflexionslichtinformationen auf Basis einer Intensität des durch die erste und zweite Lichtempfangseinheit detektierten Lichts berechnet.
    3. (3) Die Identifikationseinrichtung nach (1), wobei der TOF-Sensor eine Lichtempfangseinheit und eine erste und zweite Ausleseeinheit, die dazu ausgelegt sind, durch die Lichtempfangseinheit zu unterschiedlichen Zeiten empfangenes Licht auszulesen, beinhaltet, und die Direktreflexionslichtinformationen-Berechnungseinheit die Direktreflexionslichtinformationen auf Basis einer Intensität des durch die erste und zweite Ausleseeinheit ausgelesenen Lichts berechnet.
    4. (4) Die Identifikationseinrichtung nach (2) oder (3), wobei die Direktreflexionslichtinformationen-Berechnungseinheit die Direktreflexionslichtinformationen auf Basis von Folgendem berechnet:
      • einer Differenz zwischen einem integrierten Wert einer Intensität von durch die erste Lichtempfangseinheit detektiertem Licht und einem integrierten Wert einer Intensität von durch die zweite Lichtempfangseinheit detektiertem Licht, oder
      • einer Differenz zwischen einem integrierten Wert einer Intensität von durch die erste Ausleseeinheit ausgelesenem Licht und einem integrierten Wert einer Intensität von durch die zweite Ausleseeinheit ausgelesenem Licht.
    5. (5) Die Identifikationseinrichtung nach einem von (1) bis (4), die ferner eine Normierungsverarbeitungseinheit beinhaltet, die dazu ausgelegt ist, die Direktreflexionslichtinformationen über das detektierte Objekt zu normieren.
    6. (6) Die Identifikationseinrichtung nach (5), wobei die Normierungsverarbeitungseinheit die Direktreflexionslichtinformationen über das detektierte Objekt normiert, sodass ein Abstand vom TOF-Sensor zu dem Objekt zu einem vorbestimmten Abstand angepasst wird, sodass eine Größe des Objekts zu einer vorbestimmten Größe angepasst wird, sodass eine Orientierung des Objekts zu einer vorbestimmten Orientierung angepasst wird, oder sodass die Helligkeit der Direktreflexionslichtinformationen über das detektierte Objekt zu einer vorbestimmten Helligkeit angepasst wird.
    7. (7) Die Identifikationseinrichtung nach einem von (1) bis (6), die ferner eine Speicherungseinheit beinhaltet, die dazu ausgelegt ist, die Direktreflexionslichtinformationen über das Objekt zu speichern, wobei die Objektidentifikationseinheit das Objekt durch Vergleichen von Direktreflexionslichtinformationen über das Objekt, die im Voraus gespeichert werden, und der Direktreflexionslichtinformationen über das Objekt, die neu berechnet werden, identifiziert.
    8. (8) Die Identifikationseinrichtung nach (7), wobei die Speicherungseinheit die normierten Direktreflexionslichtinformationen über das Objekt speichert.
    9. (9) Die Identifikationseinrichtung nach einem von (1) bis (8), die ferner eine Abstandsinformationen-Berechnungseinheit beinhaltet, die dazu ausgelegt ist, Abstandsinformationen über das Objekt auf Basis der Erfassungsdaten zu berechnen, wobei die Objektidentifikationseinheit das Objekt auf Basis der Abstandsinformationen identifiziert.
    10. (10) Eine Identifikationseinrichtung, die Folgendes beinhaltet:
      • eine Abstandsinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Abstandsinformationen über das Objekt zu berechnen;
      • eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Abstandsinformationen zu detektieren; und
      • eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Abstandsinformationen über das detektierte Objekt zu identifizieren.
    11. (11) Die Identifikationseinrichtung nach (10), wobei die Abstandsinformationen-Berechnungseinheit die Abstandsinformationen auf Basis einer Phasendifferenz zwischen dem geschienenen Licht und dem detektierten Licht berechnet.
    12. (12) Die Identifikationseinrichtung nach (10) oder (11), wobei der TOF-Sensor eine erste und zweite Lichtempfangseinheit beinhaltet, die sich im Betrieb voneinander unterscheiden, und die Abstandsinformationen-Berechnungseinheit die Abstandsinformationen auf Basis einer Intensität des durch die erste und zweite Lichtempfangseinheit detektierten Lichts berechnet.
    13. (13) Die Identifikationseinrichtung nach (10) oder (11), wobei der TOF-Sensor eine Lichtempfangseinheit und eine erste und zweite Ausleseeinheit, die dazu ausgelegt sind, durch die Lichtempfangseinheit zu unterschiedlichen Zeiten empfangenes Licht auszulesen, beinhaltet, und die Abstandsinformationen-Berechnungseinheit die Abstandsinformationen auf Basis einer Intensität des durch die erste und zweite Ausleseeinheit ausgelesenen Lichts berechnet.
    14. (14) Die Identifikationseinrichtung nach (12) oder (13), wobei die Abstandsinformationen-Berechnungseinheit die Abstandsinformationen auf Basis von Folgendem berechnet:
      • einer Differenz zwischen einem integrierten Wert einer Intensität von durch die erste Lichtempfangseinheit detektiertem Licht und einem integrierten Wert einer Intensität von durch die zweite Lichtempfangseinheit detektiertem Licht, oder
      • einer Differenz zwischen einem integrierten Wert einer Intensität von durch die erste Ausleseeinheit ausgelesenem Licht und einem integrierten Wert einer Intensität von durch die zweite Ausleseeinheit ausgelesenem Licht.
    15. (15) Die Identifikationseinrichtung nach einem von (10) bis (14), die ferner eine Normierungsverarbeitungseinheit beinhaltet, die dazu ausgelegt ist, die Abstandsinformationen über das detektierte Objekt zu normieren, wobei die Normierungsverarbeitungseinheit die Abstandsinformationen über das detektierte Objekt normiert, sodass ein Abstand vom TOF-Sensor zu dem Objekt zu einem vorbestimmten Abstand angepasst wird, sodass eine Größe des Objekts zu einer vorbestimmten Größe angepasst wird, sodass eine Orientierung des Objekts zu einer vorbestimmten Orientierung angepasst wird, oder sodass die Helligkeit von Direktreflexionslichtinformationen über das detektierte Objekt zu einer vorbestimmten Helligkeit angepasst wird.
    16. (16) Die Identifikationseinrichtung nach einem von (10) bis (15), die ferner eine Speicherungseinheit beinhaltet, die dazu ausgelegt ist, die Abstandsinformationen über das Objekt zu speichern, wobei die Objektidentifikationseinheit das Objekt durch Vergleichen von Abstandsinformationen über das Objekt, die im Voraus gespeichert werden, und der Abstandsinformationen über das Objekt, die neu berechnet werden, identifiziert.
    17. (17) Die Identifikationseinrichtung nach (10), die ferner eine Dreidimensionale-Koordinaten-Berechnungseinheit beinhaltet, die dazu ausgelegt ist, dreidimensionale Koordinateninformationen über das Objekt auf Basis der Abstandsinformationen zu berechnen, wobei die Objektidentifikationseinheit das Objekt auf Basis der dreidimensionalen Koordinateninformationen identifiziert.
    18. (18) Die Identifikationseinrichtung nach (17), die ferner eine Normierungsverarbeitungseinheit beinhaltet, die dazu ausgelegt ist, die dreidimensionalen Koordinateninformationen zu normieren, wobei die Normierungsverarbeitungseinheit die dreidimensionalen Koordinateninformationen normiert, sodass ein Abstand vom TOF-Sensor zu dem Objekt zu einem vorbestimmten Abstand angepasst wird, sodass eine Größe des Objekts zu einer vorbestimmten Größe angepasst wird, sodass eine Orientierung des Objekts zu einer vorbestimmten Orientierung angepasst wird, oder sodass die Helligkeit von Direktreflexionslichtinformationen über das detektierte Objekt zu einer vorbestimmten Helligkeit angepasst wird.
    19. (19) Die Identifikationseinrichtung nach (17) oder (18), die ferner eine Speicherungseinheit beinhaltet, die dazu ausgelegt ist, die dreidimensionalen Koordinateninformationen über das Objekt zu speichern, wobei die Objektidentifikationseinheit das Objekt durch Vergleichen von dreidimensionalen Koordinateninformationen über das Objekt, die im Voraus gespeichert werden, und der dreidimensionalen Koordinateninformationen über das Objekt, die neu berechnet werden, identifiziert.
    20. (20) Die Identifikationseinrichtung nach einem von (1) bis (19), die ferner den TOF-Sensor beinhaltet.
    21. (21) Die Identifikationseinrichtung nach (20), wobei ein Pixelgebiet, das als der TOF-Sensor fungiert, und ein Signalverarbeitungsschaltungsgebiet, das als die Objektdetektionseinheit und die Objektidentifikationseinheit fungiert, so bereitgestellt sind, dass sie übereinander gestapelt sind.
    22. (22) Eine elektronische Einrichtung mit einer an der elektronischen Einrichtung befestigten Identifikationseinrichtung, wobei die Identifikationseinrichtung Folgendes beinhaltet:
      • eine Direktreflexionslichtinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Direktreflexionslichtinformationen über direkt reflektiertes Licht vom Objekt zu berechnen,
      • eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen zu detektieren, und
      • eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen über das detektierte Objekt zu identifizieren.
  • Bezugszeichenliste
  • 10
    Identifikationssystem
    20, 20a
    gestapelter Bildsensor
    100,
    980TOF-Sensor
    102
    Bestrahlungseinheit
    104, 104a, 104b
    Lichtempfangseinheit
    120
    Pixelgebiet
    200
    Verarbeitungseinheit
    202
    Abstandsinformationen-Berechnungseinheit
    204
    Direktreflexionslicht-Berechnungseinheit
    206
    Motivdetektionseinheit
    208
    Dreidimensionale-Umwandlung-Einheit
    210
    Motivnormierungseinheit
    212
    Motividentifikationseinheit
    220
    Signalverarbeitungsschaltungsgebiet
    300
    Speicherungseinheit
    320
    Speichergebiet
    400
    Anzeigeeinheit
    502, 502a
    Registrierungsgesichtsbild
    504, 504b, 504c, 504d
    Vergleichsgesichtsbild
    600
    Entfernungsbild
    602, 602a
    Registrierungsentfernungsbild
    604, 604b, 604c, 604d
    Vergleichsentfernungsbild
    700
    Direktreflexionslichtbild
    702, 702a
    Registrierungsdirektreflexionslichtbild
    704, 704b, 704c, 704d
    Vergleichsdirektreflexionslichtbilder
    612, 620, 622, 710, 712
    Motivgebiet
    800a, 800b
    Gebiet
    900
    elektronische Einrichtung
    950
    CPU
    952
    ROM
    954
    RAM
    956
    Aufzeichnungsmedium
    958
    Eingabe/Ausgabe-Schnittstelle
    960
    Operationseingabeeinrichtung
    962
    Anzeigeeinrichtung
    968
    Kommunikationsschnittstelle
    970
    Bus
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2017027492 A [0004]

Claims (20)

  1. Identifikationseinrichtung, die Folgendes umfasst: eine Direktreflexionslichtinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Direktreflexionslichtinformationen über direkt reflektiertes Licht vom Objekt zu berechnen; eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen zu detektieren; und eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen über das detektierte Objekt zu identifizieren.
  2. Identifikationseinrichtung nach Anspruch 1, wobei der TOF-Sensor eine erste und zweite Lichtempfangseinheit beinhaltet, die sich im Betrieb voneinander unterscheiden, und die Direktreflexionslichtinformationen-Berechnungseinheit die Direktreflexionslichtinformationen auf Basis einer Intensität des durch die erste und zweite Lichtempfangseinheit detektierten Lichts berechnet.
  3. Identifikationseinrichtung nach Anspruch 1, wobei der TOF-Sensor eine Lichtempfangseinheit und eine erste und zweite Ausleseeinheit, die dazu ausgelegt sind, durch die Lichtempfangseinheit zu unterschiedlichen Zeiten empfangenes Licht auszulesen, beinhaltet, und die Direktreflexionslichtinformationen-Berechnungseinheit die Direktreflexionslichtinformationen auf Basis einer Intensität des durch die erste und zweite Ausleseeinheit ausgelesenen Lichts berechnet.
  4. Identifikationseinrichtung nach Anspruch 2, wobei die Direktreflexionslichtinformationen-Berechnungseinheit die Direktreflexionslichtinformationen auf Basis einer Differenz zwischen einem integrierten Wert einer Intensität von durch die erste Lichtempfangseinheit detektiertem Licht und einem integrierten Wert einer Intensität von durch die zweite Lichtempfangseinheit detektiertem Licht berechnet.
  5. Identifikationseinrichtung nach Anspruch 1, die ferner eine Normierungsverarbeitungseinheit umfasst, die dazu ausgelegt ist, die Direktreflexionslichtinformationen über das detektierte Objekt zu normieren.
  6. Identifikationseinrichtung nach Anspruch 5, wobei die Normierungsverarbeitungseinheit die Direktreflexionslichtinformationen über das detektierte Objekt normiert, sodass ein Abstand vom TOF-Sensor zu dem Objekt zu einem vorbestimmten Abstand angepasst wird, sodass eine Größe des Objekts zu einer vorbestimmten Größe angepasst wird, sodass eine Orientierung des Objekts zu einer vorbestimmten Orientierung angepasst wird, oder sodass die Helligkeit der Direktreflexionslichtinformationen über das detektierte Objekt zu einer vorbestimmten Helligkeit angepasst wird.
  7. Identifikationseinrichtung nach Anspruch 1, die ferner eine Speicherungseinheit umfasst, die dazu ausgelegt ist, die Direktreflexionslichtinformationen über das Objekt zu speichern, wobei die Objektidentifikationseinheit das Objekt durch Vergleichen von Direktreflexionslichtinformationen über das Objekt, die im Voraus gespeichert werden, und der Direktreflexionslichtinformationen über das Objekt, die neu berechnet werden, identifiziert.
  8. Identifikationseinrichtung nach Anspruch 7, wobei die Speicherungseinheit die normierten Direktreflexionslichtinformationen über das Objekt speichert.
  9. Identifikationseinrichtung nach Anspruch 1, die ferner eine Abstandsinformationen-Berechnungseinheit umfasst, die dazu ausgelegt ist, Abstandsinformationen über das Objekt auf Basis der Erfassungsdaten zu berechnen, wobei die Objektidentifikationseinheit das Objekt auf Basis der Abstandsinformationen identifiziert.
  10. Identifikationseinrichtung, die Folgendes umfasst: eine Abstandsinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Abstandsinformationen über das Objekt zu berechnen; eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Abstandsinformationen zu detektieren; und eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Abstandsinformationen über das detektierte Objekt zu identifizieren.
  11. Identifikationseinrichtung nach Anspruch 10, wobei der TOF-Sensor eine erste und zweite Lichtempfangseinheit beinhaltet, die sich im Betrieb voneinander unterscheiden, und die Abstandsinformationen-Berechnungseinheit die Abstandsinformationen auf Basis einer Intensität des durch die erste und zweite Lichtempfangseinheit detektierten Lichts berechnet.
  12. Identifikationseinrichtung nach Anspruch 10, wobei der TOF-Sensor eine Lichtempfangseinheit und eine erste und zweite Ausleseeinheit, die dazu ausgelegt sind, durch die Lichtempfangseinheit zu unterschiedlichen Zeiten empfangenes Licht auszulesen, beinhaltet, und die Abstandsinformationen-Berechnungseinheit die Abstandsinformationen auf Basis einer Intensität des durch die erste und zweite Ausleseeinheit ausgelesenen Lichts berechnet.
  13. Identifikationseinrichtung nach Anspruch 11, wobei die Abstandsinformationen-Berechnungseinheit die Abstandsinformationen auf Basis einer Differenz zwischen einem integrierten Wert einer Intensität von durch die erste Lichtempfangseinheit detektiertem Licht und einem integrierten Wert einer Intensität von durch die zweite Lichtempfangseinheit detektiertem Licht berechnet.
  14. Identifikationseinrichtung nach Anspruch 10, die ferner eine Normierungsverarbeitungseinheit umfasst, die dazu ausgelegt ist, die Abstandsinformationen über das detektierte Objekt zu normieren, wobei die Normierungsverarbeitungseinheit die Abstandsinformationen über das detektierte Objekt normiert, sodass ein Abstand vom TOF-Sensor zu dem Objekt zu einem vorbestimmten Abstand angepasst wird, sodass eine Größe des Objekts zu einer vorbestimmten Größe angepasst wird, sodass eine Orientierung des Objekts zu einer vorbestimmten Orientierung angepasst wird, oder sodass die Helligkeit von Direktreflexionslichtinformationen über das detektierte Objekt zu einer vorbestimmten Helligkeit angepasst wird.
  15. Identifikationseinrichtung nach Anspruch 10, die ferner eine Speicherungseinheit umfasst, die dazu ausgelegt ist, die Abstandsinformationen über das Objekt zu speichern, wobei die Objektidentifikationseinheit das Objekt durch Vergleichen von Abstandsinformationen über das Objekt, die im Voraus gespeichert werden, und der Abstandsinformationen über das Objekt, die neu berechnet werden, identifiziert.
  16. Die Identifikationseinrichtung nach Anspruch 10, die ferner eine Dreidimensionale-Koordinaten-Berechnungseinheit umfasst, die dazu ausgelegt ist, dreidimensionale Koordinateninformationen über das Objekt auf Basis der Abstandsinformationen zu berechnen, wobei die Objektidentifikationseinheit das Objekt auf Basis der dreidimensionalen Koordinateninformationen identifiziert.
  17. Identifikationseinrichtung nach Anspruch 16, die ferner eine Normierungsverarbeitungseinheit umfasst, die dazu ausgelegt ist, die dreidimensionalen Koordinateninformationen zu normieren, wobei die Normierungsverarbeitungseinheit die dreidimensionalen Koordinateninformationen normiert, sodass ein Abstand vom TOF-Sensor zu dem Objekt zu einem vorbestimmten Abstand angepasst wird, sodass eine Größe des Objekts zu einer vorbestimmten Größe angepasst wird, sodass eine Orientierung des Objekts zu einer vorbestimmten Orientierung angepasst wird, oder sodass die Helligkeit von Direktreflexionslichtinformationen über das detektierte Objekt zu einer vorbestimmten Helligkeit angepasst wird.
  18. Identifikationseinrichtung nach Anspruch 1, die ferner den TOF-Sensor umfasst.
  19. Identifikationseinrichtung nach Anspruch 18, wobei ein Pixelgebiet, das als der TOF-Sensor fungiert, und ein Signalverarbeitungsschaltungsgebiet, das als die Objektdetektionseinheit und die Objektidentifikationseinheit fungiert, so bereitgestellt sind, dass sie übereinander gestapelt sind.
  20. Elektronische Einrichtung mit einer an der elektronischen Einrichtung befestigten Identifikationseinrichtung, wobei die Identifikationseinrichtung Folgendes beinhaltet: eine Direktreflexionslichtinformationen-Berechnungseinheit, die dazu ausgelegt ist, auf Basis von Erfassungsdaten durch einen TOF-Sensor, der Licht auf ein Objekt scheint, um das Licht zu detektieren, Direktreflexionslichtinformationen über direkt reflektiertes Licht vom Objekt zu berechnen, eine Objektdetektionseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen zu detektieren, und eine Objektidentifikationseinheit, die dazu ausgelegt ist, das Objekt auf Basis der Direktreflexionslichtinformationen über das detektierte Objekt zu identifizieren.
DE112018005610.4T 2017-10-18 2018-08-21 Identifikationseinrichtung und elektronische einrichtung Pending DE112018005610T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017-201524 2017-10-18
JP2017201524 2017-10-18
PCT/JP2018/030715 WO2019077863A1 (ja) 2017-10-18 2018-08-21 識別装置及び電子機器

Publications (1)

Publication Number Publication Date
DE112018005610T5 true DE112018005610T5 (de) 2020-07-02

Family

ID=66174016

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112018005610.4T Pending DE112018005610T5 (de) 2017-10-18 2018-08-21 Identifikationseinrichtung und elektronische einrichtung

Country Status (6)

Country Link
US (1) US11341771B2 (de)
EP (1) EP3570250A4 (de)
JP (1) JP7228509B2 (de)
CN (1) CN109684907A (de)
DE (1) DE112018005610T5 (de)
WO (1) WO2019077863A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI748460B (zh) 2019-06-21 2021-12-01 大陸商廣州印芯半導體技術有限公司 飛時測距裝置及飛時測距方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027492A (ja) 2015-07-27 2017-02-02 パナソニックIpマネジメント株式会社 顔照合装置およびこれを備えた顔照合システムならびに顔照合方法

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4380391A (en) * 1980-09-30 1983-04-19 The United States Of America As Represented By The Secretary Of The Army Short pulse CO2 laser for ranging and target identification
KR20040042501A (ko) * 2002-11-14 2004-05-20 엘지전자 주식회사 형판 정합 기반 얼굴 검출방법
JP4543903B2 (ja) 2004-11-30 2010-09-15 パナソニック電工株式会社 画像処理装置
WO2006046519A1 (ja) 2004-10-25 2006-05-04 Matsushita Electric Works, Ltd. 空間情報検出装置
JP4594176B2 (ja) * 2005-06-22 2010-12-08 三菱電機株式会社 画像処理装置及び入退室管理システム
JP4696778B2 (ja) * 2005-08-23 2011-06-08 コニカミノルタホールディングス株式会社 認証装置、認証方法及びプログラム
JP5175562B2 (ja) * 2008-01-28 2013-04-03 シャープ株式会社 人物位置検出装置および空気調和機
EP2311251B1 (de) * 2008-08-03 2020-01-01 Microsoft Technology Licensing, LLC Rolling shutter kamerasystem und verfahren
KR101565969B1 (ko) * 2009-09-01 2015-11-05 삼성전자주식회사 깊이 정보를 추정할 수 있는 방법과 장치, 및 상기 장치를 포함하는 신호 처리 장치
TWI540312B (zh) * 2010-06-15 2016-07-01 原相科技股份有限公司 可提高測量精確度、省電及/或能提高移動偵測效率的時差測距系統及其方法
KR101666020B1 (ko) * 2010-06-25 2016-10-25 삼성전자주식회사 깊이 영상 생성 장치 및 그 방법
US8648702B2 (en) * 2010-08-20 2014-02-11 Denso International America, Inc. Combined time-of-flight and image sensor systems
US9025019B2 (en) * 2010-10-18 2015-05-05 Rockwell Automation Technologies, Inc. Time of flight (TOF) sensors as replacement for standard photoelectric sensors
KR101706093B1 (ko) * 2010-11-30 2017-02-14 삼성전자주식회사 3차원 좌표 추출 시스템 및 그 방법
US8406470B2 (en) * 2011-04-19 2013-03-26 Mitsubishi Electric Research Laboratories, Inc. Object detection in depth images
JP2013078433A (ja) * 2011-10-03 2013-05-02 Panasonic Corp 監視装置、プログラム
JP2013156109A (ja) * 2012-01-30 2013-08-15 Hitachi Ltd 距離計測装置
CN106461762B (zh) * 2014-05-23 2022-03-18 昕诺飞控股有限公司 对象检测系统和方法
DE102014211071A1 (de) * 2014-06-11 2015-12-17 Robert Bosch Gmbh Fahrzeug-Lidar-System
US9823352B2 (en) * 2014-10-31 2017-11-21 Rockwell Automation Safety Ag Absolute distance measurement for time-of-flight sensors
FR3037690B1 (fr) * 2015-06-17 2018-05-18 Morpho Procede de detection de fraude par determination de la brdf d'un objet
US11543513B2 (en) * 2015-09-30 2023-01-03 Sony Corporation Information processing apparatus, information processing method and program
CN106996922B (zh) * 2016-01-25 2019-08-23 杭州海康威视数字技术股份有限公司 一种目标物体红外反射率测量方法及装置
CN105868733A (zh) * 2016-04-21 2016-08-17 腾讯科技(深圳)有限公司 一种人脸活体验证方法及装置
CN106156757B (zh) * 2016-08-02 2019-08-09 中国银联股份有限公司 结合活体检测技术的人脸识别方法及人脸识别系统
US20180278910A1 (en) * 2017-03-22 2018-09-27 Microsoft Technology Licensing, Llc Correction of multipath interference in time of flight camera depth imaging measurements
KR102387571B1 (ko) * 2017-03-27 2022-04-18 삼성전자주식회사 라이브니스 검사 방법 및 장치
US11085996B2 (en) * 2018-03-23 2021-08-10 Samsung Electronics Co., Ltd. Beam scanning apparatus and optical apparatus including the same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017027492A (ja) 2015-07-27 2017-02-02 パナソニックIpマネジメント株式会社 顔照合装置およびこれを備えた顔照合システムならびに顔照合方法

Also Published As

Publication number Publication date
JPWO2019077863A1 (ja) 2020-09-17
US20210334517A1 (en) 2021-10-28
EP3570250A1 (de) 2019-11-20
EP3570250A4 (de) 2020-08-05
KR20200074050A (ko) 2020-06-24
US11341771B2 (en) 2022-05-24
WO2019077863A1 (ja) 2019-04-25
JP7228509B2 (ja) 2023-02-24
CN109684907A (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
DE112020004813B4 (de) System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation
DE102015102113B4 (de) Verfahren zum warnen eines benutzers über einen abstand zwischen augen des benutzers und einem bildschirm und elektronische vorrichtung
DE112020004391T5 (de) Systeme und verfahren zur oberflächenmodellierung unter verwendung von polarisationsmerkmalen
DE112016004535T5 (de) Universelles Übereinstimmungsnetz
DE102016116818A1 (de) Verfahren und Vorrichtung zum Erfassen einer Fahrzeugkontur durch Punktwolkendaten
DE112017003143T5 (de) Tiefenbildbereitstellungsvorrichtung und -verfahren
DE112010002830T5 (de) System und verfahren zur erfassung und erkennung vonbarcodes mithilfe eines prozessors mit bild auf dem chip
DE102014111748A1 (de) Gesichtsdetektion
DE102004046237A1 (de) Verfahren und System für die gemischte rigide Registrierung von medizinischen 2D/3D-Bildern
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE102019122818A1 (de) Neuronale Netzwerkvorrichtung für eine neuronale Netzwerkoperation, Verfahren zum Betreiben einer neuronalen Netzwerkvorrichtung und Anwendungsprozessor, der die neuronale Netzwerkvorrichtung beinhaltet
DE102019106277A1 (de) Bildanalysevorrichtung, -verfahren und -programm
DE102004004528A1 (de) Verfahren, Vorrichtung und Programm zur Verarbeitung eines Stereobildes
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
DE102019122402A1 (de) Das klassifizieren von zeitreihenbilddaten
DE102019101482A1 (de) Erkennungsvorrichtung für die äussere umgebung eines fahrzeugs
DE102018129993A1 (de) Verfahren zur fahrzeugdetektion, verfahren zur fahrzeugdetektion bei nacht auf basis von dynamischer lichtintensität und system dafür
DE112016006922T5 (de) Erkennung einer Aktivität in einer Videobildfolge anhand von Tiefeninformationen
DE112014006439T5 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
DE102019214402A1 (de) Verfahren und vorrichtung zum verarbeiten von daten mittels eines neuronalen konvolutionsnetzwerks
DE102019106398A1 (de) Bildanalysevorrichtung, verfahren und programm
DE112018005573T5 (de) Evaluationssystem, Evaluationsvorrichtung, Evaluationsverfahren, Evaluationsprogramm und Aufzeichnungsmedium
DE102017220752A1 (de) Bildverarbeitungsvorrichtung, Bildbverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102020122844A1 (de) System und verfahren für tiefgehendes maschinelles lernen für computer-vision-anwendungen
DE202018000408U1 (de) Gesichtserfassung, Posenabschätzung, und Abschätzung eines Abstands von einer Kamera unter Verwendung eines einzelnen Netzwerks