DE102016222202A1 - Analyseapparat und analyseverfahren - Google Patents

Analyseapparat und analyseverfahren Download PDF

Info

Publication number
DE102016222202A1
DE102016222202A1 DE102016222202.3A DE102016222202A DE102016222202A1 DE 102016222202 A1 DE102016222202 A1 DE 102016222202A1 DE 102016222202 A DE102016222202 A DE 102016222202A DE 102016222202 A1 DE102016222202 A1 DE 102016222202A1
Authority
DE
Germany
Prior art keywords
information
time
person
processor
identifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102016222202.3A
Other languages
English (en)
Inventor
Yasuo Namioka
Nobuaki Takahashi
Hideki Yasui
Masaya MOTOKUBOTA
Yuki YATSUSHIMA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of DE102016222202A1 publication Critical patent/DE102016222202A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
    • G06Q10/063Operations research, analysis or management
    • G06Q10/0633Workflow analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/10Office automation; Time management
    • G06Q10/109Time management, e.g. calendars, reminders, meetings or time accounting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • G06F2218/10Feature extraction by analysing the shape of a waveform, e.g. extracting parameters relating to peaks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Abstract

Gemäß einer Ausführungsform enthält ein Analyseapparat eine Akquisitionseinheit und einen Prozessor. Die Akquisitionseinheit akquiriert eine erste Information mit einer ersten Zeitlänge zwischen einer ersten Zeit und einer zweiten Zeit. Die erste Information basiert auf einer Bewegung einer Objektperson. Der Prozessor extrahiert mehrfache Ähnlichkeitspunkte aus der ersten Information. Die mehrfachen Ähnlichkeitspunkte sind ähnlich zueinander in der ersten Information. Der Prozessor berechnet ein Zeitintervall zwischen den Ähnlichkeitspunkten.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die Anmeldung basiert auf und beansprucht den Vorteil der Priorität aus der japanischen Patentanmeldung Nr. 2015-221145 , die am 11. November 2015 eingereicht worden ist, deren gesamter Inhalte hierin mittels Verweis aufgenommen sind.
  • GEBIET
  • Hier beschriebene Ausführungsformen betreffen im Allgemeinen einen Analyseapparat und ein Analyseverfahren.
  • HINTERGRUND
  • In einer Fabrikationsstätte sind vielfältige Analysen zum Verbessern der Effizienz von Operationen übernommen worden. Beispielsweise wird eine Überwachungsoperation, Messoperationszeit oder Aufzeichnungsoperation ausgeführt, und das Ergebnis wird analysiert. Jedoch nehmen derartige Analysen viel Zeit in Anspruch. Somit ist ein Analyseapparat wünschenswert, der zum leichten Analysieren der Operation fähig ist.
  • KURZE BESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Ansicht, die eine Ausgestaltung eines Analyseapparats gemäß einer ersten Ausführungsform zeigt.
  • 2 ist eine schematische Ansicht, die eine zu analysierende Person zeigt.
  • 3 und 4 sind Graphen, die ein Beispiel einer durch die Akquisitionseinheit akquirierten Information zeigen.
  • 5 bis 7 sind Graphen, die ein Beispiel einer Informationsverarbeitung durch den Prozessor zeigen.
  • 8 und 9 sind Graphen, die ein Beispiel einer durch die Akquisitionseinheit akquirierten Information zeigen.
  • 10 bis 12 sind Graphen, die ein Beispiel einer Informationsverarbeitung durch den Prozessor zeigen.
  • 13 ist eine schematische Ansicht, die einen Analyseapparat 110 gemäß einer Modifizierung der ersten Ausführungsform zeigt.
  • 14 ist eine schematische Ansicht, die eine Ausgestaltung eines Analyseapparats gemäß einer zweiten Ausführungsform zeigt.
  • DETAILLIERTE BESCHREIBUNG
  • Gemäß einer Ausführungsform enthält ein Analyseapparat eine Akquisitionseinheit und einen Prozessor. Die Akquisitionseinheit akquiriert eine erste Information mit einer ersten Zeitlänge zwischen einer ersten Zeit und einer zweiten Zeit. Die erste Information basiert auf einer Bewegung einer Objektperson. Der Prozessor extrahiert mehrfache Ähnlichkeitspunkte aus der ersten Information. Die mehrfachen Ähnlichkeitspunkte sind ähnlich zueinander in der ersten Information. Der Prozessor berechnet ein Zeitintervall zwischen den mehrfachen Ähnlichkeitspunkten.
  • Erste Ausführungsform
  • 1 ist eine schematische Ansicht, die eine Ausgestaltung eines Analyseapparats 100 gemäß einer ersten Ausführungsform zeigt.
  • Wie in 1 gezeigt, umfasst der Analyseapparat 100 eine Eingabeeinheit 10, eine Akquisitionseinheit 20, einen Prozessor 30, eine Anzeigeeinheit 40 und eine Speichereinheit 50.
  • Die Eingabeeinheit 10 ist beispielsweise eine Tastatur oder ein Bildschirmtastfeld eines Smartphones oder eines Tablets. Der Benutzer des Analyseapparats 100 gibt eine Information in den Prozessor 30 mit Verwendung der Eingabeeinheit 10 ein.
  • Die Akquisitionseinheit 20 akquiriert eine Information auf Grundlage einer Bewegung einer Person, die analysiert werden soll. Eine Länge einer Zeit, für die die Akquisitionseinheit 20 eine Information akquiriert, kann mit Verwendung der Eingabeeinheit 10 gesetzt sein. Oder der Start und das Ende der Akquisition können durch die zu analysierende Person eingegeben werden. Die Akquisitionseinheit 20 gibt die akquirierte Information zu dem Prozessor 30 aus.
  • Die Akquisitionseinheit 20 ist beispielsweise eine Kamera mit einem Tiefensensor. In solch einem Fall ist die Akquisitionseinheit 20 montiert, wo die zu analysierende Person sich aufhält. Die Akquisitionseinheit 20 akquiriert eine Information bezüglich der Bewegung der zu analysierenden Person mittels Aufzeichnen der Person.
  • Oder die Akquisitionseinheit 20 kann ein Beschleunigungssensor sein. In solch einem Fall wird die Beschleunigungseinheit 20 auf dem Arm oder dem Bein der zu analysierenden Person getragen. Die Akquisitionseinheit 20 akquiriert eine Information bezüglich der Bewegung der Person mittels Erfassen bzw. Wahrnehmen der Beschleunigung des Körperteils.
  • Der Prozessor 30 verarbeitet die von der Eingabeeinheit 10 und der Akquisitionseinheit 20 empfangene Information. Der Prozessor 30 ist beispielsweise eine CPU, die Software speichert.
  • Die Speichereinheit 50 speichert eine Information. Der Prozessor 30 kann die Speichereinheit 50 referenzieren und eine erforderliche Information extrahieren.
  • Der Analyseapparat 100 kann nicht die Speichereinheit 50 umfassen. In solch einem Fall ist der Prozessor 30 mit einer Festplatte eines anderen Apparats etc. via ein Netzwerk verbunden.
  • Die Anzeigeeinheit 40 visualisiert die Information, die von dem Prozessor 30 ausgegeben wird, und zeigt sie dem Benutzer des Analyseapparats 100 an. Die Anzeigeeinheit 40 ist beispielsweise eine Flüssigkristallanzeige eines Smartphones, eines Tablets oder eines PC etc..
  • Der eine derartige Ausgestaltung umfassende Analyseapparat 100 wird beispielsweise verwendet zum Analysieren einer Bewegung eines Operators in einer Fabrikationsstätte. In dem beispielhaften Fall, wo der Operator wiederholt eine vorbestimmte Operation durchführt, ist der Analyseapparat 100 fähig zum Extrahieren der erforderlichen Zeit für die Operation mittels Sammeln einer Information auf Grundlage der Bewegung des Operators und mittels Analysieren der Information. Zu dieser Zeit ist der Analyseapparat 100 außerdem fähig zum Speichern der erforderlichen Zeit an die Speichereinheit 50 und zum Anzeigen der erforderlichen Zeit auf der Anzeigeeinheit 40.
  • Ein Beispiel der Operation der Akquisitionseinheit 20 und des Prozessors 30 wird nun spezifisch mit Verweis auf 2 bis 12 beschrieben werden. Der Fall, wo die Akquisitionseinheit 20 einen Tiefensensor enthält, wird nun beschrieben werden.
  • 2 ist eine schematische Ansicht, die eine zu analysierende Person zeigt.
  • 3, 4, 8 und 9 sind Graphen, die ein Beispiel einer durch die Akquisitionseinheit 20 akquirierten Information zeigen.
  • 5 bis 7 und 10 bis 12 sind Graphen, die ein Beispiel einer Informationsverarbeitung durch den Prozessor 30 zeigen.
  • In 3, 4, 8 und 9 gibt die horizontale Achse die Zeit an, und die vertikale Achse gibt die Koordinate an.
  • In 5, 6, 10 und 11 gibt die horizontale Achse die Zeit an, und die vertikale Achse gibt die Distanz an. In diesen Graphen bedeutet es, dass, wenn der Wert der Distanz größer ist, die Distanz zwischen zwei Objekten kurz wird, und die Korrelation zwischen diesen stark wird.
  • In 7 und 12 gibt die horizontale Achse die Zeit an, und die vertikale Achse gibt den Skalarwert an.
  • 2 zeigt eine Situation, in der der zu analysierende Operator M auf dem Pult D arbeitet. 2 zeigt ein Beispiel, wenn von der Akquisitionseinheit 20 betrachtet. In dem Beispiel ist mit anderen Worten die Akquisitionseinheit 20 direkt über dem Operator M montiert.
  • Die Akquisitionseinheit 20 setzt die Koordinate des aufgezeichneten Raums, beispielsweise wie in 2 gezeigt. In dem Beispiel, wenn von dem Operator M gesehen, der dem Pult D zugewandt ist, ist die Hoch-und-Runter-Richtung als Z-Achse gesetzt, ist die Rechts-und-Links-Richtung als X-Achse gesetzt, und ist die Vorne-und-Zurück-Richtung als Y-Achse gesetzt.
  • Die Akquisitionseinheit 20 erfasst bzw. nimmt wahr eine Distanz zwischen dem Objekt und der Akquisitionseinheit 20 bei jedem Punkt auf der XY-Koordinatenebene. Die Akquisitionseinheit 20 erfasst bzw. misst mit anderen Worten eine Tiefe bei jedem Punkt auf der XY-Koordinatenebene. In dem Fall, wo die Akquisitionseinheit 20 ein Bild des Operators M, in 2 gezeigt, aufzeichnet, ist die Tiefe des Kopfes die flachste bzw. seichteste. Und die Tiefe wird schrittweise tiefer von den Schultern zu den Händen.
  • Die Akquisitionseinheit 20 ist fähig zum Identifizieren von Körperteilen des Operators M und zum Erfassen der Bewegung des spezifischen Körperteils mittels Wahrnehmen bzw. Messen der Tiefe bei jedem Punkt des Operators M. Beispielsweise bestimmt die Akquisitionseinheit 20 den Kopf des Operators M und verfolgt die Position des Kopfes in der X-Achse-Richtung, um die Bewegung des Operators M zu erfassen.
  • 3 zeigt ein Beispiel des durch die Akquisitionseinheit 20 erfassten Ergebnisses. Die Akquisitionseinheit 20 gibt die Ergebnisinformation an den Prozessor 30 aus, und der Prozessor 30 analysiert sie.
  • In dem in 3 gezeigten Beispiel akquiriert die Akquisitionseinheit 20 eine erste Information mit einer Zeitlänge T (eine erste Zeitlänge) von Zeit t0 (erste Zeit) bis Zeit tn (zweite Zeit). Der Prozessor 30 extrahiert eine Teilinformation mit einer Zeitlänge X (eine zweite Zeitlänge) aus der ersten Information. Die Zeitlänge X ist kürzer als die Zeitlänge T. In einem in 3 gezeigten Beispiel extrahiert der Prozessor 30 die Teilinformation mit der Zeitlänge X von der Zeit t0 bis zu der Zeit t1.
  • Beispielsweise sind die Zeitlängen T und X durch den Operator M oder den Verwalter der Fabrikationsstätte voreingestellt. Oder die Zeitlänge T kann dadurch bestimmt werden, dass der Operator M den Start und das Ende der Operation eingibt. In solch einem Fall ist die Zeitlänge T von dann, wann der Operator M den Start der Operation eingibt, bis dann, wann der Operator M das Ende der Operation eingibt.
  • Oder die Zeitlänge T kann zweckgemäß durch den Prozessor 30 gesetzt oder modifiziert werden. Beispielsweise gibt der Operator M oder der Verwalter eine zweckgemäße Periode A der Operation in den Prozessor 30 im Voraus ein; und der Prozessor 30 kann ganzzahlige Vielfache der Periode A als die Zeitlänge T setzen.
  • Dann, separat von der Teilinformation, extrahiert der Prozessor 30 eine Information mit der Zeitlänge X zwischen der Zeit t0 bis zu der Zeit tn bei einem vorbestimmten Zeitintervall (ein erstes Zeitintervall) aus der ersten Information. Genauer genommen, wie durch die Pfeile in 4 gezeigt, extrahiert der Prozessor 30 mehrfache Informationen mit der Zeitlänge X aus der ersten Information während eines Verschiebens des Bereichs um einen Rahmen zwischen der Zeit t0 und der Zeit tn. Es wird angemerkt, dass nur ein Teil von mehrfachen Informationen, extrahiert durch den Prozessor 30, durch die Pfeile in 4 angegeben ist.
  • Hier wird im Nachfolgenden jede der mehrfachen Information, die durch den in 4 gezeigten Schritt extrahiert worden sind, Vergleichsinformation genannt.
  • Dann berechnet der Prozessor 30 eine Distanz zwischen der Teilinformation, die in dem in 3 gezeigten Schritt extrahiert worden ist, und jeder von den mehrfachen Vergleichsinformationen, die in dem in 4 gezeigten Schritt extrahiert worden ist/sind. Der Prozessor 30 berechnet beispielsweise eine Dynamic-Time-Warping-(DTW) Distanz zwischen der Teilinformation und jeder von den mehrfachen Vergleichsinformationen. Der Prozessor 30 kann die Stärke einer Korrelation zwischen diesen mit Verwendung der DTW-Distanz erhalten, ungeachtet der Variation der Bewegungsperiode des Operators M. Folglich kann eine Information über die Distanz zwischen der Teilinformation und der ersten Information zu jeder Zeit erhalten werden. Die Information der Distanzen ist in 5 gezeigt.
  • Hier wird im Nachfolgenden die Information mit der Distanz zu jeder Zeit eine erste Korrelationsinformation genannt.
  • Dann setzt der Prozessor 30 einen vorläufigen bzw. vermuteten (Engl.: tentative) Ähnlichkeitspunkt auf der ersten Information, um die tatsächliche Operationsperiode des Operators M zu schätzen. Das spezifische Beispiel eines Setzens des vorläufigen Ähnlichkeitspunktes wird nun beschrieben werden. Wie in 5 gezeigt, setzt der Prozessor 30 Kandidatenpunkte zufällig innerhalb der Variationszeit N. Die Zeit nach einer Passage einer Zeitlänge μ (eine dritte Zeitlänge) von der Zeit t0 wird als Mitte der Variationszeit N gesetzt. In dem in 5 gezeigten Beispiel werden drei Kandidatenpunkte zufällig gesetzt.
  • Die Zeit μ und die Variationszeit N werden beispielsweise durch den Verwalter der Fabrikationsstätte voreingestellt.
  • Der Prozessor 30 erschafft mehrfache Daten mit einer Normalverteilung (dritte Information). Die Normalverteilungen haben jeweils Spitzen bei den Kandidatenpunkten α1 bis αm. Dann berechnet der Prozessor 30 einen Korrelationskoeffizienten (ein zweiter Korrelationskoeffizient) zwischen der ersten Korrelationsinformation, so wie in 5 gezeigt, und jeder der Normalverteilungen. Der Prozessor 30 setzt den Kandidatenpunkt, für den der Korrelationskoeffizient am höchsten ist, als den vorläufigen Ähnlichkeitspunkt. In dem in 5 gezeigten Beispiel wird der Kandidatenpunkt α2 als der vorläufige Ähnlichkeitspunkt gesetzt.
  • Dann setzt der Prozessor 30 mehrfache Kandidatenpunkte α1 bis αm auf der ersten Information innerhalb der Variationszeit N erneut. Zu dieser Zeit wird die Zeit nach einer Passage der Zeit μ von dem letzten vorläufigen Ähnlichkeitspunkt (der Kandidatenpunkt α2) als die Mitte der Variationszeit N gesetzt. Durch Wiederholen der Schritte bis zu der Zeit tn werden die mehrfachen vorläufigen Ähnlichkeitspunkte α1 bis βk zwischen der Zeit t0 und der Zeit tn gesetzt, wie in 6 gezeigt.
  • Dann erschafft der Prozessor 30 Daten mit Normalverteilungen, die jeweils die Spitzen bei den vorläufigen Ähnlichkeitspunkten β1 bis βk haben, wie in 7 gezeigt. Hier werden im Nachfolgenden Daten mit den Normalverteilungen, so wie in 7 gezeigt, zweite Vergleichsinformation genannt.
  • Der Prozessor 30 berechnet den Korrelationskoeffizienten (ein erster Korrelationskoeffizient) zwischen der ersten Korrelationsinformation, so wie in 5 und 6 gezeigt, und der zweiten Vergleichsinformation, so wie in 7 gezeigt.
  • Dann führt der Prozessor 30 dieselben Schritte wie die in 3 bis 7 gezeigten auf der anderen Teilinformation aus. 8 bis 12 zeigen die Verarbeitung durch den Prozessor 30. Es wird angemerkt, dass nur Information nach der Zeit t1 in 8 bis 12 abgebildet ist.
  • Wie in 8 gezeigt, extrahiert beispielsweise der Prozessor 30 die Teilinformation mit der Zeitlänge X zwischen der Zeit t1 und der Zeit t2. Wie in 9 gezeigt, extrahiert dann der Prozessor 30 mehrfache Vergleichsinformationen mit der Zeitlänge X. Der Prozessor 30 erschafft eine erste Korrelationsinformation, wie in 10 gezeigt, durch Berechnen einer Distanz zwischen der Teilinformation und jeder von den mehrfachen Vergleichsinformationen.
  • Wie in 10 gezeigt, extrahiert dann der Prozessor 30 den vorläufigen Ähnlichkeitspunkt β mittels Setzen von Kandidatenpunkten α1 bis αm auf Grundlage der Zeit nach einer Passage der Zeitlänge μ von der Zeit t1. Durch Wiederholen der Schritte werden die vorläufigen Ähnlichkeitspunkte β1 bis βk gesetzt, wie in 11 gezeigt.
  • Wie in 12 gezeigt, erschafft dann der Prozessor 30 eine zweite Vergleichsinformation auf Grundlage der vorläufigen Ähnlichkeitspunkte β1 bis βk. Der Prozessor 30 berechnet einen Korrelationskoeffizienten zwischen der ersten Korrelationsinformation, so wie in 10 und 11 gezeigt, und der zweiten Vergleichsinformation, so wie in 12 gezeigt.
  • Der Prozessor 30 berechnet den Korrelationskoeffizienten für jede der mehrfachen Teilinformationen mittels Wiederholen der wie oben beschriebenen Schritte nach der Zeit t2. Mehrfache Gruppen der vorläufigen Ähnlichkeitspunkte β1 bis βk werden mittels Wiederholen dieser Schritte erschaffen. Der Prozessor 30 extrahiert eine Gruppe der vorläufigen Ähnlichkeitspunkte β1 bis βk, die den höchsten Korrelationskoeffizienten hat, als die wahren Ähnlichkeitspunkte. Der Prozessor 30 erhält die Operationsperiode des Operators M mittels Berechnen der Zeitintervalle zwischen den wahren Ähnlichkeitspunkten. Beispielsweise berechnet der Prozessor 30 den Durchschnitt von Zeitlängen zwischen benachbarten wahren Ähnlichkeitspunkten und bestimmt die Durchschnittszeit als die Operationsperiode.
  • Ein Beispiel, das die durch den Tiefensensor akquirierte Information verwendet, wird oben beschrieben. Jedoch ist die Ausführungsform der Erfindung nicht auf das Beispiel beschränkt. Die Operationsperiode des Operators M kann mittels Akquirieren einer Beschleunigungsinformation des Körperteils des Operators M und Analysieren der Beschleunigungsinformation auf dieselbe Weise erhalten werden. Außerdem kann der Analyseapparat 100 gemäß der Ausführungsform weit angewendet werden zum Schätzen der Periode nicht nur für eine Operation in einer Fabrikationsstätte, sondern auch für ein Objekt, das eine spezifische Bewegung wiederholt.
  • Gemäß dem Analyseapparat 100 ist es möglich, automatisch eine Bewegungsperiode einer Person, die analysiert werden soll, zu analysieren. Wie oben beschrieben, ist es beispielsweise möglich, automatisch die Operationsperiode des Operators M in der Fabrikationsstätte zu analysieren. Deshalb kann die Analyse der Operation einfach durchgeführt werden, weil es für den Operator nicht erforderlich ist, für die Analyse aufzuzeichnen oder zu berichten, und es für technisches Personal nicht erforderlich ist, die Operation zu überwachen oder zu messen, um die Effizienz zu verbessern. Außerdem ist es möglich, eine Periode mit einer höheren Genauigkeit zu erhalten, weil das Analyseergebnis nicht von einer Erfahrung, von Wissen oder einer Beurteilung der Person abhängt, die es analysiert.
  • Der Analyseapparat 100 kann mehrfache Akquisitionseinheiten 20 umfassen. In solch einem Fall können die Akquisitionseinheiten 20 jeweils eine Information untereinander-unterschiedlicher Operatoren akquirieren. Oder die Akquisitionseinheiten 20 können eine Information eines Operators akquirieren.
  • Der Analyseapparat 100 kann die oben beschriebene Analyse für mehrfache Informationen ausführen, deren Starts der Zeitlänge T voneinander unterschiedlich sind. In dem beispielhaften Fall, wo die Zeitlänge der zu analysierenden Information lang ist, teilen die Analyseapparate 100 die gesamte Information in mehrfache Informationen mit kürzeren Zeitlängen auf und führen die Analyse für jede der mehrfachen Informationen aus. In solch einem Fall entspricht die kürzere Zeitlänge nach der Aufteilung der Zeitlänge T. Durch Anwenden solch eines Verfahrens ist es möglich, eine erforderliche Zeit für die Analyseverarbeitung zu verringern. Außerdem ist es möglich, die aufgeteilte Information zu analysieren, wenn die Zeitlänge T passiert bzw. verstreicht, um das Ergebnis in der Operation wiederzugeben, während der Operator arbeitet.
  • Modifizierung
  • 13 ist eine schematische Ansicht, die einen Analyseapparat 110 gemäß einer Modifizierung der ersten Ausführungsform zeigt.
  • Wie in 13 gezeigt, enthält der Analyseapparat 110 ferner einen Sender 60 und einen Empfänger 70 im Vergleich mit dem Analyseapparat 100.
  • Der Sender 60 emittiert ein Signal mit einer ID des Senders 60. Beispielsweise ist der Sender 60 gesetzt, um das Signal bei vorbestimmten Intervallen zu emittieren. Das von dem Sender 60 emittierte Signal kann gerichtet oder ungerichtet sein.
  • Der Empfänger 70 empfängt das von dem Sender 60 emittierte Signal. Der Empfänger 70 gibt das von dem Sender 60 empfangene Signal zu dem Prozessor 30 aus.
  • Der Sender 60 ist beispielsweise eine Bake, ein Funkfrequenzidentifizierer (ein RFID, Radio Frequency IDentifier) oder dergleichen, bereitgestellt in einer Fabrikationsstätte. Oder der Sender 60 kann eine Bake, ein RFID oder dergleichen sein, das ein Verarbeitungsmaterial, ein Montagegestell oder dergleichen begleitet, welches nicht fixiert ist.
  • Der Empfänger 70 ist beispielsweise ein Tablet, ein Smartphone oder dergleichen, welches das von dem Sender 60 emittierte Signal via Bluetooth (eingetragene Marke) empfangen kann. In dem Fall, wo der Sender 60 ein RFID ist, wird als der Empfänger 70 eine RF-Lesevorrichtung verwendet. Beispielswiese besitzt der Operator, der den Prozess in der Fabrikationsstätte ausführt, den Empfänger 20.
  • Oder der Operator kann den Sender 60 besitzen. In solch einem Fall ist der Empfänger 70 in einer Fabrikationsstätte oder einem Fabrikationsgerät bereitgestellt. Oder der Sender 60 kann ein Verarbeitungsmaterial oder ein Montagegestell begleiten, und der Empfänger 70 ist in einer Fabrikationsstätte oder bei einem Fabrikationsgerät bereitgestellt.
  • Der Prozessor 30 wandelt das von dem Empfänger 70 eingegebene Signal in eine Information um. Dadurch erhält der Prozessor 30 eine Information, so wie eine ID des Senders 60, die in dem von dem Sender 60 emittierten Signal enthalten ist.
  • Die Speichereinheit 50 speichert beispielsweise eine Information, so wie Prozessflüsse in der Fabrikationsstätte, in dem Prozessfluss enthaltene Prozesse, Fabrikationsgerät, das in jedem Prozess verwendet ist, ein Ort, wo jeder Prozess ausgeführt wird, ein Operator, der jeden Prozess ausführt, ein durch jeden Prozess verarbeitetes Objekt etc..
  • Die Speichereinheit 50 speichert außerdem eine Information bezüglich Orten oder Haltern des Senders 60 und des Empfängers 70. In dem beispielhaften Fall, wo der Sender 60 in einer Fabrikationsstätte bereitgestellt ist, speichert die Speichereinheit 50 eine Information über derartiges wie den Prozess, der bei dem Ort ausgeführt ist, wo der Sender 60 bereitgestellt ist, das Verarbeitungsmaterial, das für den Prozess verwendete Gerät etc..
  • Deshalb kann der Prozessor 30 eine Information bezüglich der ID des Senders 60 aus der Speichereinheit 50 extrahieren mittels Kollationieren der ID des Senders 60, die von dem Empfänger 70 eingegeben worden ist, und mittels Referenzieren der Information bezüglich der ID in der Speichereinheit 50.
  • Beispielsweise akquiriert der Analyseapparat 110 gemäß der Modifizierung die Information der durch den Operator M ausgeführten Operation mit Verwendung des Senders 60 und des Empfängers 70; und es wird möglich, die Information der Operation in Verknüpfung mit der Operationsperiode zu verwalten.
  • Zweite Ausführungsform
  • 14 ist eine schematische Ansicht, die eine Ausgestaltung eines Analyseapparats 200 gemäß einer zweiten Ausführungsform zeigt.
  • Wie in 14 gezeigt, enthält der Analyseapparat 200 ferner eine Abbildungseinheit 80 im Vergleich mit dem Analyseapparat 100.
  • Die Abbildungseinheit 80 zeichnet ein Bild des Operators M auf; und der Prozessor 30 identifiziert den Operator M auf Grundlage des aufgezeichneten Bildes. In dem Fall, wo die Akquisitionseinheit 20 ein Tiefensensor ist, kann der Prozessor 30 den Operator M auf Grundlage des durch die Akquisitionseinheit 20 aufgezeichneten Bildes identifizieren. Eine Komponente kann mit anderen Worten beide Funktionen der Akquisitionseinheit 20 und der Abbildungseinheit 80 umfassen. Die Speichereinheit 50 speichert eine zum Identifizieren des Operators M notwendige Information.
  • Die folgenden Verfahren können zum Identifizieren des Operators M auf Grundlage des aufgezeichneten Bildes verwendet werden. Es ist möglich, zwei oder mehr der unten beschriebenen Verfahren zu kombinieren.
  • In dem ersten Verfahren wird eine aus dem aufgezeichneten Bild extrahierte Skelettinformation für die Identifizierung verwendet.
  • In diesem Verfahren extrahiert der Prozessor 30 Verbindungsteile des Skeletts, so wie die Schulter, Ellbogen, Taille, Knie etc., und Endteile des Skeletts, so wie Kopf, Hand, Fuß etc. des Operators M aus dem aufgezeichneten Bild. Dann akquiriert der Prozessor 30 eine Skelettinformation mittels Verbinden der Verbindungsteile und der Endteile. Der Prozessor 30 berechnet die Breite der Schultern, die Längen des rechten und des linken Oberarms und die Längen des rechten und des linken Unterarms auf Grundlage der Skelettinformation. Der Prozessor 30 identifiziert den Operator M mittels Kollationieren bzw. Zusammentragens des berechneten Ergebnisses zu der in der Speichereinheit 50 gespeicherten Information.
  • In dem zweiten Verfahren wird die Fläche des spezifischen Körperteils des Operators M für die Identifizierung verwendet.
  • In diesem Verfahren berechnet der Prozessor 30 die Fläche des spezifischen Körperteils des Operators M auf Grundlage des aufgezeichneten Bildes. Dann kollationiert der Prozessor 30 das berechnete Ergebnis zu der in der Speichereinheit 50 gespeicherten Information, um den Operator M zu identifizieren. Beispielsweise identifiziert der Prozessor 30 den Operator M mit Verwendung der Fläche der rechten Schulter, der Fläche der linken Schulter oder der Summe dieser Flächen.
  • In dem dritten Verfahren wird die Haltung des Operators M für die Identifizierung verwendet.
  • In diesem Verfahren erfasst der Prozessor 30 die Haltung des Operators M auf Grundlage des aufgezeichneten Bildes. Genauer genommen akquiriert der Prozessor 30 eine Skelettinformation auf dieselbe Weise wie das erste Verfahren. Zu derselben Zeit erfasst der Prozessor 30 die Haltung des Operators M, so wie den Winkel des Halses bzw. Nackens, mit Verwendung der Tiefeninformation des aufgezeichneten Bildes. Der Prozessor 30 identifiziert den Operator M mittels Kollationieren der erfassten Haltung zu der in der Speichereinheit 50 gespeicherten Information.
  • In dem vierten Verfahren wird die Form des spezifischen Körperteils des Operators M für die Identifizierung verwendet.
  • In diesem Verfahren erfasst der Prozessor 30 die Form des spezifischen Körperteils des Operators M auf Grundlage der Tiefeninformation. Der Prozessor 30 identifiziert den Operator M mittels Kollationieren der erfassten Form zu der in der Speichereinheit 50 gespeicherten Information.
  • In den oben beispielhaft aufgeführten vier Verfahren kann ein Bild des Operators M, das von vorne, von hinten, von oben oder der Seite aufgezeichnet ist, zum Identifizieren des Operators verwendet werden.
  • Das vierte Verfahren der beispielhaft aufgeführten vier Verfahren wird nun beschrieben werden. Genauer genommen wird nun der Fall beschrieben werden, wo der Operator M auf Grundlage der Form des Kopfes identifiziert wird. Es ist möglich, dieselbe Verarbeitung für den anderen Körperteil des Operators M auszuführen.
  • Zuerst werden in der Speichereinheit 50 gespeicherte Daten beschrieben. Die Daten können Trainingsdaten genannt werden.
  • Die Speichereinheit 50 speichert Daten bezüglich mehrfachen Operatoren, die eine Möglichkeit haben, analysiert zu werden. Die Speichereinheit 50 speichert außerdem einen Identifizierer zum Unterscheiden jedes Operators von den anderen.
  • Als ein spezifisches Beispiel speichert die Speichereinheit 50 Daten bezüglich drei Operatoren eines ersten Operators, eines zweiten Operators und eines dritten Operators. In solch einem Fall speichert die Speichereinheit 50 Daten bezüglich der Kopfformen der Operatoren. Die Daten enthalten mehrfache Kopfformen für jeden Operator. Die Daten bezüglich der Kopfformen jedes Operators sind beispielsweise ein durch die Abbildungseinheit 80 aufgezeichnetes Bild. Bilddaten, die die Abbildungseinheit 80 aufgezeichnet hatte, der Kopf des Operators direkt von oben, werden mit anderen Worten in der Speichereinheit 50 gespeichert.
  • Die Daten der Kopfform werden beispielsweise durch Point Cloud in Charakteristika umgewandelt, um die Distanz zwischen den Kopfformen zu berechnen.
  • Die Speichereinheit 50 speichert eine Distanz zwischen den Charakteristika des ersten Operators, die in der Speichereinheit 50 gespeichert ist/sind. Die Speichereinheit 50 speichert außerdem eine Distanz zwischen der Charakteristik des ersten Operators und der Charakteristik des zweiten Operators und eine Distanz zwischen der Charakteristik des ersten Operators und der Charakteristik des dritten Operators. Ein Identifizierer, beispielweise hergeleitet durch Support Vector Machine (SVM), mehrfaches Kernel SVM, Random Forest oder neuronales Netz, wird für diese Distanzen gesetzt. Die Distanz zwischen den Charakteristika des ersten Operators und die Distanz zwischen der Charakteristik des ersten Operators und der Charakteristik eines anderen Operators wird durch den Identifizierer unterschieden.
  • Ähnlich speichert die Speichereinheit 50 für jeden des zweiten Operators und des dritten Operators die Distanz zwischen den Charakteristika des Operators und die Distanz zwischen der Charakteristik des Operators und der Charakteristik des anderen Operators; und durch mehrfaches Kernel SVM hergeleitete Identifizierer werden für diese Distanzen gesetzt.
  • Der Prozessor 30 identifiziert den Operator M auf Grundlage der Information, die in der Speichereinheit 50 gespeichert ist.
  • Zuerst extrahiert der Prozessor 30 Daten einer Kopfform des Operators M aus dem aufgezeichneten Bild und wandelt die Daten in eine Charakteristik um. Zu dieser Zeit extrahiert der Prozessor 30 mehrfache Daten aus mehrfachen Bildern des Operators M und wandelt jede der mehrfachen Daten in eine Charakteristik um. Dann entfernt der Prozessor 30 einen Ausreißer aus den erhaltenen Charakteristika. Beispielsweise wird das Entfernen des Ausreißers durch das Agglomerative Hierarchical Clustering (AHC) Verfahren durchgeführt.
  • Dann wählt der Prozessor 30 mehrfache Charakteristika des Operators M und mehrfache Charakteristika des ersten Operators aus; und der Prozessor 30 berechnet die Distanz zwischen den Charakteristika des Operators M und den Charakteristika des ersten Operators für mehrfache Kombinationen. Fortfahrend in dem Schritt, berechnet der Prozessor 30 eine Spanne bzw. Differenz jeder der berechneten Distanzen zu dem Identifizierer, der den ersten Operator von den anderen Operatoren unterscheidet. Dann berechnet der Prozessor 30 die Summe der Spannen.
  • Ähnlich berechnet der Prozessor 30 für den zweiten Operator und den dritten Operator die Spannen zu den Identifizierern, die den zweiten Operator oder den dritten Operator von anderen Operatoren unterscheiden; und der Prozessor 30 berechnet die Summen der Spannen.
  • Dann bestimmt der Prozessor 30 einen Operator, für den die höchste Spanne erhalten wird, als den Operator M.
  • Gemäß der Ausführungsform ist es möglich, automatisch die Bewegungsperiode der zu analysierenden Person zu berechnen und die Person zu identifizieren. Wenn die Periode berechnet wird, ist es deshalb nicht erforderlich, manuell die analysierte Person zu identifizieren. In einer Produktionsstätte ist es beispielsweise möglich, die Operationsperiode und den Operator mit einem automatischen Kombinieren derer zu verwalten.
  • Es ist außerdem möglich, dass der Sender 60 und der Empfänger 70, beschrieben in der Modifizierung der ersten Ausführungsform, auf die zweite Ausführungsform angewendet werden können. Durch solch eine Ausgestaltung ist es möglich, automatisch die Operationsperiode und Information bezüglich beispielsweise des Operators M und der Operation zu akquirieren. Deshalb ist es möglich, mehr Informationen mit einem automatischen Kombinieren dieser zu verwalten.
  • Anmerkung
  • Ein Analyseapparat umfassend:
    eine Akquisitionseinheit, die eine erste Information mit einer ersten Zeitlänge T zwischen einer ersten Zeit t0 und einer zweiten Zeit tn akquiriert, wobei die erste Information auf einer Bewegung einer Objektperson basiert; und
    einen Prozessor, der ausgestaltet ist zum Ausführen
    eines ersten Schrittes zum Extrahieren einer Mehrzahl von zweiten Informationen (Teilinformation) mit einer zweiten Zeitlänge X aus der ersten Information zu untereinander-unterschiedlichen Zeiten, wobei die zweite Zeitlänge X kürzer als die erste Zeitlänge T ist, wie in 3 gezeigt,
    eines zweiten Schrittes zum Extrahieren einer Mehrzahl von dritten Informationen (erste Vergleichsinformation) mit der zweiten Zeitlänge X aus der ersten Information, wobei die Mehrzahl von dritten Informationen extrahiert wird zwischen der ersten Zeit t0 und der zweiten Zeit tn bei ersten Zeitintervallen (beispielsweise ein Rahmen), wie in 4 gezeigt,
    eines dritten Schrittes zum Berechnen von Distanzen zwischen einer von der Mehrzahl von zweiten Informationen (Teilinformation) und jeder von der Mehrzahl von dritten Informationen (erste Vergleichsinformation) zum Erschaffen einer vierten Information (erste Korrelationsinformation), wobei die vierte Information (erste Korrelationsinformation) Distanzen zwischen der einen von der Mehrzahl von zweiten Informationen (Teilinformation) und der ersten Information zu Zeiten enthält, die jeweils der Mehrzahl von dritten Informationen (erste Vergleichsinformation) entsprechen, wobei die Zeiten jeweils der Mehrzahl von dritten Informationen entsprechen, die Ein-Rahmen-Intervalle haben,
    eines vierten Schrittes zum Setzen einer Mehrzahl von Kandidatenpunkten α1 bis αm nah einer Zeit nach einer Passage bzw. einem Verstreichen einer dritten Zeitlänge μ von der ersten Zeit t0,
    eines fünften Schrittes zum Erschaffen einer Mehrzahl von fünften Informationen (dritte Vergleichsinformation), wobei die Mehrzahl der fünften Informationen (die dritte Vergleichsinformation) eine Spitze bei den jeweiligen Kandidatenpunkten α1 bis αm hat,
    eines sechsten Schrittes zum Berechnen eines zweiten Korrelationskoeffizienten zwischen jeder von der Mehrzahl der fünften Informationen (die dritte Vergleichsinformation) und der vierten Information (die erste Korrelationsinformation),
    eines siebten Schrittes zum Setzen des Kandidatenpunktes, für den der zweite Korrelationskoeffizient am höchsten ist, als einen vorläufigen Ähnlichkeitspunkt β1;
    eines achten Schrittes zum Wiederholen des Satzes anderer Kandidatenpunkte nah einer Zeit nach einer Passage bzw. einem Verstreichen der dritten Zeitlänge μ von dem letzten vorläufigen Ähnlichkeitspunkt und Ausführen des fünften Schrittes bis zu dem siebten Schritt für die anderen Kandidatenpunkte zum Setzen anderer vorläufiger Ähnlichkeitspunkte β2 bis βk, wie in 6 gezeigt, und
    eines neunten Schrittes zum Berechnen eines ersten Korrelationskoeffizienten zwischen der vierten Information (die erste Korrelationsinformation) und sechsten Information (zweite Vergleichsinformation), welche(r) auf Grundlage der Mehrzahl von vorläufigen Ähnlichkeitspunkten β1 bis βk erschaffen wird,
    wobei der Prozessor den dritten Schritt bis zum dem neunten Schritt für jede der anderen untereinander-unterschiedlichen zweiten Informationen (Teilinformation), die in dem ersten Schritt extrahiert worden sind, wiederholt, mit Bestimmen einer Gruppe der Mehrzahl von vorläufigen Ähnlichkeitspunkten β1 bis βk entsprechend der vierten Information (die erste Korrelationsinformation), für die der erste Korrelationskoeffizient am höchsten ist, und Berechnen von Zeitintervallen zwischen der einen Gruppe der Mehrzahl von vorläufigen Ähnlichkeitspunkten β1 bis βk.
  • Während gewisse Ausführungsformen beschrieben worden sind, sind diese Ausführungsformen nur mittels eines Beispiels präsentiert worden und sind nicht beabsichtigt, den Schutzbereich der Erfindung zu beschränken. In der Tat können hierin beschriebene neue Ausführungsformen auf eine Vielfalt anderer Formen verkörpert sein; darüber hinaus können vielfältige Weglassungen, Ersetzungen und Änderungen in der Form der hierin beschriebenen Ausführungsformen gemacht werden, ohne von dem Schutzbereich der Erfindung abzuweichen. Die begleitenden Ansprüche und ihre Äquivalente sind beabsichtigt, derartige Formen oder Modifizierungen abzudecken, so wie sie in den Schutzbereich der Erfindung fallen würden. Darüber hinaus können oben erwähnte Ausführungsformen untereinander kombiniert werden und können ausgeführt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015-221145 [0001]

Claims (18)

  1. Analyseapparat mit: einer Akquisitionseinheit, die eine erste Information mit einer ersten Zeitlänge zwischen einer ersten Zeit und einer zweiten Zeit akquiriert, wobei die erste Information auf einer Bewegung einer Objektperson basiert; und einem Prozessor, der eine Mehrzahl von Ähnlichkeitspunkten aus der ersten Information extrahiert, wobei die Mehrzahl von Ähnlichkeitspunkten ähnlich zueinander in der ersten Information sind, wobei der Prozessor ein Zeitintervall zwischen den Ähnlichkeitspunkten berechnet.
  2. Analyseapparat gemäß Anspruch 1, wobei der Prozessor eine Teilinformation mit einer zweiten Zeitlänge aus der ersten Information extrahiert, wobei die zweite Zeitlänge kürzer als die erste Zeitlänge ist, und die Mehrzahl von Ähnlichkeitspunkten mit Verwendung einer Distanz zwischen der ersten Information und der Teilinformation extrahiert.
  3. Analyseapparat gemäß Anspruch 2, wobei der Prozessor eine Mehrzahl einer ersten Vergleichsinformation aus der ersten Information zwischen der ersten Zeit und der zweiten Zeit bei einem ersten Zeitintervall extrahiert, jede Distanz zwischen jeder von der Mehrzahl der ersten Vergleichsinformation und der Teilinformation berechnet, um eine erste Korrelationsinformation zu erschaffen, die eine Distanz zwischen der ersten Information und der Teilinformation zu jeder Zeit enthält, eine Mehrzahl von vorläufigen Ähnlichkeitspunkten auf Grundlage der ersten Korrelationsinformation setzt, einen ersten Korrelationskoeffizienten zwischen der ersten Korrelationsinformation und einer zweiten Vergleichsinformation berechnet, die auf Grundlage der Mehrzahl von vorläufigen Ähnlichkeitspunkten erschaffen wird, und eine Eignung der Mehrzahl von vorläufigen Ähnlichkeitspunkten mit Verwendung des ersten Korrelationskoeffizienten bestimmt.
  4. Analyseapparat gemäß Anspruch 3, wobei der Prozessor eine Mehrzahl von Kandidatenpunkten setzt, die Kandidaten für den vorläufigen Ähnlichkeitspunkt sind, wobei die Mehrzahl von Kandidatenpunkten nah einer Zeit nach einer dritten Zeitlänge von der ersten Zeit gesetzt wird, eine Mehrzahl einer dritten Vergleichsinformation erschafft, wobei die Mehrzahl der dritten Vergleichsinformation jeweils Spitzen bei der Mehrzahl von Kandidatenpunkten hat, jeden zweiten Korrelationskoeffizienten zwischen jeder von der Mehrzahl der dritten Vergleichsinformation und der ersten Korrelationsinformation berechnet, einen der Kandidatenpunkte, für den der zweite Korrelationskoeffizient am höchsten ist, als den vorläufigen Ähnlichkeitspunkt setzt, und die Mehrzahl von Ähnlichkeitspunkten durch wiederholtes Setzen anderer Kandidatenpunkte nah einer Zeit nach einer dritten Zeitlänge von dem gesetzten vorläufigen Punkt setzt.
  5. Analyseapparat gemäß Anspruch 4, wobei der Prozessor eine Mehrzahl einer Teilinformation mit der zweiten Zeitlänge aus der ersten Information zu einer untereinander-unterschiedlichen Zeit extrahiert, den ersten Korrelationskoeffizienten für jede von der Mehrzahl der Teilinformation berechnet, und die Mehrzahl von vorläufigen Ähnlichkeitspunkten auf Grundlage der ersten Korrelationsinformation, für die der erste Korrelationskoeffizient am höchsten ist, als die Mehrzahl von Ähnlichkeitspunkten extrahiert.
  6. Analyseapparat gemäß Anspruch 1, wobei die Akquisitionseinheit ein durch die Objektperson getragener Beschleunigungssensor ist, und die erste Information eine Beschleunigungsinformation über einen Körperteil der Objektperson enthält.
  7. Analyseapparat gemäß Anspruch 1, wobei die Akquisitionseinheit fähig zum Akquirieren einer Tiefeninformation beim Aufzeichnen ist, und die Akquisitionseinheit die erste Information durch Erfassen einer Bewegung eines Körperteils der Objektperson mit Verwendung der Tiefeninformation akquiriert.
  8. Analyseapparat gemäß Anspruch 1, mit ferner einer die Objektperson aufzeichnenden Abbildungseinheit, wobei die Abbildungseinheit eine Tiefeninformation beim Aufzeichnen akquiriert, der Prozessor eine Kopfform der Objektperson aus der Tiefeninformation zum Identifizieren der Objektperson extrahiert.
  9. Analyseapparat gemäß Anspruch 8, mit ferner einer Speichereinheit, wobei die Speichereinheit Daten speichert, die Kopfformen einer Mehrzahl von Personen von einer ersten Person bis zu einer N-ten Person enthalten, wobei N eine ganze Zahl gleich oder größer als 2 ist, wobei die Speichereinheit eine Mehrzahl von Identifizierern von einem ersten Identifizierer bis zu einem N-ten Identifizierer speichert, wobei der M-te Identifizierer verwendet wird zum Unterscheiden der M-ten Person von den anderen Personen, wobei M eine ganze Zahl nicht kleiner als 1 und nicht mehr als N ist, der Prozessor die Objektperson mit Verwendung der extrahierten Kopfform und der Mehrzahl von Identifizierern identifiziert.
  10. Analyseapparat gemäß Anspruch 9, wobei der Prozessor jede Distanz zwischen der extrahierten Kopfform der Objektperson und jeder der Kopfformen der Personen von der ersten Person bis zu der N-ten Person berechnet, jeweilige Spannen zwischen den Distanzen und den Identifizierern von dem ersten Identifizierer bis zu dem N-ten Identifizierer berechnet, und die Person, die dem Identifizierer entspricht, für den die berechnete Spanne am höchsten ist, als die Objektperson bestimmt.
  11. Analyseapparat gemäß Anspruch 10, wobei der Prozessor das Zeitintervall mit der als die Objektperson bestimmten Person verknüpft.
  12. Analyseapparat mit: einer Abbildungseinheit, die ein Bild einer Objektperson aufzeichnet und eine Tiefeninformation akquiriert; und einem Prozessor, der eine Kopfform der Objektperson aus dem Bild mit Verwendung der Tiefeninformation extrahiert und die Objektperson auf Grundlage der Kopfform identifiziert.
  13. Analyseapparat gemäß Anspruch 12, mit ferner einer Speichereinheit, wobei die Speichereinheit Daten speichert, die Kopfformen einer Mehrzahl von Personen von einer ersten Person bis zu einer N-ten Person enthalten, wobei N eine ganze Zahl gleich oder größer als 2 ist, die Speichereinheit eine Mehrzahl von Identifizierern von einem ersten Identifizierer bis zu einem N-ten Identifizierer speichert, wobei der M-te Identifizierer verwendet wird zum Unterscheiden der M-ten Person von den anderen Personen, wobei M eine ganze Zahl nicht kleiner als 1 und nicht mehr als N ist, der Prozessor jede Distanz zwischen der extrahierten Kopfform der Objektperson und jeder der Kopfformen der Personen von der ersten Person bis zu der N-ten Person berechnet, jeweilige Spannen zwischen den berechneten Distanzen und den Identifizierern von dem ersten Identifizierer bis zu dem N-ten Identifizierer berechnet, und die Person, die dem Identifizierer entspricht, für den die berechnete Spanne am höchsten ist, als die Objektperson bestimmt.
  14. Analyseverfahren mit: einem ersten Schritt zum Akquirieren einer ersten Information auf Grundlage einer Bewegung einer Objektperson, die erste Information mit einer ersten Zeitlänge zwischen einer ersten Zeit und einer zweiten Zeit; einem zweiten Schritt zum Akquirieren einer Mehrzahl einer Teilinformation mit einer zweiten Zeitlänge aus der ersten Information zu untereinander-unterschiedlichen Zeiten, wobei die zweite Zeitlänge kürzer als die erste Zeitlänge ist; einem dritten Schritt zum Extrahieren einer Mehrzahl einer ersten Vergleichsinformation mit der zweiten Zeitlänge aus der ersten Information, wobei die Mehrzahl einer dritten Information extrahiert wird zwischen der ersten Zeit und der zweiten Zeit zu ersten Zeitintervallen; einem vierten Schritt zum Berechnen von Distanzen zwischen einer von der Mehrzahl der Teilinformation und jeder von der Mehrzahl der ersten Vergleichsinformation zum Erschaffen einer ersten Korrelationsinformation, wobei die erste Korrelationsinformation Distanzen zwischen der einen von der Mehrzahl der Teilinformation und der ersten Information zu Zeiten enthält, die jeweils der Mehrzahl der ersten Vergleichsinformation entsprechen; einem fünften Schritt zum Setzen einer Mehrzahl von Kandidatenpunkten nah einer Zeit nach einer Passage einer dritten Zeitlänge von der ersten Zeit; einem sechsten Schritt zum Erschaffen einer Mehrzahl einer dritten Vergleichsinformation, wobei die Mehrzahl der dritten Vergleichsinformation eine Spitze bei den jeweiligen Kandidatenpunkten hat; einem siebten Schritt zum Berechnen eines zweiten Korrelationskoeffizienten zwischen jeder von der Mehrzahl der dritten Vergleichsinformation und der ersten Korrelationsinformation; einem achten Schritt zum Setzen des Kandidatenpunktes, für den der zweite Korrelationskoeffizient am höchsten ist, als einen vorläufigen Ähnlichkeitspunkt; einem neunten Schritt zum Wiederholen des Satzes anderer Kandidatenpunkte nah einer Zeit nach einer Passage der dritten Zeitlänge von dem letzten vorläufigen Ähnlichkeitspunkt und Ausführen des sechsten Schritts bis zu dem achten Schritt für die anderen Kandidatenpunkte, um andere vorläufige Ähnlichkeitspunkte zu setzen; und einem zehnten Schritt zum Berechnen eines ersten Korrelationskoeffizienten zwischen der ersten Korrelationsinformation und zweiten Vergleichsinformation, welche(r) erschaffen wird auf Grundlage der Mehrzahl von vorläufigen Ähnlichkeitspunkten, Wiederholen des vierten Schritts bis zu dem zehnten Schritt für jede von den anderen untereinander-unterschiedlichen Teilinformationen, die in dem zweiten Schritt extrahiert worden sind, Bestimmen einer Gruppe der Mehrzahl von vorläufigen Ähnlichkeitspunkten entsprechend der ersten Korrelationsinformation, für die der erste Korrelationskoeffizient am höchsten ist, und Berechnen von Zeitintervallen zwischen der einen Gruppe der Mehrzahl von vorläufigen Ähnlichkeitspunkten.
  15. Analyseverfahren gemäß Anspruch 14, wobei die erste Information eine Beschleunigungsinformation eines Körperteils der Objektperson enthält.
  16. Analyseverfahren gemäß Anspruch 14, wobei die erste Information ein erfasstes Ergebnis einer Bewegung eines Körperteils der Objektperson enthält, wobei die Erfassung auf einer Tiefeninformation basiert, die mittels Aufzeichnen der Objektperson akquiriert worden ist.
  17. Analyseverfahren gemäß Anspruch 14, mit ferner: einem elften Schritt zum Akquirieren einer Tiefeninformation mittels Aufzeichnen der Objektperson; einem zwölften Schritt zum Extrahieren einer Kopfform der Objektperson aus der Tiefeninformation; einem dreizehnten Schritt zum Verwenden von Daten, die Kopfformen einer Mehrzahl von Personen von einer ersten Person bis zu einer N-ten Person betreffen, und einer Mehrzahl von Identifizierern von einem ersten Identifizierer bis zu einem N-ten Identifizierer, um Distanzen zwischen der extrahierten Kopfform der Objektperson und den Kopfformen der Mehrzahl von Personen zu berechnen, wobei N eine ganze Zahl gleich oder größer als 2 ist, wobei der M-te Identifizierer verwendet wird zum Unterscheiden der M-ten Person von anderen Personen, wobei M eine ganze Zahl nicht kleiner als 1 und nicht mehr als N ist; einem vierzehnten Schritt zum Berechnen jeweiliger Spannen zwischen den berechneten Distanzen und der Mehrzahl von Identifizierern von dem ersten Identifizierer bis zu dem N-ten Identifizierer; und einem fünfzehnten Schritt zum Bestimmen der Person, die dem Identifizierer entspricht, für den die berechnete Spanne am höchsten ist, als die Objektperson.
  18. Analyseverfahren gemäß Anspruch 17, mit ferner einem sechzehnten Schritt zum Verknüpfen des Zeitintervalls mit der als die Objektperson bestimmten Person.
DE102016222202.3A 2015-11-11 2016-11-11 Analyseapparat und analyseverfahren Ceased DE102016222202A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-221145 2015-11-11
JP2015221145A JP6596309B2 (ja) 2015-11-11 2015-11-11 分析装置および分析方法

Publications (1)

Publication Number Publication Date
DE102016222202A1 true DE102016222202A1 (de) 2017-05-11

Family

ID=58585316

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016222202.3A Ceased DE102016222202A1 (de) 2015-11-11 2016-11-11 Analyseapparat und analyseverfahren

Country Status (4)

Country Link
US (3) US10380730B2 (de)
JP (1) JP6596309B2 (de)
CN (1) CN106997505B (de)
DE (1) DE102016222202A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2567214A (en) * 2017-10-06 2019-04-10 Ozbros Enginering Ltd Process performance measurement
CN107833207B (zh) * 2017-10-25 2020-04-03 北京大学 基于增广齐次坐标矩阵的图像间错误匹配的检测方法
JP6943294B2 (ja) * 2017-12-14 2021-09-29 富士通株式会社 技認識プログラム、技認識方法および技認識システム
JP7049212B2 (ja) * 2018-08-09 2022-04-06 株式会社東芝 分析システム、分析方法、プログラム、及び記憶媒体
JP7259313B2 (ja) * 2018-12-18 2023-04-18 コニカミノルタ株式会社 属性決定装置、属性決定システム、属性決定方法、プログラムおよび記録媒体
JP7370777B2 (ja) 2019-09-13 2023-10-30 株式会社東芝 学習システム、分析システム、学習方法、分析方法、プログラム、及び記憶媒体
JP2021093037A (ja) 2019-12-11 2021-06-17 株式会社東芝 算出システム、算出方法、プログラム、及び記憶媒体

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015221145A (ja) 2014-05-23 2015-12-10 株式会社 ディー・エヌ・エー 情報処理装置及びプログラム

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0296800A (ja) * 1988-10-03 1990-04-09 Nec Corp 連続音声認識装置
DE10255072A1 (de) * 2002-11-25 2004-06-17 Sensovation Ag Verfahren zum Erfassen einer Eigenschaft mindestens eines Gegenstands
JP2006350577A (ja) * 2005-06-14 2006-12-28 Fuji Xerox Co Ltd 動作分析装置
JP2009009413A (ja) * 2007-06-28 2009-01-15 Sanyo Electric Co Ltd 動作検知装置及び動作検知プログラム、並びに動作基本モデル生成装置及び動作基本モデル生成プログラム
JP4506875B2 (ja) * 2008-05-19 2010-07-21 ソニー株式会社 画像処理装置および画像処理方法
RU2011106031A (ru) * 2008-07-18 2012-08-27 Опталерт Пти Лтд (Au) Чувствительное устройство активного состояния
CN102227616B (zh) * 2009-05-27 2015-04-15 松下电器产业株式会社 行为识别装置
EP2458510B1 (de) * 2010-11-29 2014-05-07 NTT DoCoMo, Inc. Verfahren und Vorrichtung zur Durchführung einer Kreuzkorrelation
CN103003846B (zh) * 2011-01-26 2016-07-06 松下知识产权经营株式会社 关节区域显示装置、关节区域检测装置、关节区域归属度计算装置、关节状区域归属度计算装置以及关节区域显示方法
JP2012247991A (ja) * 2011-05-27 2012-12-13 Kddi Corp 類似度評価装置及び方法
CN102855462A (zh) * 2011-07-01 2013-01-02 富士通株式会社 确定人体动作周期及识别人体动作的方法和装置
CN103776543A (zh) * 2012-09-21 2014-05-07 杭州美盛红外光电技术有限公司 热像分析装置和热像分析方法
JP2014067333A (ja) * 2012-09-27 2014-04-17 Sony Corp 画像処理装置、画像処理方法、およびプログラム
US9367733B2 (en) * 2012-11-21 2016-06-14 Pelco, Inc. Method and apparatus for detecting people by a surveillance system
JP5843751B2 (ja) * 2012-12-27 2016-01-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
JP2014238812A (ja) * 2013-05-10 2014-12-18 株式会社リコー 情報処理装置、動作特定方法及び動作特定プログラム
US10055013B2 (en) * 2013-09-17 2018-08-21 Amazon Technologies, Inc. Dynamic object tracking for user interfaces
JP2015109024A (ja) * 2013-12-05 2015-06-11 日本電信電話株式会社 画像辞書生成装置、画像辞書生成方法及びコンピュータプログラム
US9928874B2 (en) * 2014-02-05 2018-03-27 Snap Inc. Method for real-time video processing involving changing features of an object in the video
CN104268138B (zh) * 2014-05-15 2017-08-15 西安工业大学 融合深度图和三维模型的人体运动捕捉方法
US9501915B1 (en) * 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015221145A (ja) 2014-05-23 2015-12-10 株式会社 ディー・エヌ・エー 情報処理装置及びプログラム

Also Published As

Publication number Publication date
CN106997505B (zh) 2021-02-09
CN106997505A (zh) 2017-08-01
US10380730B2 (en) 2019-08-13
US20200302593A1 (en) 2020-09-24
JP2017091249A (ja) 2017-05-25
US20170132780A1 (en) 2017-05-11
US20190304083A1 (en) 2019-10-03
US10713770B2 (en) 2020-07-14
JP6596309B2 (ja) 2019-10-23
US11373289B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
DE102016222202A1 (de) Analyseapparat und analyseverfahren
DE102013012224B4 (de) Vorrichtung zum Entnehmen von lose gespeicherten Gegenständen durch einen Roboter
DE102015219547A1 (de) System und Verfahren zum Bestimmen der Atemfrequenz aus einem Video
US10482613B2 (en) Movement monitoring system
DE102014211692A1 (de) Anhängeridentifizierung
CN101203747A (zh) 用于数字x光影像软拷贝解读的智能化定性与定量分析的方法和系统
DE112011100681T5 (de) Positions- und orientierungsschätzverfahren und vorrichtung dafür
DE112017007397T5 (de) Steuervorrichtung, Greifsystem, Verteilersystem, Programm, Steuerverfahren und Herstellungsverfahren
US20200279102A1 (en) Movement monitoring system
DE102015122116A1 (de) System und Verfahren zur Ermittlung von Clutter in einem aufgenommenen Bild
CN103871054A (zh) 一种基于组合指标的图像分割结果定量评价方法
EP3435202A1 (de) Zuordnen eines werkzeuges zu einer greifgeste
DE112019007852B4 (de) Informationsverarbeitungsvorrichtung, Werkstückerkennungsvorrichtung und Werkstückaufgreifvorrichtung
DE112017007394T5 (de) Informationsverarbeitungsvorrichtung, Greifsystem, Verteilersystem, Programm und Informationsverarbeitungsverfahren
DE102014113817A1 (de) Vorrichtung und Verfahren zur Erkennung eines Objekts in Einem Bild
DE102016008406A1 (de) Bildmessvorrichtung, Steuerprogramm dieser Vorrichtung und nicht temporäres Aufzeichnungsmedium, auf welchem das Steuerprogramm aufgezeichnet ist
DE102016008744A1 (de) Bildmessapparat, Regel- bzw. Steuerprogramm eines derartigen Apparats und nicht-flüchtiges Aufzeichnungsmedium, auf welchem das Regel- bzw. Steuerprogramm aufgezeichnet is
DE112012003818T5 (de) Verfahren und ein System für die medizinische Bildgebung
DE10306304B4 (de) Vorrichtung zur Unterstützung der Benutzerfreundlichkeits-Evaluierung
DE102019219479A1 (de) System und verfahren zur zyklusdauermessung in wiederholten aktivitätssequenzen
DE102017208607A1 (de) Steuereinrichtung für eine Kameravorrichtung, Kameraanordnung und Verfahren zur stereoskopischen Aufnahme eines Überwachungsbereichs
DE102019004668A1 (de) Offline-lehrvorrichtung, messungs-regel- bzw. -steuervorrichtung, entsprechende verfahren und computerprogrammprodukt
DE102017122554A1 (de) Informationenverarbeitungsvorrichtung, informationenverarbeitungsverfahren und speichermedium
DE102010042821B4 (de) Verfahren und Vorrichtung zur Bestimmung einer Basisbreite eines Stereo-Erfassungssystems
DE112017006794T5 (de) Bilddatenbank-bildungsvorrichtung, orts- und neigungsschätzvorrichtung und bilddatenbank-bildungsverfahren

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final