DE69736622T2 - System zur Bewegungserkennung - Google Patents

System zur Bewegungserkennung Download PDF

Info

Publication number
DE69736622T2
DE69736622T2 DE69736622T DE69736622T DE69736622T2 DE 69736622 T2 DE69736622 T2 DE 69736622T2 DE 69736622 T DE69736622 T DE 69736622T DE 69736622 T DE69736622 T DE 69736622T DE 69736622 T2 DE69736622 T2 DE 69736622T2
Authority
DE
Germany
Prior art keywords
movement
movements
recognition
walking
activities
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69736622T
Other languages
English (en)
Other versions
DE69736622D1 (de
Inventor
Munetoshi Hitachi-shi Unuma
Shiro Hitachinaka-shi Nonaka
Shigeru Hitachinaka-shi Oho
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of DE69736622D1 publication Critical patent/DE69736622D1/de
Publication of DE69736622T2 publication Critical patent/DE69736622T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1123Discriminating type of movement, e.g. walking or running
    • AHUMAN NECESSITIES
    • A43FOOTWEAR
    • A43BCHARACTERISTIC FEATURES OF FOOTWEAR; PARTS OF FOOTWEAR
    • A43B3/00Footwear characterised by the shape or the use
    • A43B3/34Footwear characterised by the shape or the use with electrical or electronic arrangements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1112Global tracking of patients, e.g. by using GPS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6802Sensor mounted on worn items
    • A61B5/681Wristwatch-type devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/6813Specially adapted to be attached to a specific body part
    • A61B5/6828Leg
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6801Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient specially adapted to be attached to or worn on the body surface
    • A61B5/683Means for maintaining contact with the body
    • A61B5/6831Straps, bands or harnesses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • A61B5/1117Fall detection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/112Gait analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7232Signal processing specially adapted for physiological signals or for diagnostic purposes involving compression of the physiological signal, e.g. to extend the signal recording period
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7253Details of waveform analysis characterised by using transforms
    • A61B5/726Details of waveform analysis characterised by using transforms using Wavelet transforms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0062Monitoring athletic performances, e.g. for determining the work of a user on an exercise apparatus, the completed jogging or cycling distance
    • A63B2024/0071Distinction between different activities, movements, or kind of sports performed
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63BAPPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
    • A63B24/00Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
    • A63B24/0003Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis

Description

  • Die vorliegende Erfindung bezieht sich auf Techniken zum Messen einer Zustandsänderung, die Bewegungen und/oder Tätigkeiten eines Menschen, eines Tieres oder einer Maschine (generell hierin als Beobachtungsobjekt bezeichnet) mit sich bringt. Insbesondere bezieht sich die Erfindung auf ein Verfahren zum Erkennen solcher Bewegungen und/oder Tätigkeiten ebenso wie auf eine Vorrichtung, die dieses Verfahren einsetzt, sowie ein System, das diese Vorrichtung umfasst.
  • Der grundlegende Stand der Technik, der das Messen menschlicher Bewegungen und Arbeit betrifft, wird anschaulich in "Ergonomics Illustrated" (von Kageo Noro, eine Japanische Veröffentlichung von Nippon Kikaku Kyokai, 14. Februar 1990, S. 538–544) beschrieben. Die Veröffentlichung offenbart typische Verfahren zum Messen von Bewegungen und Arbeit von Menschen durch VTR-basierte Beobachtung oder durch direkte visuelle Beobachtung.
  • Die Japanische Patentschrift Nr. Hei 7-96014 offenbart eine Technik zur Verwendung von Beschleunigungssensoren beim Messen von Bewegungen und Arbeit von Menschen. Die offenbarte Technik umfasst das Erlangen von Vibrationswellenformen von Beschleunigungssensoren, die am menschlichen Körper angebracht sind, während sich Letzterer bewegt, das Anwenden einer Analog-Digital-Wandlung auf die erlangten Vibrationswellenformen, das Zusammensetzen einer Vibrationsmustertabelle aus den so erhaltenen diskreten A/D-gewandelten Werten und zur Beurteilung das Vergleichen von sich aus einer Eingabevibrationswellenform ergebenden A/D-gewandelten Werten mit der Vibrationsmustertabelle synchron zu einem von einer Uhr. in geeigneten Zeitabständen ausgegebenen Zeitgebungssignal. Diese Technik erlaubt eine Erkennungsverarbeitung in der gleichen Bewegung oder zur gleichen Geschwindigkeit wie die, bei der beziehungsweise in der die Vibrationsmustertabelle erzeugt wird.
  • Die anfangs erwähnten herkömmlichen Verfahren zum Messen von Bewegungen und Arbeit von Menschen durch VTR-basierte oder direkte visuelle Beobachtungen haben die folgenden größeren Nachteile:
    • (1) Analyse durch VTR-basierte oder direkte visuelle Beobachtung erfordert, dass der Beobachter durchgängig Positionen des Beobachtungsobjekts und die dadurch erledigte Arbeit aufzeichnet. Dazu braucht es viele Stunden und enorme Anstrengung des Beobachters beim Ausführen der Aufgabe.
    • (2) Blinde Flecken des Beobachtungsobjekts können durch VTR-basierte oder direkte visuelle Beobachtung nicht untersucht werden.
    • (3) Wenn sich das Beobachtungsobjekt bewegt, muss der Beobachter dem Objekt folgen, indem er sich gleichermaßen bewegt.
    • (4) Das Beobachtungsobjekt kann sich durchaus des VTR oder der Augen des Beobachters bewusst sein.
    • (5) Beim Beobachten, wo sich die Gelenke des Beobachtungsobjekts befinden, messen und reproduzieren die herkömmlichen Verfahren bloß die Gelenkpositionen; die Verfahren erlauben nicht, dass Tätigkeiten oder Arbeit des Objekts automatisch erkannt werden. Zum Erkennen der reproduzierten Bewegungen braucht man menschliche Beobachter.
  • Die oben darauf folgend erwähnte herkömmliche Technik hat die folgenden größeren Nachteile:
    • (6) Zwischen Bewegungen des Gehens und des Laufens treten leicht Spitzenhöhenunterschiede auf. Zum Beispiel gehören ein lockerer Gang und ein flotter Gang in dieselbe Kategorie des "Gehens", haben aber verschiedene Geschwindigkeiten, die ver schiedene Längen in der Zeitgrundrichtung zwischen der Vibrationsmustertabelle und den Eingabevibrationswellenformen mit sich bringen. Dies macht es unmöglich, Korrelationen zwischen der vom tatsächlichen Gang hergeleiteten Vibrationswellenform und der mutmaßlich entsprechenden Vibrationsmustertabelle zu erfassen. Im Ergebnis werden Bewegungen der gleichen Art fälschlicherweise als zwei verschiedene Bewegungen erkannt. Das korrekte Erkennen der gleichen Art von Bewegungen mit verschiedenen Spitzenhöhen erfordert darüber hinaus das Einrichten von den verschiedenen Spitzenhöhen entsprechenden Vibrationsmustertabellen. Da Spitzenhöhen üblicherweise durchgehend variieren, erfordert dies viel mehr Vibrationsmuster, um eine genauere Erkennung zu erreichen. Kurz gesagt erfordert es eine progressiv große Anzahl von Vibrationsmustertabellen, um Erkennung von noch größerer Genauigkeit zu bekommen.
    • (7) Wenn mehrere Bewegungen in Kombination erkannt werden sollen, wie etwa wenn das Objekt sich selbst während des Gehens zufächert oder wenn das Objekt innerhalb eines sich bewegenden Zuges geht, ist es notwendig, ein unterschiedliches Vibrationsmuster für jede Kombination von Bewegungen (z.B. "Zufächern während des Gehens", "Gehen innerhalb eines fahrenden Zuges" usw.) einzurichten. Darüber hinaus ist es ebenfalls notwendig, wenn sich das Objekt zum Beispiel während des Gehens zufächert, ein Vibrationsmuster für den Fall einzurichten, in dem der Fächer in dem Moment nach oben zeigt, in dem der Fuß des Objekts den Boden berührt, und ein anderes Vibrationsmuster für den Fall einzurichten, in dem der Fächer in dem Moment nach unten zeigt, wenn der Fuß des Objekts den Boden berührt. In der Praxis erfordert eine machbare Erkennung den Aufbau einer sehr großen Anzahl von Vibrationsmustertabellen, um verschiedene Arten von Bewegungen zu erfassen.
    • (8) Die herkömmliche Technik misst lediglich die auf den menschlichen Körper angewendete Beschleunigung und erkennt diesen Parameter als die der Erkennung unterzogenen Daten. Dies erschwert es, Bewegungen wie etwa Drehen oder ähnliche Bewegungen des Körpers, die durch Winkelbeschleunigung gekennzeichnet sind, zu erkennen.
    • (9) Das Ziel der Erkennung beschränkt sich auf unterbrochene Bewegungen, während menschliche Tätigkeiten im Allgemeinen als eine Kombination mehrerer Bewegungen erreicht werden. Zum Beispiel setzt sich die Tätigkeit des "Sitzens auf einem Stuhl" aus den Bewegungen "Gehen", "Anhalten" und "Sitzen" zusammen, die fortlaufend in dieser Reihenfolge ausgeführt werden. Die offenbarte herkömmliche Technik muss erst noch auf Möglichkeiten zum korrekten Erkennen von Tätigkeiten, die aus mehreren Bewegungen bestehen, gerichtet werden.
  • US-A-5280265 offenbart ein System, in dem Goniometer (Spannungssensoren) auf verschiedene Teile des Körpers einer Person angepasst werden. Die Goniometer erzeugen Ausgaben, aus denen die Bewegung der Person erfasst werden kann, und diese Ausgaben werden analysiert, um bestimmte Muster bezüglich der Bewegungspositionen zu identifizieren, die dann dazu verwendet werden können, um Symbole zu definieren oder Töne zu erzeugen. Daher entspricht dieses Dokument dem Oberbegriff von Anspruch 1.
  • Gemäß der vorliegenden Erfindung wird ein Erkennungssystem zur Erkennung von Bewegungen und/oder Tätigkeiten eines beobachteten Objekts vorgesehen, wobei die Erkennungsvorrichtung umfasst:
    eine an dem beobachteten Objekt angebrachte Messeinrichtung zur Messung einer Zustandsänderung infolge der Bewegungen und/oder Tätigkeiten des beobachteten Objekts;
    eine Extraktionseinrichtung für charakteristische Größen zum Extrahieren charakteristischer Größen aus den von der Messeinrichtung vorgenommenen Messungen;
    eine Erkennungseinrichtung zur Erkennung der Bewegungen und/oder Tätigkeiten des beobachteten Objekts entsprechend den aus den Messungen gewonnenen charakteristischen Größen;
    eine Ausgabeeinrichtung zur Ausgabe eines Erkennungsergebnisses;
    wobei das Erkennungssystem dadurch gekennzeichnet ist, dass es ferner umfasst:
    eine Positionsmesseinrichtung zum Messen von Positionen des beobachteten Objekts,
    eine Speichereinrichtung zum Speichern geografischer Informationen und Informationen über das Innere von Gebäuden,
    eine Positionsfolgerungseinrichtung zum Korrigieren der Position des Objekts, das von der Positionsmesseinrichtung gemessen wird, durch Durchsuchen der geografischen Informationen und der Informationen über das Innere von Gebäuden, die in der Speichereinrichtung gespeichert sind, nach einem Platz, der mit den von der Erkennungseinrichtung erkannten Bewegungen und/oder Tätigkeiten verknüpft ist.
  • Die vorliegende Erfindung kann die obigen sowie andere Mängel und Nachteile des Standes der Technik überwinden und ein System zum Erkennen von Bewegungen und Tätigkeiten eines sich bewegenden Objekts wie etwa Menschen, Tieren und Maschinen mit größerer Präzision zur Verfügung stellen.
  • Die vorliegende Erfindung kann daher ein Erkennungssystem zur Verfügung stellen, das in der Lage ist, zumindest eine der folgenden technischen Zielsetzungen zu erreichen:
    • (1) Bewegungen, Tätigkeiten und Arbeit werden automatisch erkannt, so dass der Beobachter frei von unnötigen Arbeitslasten ist.
    • (2) Blinde Flecken wie etwa Schatten von Objekten werden ausgeschaltet.
    • (3) Die Beobachtung wird weder behindert noch unterbrochen, wenn sich das Beobachtungsobjekt bewegt.
    • (4) Das Beobachtungsobjekt ist frei von mit herkömmlichen Beobachtungsschemata verbundenen Lasten.
    • (5) Das Beobachtungsobjekt wird nicht bloß im Hinblick auf seine Bewegungen gemessen, sondern auch der Erkennung oder Schätzung seiner Bewegungen, Tätigkeiten und Arbeit auf der Grundlage von gemessenen Ergebnissen unterzogen.
    • (6) Die Messungen werden nicht durch Geschwindigkeiten der Bewegungen beeinflusst.
    • (7) Mehrere Bewegungen in Kombination werden erkannt.
    • (8) Mehr Bewegungsarten als jeweils zuvor werden unter Bezug auf andere Parameter als die Beschleunigung erkannt.
    • (9) Das Beobachtungsobjekt (biologisch oder mechanisch) wird nicht bloß im Hinblick auf seine unterbrochenen Bewegungen gemessen, sondern auch der Erkennung oder Schätzung seiner Bewegungen, Tätigkeiten und Arbeit auf der Grundlage einer Bewegungshistorie unterzogen.
  • Genauer kann ein Erkennungssystem gemäß der Erfindung zum Beispiel Verfahrensschritte oder Einrichtungen zum Ausführen der folgenden Schritte umfassen:
    • (1) Messinstrumente werden am Beobachtungsobjekt angebracht. Die Instrumente nehmen automatisch Messungen einer Zustandsänderung, die Bewegungen und Tätigkeiten des Beobachtungsobjekt mit sich bringt, vor. Die gemessenen Daten werden an den Beobachter übertragen.
    • (2) Die Zustandsänderung des Beobachtungsobjekts wird mittels eines Beschleunigungssensors, eines Geschwindigkeitssensors oder eines Positionssensors frei von visuellen oder Audioeinrichtungen gemessen.
    • (3) Beobachtete Ergebnisse werden über Funk übertragen.
    • (4) Zustandsänderungen werden an einer kleinen Zahl von Beobachtungspunkten gemessen, an denen diese Änderungen, die Bewegungen und Tätigkeiten des Beobachtungsobjekts mit sich bringen, betont sind.
    • (5) Charakteristische Größen oder typische Bewegungen oder Tätigkeiten werden im voraus extrahiert. Die vorbestimmten charakteristischen Größen werden im Hinblick auf Korrelation mit aus den gemessenen Daten extrahierten charakteristischen Größen verglichen. Basierend auf dem Vergleich wird eine durch die charakteristischen Größen von hoher Korrelation repräsentierte Bewegung oder Tätigkeit als erkanntes Ergebnis ausgegeben.
    • (6) Eine vorgemessene Wellenform, die eine einzelne Bewegung darstellt, wird bezüglich der Dauer von dem Moment, an dem die Bewegung beginnt, bis zu dem, an dem sie endet, normalisiert. Normalisierung beinhaltet das Betrachten der Dauer vom Beginn bis zum Ende einer Bewegung als "1".
  • Anschaulich bilden zwei Schritte bei einem Gang einen Zyklus bei Normalisierung. Danach werden charakteristische Bestandteile jeder Bewegung mittels Funktionalisierung, Fourier-Transformation oder Wavelet-Transformation extrahiert. Bei der Normalisierung verwendete Koeffizienten oder aus der Transformation (Fourier usw.) extrahierte Bestandteile werden als charakteristische Größen der betrachteten Bewegungen eingerichtet. Wenn der Beginn oder das Ende einer Bewegung aus einer aus der Bewegung abgeleiteten Eingabewellenform erkannt werden sollen, wird die Wellenform auf der Grundlage der Bewegungsdauer normalisiert. Danach werden Koeffizienten oder charakteristische Bestandteile durch die oben erwähnte Funktionalisierung oder Fourier-/Wavelet-Transformation extrahiert. Die extrahierten Koeffizienten oder Bestandteile werden mit zuvor gespeicherten charakteristischen Größen zur Bewegungserkennung verglichen.
    • (7) Die charakteristischen Größen verschiedener Bewegungen werden übereinandergelagert. Das Ergebnis des Übereinanderlegens wird durch Beobachtung erkannt. Zum Beispiel werden die charakteristischen Größen des "Gehens" und die des "sich selbst Zufächerns" übereinandergelagert.
    • (8) Zur Erkennung von Bewegungen und Tätigkeiten werden nicht nur Beschleunigungsdaten sondern auch Daten anderer physikalischer Größen wie etwa der Geschwindigkeit, der Position, der Winkelbeschleunigung, der Winkelgeschwindigkeit, des Rotationswinkels sowie biologische Daten, die die Bewegungen und Tätigkeiten des Beobachtungsobjekts mit sich bringen, erhoben. Die so erhaltenen Daten werden beim Erkennungsvorgang verwendet.
    • (9) Mit einer Bewegungshistorie verknüpfte Tätigkeiten werden als verknüpfte Bewegungen voreingerichtet. Eine Historie beobachteter und erkannter Bewegungen wird mit den verknüpften Bewegungen verglichen, wodurch die Tätigkeiten des Beobachtungsobjekts verknüpft werden.
  • Die oben angegebenen Verfahrensschritte oder Einrichtungen erzielen anschaulicherweise die folgenden Wirkungen, wenn sie ausgeführt oder implementiert werden:
    • (1) Gemessene Daten werden automatisch eingesendet, wodurch der Beobachter von Arbeitsaufgaben befreit wird, die herkömmlicherweise mit dem Zusammentragen von Daten verbunden sind.
    • (2) Die verwendeten Sensoren lassen keine blinden Flecken.
    • (3) Da Messungen über Funk übertragen werden, kann sich das Beobachtungsobjekt im Wesentlichen frei bewegen, ohne dass der Beobachter ihm oder ihr folgen muss.
    • (4) Eine kleinere Anzahl von Beobachtungspunkten im Vergleich zu herkömmlichen Aufbauten verringert beobachtungsbezogene Lasten für das Beobachtungsobjekt, Wenn der Beobachter das Objekt nicht anschauen muss, wird letzteres von psychologischen Einschränkungen befreit, die mit den Blicken des Beobachters verbunden sind.
    • (5) Der automatische Erkennungsvorgang macht es für den Beobachter unnötig, direkt mit rohen Messdaten umgehen zu müssen.
    • (6) Die normalisierte Zeitbasis erlaubt Bewegungserkennung, die frei vom Einfluss der Bewegungsgeschwindigkeit ist.
    • (7) Da charakteristische Größen in Kombination betrachtet werden, können auch kompliziertere Bewegungen erkannt werden.
    • (8) Die Erkennung wird nicht nur durch die Verwendung von Beschleunigung sondern auch von anderen physikalischen Größen ausgeführt. Dies ermöglicht es, Bewegungen zu erkennen, die nur wenig signifikant durch Beschleunigung gekennzeichnet sind.
    • (9) Eine aus mehreren Bewegungen zusammengesetzte Tätigkeit (hierin Arbeit genannt) wird ebenfalls erkannt.
  • In den Zeichnungen:
  • 1 ist ein Blockdiagramm eines als ein Ausführungsbeispiel der Erfindung in die Praxis umgesetzten Bewegungs- und Tätigkeitserkennungsgeräts;
  • 2 ist eine erklärende Ansicht typischer Ausgaben eines an der Hüfte eines Beobachtungsobjekts angebrachten Beschleunigungssensors;
  • 3 ist eine erklärende Ansicht typischer Ergebnisse einer auf einer Wavelet-Transformation basierenden Zeit-Frequenz-Analyse;
  • 4 ist ein Blockdiagramm eines als ein anderes Ausführungsbeispiel der Erfindung in die Praxis umgesetzten Erkennungsgeräts;
  • 5A ist eine grafische Darstellung einer vom Ausführungsbeispiel aus 4 beobachteten Wellenform;
  • 5B ist eine grafische Darstellung typischer Ergebnisse einer auf die Daten aus 5A angewendeten Spektralanalyse;
  • 5C ist eine grafische Darstellung typischer Ergebnisse einer Spektralanalyse nach Normalisierung;
  • 6 ist ein Blockdiagramm eines als ein weiteres Ausführungsbeispiel der Erfindung in die Praxis umgesetzten Erkennungsgeräts;
  • 7 ist ein Blockdiagramm eines als ein anderes Ausführungsbeispiel der Erfindung in die Praxis umgesetzten Erkennungsgeräts;
  • 8 ist eine erklärende Ansicht, die Punkte und Achsen zum Messen von Zustandsänderungen abbildet;
  • 9 ist ein Blockdiagramm eines als ein anderes Ausführungsbeispiel der Erfindung in die Praxis umgesetzten Erkennungsgeräts;
  • 10 ist ein Blockdiagramm eines Bewegungs- und Tätigkeitserkennungsgeräts, das mit einer Positionsmesseinheit zur Ausführung der Erfindung kombiniert ist;
  • 11 ist eine erklärende Ansicht, die ein vom Ausführungsbeispiel aus 10 verwendetes Positionsmessverfahren angibt;
  • 12 ist ein Blockdiagramm eines Erkennungssystems zum Schätzen des Arbeitszustands des Objekts oder der Umgebung, in der das Objekt platziert ist, auf der Grundlage einer akkumulierten Arbeitshistorie;
  • 13 ist eine erklärende Ansicht, die eine typische Bewegungs- oder Tätigkeitshistorie zeigt, die vom Ausführungsbeispiel aus 12 akkumuliert wurde;
  • 14 ist eine erklärende Ansicht von vom Ausführungsbeispiel aus 12 verwendeten verknüpften Mustern;
  • 15 ist ein Blockdiagramm eines als ein weiteres Ausführungsbeispiel der Erfindung in die Praxis umgesetzten Erkennungsgeräts, wobei das Gerät einen Unterschied zwischen einer Referenzbewegung und einer gemessenen Bewegung anzeigt;
  • 16A ist eine erklärende Ansicht, die ein Beispiel der Berechnung der Differenz zwischen einer gemessenen Bewegung und einer Referenzbewegung zeigt;
  • 16B ist eine erklärende Ansicht, die ein anderes Beispiel der Berechnung der Differenz zwischen einer gemessenen Bewegung und einer Referenzbewegung zeigt;
  • 17 ist ein Blockdiagramm eines als ein anderes Ausführungsbeispiel der Erfindung in die Praxis umgesetzten Erkennungsgeräts, wobei das Gerät die Differenz zwischen einer gemessenen Bewegung und einer Referenzbewegung erfasst und eine wahrscheinliche Ursache der Differenz ausgibt;
  • 18 ist ein Blockdiagramm eines Erkennungssystems, das erfindungsgemäße Erkennungsgeräte umfasst, um Arbeitsdaten zur Verwendung durch ein Verarbeitbarkeitsevaluationssystem oder ein Arbeitsinhaltsevaluationssystem anzusammeln;
  • 19 ist ein Blockdiagramm eines Erkennungssystems, das erfindungsgemäße Erkennungsgeräte umfasst, um Daten zur Verwendung durch ein optimales Personalallokationssystem oder ein optimales Arbeitszeitallokationssystem anzusammeln;
  • 20 ist ein Blockdiagramm eines Erkennungssystems, das ein erfindungsgemäßes Erkennungsgerät umfasst, um bekanntzugeben, dass eine spezifische Bewegung oder Tätigkeit durch ein Beobachtungsobjekt ausgeführt worden ist;
  • 21 ist eine erklärende Ansicht eines Erkennungssystems, das erfindungsgemäße Erkennungsgeräte zur Verhaltensanalyse, Verhaltensverfolgung und Verhaltensüberwachung anwendet;
  • 22 ist ein Blockdiagramm einer als ein weiteres Ausführungsbeispiel der Erfindung in die Praxis umgesetzten Gestenerkennungsvorrichtung;
  • 23 ist ein Blockdiagramm eines mit einer Funkkommunikationseinrichtung ausgestatteten Erkennungsgeräts zur Ausführung der Erfindung;
  • 24 ist ein Blockdiagramm eines anderen mit einer Funkkommunikationseinrichtung ausgestatteten Erkennungsgeräts zur Ausführung der Erfindung;
  • 25 ist ein Blockdiagramm eines Erkennungssystems mit einem Erkennungsgerät gemäß der Erfindung, das mit einer Funktion zur Verarbeitung von Prepaid-Gebühren ausgestattet ist, um die Erfindung auszuführen;
  • 26 ist ein Blockdiagramm eines Erkennungssystems mit einem Erkennungsgerät gemäß der Erfindung, das mit einer Funktion zur Verarbeitung von Gutschriften versehen ist, um die Erfindung auszuführen;
  • 27 ist ein Blockdiagramm eines Erkennungssystems mit einem Erkennungsgerät gemäß der Erfindung, das mit einer Funktion zur Verarbeitung von Guthaben versehen ist, um die Erfindung auszuführen;
  • 28 ist ein Blockdiagramm eines Erkennungssystems mit einem Erkennungsgerät gemäß der Erfindung, das mit einer Funktion zur Eintritts-/Austrittsverifikation versehen ist, um die Erfindung auszuführen;
  • 29 ist eine erklärende Ansicht, die einen Weg zum Erhalten von Korrelationsgraden zwischen der Referenz und den Messungen auf der Grundlage von erlangten charakteristischen Größen darstellt;
  • 30 ist ein Diagramm, das den Aufbau eines Systems zum Anzeigen von Ergebnissen zeigt, die aus der Beobachtung einer Bewegung, einer Tätigkeit und/oder Arbeit eines Beobachtungsobjekts unter Verwendung einer Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung durch Animationen mittels Computergrafik als einem Verfahren zum Ausdrücken von Bewegungen, Tätigkeiten und/oder Arbeit eines Gelenkstrukturkörpers erhalten werden;
  • 31 ist ein erklärendes Skelettdiagramm, das ein Verfahren zum Ausdrücken einer Bewegung, einer Tätigkeit und/oder Arbeit eines Gelenkstrukturkörpers durch Verwendung der charakteristischen Größen der Bewegung, der Tätigkeit und/oder Arbeit zeigt;
  • 32 ist ein Skelettdiagramm, das zur Erklärung eines Verfahrens auf der Grundlage von Animationen mittels Computergrafik zum Anzeigen einer Bewegung, einer Tätigkeit und/oder Arbeit, die sich aus der Überlagerung einer Vielzahl von charakteristischen Größen ergeben, verwendet wird;
  • 33 ist ein Diagramm, das ein Beispiel zeigt, in dem Bewegung mittels eines Erkennungsverfahrens gemäß der vorliegenden Erfindung erkannt wird und ein Ergebnis der Erkennung durch Animationen mittels Computergrafik angezeigt wird;
  • 34 ist ein Diagramm, das ein anderes Beispiel zeigt, in dem eine Bewegung mittels des Erkennungsverfahrens gemäß der vorliegenden Erfindung erkannt wird und ein Erkennungsergebnis durch Animationen mittels Computergrafik angezeigt wird;
  • 35 ist ein Diagramm, das noch ein weiteres Beispiel zeigt, in dem eine Bewegung mittels des Erkennungsverfahrens gemäß der vorliegenden Erfindung erkannt wird und ein Erkennungsergebnis durch Animationen mittels Computergrafik dargestellt wird;
  • 36 ist ein Diagramm, das noch ein weiteres Beispiel zeigt, in dem eine Bewegung mittels des Erkennungsverfahrens gemäß der vorliegenden Erfindung erkannt wird und ein Erkennungsergebnis durch Animationen mittels Computergrafik angezeigt wird;
  • 37 ist ein Diagramm, das die Konfiguration eines Systems zum Anzeigen eines Ergebnisses der Erkennung der Position ebenso wie der Bewegung, der Tätigkeit und/oder der Arbeit eines Beobachtungsobjekts zeigt;
  • 38 ist ein Diagramm, das einen typischen Bildschirm zeigt, auf dem Ergebnisse zur Erkennung der Positionen ebenso wie der Bewegungen, Tätigkeiten und/oder der Arbeit von Beobachtungsobjekten, die als Grundlage verwendet werden, gezeigt werden;
  • 39 ist ein Diagramm, das ein Anzeigebeispiel zeigt, das ein Notfallereignis illustriert;
  • 40 ist ein Diagramm, das ein Beispiel der Illustration von Positionen ebenso wie von Bewegungen, Tätigkeiten und/oder Arbeit von Krankenhausbeschäftigten zeigt;
  • 41 ist ein Diagramm, das die Konfiguration eines Systems zum Anzeigen einer Folge von Bewegungszuständen, die zum Notfallereignis führen, und zum Ausführen der Notfallverarbeitung zeigt;
  • 42 ist ein Beispiel der Struktur von in einer Speichereinheit gespeicherten Daten zur Darstellung der erkannten Bewegung, Tätigkeit und/oder Arbeit eines Beobachtungsobjekts ebenso wie der Position und des Zeitpunkts, zu dem die Bewegung, die Tätigkeit und/oder die Arbeit erkannt werden;
  • 43 ist ein Diagramm, das für ein Notfallereignis eine typische Anzeige einer Folge von Bewegungszuständen, die zu einem Notfall führen, und die durch eine Vorrichtung zum Ausdrücken von Bewegung/Tätigkeit/Arbeit von Gelenkstrukturkörpern ausgedrückt werden, zeigt;
  • 44 ist ein Diagramm, das die Konfiguration eines Systems zum Verbessern der Genauigkeit von mittels einer Positionsmessvorrichtung für Menschen erhaltenen gemessenen Werten durch Verwendung der Ergebnisse der Erkennung einer Bewegung, einer Tätigkeit und/oder einer Arbeit als eine Referenz zur Betrachtung zeigt;
  • 45 ist ein Diagramm, das zum Erklären davon verwendet wird, wie die Genauigkeit von mittels der Positionsmessvorrichtung für Menschen erhaltenen gemessenen Werten durch die Verwendung von Ergebnissen der Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit als eine Referenz zur Betrachtung verbessert werden kann;
  • 46 ist ein Diagramm, das zum Erklären eines Verfahrens zum Korrigieren einer Position verwendet wird, die durch das Verwenden von Ergebnissen der Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit, die von einer Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung ausgegeben wurden, als eine Referenz zur Betrachtung identifiziert worden ist;
  • 47 beinhaltet erklärende Diagramme, die ein Verfahren zum Extrahieren eines Gangzyklus zeigen, der als eine Basis bei der Erkennung einer zyklischen Bewegung dient,
  • 48A und 48B sind Diagramme, die Wellenformen zeigen, die als Beobachtungsergebnisse von jeweils normal gehenden und normal rennenden Zuständen erhalten worden sind; und
  • 49 ist ein Diagramm, das Beziehungen zwischen der Stärke einer Spektralkomponente bei der Gangzyklusfrequenz und dem Grad der Erkennungswahrscheinlichkeit jedes Erkennungsgegenstandes zeigt.
  • Ein bevorzugtes Ausführungsbeispiel der Erfindung wird nun unter Bezugnahme auf 1 beschrieben werden. Bei diesem Ausführungsbeispiel wird ein Beobachtungsobjekt 1 als das Ziel, dessen Bewegungen oder Tätigkeiten (von hieran wenn möglich als Bewegungen/Tätigkeiten abgekürzt) erkannt werden sollen, zugrunde gelegt.
  • Eine als ein Ausführungsbeispiel der Erfindung in die Praxis umgesetzte Erkennungsvorrichtung zur Erkennung von Bewegungen und Tätigkeiten umfasst: am Beobachtungsobjekt 1 befestigte Messinstrumente 2 und 3; einen A/D-Wandler 4 zum Digitalisieren gemessener Ergebnisse von den Messinstrumenten 2 und 3; eine Extraktionseinheit 5 für charakteristische Größen zum Extrahieren einer charakteristischen Größe aus den digitalisierten gemessenen Ergebnissen; eine Datenbank 6 für charakteristische Größen zum Speichern zuvor gemessener und zuvor extrahierter charakteristischer Größen verschiedener Bewegungen und Tätigkeiten; eine Signalverarbeitungseinheit 7, die unter Verwendung von in der Datenbank 6 für charakteristische Größen gehaltenen Daten Bewegungen/Tätigkeiten erkennt, die von der durch die Extraktionseinheit 5 für charakteristische Größen extrahierten charakteristischen Größe dargestellt werden; sowie eine Ausgabeeinheit 8 zum Ausgeben eines erkannten Ergebnisses.
  • Die Extraktionseinheit 5 für charakteristische Größen und die Signalverarbeitungseinheit 7 sind anschaulich unter Verwendung eines Speichers und eines Datenprozessors implementiert. Der Speicher speichert Programme zum Ausführen eines Extraktionsvorgangs für charakteristische Größen und eines Bewegungs-/Tätigkeitserkennungsvorgangs wie unten beschrieben werden wird. Der Datenprozessor umfasst einen DSP oder MPU zum Ausführen dieser Programme. Die Ausgabeeinheit 8 ist mittels einer Anzeigeeinheit implementiert, die ein LCD-Feld oder ein CRT umfasst.
  • Bei diesem Ausführungsbeispiel wird das Beobachtungsobjekt 1 mit den Messinstrumenten 2 und 3 zum Messen einer Zustandsän derung, die Bewegungen/Tätigkeiten des Objekts mit sich bringt, ausgestattet. Der typische Aufbau in 1 zeigt, dass das Messinstrument 2 an der Taillenposition des Objekts befestigt wird, während das Instrument 3 am Arm des Objekts zum Vornehmen von Messungen der Zustandsänderung angebracht wird. Diese Messinstrumente werden dort positioniert, wo die Interpretationen der Zustandsänderung am meisten betont sind. Wenn die zu beobachtende Zustandsänderung zum Beispiel wahrscheinlich am Fuß auftreten wird, werden die Instrumente am Fuß oder an den Füßen befestigt. Entweder ein einzelnes oder eine Vielzahl von Messinstrumenten kann verwendet werden.
  • Die von den Zustandsänderungsmessinstrumenten 2 und 3 vorgenommenen Messungen werden fortlaufend vom A/D-Wandler 4 vom analogen Format ins digitale gewandelt. Nach der Analog-Digital-Wandlung erreicht das digitale Signal die Extraktionseinheit 5 für charakteristische Größen, wodurch die für die Signale spezifische charakteristische Größe extrahiert wird. Wie der Extraktionsvorgang für charakteristische Größen durchgeführt wird, wird nun unter Bezugnahme auf 2 beschrieben.
  • Ein typisches Messinstrument für Zustandsänderungen kann, wie in 2 gezeigt, ein an der Taille des menschlichen Körpers befestigter Beschleunigungssensor sein. Der wie in 2 dargestellt installierte Beschleunigungssensor nimmt Messungen von auf den menschlichen Körper in der Richtung seiner Höhe angewendeter Beschleunigung vor. Ausgabeergebnisse 20 vom Beschleunigungssensor geben bestimmte Zeitreihendatenteile 21 bis 24 an, die aus menschlichen Bewegungen wie "Gehen", "Rennen", "Hocken" und "Hinlegen" abgeleitet sind. Im Beispiel von 2 bezeichnen die Datenteile 21 und 22 zyklische Beschleunigungsänderung während des Gehens oder Rennens, das Datenteil 23 stellt eine einzelne Beschleunigungsänderung dar und das Datenteil 24 steht für einen Zustand ohne Beschleunigung, bei der keine Gravitationsbeschleunigung detektiert wird, da das Objekt liegt.
  • Nachdem die obigen Datenteile vom A/D-Wandler 4 digitalisiert worden sind, werden die digitalisierten Daten einer Zeit-Frequenz-Analyse (z.B. Fourier-Transformation) unterzogen, die eine typische Signalanalysetechnik ist. Das Ergebnis ist ein Frequenzspektrumskörper 25. Genauer gesagt werden die Datenteile 21 bis 24 jeweils mit den Frequenzspektren 26, 27, 28 und 29 verknüpft. Balkendiagramme der analysierten Ergebnisse stellen Spektralintensitäten der durch die Fourier-Transformation erhaltenen Frequenzkomponenten dar. Die Frequenzcharakteristiken unterscheiden sich unter den verschiedenen Bewegungen. Die Unterschiede bilden die charakteristischen Größen der betroffenen Bewegungen.
  • Bei diesem Ausführungsbeispiel werden die charakteristischen Größen, die als die von der Signalverarbeitungseinheit 7 verwendeten Referenzdaten für die Bewegungs-/Tätigkeitserkennung dienen, im voraus aus den Bewegungen und Tätigkeiten, deren charakteristische Größen bekannt sind, extrahiert und gespeichert. Die so gespeicherten Referenzdaten werden in der Datenbank 6 für charakteristische Größen über einen Pfad 9 in 1 (Vorgang 30 in 2) abgespeichert.
  • Die Signalverarbeitungseinheit 7 für die Bewegungs-/Tätigkeitserkennung empfängt durchgehend Daten 10 charakteristischer Größen von der Extraktionseinheit 5 für charakteristische Größen, wobei die Daten 10 laufenden Bewegungen/Tätigkeiten des Beobachtungsobjekts 1 abgeleitet werden. Die Daten 10 werden mit den Referenzdaten 11 verglichen, die aus den gespeicherten charakteristischen Größen von verschie denen Bewegungen/Tätigkeiten in der Datenbank 6 erstellt worden sind. Das heißt, dass die momentan eintreffende charakteristische Größe mit den gespeicherten charakteristischen Größen in der Datenbank 6 korreliert wird. Zu jedem Zeitpunkt wird die Bewegung/Tätigkeit, die der charakteristischen Größe mit der höchsten Korrelationsstufe entspricht, als die momentan vom Beobachtungsobjekt 1 durchgeführte Bewegung/Tätigkeit eingestuft. Das Einstufungsergebnis wird von der Ausgabeeinheit 8 ausgegeben.
  • Eine Möglichkeit, Messungen mit Referenzdaten zu korrelieren, wird anschaulich in 29 gezeigt, aber ist nicht darauf beschränkt. Das Schema aus 29 beinhaltet das anfängliche Erlangen einer Frequenzkomponente F(m), die den Daten 10 charakteristischer Größen in der Form gemessener Wellenformspektren, die die Bewegungen/Tätigkeiten des Beobachtungsobjekts 1 darstellen, entspricht, wobei die Daten 10 so normalisiert sind, dass sie den unten stehenden Ausdruck (1) erfüllen. Ähnlicherweise beinhaltet das Schema das Erhalten jeder Frequenzkomponente G(m), die den zu korrelierenden Referenzdaten 11 entspricht und die so normalisiert ist, dass sie den unten stehenden Ausdruck (2) erfüllt.
  • Figure 00190001
  • Als Nächstes wird eine mittels des unten stehenden Ausdrucks (3) definierte Funktion H(m) als eine die Korrelation zwischen den Daten 10 und 11 darstellende Funktion definiert.
  • Figure 00200001
  • Die Funktion H(m) weist auf Teile 290 in 29 hin, bei denen die beiden Datenarten überlagert sind. Wenn die Funktion H(m) den Ausdruck (4) unten erfüllt, wird eine Korrelation als existierend eingestuft.
    Figure 00200002
    wobei H(m) einen Maximalwert von 1,0 hat. Wenn daher die zu korrelierenden Daten identisch sein müssen, gilt dann α = 1,0. Wenn die Daten nicht genau identisch sein müssen, um korreliert zu werden, dann wird α auf einen Wert gesetzt, der ein wenig kleiner als 1,0 ist. Wenn mehrere Referenzdatenteile auf Korrelation verglichen werden, wird der maximale Integralwert der Funktion H(m) als die Bewegung/Tätigkeit des Beobachtungsobjekts 1 darstellend oder als ein Kandidat, dessen Potenzial mit dem Integralwert variiert, angesehen.
  • Im obigen Ausdruck (4) werden alle Frequenzkomponenten der beteiligten Spektren jeweils mit dem gleichen Gewicht versehen. Alternativ kann jede der Komponenten ein verschiedenes Gewicht haben. Wenn zum Beispiel irgendeine Bewegung ein besonderes Spektrum aufweist, kann der entsprechenden Komponente des Spektrums ein größeres Gewicht gegeben werden. Wenn Rauschen vorhanden ist, kann der mit dem Rauschen verbundenen Komponente ein geringeres Gewicht gegeben werden. Wenn β(m) eine für jede Frequenzkomponente m spezifische Gewichtsfunktion ist, wird die die Korrelation repräsentierende Funktion H(m) wie folgt definiert: H(m) = G(m)β(m): (wenn F(m) > G(m), oder) = F(m)β(m): (wenn F(m) ≤ G(m)) (Ausdruck 5)
  • Auf diese Weise benutzt das Ausführungsbeispiel nicht bloß Zustandsänderungsmessungen zur Verwendung als Messwerte sondern unterzieht diese Messungen der Erkennungsverarbeitung, wodurch die Bewegungen/Tätigkeiten des Beobachtungsobjekts automatisch erkannt werden.
  • Bei diesem Ausführungsbeispiel ist eine kleine Anzahl von Zustandsänderungsmessinstrumenten (wenigstens eines bei diesem Ausführungsbeispiel) am Körper des Objekts befestigt. Diese Instrumente übertragen Messungen, die der Gegenstand beim Vorgang zur Erkennung der Gesamtbewegung des Beobachtungsobjekts sind. Das heißt, ein Minimum von beim Ausführungsbeispiel enthaltenen Messinstrumenten ermöglicht es, eine makroskopische Bewegung des gesamten Körpers des Objekts zu schätzen.
  • Ferner erfordert das Ausführungsbeispiel lediglich eine begrenzte Anzahl von Messinstrumenten, die am Körper des Objekts anzubringen sind. Dies erleichtert die körperlichen Lasten des Beobachtungsobjekts beträchtlich.
  • Die Übertragung des Bewegungs-/Tätigkeitszustands des Beobachtungsobjekts von einem Ort zu einem anderen ist beim Ausführungsbeispiel durch die Tatsache gekennzeichnet, dass das erkannte Ergebnis lediglich in jedem Bewegungs-/Tätigkeitszyklus übertragen zu werden braucht. Im Gegensatz zum herkömmlichen Aufbau, bei dem Messungen der Zustandsänderung (d.h. gemessene Werte jedes Messungszyklus) unverändert übertragen werden, kann die Datenmenge für die Übertragung verdichtet werden.
  • Beim obigen Ausführungsbeispiel verwendet die Extraktionseinheit 5 für charakteristische Größen die Fourier- Transformation als Frequenzanalyse. Die Erfindung ist jedoch nicht auf dieses Analyseverfahren beschränkt; Wavelet-Transformation, Zeit-Frequenz-Analyse oder jedes andere geeignete Frequenzanalyseschema kann implementiert werden, und die charakteristische Größe kann aus dem Ergebnis einer solchen Transformation extrahiert werden.
  • Wie die Frequenzanalyse mittels Wavelet-Transformation ausgeführt werden kann, wird nun unter Bezugnahme auf 3 beschrieben. In 3 stellt das Bezugszeichen 210 Beschleunigungsänderungen dar, die am Beobachtungsobjekt gemessen wurden, das im oberen Teil der Figur in Bewegung gezeigt ist. Die erhaltene Wellenform wird der Wavelet-Transformation unterzogen, aus der charakteristische Werte in verschiedenen Stufen (d.h. als Wavelet-Komponenten) entspringen. Zum Beispiel bringt eine Bewegung des "Gehens" charakteristische Werte 214 auf der Stufe C (213) hervor. Ähnlicherweise erzeugt eine "Hocken"-Bewegung charakteristische Werte 215 auf der Stufe A (211), und eine "Rennen"-Bewegung erzeugt charakteristische Werte 216 auf den Stufen B (212) und C (213). Bei diesem Ausführungsbeispiel stellen diese Werte für die jeweiligen Bewegungen charakteristische Größen dar, und die so erhaltenen charakteristischen Größen ermöglichen die Erkennung von Bewegungen/Tätigkeiten des Objekts.
  • Wenn Wavelet-Komponenten als charakteristische Größen verwendet werden, werden Korrelationen zwischen Messungen und den Referenzdaten auf die gleiche Weise wie in dem Fall erhalten, in dem Frequenzkomponenten als charakteristische Größen verwendet werden. Im letzteren Fall werden die Korrelationen von Frequenzkomponenten in Form von Frequenzkomponentenintensitäten im Gegensatz zu den Korrelationen von Wavelet-Komponenten erhalten, die in Form von zeitbasierten Intensitäten an jeder der verschiedenen Stufen erhalten werden. Darüber hinaus werden ebenfalls Korrelationen zwischen Stufen erhalten.
  • In Verbindung mit diesem Ausführungsbeispiel wurden die durch den Frequenzanalysevorgang auf der Basis von digitalisierten Signalen erhaltenen charakteristischen Größen erwähnt. Die Erfindung ist jedoch nicht beschränkt auf diese charakteristische Größe; jede andere Form von charakteristischen Größen kann verwendet werden, solange die Größe eine Bewegung oder Tätigkeit von einer anderen unterscheiden kann. Bei einem alternativen Aufbau können von den Messinstrumenten 2 und 3 ausgegebene analoge Signale zum Beispiel an eine aus mehreren Filterschaltungen zusammengesetzte Spektralanalyseeinrichtung gesendet werden. Die Spektralanalyseeinrichtung extrahiert Frequenzcharakteristiken aus den empfangenen analogen Signalen. Die Frequenzkomponenten in den extrahierten analogen Werten werden als die charakteristischen Größen angesehen, die von einer analogen Vergleichseinrichtung mit Frequenzkomponenten verglichen werden sollen. Auch dieser Aufbau bringt verwertbare Korrelationen hervor. Bei einer anderen Alternative kann eine Funktion mit einem vorgegebenen Grad an das Ausgabesignal eines Messinstruments angepasst werden. In diesem Fall können Kombinationen von in der Funktion enthaltenen Koeffizienten zum Darstellen charakteristischen Größen verwendet werden.
  • Während das Ausführungsbeispiel Korrelationen in seinem Bewegungs-/Tätigkeitserkennungsvorgang verwendet, kann Bewegungs-/Tätigkeitserkennung alternativ mittels eines neuronalen Netzwerkschemas implementiert werden, das das Korrelationserhaltungsschema ersetzt. Bei solch einem alternativen Aufbau wird die Signalverarbeitungseinheit 7 zur Bewegungs-/Tätigkeitserkennung von einem neuronalen Netzwerk gebildet.
  • Wenn die charakteristische Größen von Bewegungen/Tätigkeiten speichernde Datenbank 6 im gleichen Aufbau gebildet werden soll, werden im voraus extrahierte charakteristische Größen, die bekannte Bewegungen/Tätigkeiten beschreiben, als Lehrersignale in das neuronale Netzwerk gespeichert. Zur Bewegungs-/Tätigkeitserkennung extrahiert die Extraktionseinheit 5 für charakteristischen Größen eine charakteristische Größe aus den erhaltenen Messungen und gibt die extrahierte Größe der Signalverarbeitungseinheit 7, die vom neuronalen Netzwerk gebildet wird, ein.
  • Während das obige Ausführungsbeispiel mit Messungen gezeigt wurde, die auf einer einzelnen Achse in der vertikalen Richtung des Objekts zum Zwecke der Vereinfachung und Illustration vorgenommen wurden, ist die Erfindung darauf nicht beschränkt. In anderen Richtungen vorgenommene Messungen wie etwa in Quer- und Längsrichtung gemessene Beschleunigungswerte können ebenfalls dem Vorgang der Extraktion charakteristischer Größen unterzogen werden. Die extrahierten Größen können einzeln oder in Kombination eingestuft und erkannt werden.
  • In Verbindung mit dem obigen Ausführungsbeispiel wurden Beschleunigungssensoren als ein typischer Sensor zum Erfassen von Änderungen in der Beschleunigung in der Höhenrichtung des menschlichen Körpers vorgestellt; die erfassten Beschleunigungsänderungen wurden der Extraktion charakteristischer Größen unterzogen. Alternativ kann das gleiche Merkmal der Beschleunigungserfassung mittels eines Geschwindigkeits- oder Positionssensors anstelle des Beschleunigungssensors implementiert werden. Das heißt, Beschleunigungsänderungen werden auf der Grundlage von Änderungen in der Geschwindigkeit oder Position berechnet (über lineare oder quadratische Differenziale).
  • Während das obige Ausführungsbeispiel charakteristische Größen aus Beschleunigungsänderungen extrahiert, ist die Erfindung darauf nicht beschränkt. Alternativ wird ein ähnliches Merkmal implementiert, in dem eine charakteristische Größe aus Geschwindigkeitsänderungen extrahiert und die extrahierte Größe mit den charakteristischen Größen korreliert wird, die im voraus aus bekannten Geschwindigkeitsänderungen extrahiert und in einer Datenbank gespeichert wurden. Wenn in dem alternativen Fall ein Beschleunigungssensor verwendet wird, wird ein quadratisches Differenzial zur Positionsberechnung ausgeführt; wenn ein Geschwindigkeitssensor verwendet wird, wird ein lineares Differenzial zur Positionsberechnung ausgeführt.
  • Bei dem obigen Ausführungsbeispiel wird angenommen, dass das Beobachtungsobjekt ein Mensch ist.
  • Alternativ können auch Tiere, Gelenkroboter und andere Objekte dem Vorgang der Bewegungs- und Tätigkeitserkennung unterzogen werden.
  • Während das obige Ausführungsbeispiel mit der Erkennung der Gesamtbewegung des Beobachtungsobjekts wie etwa des Gehens und Rennens gezeigt wurde, ist die Erfindung darauf nicht beschränkt. Alternativ kann ein Zustandsänderungsmessinstrument an einer bestimmten Stelle des Beobachtungsobjekts befestigt werden. Bei diesem Aufbau, der im Wesentlichen derselbe ist wie beim obigen Ausführungsbeispiel, werden Messungen der Zustandsänderung an der bestimmten Stelle vorgenommen. Eine charakteristische Größe wird aus der so gemessenen Zustandsänderung abgeleitet, so dass die Bewegung oder Bewegun gen/Tätigkeiten dieser bestimmten Stelle erkannt werden können.
  • Zum Beispiel kann ein an einer Armbanduhr angebrachtes Zustandsänderungsmessinstrument zum Extrahieren einer charakteristischen Größe aus Änderungen im Zustand der Armbanduhr, die sich mit dem Arm des Objekts zusammen bewegt, verwendet werden. Die extrahierte charakteristische Größe wird mit charakteristischen Referenzgrößen verglichen, die im voraus aus bekannten Bewegungen der sich mit dem Arm bewegenden Armbanduhr gemessen wurden. Der Vergleich ermöglicht das Erkennen der Bewegung des Handgelenks oder von Bewegungen/Tätigkeiten. Ähnlicherweise kann ein Zustandsänderungsmessinstrument am Schuh oder der Socke des Objekts befestigt werden, um deren Bewegung oder Bewegungen/Tätigkeiten zu erkennen. Alternativ erlaubt ein auf einem Hut oder einer Brille angebrachtes Messinstrument die Erkennung der Bewegung des Kopfes oder von Bewegungen/Tätigkeiten.
  • Während beim obigen Ausführungsbeispiel gezeigt wurde, wie Gesamtbewegungen eines Teils des menschlichen Objekts bei solchen Aktivitäten wie Gehen und Rennen adressiert wurden, ist die Erfindung darauf nicht beschränkt. Alternativ kann ein Zustandsänderungsmessinstrument nicht am menschlichen Objekt sondern an einem vom menschlichen Objekt bedienten Gerät befestigt werden, wobei der Aufbau des Ausführungsbeispiels weiterhin verwendet wird. In diesem Fall werden Änderungen im Zustand des vom menschlichen Objekt bedienten Geräts gemessen. Eine charakteristische Größe wird aus den so gemessenen Zustandsänderungen extrahiert und dazu verwendet, Erkennung der Bewegungen oder Tätigkeiten des fraglichen Geräts zu erlauben.
  • Zum Beispiel können ein Füllfederhalter, ein Bleistift oder ein Eingabegerät eines Computersystems (z.B. eine Maus) mit einem Zustandsänderungsmessinstrument ausgestattet werden. Das Instrument extrahiert eine charakteristische Größe aus den gemessenen Änderungen im Zustand des fraglichen Geräts. Die extrahierte charakteristische Größe kann zum Beispiel mit im voraus eingerichteten charakteristischen Größen verglichen werden, die aus bekannten Briefen oder Zeichnungen ebenso wie aus bekannten Unterschriften abgeleitet wurden. Der Vergleich erlaubt die Erkennung von Briefen, Zeichnungen und/oder Unterschriften.
  • Unter Bezugnahme auf 4 und 5A, 5B und 5C wird unten ein anderes Ausführungsbeispiel der Erfindung beschrieben, bei dem eine variierende Geschwindigkeit des sich bewegenden Objekts erkannt wird.
  • Wenn sich Menschen oder Tiere bewegen, zum Beispiel gehen, variiert im Allgemeinen der Bewegungstakt (langsames Gehen, zügiges Gehen, usw.). Das bedeutet, dass die für das Ausführen jedes Schrittes im Falle des Gehens erforderliche Zeit variiert. Diese Zeitvariation bringt Frequenzänderungen mit sich. Daraus folgt, dass Messungen einer Bewegung, wenn sie mit im voraus eingerichteten aus bekannten Bewegungen abgeleiteten charakteristischen Größen verglichen werden, korrekt oder nicht korrekt erkannt werden können. Das vorliegende Ausführungsbeispiel soll dieses potenzielle Problem lösen.
  • Wie in 4 gezeigt weist eine Erkennungsvorrichtung dieses Ausführungsbeispiels der Erfindung eine zusätzlich zwischen dem A/D-Wandler 4 und der Extraktionseinheit 5 für charakteristische Größen der Vorrichtung aus 1 eingefügte Normalisierungseinheit 221 auf. Die Normalisierungseinheit 221 nimmt Messungen der zu messenden Operationszeit vor und führt Normalisierung auf der Grundlage der gemessenen Operationszeit durch.
  • Beim vorliegenden Ausführungsbeispiel wird die erforderliche Bewegungszeit, die einen Zyklus der zu messenden Bewegung (z.B. Gehen) bezeichnet, wie durch Bezugszeichen 222 in 5A angegeben definiert. Eine beobachtete Wellenform wird zur Frequenzanalyse mittels einer Fensterfunktion mit einer längeren Zeit als der für einen einzelnen Schritt erforderlichen partitioniert. Dies liefert, wie in 5B dargestellt, ein Grundfrequenzspektrum 224, das einen Schritt des Gehens darstellt. In diesem Kontext bedeutet eine variierende Bewegungsgeschwindigkeit, dass sich das Spektrum 224 quer verschiebt.
  • Beim vorliegenden Ausführungsbeispiel misst die Normalisierungseinheit 221 die erforderliche Zeit der fraglichen Bewegung nach der Analog-Digital-Signalwandlung durch den A/D-Wandler 4. Wenn insbesondere die Bewegung zyklisch ist, wird die dafür erforderliche Zeit aus der oben erwähnten Grundfrequenz (d.h. erforderliche Bewegungszeit 222) erhalten. Wenn die Bewegung wie im Fall des Hockens nicht zyklisch ist, wird die erforderliche Operationszeit aus den Längen der Kanten 219 und 220 der Beschleunigungsänderungen in 3 oder aus dem Abstand zwischen Signalen 217 und 218 (auf Stufe A bei diesem Beispiel) in der Wavelet-Transformation erhalten.
  • Charakteristische Größen werden durch Partitionieren der beobachteten Wellenform in Einheiten der für die fragliche Bewegung erforderlichen Operationszeit normalisiert. Das normalisierte Ergebnis wird der Frequenzanalyse wie in 5C gezeigt unterzogen. Dieser Vorgang wird Zeitausrichtung genannt, die ebenfalls mittels einer sogenannten zeitelastischen Funktion implementiert werden kann.
  • In dem aus der Normalisierung resultierenden Spektrum tritt ein Grundfrequenzspektrum 225 der Bewegung in einer in 5C gezeigten Oberwelle erster Ordnung auf. Das Spektrum 225 wird erhalten, indem harmonische Komponenten, die aufeinanderfolgend im Spektrum 224 auftreten, parallel translatiert werden, so dass das Spektrum 224 zu einer Oberwelle erster Ordnung wird. Der gleiche Effekt kann daher erhalten werden, wenn das Spektrum aus 5B zuerst als eine charakteristische Größe erhalten wird und dann wie dargestellt durch parallele Translation korrigiert wird. Im Ergebnis repräsentiert die Abszissenachse in 5C Frequenzen bezüglich eines einzelnen Schrittes beim Gehen.
  • Der oben beschriebene Normalisierungsprozess wird in zwei Fällen ausgeführt: wenn die die charakteristischen Größen bekannter Bewegungen/Tätigkeiten speichernde Datenbank 6 vorbereitet wird und wenn eine beobachtete Wellenform durch die Verwendung der Referenzdaten in der Datenbank 6 erkannt wird.
  • Bei diesem Ausführungsbeispiel empfängt die Signalverarbeitungseinheit 7 eine charakteristische Größe, die unabhängig von der Operationszeit ist und die jede Bewegung beschränkt. Dies ermöglicht es, frei von der betreffenden Operationszeit korrekte Bewegungserkennung durchzuführen. Die gemessene Operationszeit ermöglicht es, wenn sie ausgegeben wird, dass detailliertere Tätigkeiten wie etwa langsames Gehen und zügiges Gehen voneinander unterschieden werden können.
  • Unter Bezugnahme auf 6 wird unten ein anderes Ausführungsbeispiel beschrieben, das sich auf Anwendungen richtet, bei denen die Bewegungsgeschwindigkeit variiert.
  • Dieses Ausführungsbeispiel besteht in einer Erkennungsvorrichtung, die wie in 6 gezeigt eine zwischen dem A/D- Wandler 4 und der Extraktionseinheit 5 für charakteristische Größen eingefügte Expansions- und Kontraktionseinheit 231 sowie eine zwischen dem A/D-Wandler 4 und der Datenbank 6 für charakteristische Größen der Vorrichtung in 6 eingefügte andere Extraktionseinheit 5 für charakteristische Größen aufweist. Die Expansions- und Kontraktionseinheit 231 extrahiert und kontrahiert gemessene Wellenformen. Die Datenbank 6 für charakteristische Größen ist auf die gleiche Weise wie beim Ausführungsbeispiel aus 1 aufgebaut.
  • Beim Ausführungsbeispiel aus 6 wird die Expansions- und Kontraktionseinheit 231 dazu verwendet, gemessene Wellenformen zu modifizieren, wenn es möglich ist, solche Wellenformen zu erkennen. Genauer gesagt expandiert und kontrahiert die Expansions- und Kontraktionseinheit 231 die Zeitbasis einer gemessenen Wellenform wie erwünscht. Die Zeitbasis zu expandieren bedeutet die Operationszeit der fraglichen Bewegung zu verlängern; die Zeitbasis zu kontrahieren bedeutet die Operationszeit der Bewegung zu verkürzen. Der Expansions- und Kontraktionsvorgang wird mittels verschiedener vorgegebener Expansions- und Kontraktionsparameter durchgeführt. Danach extrahiert die Extraktionseinheit 5 für charakteristische Größen eine charakteristische Größe aus dem Ergebnis der Verarbeitung, die jeden der Parameter verwendet hat. Die so extrahierte charakteristische Größe wird an die Signalverarbeitungseinheit 7 zur Erkennungsverarbeitung gesendet.
  • Die Signalverarbeitungseinheit 7 empfängt charakteristische Größen, die eine Anzahl von zeitlich expandierten oder kontrahierten Wellenformen repräsentieren, die aus der gemessenen Wellenform abgeleitet wurden. Von den empfangenen charakteristischen Größen wird die Größe, die die Bewegung mit dem höchsten Grad an Korrelation repräsentiert, als das erkannte Ergebnis ausgegeben. Das Expansions-Kontraktionsverhältnis, das verwendet wurde, wird gleichzeitig ausgegeben. Dies ermöglicht es zusätzlich, eine Differenz zwischen der Operationszeit der fraglichen Bewegung und der der entsprechenden in der Datenbank 6 für charakteristische Größen gehaltenen Bewegung zu erkennen.
  • Das Ausführungsbeispiel aus 6 bietet den Vorteil, dass es korrekte Erkennung erlaubt, wenn die Geschwindigkeit der Zielbewegung variiert. Ein anderer Vorteil dieses Ausführungsbeispiels ist dessen Fähigkeit, die Operationszeit (d.h. Geschwindigkeit) der fraglichen Bewegung zu erkennen.
  • Während beim Ausführungsbeispiel aus 6 das Expandieren und Kontrahieren der Zeitbasis der beobachteten Wellenform gezeigt wurde, ist die Erfindung darauf nicht beschränkt. Alternativ können andere Charakteristiken der beobachteten Wellenform für Erkennungszwecke expandiert und kontrahiert werden, solange die zu erkennenden für die Bewegung charakteristischen Größen nicht übermäßig verändert werden. Zum Beispiel kann die Signalintensität der beobachteten Wellenform für die Erkennungsverarbeitung expandiert und kontrahiert werden, Bei erfolgreicher Erkennung kann das Expansions-Kontraktionsverhältnis, das beim Vorgang verwendet wurde, gleichzeitig angezeigt werden.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unter Bezugnahme auf 7 unten beschrieben. Dieses Ausführungsbeispiel wählt mehrere charakteristische Größen aus und setzt sie in eine neue charakteristische Größe für die Erkennungsverarbeitung zusammen.
  • Im Erkennungsvorgang der Ausführungsbeispiele aus den 1, 4 und 6 wird eine Korrelation zwischen einer gemessenen cha rakteristischen Größe und einer im voraus eingerichteten charakteristischen Größe, die aus denen in der Datenbank gewählt wird, erkannt. Im Gegensatz dazu erkennt das Ausführungsbeispiel aus 7 mehrere charakteristische Größen in Kombination.
  • Wenn Leute gehen, kann ihr Verhalten unterschiedlich sein sie können "mit ihrer Hand während des Gehens winken", "in einem fahrenden Zug gehen" oder auf eine andere Weise eine Kombination von Bewegungen gleichzeitig vollziehen. Bei den vorhergehenden Ausführungsbeispielen wird jede Kombination gleichzeitiger Bewegungen (z.B. Gehen in einem fahrenden Zug) kollektiv als eine einzelne Bewegung betrachtet. In solchen Fällen müssen die charakteristischen Größen der Bewegung als ganzer extrahiert und in der Datenbank 6 für Bewegungen/Tätigkeiten gespeichert werden. In Bezug auf Bewegungsfrequenz kann die Bewegung des "mit einer Hand Winkens während des Gehens" jedoch als eine Kombination der Bewegungen "Gehen" und "Winken" betrachtet werden, deren charakteristische Größen einander überlagert sind. Ähnlicherweise kann die Bewegung "Gehen in einem fahrenden Zug" als eine Kombination der "Bewegung des Zugs" und der Bewegung "Gehen" betrachtet werden, deren charakteristische Größen einander überlagert sind.
  • Beim Ausführungsbeispiel aus 7 werden die Bewegungen mit ihren einander überlagerten charakteristischen Größen für die Bewegungs-/Tätigkeitserkennung wie folgt verarbeitet:
    Anfangs wählt das Ausführungsbeispiel beim Erkennungsvorgang einander zu überlagernde charakteristische Größen A (301 in 7), B (302) und C (303) aus. Die drei Größen A, B und C entsprechen denen des "Gehens", "Winkens" und der "Bewegung des Zugs" im vorhergehenden Beispiel.
  • Die charakteristischen Größen A, B und C werden dann einem Übereinanderlegungsvorgang in einer Zusammensetzungseinheit 304 für charakteristische Größen unterzogen. Wenn charakteristische Größen zum Beispiel durch Frequenzanalyse erhalten werden, beinhaltet der Übereinanderlegungsvorgang das Legen eines Frequenzspektrums über ein anderes.
  • Schließlich wird eine aus dem Übereinanderlegungsvorgang abgeleitete neue charakteristische Größe (A + B + C) mit der charakteristischen Größe 10 korreliert, die einem gemessenen Signal entspricht, das von der Extraktionseinheit 5 für charakteristische Größen extrahiert wurde. Die Signalverarbeitungseinheit 7 führt einen Bewegungs-/Tätigkeitserkennungsvorgang, der auf dem Ergebnis der Korrelation basiert, durch. Das erkannte Ergebnis wird von der Ausgabeeinheit 8 ausgegeben.
  • Beim obigen Übereinanderlegungsvorgang wird die neu erzeugte charakteristische Größe Q durch den folgenden Ausdruck definiert: Q = A + B + C (Ausdruck 6)
  • Alternativ kann jede charakteristische Komponentengröße wie folgt geeignet gewichtet werden (d.h. mit verschiedenen Intensitäten): Q = αA + βB + γC (Ausdruck 7)wobei die Symbole α, β und γ die Gewichte der jeweiligen charakteristischen Größen darstellen.
  • Wie beschrieben ist das Ausführungsbeispiel aus 7 dazu fähig, mehrere charakteristische Größen in eine neue charakteristische Größe im Erkennungsvorgang zu kombinieren. Dieses Merkmal ermöglicht es, komplizierte Bewegungen/Tätigkeiten mit diversen charakteristischen Größen zu erkennen.
  • Unter Bezugnahme auf 8 wird unten ein anderes Ausführungsbeispiel der Erfindung beschrieben, bei dem mehrere Zustandsänderungsmessinstrumente verwendet werden.
  • Beim Ausführungsbeispiel aus 1 wurde das Zustandsänderungsmessinstrument an der Position der Taille 31 des Objekts in 8 befestigt, und Messungen wurden entlang einer Achse 32 (d.h. in der Höhenrichtung des Körpers) vorgenommen. Bei diesem Aufbau konnte lediglich die Zustandsänderung in der Höhenrichtung des Körpers gemessen werden. Es wird angenommen, dass der Schwerpunkt des menschlichen Körpers ungefähr an der Position der Taille liegt. Wenn daher ein stehender Mann seine Hand hebt, bewegt sich die Position der Taille leicht in die Richtung, die der entgegengesetzt ist, in der die Hand erhoben wird. Um solch eine Taillenbewegung zu beobachten, ist es erforderlich, ein weiteres Messinstrument zum Messen der Zustandsänderung in der Richtung einer Achse 34 einzubauen. Wenn das Objekt seinen Kopf nach vorne oder nach hinten neigt, muss ähnlicherweise noch ein weiteres Messinstrument in der Richtung einer Achse 33 installiert werden. Um ferner Drehungen der Taille zu messen, ist es erforderlich, ein weiteres Messinstrument in der Rotationsrichtung 37 entlang der Achse 32 einzurichten. Für eine noch detailliertere Datenerhebung ist es notwendig, zusätzlich Bewegungen 36 des linken Ellenbogens 35 zu messen.
  • In der Darstellung wird beim Beobachtungsobjekt eine Hauptbewegung wie "Gehen" oder "Rennen" entlang der Achse 32 erkannt und detailliertere Bewegungen wie etwa "Erheben der rechten Hand", "Neigen des Kopfes" und "Drehen der Taille" werden ebenfalls entlang der Achsen 33 und 34 ebenso wie in Rotati onsrichtung 37 um die Achse 32 erkannt. Die so vorgenommenen Messungen erlauben Erkennung solch komplizierter Bewegungen/Tätigkeiten wie "Heben der rechten Hand während des Gehens", "Neigen des Kopfes während des Rennens" und "Drehen der Taille beim Aufstehen".
  • Wie beschrieben beinhaltet das Ausführungsbeispiel aus 8 mehrere am Beobachtungsobjekt befestigte Zustandsänderungsmessinstrumente und kombiniert durch die jeweiligen Instrumente gemessene und erkannte Ergebnisse. Auf diese Weise kann das Ausführungsbeispiel detailliertere Bewegungen und Tätigkeiten des Beobachtungsobjekts erkennen.
  • Obwohl das Ausführungsbeispiel aus 8 unter Betonung auf seine Fähigkeit zum Detektieren räumlicher Bewegungen verschiedener Teile des menschlichen Körpers beschrieben wurde, ist die Erfindung in Bezug darauf, wo Messinstrumente installiert werden oder welche Arten von Zustandsänderungen gemessen werden können, nicht darauf beschränkt. Zum Beispiel können Messinstrumente an verschiedenen Teilen des Gesichts des menschlichen Objekts befestigt werden, um deren Bewegungen als eine Zustandsänderung, die den Wechsel von Gesichtsausdrücken repräsentiert, zu überwachen. Ferner kann eine Variation der Erfindung, anstatt räumliche Bewegungen verschiedener Teile des Gesichts oder Körpers des Objekts zu detektieren, Messinstrumente auf solch eine Weise verwenden, dass Muskelbedingungen, die solche Zustandsänderungen erzeugen, direkt detektiert werden.
  • Ein weiteres Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 9 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem, das charakteristische Größen von Bewegungen/Tätigkeiten des Beobachtungsobjekts in einer generalisierten Weise unter Verwendung von anderen physikali schen Größen als Beschleunigung und von biologischen Daten wenn nötig beurteilt, wodurch die Bewegungen/Tätigkeiten des Objekts erkannt werden.
  • Das die Erfindung wie in 9 dargestellt ausführende Erkennungssystem umfasst anschaulicherweise: Erkennungsgeräte 401 bis 404 zum Durchführen von Erkennungsverarbeitung auf der Grundlage verschiedener Daten, die von am Beobachtungsobjekt befestigten Messinstrumenten gemessen wurden; ein Erkennungsgerät 405 zum Durchführen eines Gesamterkennungsvorgangs, das die erkannten Ergebnisse von den davor angeordneten Erkennungsgeräten integriert sowie eine Ausgabeeinheit 8 zum Ausgeben des letztlichen Ergebnisses der Erkennung.
  • Das Erkennungsgerät 401 ist ein Gerät das Erkennungsverarbeitung wie das des Ausführungsbeispiels in 1 auf der Grundlage von einem Beschleunigungssensor gelieferten Beschleunigungsdaten durchführt. Der Beschleunigungssensor ist am Beobachtungsobjekt befestigt.
  • Das Erkennungsgerät 402 führt seinen Erkennungsvorgang auf der Grundlage von Geschwindigkeitsdaten durch. Zum Beispiel empfängt das Erkennungsgerät 402 Änderungen in der Geschwindigkeit des Beobachtungsobjekts (z.B. eines Menschen) und beurteilt, ob das Objekt etwa in einem Fahrzeug geht oder sich bewegt.
  • Das Erkennungsgerät 403 führt seinen Erkennungsvorgang auf der Grundlage von Positionsdaten aus. Im Betrieb erkennt das Erkennungsgerät 403 die Tätigkeit des Beobachtungsobjekts beim Empfang von Daten darüber, wo das Beobachtungsobjekt positioniert ist oder welche Bahn das sich bewegende Objekt zeichnet.
  • Das Erkennungsgerät 404 führt Erkennungsverarbeitung auf der Basis von biologischen Daten aus. Biologische Daten beinhalten Pulszahl, Blutdruck, Körpertemperatur, Blutzuckerwert, Atmung, Elektromyogramm, Elektrokardiogramm, Blutfluss und Elektroencephalogramm. Wenn das Beobachtungsobjekt ein Mensch ist, variieren die biologischen Daten in Abhängigkeit von seiner Tätigkeit. Das Erkennungsgerät 404 erkennt die Umstände, in denen der Mensch platziert ist, indem es variierende biologische Daten empfängt. Wenn das Objekt zum Beispiel eine körperliche Übung ausführt, steigen sowohl die Pulszahl als auch die Atmung an. Unterschiede in der Körperhaltung können beurteilt werden, indem eine geeignete Stelle ausgewählt wird, an der der Blutdruck gemessen wird. Das Ausmaß an körperlicher Aktivität, mentaler Form und körperlicher Fitness können durch Temperaturänderungen beurteilt werden. Ein Elektroencephalogramm verrät, ob das Objekt wach ist oder nicht. Körperliche Fitness kann ebenfalls mittels des Blutzuckerwerts beurteilt werden. Der Zustand des Körpers bezüglich körperlicher Tätigkeit kann durch Änderungen im Elektromyogramm beurteilt werden.
  • Die Erkennungsgeräte 402, 403 und 404 beobachten gemessene Daten in der Form von Wellenformen. Die Wellenformen werden vom analogen zum digitalen Format gewandelt. Auf die gleiche Weise, wie das Erkennungsgerät 401 die charakteristische Größe der Beschleunigung erlangt, extrahieren die Geräte 402, 403 und 404 charakteristische Größen aus ihren jeweiligen digitalisierten Signalen. Die extrahierten charakteristischen Größen werden zur Bewegungserkennung verarbeitet.
  • Wenn sie einzeln agieren, können die Erkennungsgerät 401 bis 404 mehrdeutige Ergebnisse aus ihren Erkennungsvorgängen erhalten und können daher unter inkorrekter Erkennung leiden.
  • Dieses mögliche Problem wird durch das Ausführungsbeispiel aus 9 umgangen, das das Erkennungsgerät 405 verwendet, das die erkannten Ergebnisse der Geräte 401 bis 404 für die Gesamtbeurteilung der Bewegungen/Tätigkeiten des Objekts integriert. Das schließlich erkannte Ergebnis wird durch die Ausgabeeinheit 8 ausgegeben.
  • Wie beschrieben implementiert das Ausführungsbeispiel aus 9 eine auf den erkannten Ergebnissen von mehreren Messeinheiten basierende Gesamtbeurteilung, wodurch ein genaueres Erkennungsergebnis erhalten wird.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unter Bezugnahme auf 10 und 11 unten beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungsgerät, das die Erkennung der Bewegungen und Tätigkeiten des Objekts mit der Erkennung der Position des sich bewegenden Objekts kombiniert. 10 ist ein Blockdiagramm dieses Ausführungsbeispiels, und 11 ist eine erklärende Ansicht, die zeigt, wie Positionen von diesem Ausführungsbeispiel gemessen werden.
  • Wie in 10 gezeigt weist das die Erfindung ausführende Erkennungsgerät eine dem Aufbau in 1 zugefügte Positionsmesseinheit 41 auf, die Positionen des Beobachtungsobjekts 1 misst. In den Aufbauten von 10 und 1 bezeichnen gleiche Bezugszeichen gleiche oder entsprechende Teile, und auf deren Beschreibungen wird hier verzichtet, wenn sie redundant sind.
  • Die Positionsmesseinheit 41 wird beispielsweise mittels eines zellularen Systems implementiert, das kurz beschrieben werden wird. Ein anderes Positionierungssystem, das bei der Erfindung verwendet werden kann, ist das, bei dem das Objekt 1 mit einem ein Funksignal übertragenden Transmitter ausgestattet ist. Das Signal wird von mehreren an verschiedenen Punkten angeordneten Empfängern empfangen, und die empfangenen Signale werden verarbeitet, um die Position der Signalquelle zu finden. Bei einem anderen alternativen Positionierungssystem zur Verwendung bei der Erfindung werden Funksignale von mehreren Referenzsignalquellen empfangen, und die empfangenen Signale werden verarbeitet, um die Position des Beobachters zu finden (GPS, Omega, LORAN, Decca usw.). Bei noch einem anderen alternativen Positionierungssystem können Laser, Magnetfelder und/oder Ultraschallwellen zum Positionieren verwendet werden. Jedes dieser Positionierungssysteme kann in Verbindung mit dem Ausführungsbeispiel verwendet werden, um den beabsichtigten Zweck zu erfüllen.
  • Das in 11 dargestellte zellulare System zur Verwendung mit dem Ausführungsbeispiel aus 10 ist eines, bei dem mehrere Antennen 51 in jeder von mehreren Zellen oder Zonen genannten Bereichen 50 angeordnet sind. Kommunikation über eine Antenne 51 ist auf eine der Antenne entsprechende Zelle 50 beschränkt. Die Kommunikation von innerhalb einer benachbarten Zelle erfordert das Schalten auf die Antenne dieser Zelle. Bei diesem System ist jede Zelle, in der kommuniziert wird, so klein, dass die einen Signaltransmitter umfassende Zone lokalisiert werden kann, indem die momentan kommunizierende Antenne isoliert wird. Bei diesem Beispiel sind die Zellen mit 1-1 bis 3-3 nummeriert, und den Beobachtungsobjekten sind die Nummern 52, 53 und 54 zugeordnet.
  • Bei diesem Ausführungsbeispiel wird angenommen, dass jedes Objekt mit den Messinstrumenten 2 und 3 ebenso wie den Prozessoren 4 bis 7 von den Komponenten in 10 ausgestattet ist und dass das erkannte Ergebnis von der Signalverarbeitungseinheit 7 über das zellulare System übertragen wird. Das heißt, die Positionsmesseinheit 41 dieses Ausführungsbeispiels wird durch Kombinieren eines Transmitters und eines Empfängers implementiert. Der Transmitter wird verwendet, um das erkannte Ergebnis an die Antenne der Zelle zu übertragen, zu der das Beobachtungsobjekt 1 gehört, und der Empfänger wird dazu eingesetzt, das über diese Antenne übertragene erkannte Ergebnis zu empfangen.
  • Die Tätigkeit des Objekts 52 (Hocken in diesem Beispiel) wird mit derselben Technik erkannt wie der in Verbindung mit dem Ausführungsbeispiel aus 1 beschriebenen. Das erkannte Ergebnis wird über die Antenne der Zelle 1-1 gesendet. Dies erlaubt, dass das Objekt 52 als innerhalb der Zelle 1-1 "hockend" erkannt wird. Ähnlicherweise wird das Objekt 53 als innerhalb der Zelle 2-2 "rennend" erkannt, und das Objekt 54 wird als in der Zelle 3-2 "gehend" erkannt.
  • Wie beschrieben erlaubt das Ausführungsbeispiel aus 10 die Erkennung davon, wo die Beobachtungsobjekte momentan positioniert sind und was ihre momentanen Bewegungen/Tätigkeiten sind.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 12 bis 14 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem, das dazu fähig ist, die Tätigkeit und den Arbeitszustand des Beobachtungsobjekts ebenso wie die Umgebung und Position, an der das Objekt platziert ist, zu schätzen.
  • Wie in 12 gezeigt umfasst das die Erfindung ausführende Erkennungssystem: ein Erkennungsgerät 61 zum Erkennen einer einzelnen Bewegung/Tätigkeit; eine Speichereinheit 62 zum Speichern einer Historie erkannter Bewegungen/Tätigkeiten; eine Speichereinheit 63 zum Beherbergen einer zuvor vorberei teten Datenbank assoziativer Muster; eine assoziative Verarbeitungseinheit 64 zur assoziativen Bestimmung oder zum Schätzen der Tätigkeit oder des Arbeitszustands des Objekts oder der Umgebung, in der das Objekt platziert ist, durch die Verwendung von Daten in den Speichereinheiten 62 und 63; und eine Ausgabeeinheit 65 zum Ausgeben der assoziierten oder geschätzten Ergebnisse.
  • Das Erkennungsgerät 61 zur Bewegungs-/Tätigkeitserkennung ist mit denen der Ausführungsbeispiele aus den 1 und 10 strukturell identisch. Das vorliegende Ausführungsbeispiel benötigt jedoch keine Ausgabeeinheit 8 der vorhergehenden Ausführungsbeispiele. Wie oben dargestellt erkennt das Erkennungsgerät 61 lediglich eine Bewegung/Tätigkeit, die innerhalb eines gewissen Zeitraums auftritt. Als solches ist das Ausführungsbeispiel nicht dazu geeignet, aus mehreren akkumulierten Bewegungen/Tätigkeiten zusammengesetzte Arbeit zu erkennen.
  • Das Ausführungsbeispiel aus 12 plaziert daher jede vom Erkennungsgerät erkannte Bewegung oder Tätigkeit in der Speichereinheit 62, die eine Historie von Bewegungen/Tätigkeiten speichert. In der Speichereinheit 62 werden die Bewegungen und Tätigkeiten wie bei den Daten 71 in 13 angeordnet und aufgezeichnet.
  • Die gespeicherten Geschichtsdaten 71 werden von der assoziativen Verarbeitungseinheit 64 unter Bezugnahme auf die gespeicherten Muster in der Speichereinheit 63 für assoziative Muster überwacht. Ein assoziatives Muster ist ein Muster, das die Korrespondenz zwischen einer Kombination mehrerer Bewegungen einschließlich unerkennbarer Bewegungen auf der einen Seite und einer mit dieser Kombination von Bewegungen verknüpften Aufgabe wie in 14 gezeigt angibt.
  • Nun wird erklärt, wie das Ausführungsbeispiel aus 12 funktioniert, indem ein Beispiel einer von einem Wartungsingenieur in einer Fabrik erledigten Inspektionsarbeit genommen wird. Diese in jeder Zone (Bereich) der Fabrik erforderliche Art von Inspektionsarbeit ist in ihrem Umfang beträchtlich eingeschränkt. Das heißt, eine kleine Anzahl von Bewegungen/Tätigkeiten in Kombination sind ausreichend, um den Inhalt der Arbeit zu schätzen. Ein Muster 81 in 14 stellt ein typisches Sortiment von Bewegungen wie etwa "eine Leiter besteigen", "Gehen" und eine "unerkennbare Bewegung" dar. Die unerkennbare Bewegung in diesem Fall ist eine Bewegung, deren Vorliegen erfasst wird, die aber zu kompliziert ist, um vom Erkennungsgerät 61 erkannt zu werden.
  • Wenn beim Beispiel aus 14 die einzige verbleibende Aufgabe, die denkbarerweise noch ausgeführt werden muss, nachdem der Wartungsingenieur die Leiter bestiegen hat, eine Steuerpultoperation ist, dann wird die "unerkennbare" Bewegung als Steuerpultoperation geschätzt. Darüber hinaus erlaubt es die erkannte Bewegung des "Besteigens der Leiter", die Umgebung, in der das Objekt (d.h. der Wartungsingenieur in der Fabrik) platziert ist, als einen erhöhten Ort einzuschätzen. Die daher durch Assoziation oder durch Schätzung auf der Grundlage der Folge von Bewegungen "Besteigen der Leiter", "Gehen" und "unerkennbare Bewegung" erkannte Aufgabe wird als die Steuerpultoperation an dem erhöhten Ort definiert. Ähnlicherweise kann ein Bewegungsmuster 83, das Bewegungen des "Hinabsteigens einer Treppenstufe", "Gehens", "Hockens" und "unerkennbarer Bewegung" mittels Assoziation als "eine Ventiloperation auf dem Boden" erkannt werden.
  • Unter Bezugnahme auf solche assoziativen Muster überwacht die assoziative Verarbeitungseinheit 64 durchgängig die Spei chereinheit 62, die die Historie von Bewegungen/Tätigkeiten speichert. Wenn zum Beispiel dasselbe Bewegungsmuster wie das Muster 81 in den überwachten Daten auftritt, wie in einem Segment A (72) in 7, dann gibt die assoziative Verarbeitungseinheit 64 ein erkanntes Ergebnis aus, das angibt, dass das Objekt 1 "eine Steuerpultoperation an einem erhöhten Ort" ausführt. Da in einem Segment B (73) das gleiche Bewegungsmuster wie das assoziative Muster 83 auftritt, wird ähnlicherweise erkannt, dass das Objekt in diesem Segment "eine Ventiloperation auf dem Boden" ausführt.
  • Nicht nur der Inhalt der Arbeit sondern auch deren Position können von diesem Ausführungsbeispiel identifiziert werden. Zum Beispiel sei angenommen, dass das Erkennungsgerät in 10 als das Erkennungsgerät 61 verwendet wird und das zellulare System in 11 als die Positionsmesseinheit 41 verwendet wird. In solch einem Fall ist die Genauigkeit der Positionsmessung notwendigerweise grob; lediglich die Zone, in der sich das Objekt befindet, wird identifiziert. Wenn dieser Aufbau jedoch mit diesem Ausführungsbeispiel kombiniert wird und wenn der Platz, an dem "eine Steuerpultoperation an einem erhöhten Ort" erfolgt, auf eine einzelne Stelle innerhalb der fraglichen Zone beschränkt ist, dann führt die Erkennung, dass das Objekt "eine Steuerpultoperation an einem erhöhten Ort" ausführt, zur Identifizierung der exakten Position des Objekts, an der die Steuerpultoperation an dem erhöhten Ort ausgeführt wird.
  • Wie beschrieben bietet das Ausführungsbeispiel aus 12 den Vorteil, dass die Tätigkeit und der Arbeitszustand des Objekts ebenso wie die Umgebung, in der das Objekt platziert ist, mittels einer Historie mehrfacher Bewegungen und Muster von kombinierten Bewegungen erkannt wird.
  • Darüber hinaus ermöglicht es das Ausführungsbeispiel, von herkömmlichen Verfahren der Wellenform-basierten Erkennung bisher unerkannte Bewegungen zu schätzen. Eine herkömmlicherweise unerkennbare Bewegung kann geschätzt werden, indem auf eine geeignete Historie von Bewegungen und auf die Inhalte der Aufgaben, die in dem geeigneten Kontext stattfinden sollten, zurückgegriffen wird.
  • Wenn Orte vorgegeben sind, an denen bestimmte Aufgaben anzunehmenderweise ausgeführt werden sollen, kann das Ausführungsbeispiel diese Arbeit von vom Objekt erledigter Arbeit erkennen und das erkannte Ergebnis beim Identifizieren der exakten Stelle verwenden, an der sich das Objekt im Moment mit der Aufgabe beschäftigt.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf die 15, 16A und 16B beschrieben. Das Ausführungsbeispiel ist eine Vorrichtung, die für das Objekt eine Angabe der Differenz zwischen der gemessenen Bewegung und der entsprechenden Referenzbewegung darstellt.
  • Dieses Ausführungsbeispiel passt besonders zu einem Aufbau, bei dem ein invalides Objekt (z.B. ein Patient mit einer Beinverletzung von einem Unfall) rehabilitiert wird. Die Referenzbewegung bedeutet eine Bewegung vor der Verletzung wie etwa normales Gehen; die gemessene Bewegung ist anschaulich die momentane Art des Gehens, die das Objekt während der Rehabilitation zustande bringt.
  • Wie in 15 gezeigt umfasst das Ausführungsbeispiel in der Darstellung: am Beobachtungsobjekt 1 befestigte Messinstrumente 2 und 3; einen A/D-Wandler 4 zum Wandeln gemessener Ergebnisse von den Instrumenten 2 und 3 in digitales Format; eine Extraktionseinheit 5 für charakteristische Größen zum Extrahieren einer charakteristischen Größe aus digitalisierten Messungen; eine Datenbank 91 für charakteristische Größen von Referenzbewegungen, die im voraus von Referenzbewegungen und -tätigkeiten gemessene und extrahierte charakteristische Größen enthält; eine Signalverarbeitungseinheit 92 zum Detektieren einer Differenz zwischen der Bewegung, deren charakteristische Größe von der Extraktionseinheit 5 für charakteristische Größen extrahiert wurde, auf der einen Seite und der in der Datenbank 91 für charakteristische Größen von Referenzbewegungen gehaltenen entsprechenden Referenzbewegung auf der anderen Seite; sowie eine Ausgabeeinheit 93 zum Ausgeben der detektierten Differenz.
  • Idealerweise sollte die Datenbank 91 für charakteristische Größen von Referenzbewegungen charakteristische Größen aufweisen, die die eigene normale Bewegung des Objekts vor seiner Verletzung repräsentieren. Falls dies nicht der Fall ist, kann die Datenbank 91 charakteristische Größen enthalten, die als Durchschnitt von zahlreichen Leuten aufgenommenen Bewegungen erhalten wurden. Die Signalverarbeitungseinheit 92 berechnet wie in 16A und 16B dargestellt die Differenz zwischen solch einer Referenzbewegung und der Bewegung, die das Objekt momentan bewältigt. Hier wird angenommen, dass die Referenzbewegung von einem Frequenzspektrum 101 in Unterfigur (a) repräsentiert wird.
  • Wenn die Rehabilitation noch einen beträchtlichen Weg vor sich hat, hat das Objekt Schwierigkeiten, die Bewegung geschmeidig auszuführen. In diesem Fall erscheint, wie vom Frequenzspektrum 102 in Unterfigur (b) gezeigt, die Differenz zwischen der Bewegung des Objekts und der entsprechenden Referenzbewegung betont, besonders bei den Spektralkomponenten 106 und 107. Die Differenz (im Absolutwert) zwischen den Fre quenzspektren 101 und 102 wird durch ein Frequenzspektrum 104 dargestellt. Die sich ergebende Differenz beinhaltet Spektralkomponenten 108 und 109, die betont gezeigt sind, weil das Objekt nicht dazu in der Lage ist, die Bewegung geschmeidig auszuführen. Das Objekt während der Rehabilitation wird durch die von der Ausgabeeinheit 93 ausgegebene Spektrumsdifferenz dargestellt. Die Ausgabe stellt eine visuelle Angabe davon zur Verfügung, wie sich die Bewegung des Objekts im Moment von der Referenzbewegung unterscheidet.
  • Das Objekt bei der Rehabilitation versucht, die betonten Spektralkomponenten im detektierten Ergebnis zu minimieren. Das heißt, das Objekt setzt seine Rehabilitationsbemühungen so fort, dass das gemessene Spektrum, wie von einem Frequenzspektrum 102 in 16B angedeutet, immer näher an das Referenzfrequenzspektrum 101 rückt. Wenn der gesamte Rehabilitationsprozess als beendet angesehen wird, sollte die Bewegung des Objekts im Wesentlichen mit der Referenzbewegung identisch sein, wie von einem Frequenzspektrum 105 angedeutet, ohne irgendwelche betonten Spektrumsdifferenzen.
  • Obwohl das obige Ausführungsbeispiel bei seiner Anwendung auf die Rehabilitation invalider Patienten gezeigt wurde, beschränkt dies die Erfindung nicht. Das Ausführungsbeispiel kann ebenfalls auf die Korrektur der Fähigkeiten von Athleten in Bezug auf gewünschte Leistungsfähigkeitsstufen angewendet werden.
  • Wie beschrieben bietet das Ausführungsbeispiel den Vorteil, dass dem Objekt, das bei der Rehabilitation ist oder athletische Fähigkeiten trainiert, eine ausdrückliche Angabe darüber gegeben wird, ob er oder sie in Bezug auf die Referenzbewegung vorangekommen ist.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 17 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungsgerät, das in der Lage ist, eine Differenz zwischen einer Referenzbewegung und einer gemessenen Bewegung zu detektieren und dem Beobachtungsobjekt eine Angabe über einen wahrscheinlichen Grund der detektierten Differenz zu geben.
  • Wie in 17 dargestellt ist das die Erfindung ausführende Erkennungsgerät das Erkennungsgerät aus 15, das zusätzlich mit einer Datenbank 111 von charakteristischen Größen, die anomale Bewegungen bezeichnen, und einer Signalverarbeitungseinheit 112 (hier die zweite Signalverarbeitungseinheit genannt) zum Erkennen des wahrscheinlichen Grunds einer anomalen Bewegung versehen ist. Die anomale Bewegung bedeutet eine unnatürliche Bewegung, die sich von dem unterscheidet, was im Allgemeinen als eine normale und typische Bewegung (d.h. eine Referenzbewegung) angesehen wird. Eine solche anomale Bewegung ist das Gehen einer invaliden Person mit einer Beinverletzung aus einem Unfall. Die Datenbank 111 für charakteristische Größen von anomalen Bewegungen enthält charakteristische Größen, die verschiedene Arten von anomalen Bewegungen bezeichnen. Wenn zum Beispiel das Frequenzspektrum 104 in 16A erzeugt wird, da sich die Art und Weise der Anhebung der Zehen des rechten Beins von der Referenzbewegung unterscheiden, dann werden die sich ergebenden Spektralkomponenten 108 und 109 durch charakteristische Größen gebildet, die den wahrscheinlichen Grund der als "anomal" wahrgenommenen Bewegung repräsentieren. Aus solchen anomalen Bewegungen extrahierte charakteristische Größen werden im voraus in der Datenbank 111 für charakteristische Größen von anomalen Bewegungen gespeichert.
  • Indem die Datenbank 111 für charakteristische Größen von anomalen Bewegungen abgefragt wird, erkennt die zweite Signalverarbeitungseinheit 112 den wahrscheinlichen Grund der vom Beobachtungsobjekt gezeigten anomalen Bewegung. Der Erkennungsvorgang wird auf die gleiche Weise wie beim zuvor beschriebenen Bewegungs-/Tätigkeitserkennungsschema ausgeführt. Das heißt, die Signalverarbeitungseinheit 92 berechnet zunächst die Differenz zwischen der gemessenen Bewegung und der entsprechenden Referenzbewegung. Die zweite Signalverarbeitungseinheit 112 korreliert dann die Differenz mit den charakteristischen Größen von anomalen Bewegungen, die in der Datenbank 111 für charakteristische Größen von anomalen Bewegungen gespeichert sind. Nachdem die zweite Signalverarbeitungseinheit 112 den wahrscheinlichen Grund, der durch die charakteristische Größe mit dem höchsten Grad an Korrelation repräsentiert wird, erkannt hat, wird das erkannte Ergebnis von der Ausgabeeinheit 113 mittels Buchstaben oder Grafik ausgegeben.
  • Obwohl das Ausführungsbeispiel aus 17 bei der Anwendung auf die Rehabilitation invalider Patienten gezeigt wurde, beschränkt dies die Erfindung nicht. Das Ausführungsbeispiel kann ebenfalls auf die Korrektur von Fähigkeiten von Athleten unter Bezug auf erwünschte Leistungsfähigkeitsstufen angewendet werden.
  • Wie beschrieben bietet das Ausführungsbeispiel aus 17 den Vorteil, dass der wahrscheinliche Grund jeder Bewegung, die in Bezug auf die Referenzbewegung als abweichend angesehen wird, automatisch erkannt und angegeben wird.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 18 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem, das Bewegungs- /Tätigkeitserkennungsgeräte gemäß der Erfindung zum Sammeln von Arbeitsdaten zur Verwendung bei einem Verarbeitbarkeitsauswertungssystem oder einem Arbeitsinhaltauswertungssystem verwendet.
  • Verarbeitbarkeitsauswertung oder Arbeitsinhaltauswertung sind ein aktives Forschungsgebiet im Fachgebiet des Produktionssteuerungsingenieurwesens. Um Verarbeitbarkeitsauswertung oder Arbeitsinhaltauswertung auszuführen, ist es zunächst erforderlich, Arbeitsdaten zu sammeln. Traditionellerweise hing eine solche Sammlung von Arbeitsdaten an einer großen Menge von manueller Arbeit. Das Ausführungsbeispiel aus 18 beabsichtigt, das manuelle Sammeln der Arbeitsdaten durch ein automatisiertes Datensammlungsschema zu ersetzen.
  • Wie in 18 gezeigt umfasst das die Erfindung ausführende dargestellte System: an Objekten A, B und C jeweils befestigte Erkennungsgeräte 120, 121 und 122; Datenbanken 123, 124 und 125 zum Speichern erkannter Ergebnisse von den Erkennungsgeräten; und ein Verarbeitbarkeitsauswertungssystem 126 ebenso wie ein Arbeitsinhaltauswertungssystem 127 zum Empfangen von Historien der in den jeweiligen Datenbanken gehaltenen Bewegungen und Tätigkeiten des Objekts.
  • Die an den Objekten A, B und C befestigten Erkennungsgeräte 120, 121 und 122 gemäß der Erfindung erkennen automatisch und durchgängig deren Bewegungen/Tätigkeiten, wenn sie auftreten. Insbesondere können die Erkennungsgeräte vom gleichen Typ wie die in den Ausführungsbeispielen aus 1 und 10 verwendeten sein. Erkannte Ergebnisse werden über Übertragungswege 128 an die Datenbanken 123, 124 und 125 übertragen, die Historien der erkannten Bewegungen und Tätigkeiten des Objekts akkumulieren. Die Übertragungswege 128 können entweder über Kabel laufen oder kabellos sein. Kabellose Übertragungswege bieten den Vorteil, dass sie den Beobachtungsobjekten freie Bewegung ermöglichen.
  • Die Werte, die in den Bewegungs-/Tätigkeitshistorien enthaltenden Datenbanken aufbewahrt werden, werden von dem Verarbeitbarkeitsauswertungssystem 126 oder dem Arbeitsinhaltauswertungssystem 127 abgefragt. Jedes der Systeme führt seinen eigenen Auswertungsvorgang auf der Grundlage der abgefragten Ergebnisse durch.
  • Das vorliegende Ausführungsbeispiel wird durch seine Fähigkeit gekennzeichnet, Arbeitsdaten automatisch zu sammeln. Dieses Merkmal führt zu drastischen Verringerungen in der Menge von manueller Arbeit, die traditionellerweise für das Sammeln solcher Daten erforderlich ist.
  • Das Ausführungsbeispiel aus 18 ist eine typische Anwendung der Erfindung auf die Tätigkeit der Arbeitsdatensammlung, beschränkt aber keineswegs die besonderen Fähigkeiten des Verarbeitbarkeitsauswertungssystems 126 und des Arbeitsinhaltauswertungssystems 127.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 19 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem, das Bewegungs-/Tätigkeitserkennungsgeräte gemäß der Erfindung zum Sammeln von Arbeitsdaten zur Verwendung durch ein System für optimale Personalallokation oder ein System für optimale Arbeitszeitallokation verwendet.
  • Das System für optimale Personalallokation ist ein System, das die Personalanzahl steuert, die einem jeden von mehreren Arbeitssegmenten in Anbetracht der Arbeitslasten auf dem zugeteilten Personal zuzuteilen ist. Das System zur optimalen Arbeitszeitallokation ist ein System, das Arbeitszeitdauern für Personal in Abhängigkeit von dessen Arbeitslasten steuert. Jedes der Systeme erfordert, dass der Inhalt von von einer großen Personalanzahl durchgeführter Arbeit in Echtzeit erfasst werden kann. Dieses Ausführungsbeispiel beabsichtigt, das Erfordernis zu erfüllen, indem ein Schema implementiert wird, durch das der Inhalt von von zahlreichen Arbeitern erledigter Arbeit leicht in Echtzeit erkannt werden kann.
  • Wie anschaulich in 19 dargestellt ist das, die Erfindung ausführende Erkennungssystem teilweise aus den Erkennungsgeräten 120, 121 und 122 ebenso wie den Datenbanken 123, 124 und 125 in 18 zusammengesetzt. Diese Komponenten werden durch ein System 134 zur optimalen Personalallokation und ein System 141 zur optimalen Arbeitszeitallokation ergänzt, die in den obigen Datenbanken gehaltene Daten verwenden. Dieses Ausführungsbeispiel ist zusätzlich mit Anfragenempfangsgeräten 131, 135 und 138 ausgestattet, die jeweils an den Objekten A, B und C befestigt sind und die Anfragen von den Allokationssystemen empfangen.
  • Die an den Objekten A, B und C befestigten Bewegungs-/Tätigkeitserkennungsgeräte 120, 121 und 122 erkennen automatisch und durchgängig die Bewegungen/Tätigkeiten von Letzteren, wenn sie auftreten. Historien von so erkannten Bewegungen und Tätigkeiten der Objekte werden in den Datenbanken 123, 124 und 125 akkumuliert. Datenübertragungswege zu den Datenbanken können vom kabellosen Typ sein. Kabellose Übertragungswege haben den Vorteil, dass sie den Beobachtungsobjekten freie Bewegung erlauben.
  • Die Werte, die in den Bewegungs-/Tätigkeitshistorien enthaltenen Datenbanken aufbewahrt werden, werden von dem System 134 zur optimalen Personalallokation oder dem System 141 zur optimalen Arbeitszeitallokation abgefragt. Mit den Referenz daten beurteilt jedes der Systeme unter Verwendung von vorgegebenen Verfahren wie viel Arbeitslast jedem Arbeiter aufgebürdet wird. Wenn zum Beispiel das System 134 zur optimalen Personalallokation auf der Grundlage der empfangenen Daten beurteilt, dass ein gewisser Arbeiter übermäßig mit Arbeit belastet ist, dann wird ein anderer Arbeiter mit weniger oder keiner Arbeitslast über einen Datenübertragungsweg 130 angerufen, und ihm wird aufgetragen, den überlasteten Arbeiter zu unterstützen.
  • Wenn das System 141 zur optimalen Arbeitszeitallokation wahrnimmt, dass die kumulative Last auf einen bestimmten Arbeiter ein vorgegebenes Niveaus überschritten hat, drängt das System den überlasteten Arbeiter, sich eine Pause zu nehmen, und teilt einen anderen Arbeiter der fraglichen Aufgabe zu. Die für den Allokationsvorgang notwendigen Anfragen werden über einen Weg 142 zu den an den anwendbaren Arbeitern befestigten Anfragenempfangsgeräten gesendet.
  • Wie beschrieben bietet das Ausführungsbeispiel aus 19 den Vorteil, dass der Inhalt von von zahlreichem Personal durchgeführter Arbeit leicht in Echtzeit erkannt werden kann, so dass das Personal optimal in Abhängigkeit von seinem momentanen Arbeitszustand zugeteilt werden kann.
  • Ein anderes Ausführungsbeispiel der Erfindung ist unten unter Bezugnahme auf 20 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem, das ein Bewegungs-/Tätigkeitserkennungsgerät gemäß der Erfindung verwendet, um bekanntzugeben, dass eine spezifische Bewegung oder Tätigkeit von einem Beobachtungsobjekt ausgeführt worden ist.
  • Dieses die Erfindung ausführende Erkennungssystem wird auf einen Aufbau angewendet, bei dem Aufseher oder Wächter, die für Leute, die sozial ungeschützt sind und Schutz brauchen, oder für Arbeiter, die isoliert arbeiten, verantwortlich sind, automatisch über eine gefährliche Situation benachrichtigt werden, in die die ihnen Anvertrauten aus irgendeinem Grund geraten können. Dieses Ausführungsbeispiel beinhaltet Komponenten, die einigen von denen, die das Ausführungsbeispiel aus 12 bilden, identisch sind. Die Teile mit strukturell identischen Gegenstücken in dem Aufbau aus 12 werden durch gleiche Bezugszeichen bezeichnet, und ihre detaillierten Beschreibungen werden hier weggelassen, wenn sie redundant sind.
  • Wie in 20 gezeigt umfasst das die Erfindung ausführende dargestellte Erkennungssystem: ein Bewegungs-/Tätigkeitserkennungsgerät 61; eine Speichereinheit 62 zum Speichern einer Historie erkannter Bewegungen/Tätigkeiten; eine Speichereinheit 145 zum Speichern spezifischer Bewegungsmuster; eine assoziative Verarbeitungseinheit 64 zur Erkennung mittels Assoziation oder zum Schätzen einer spezifischen Bewegung oder Tätigkeit des Beobachtungsobjekts; eine Benachrichtigungsinheit 146 zum Übertragen einer spezifischen Nachricht an den Aufseher oder Wächter in Abhängigkeit von dem Ergebnis des Assoziations- oder Schätzungsvorgangs; und eine Nachrichtenempfangseinheit 147 zum Empfangen der übertragenen Nachricht.
  • Das Bewegungs-/Tätigkeitserkennungsgerät 61 ist äquivalent zu dem im Ausführungsbeispiel aus 1 verwendeten Erkennungsgerät. Wie vorher beschrieben ist dieses Erkennungsgerät dazu fähig, eine einzelne Bewegung oder Tätigkeit zu erkennen, die innerhalb einer bestimmten Zeitdauer stattfindet; es ist nicht dafür geeignet, irgendeine Tätigkeit oder Arbeit, die sich aus mehreren Bewegungen zusammensetzt, oder kumulativ durchgeführte Tätigkeiten zu erkennen. Alle Bewegungen/Tätigkeiten werden durchgehend erkannt, wenn sie auftreten, und in der Speichereinheit 62 gespeichert, die eine Historie von Bewegungen/Tätigkeiten beherbergt.
  • Die so gespeicherten historischen Daten werden durchgehend von der assoziativen Verarbeitungseinheit 64 in Bezug auf die in der Speichereinheit 145 für spezifische Bewegungsmuster gespeicherten Bewegungsmuster überwacht. Ein spezifisches Bewegungsmuster ist eine Kombination mehrerer Bewegungen, die für das Erkennen einer spezifischen Tätigkeit wie etwa "ein plötzliches Fallen auf den Boden" oder "Fallen von einem erhöhten Ort" notwendig sind.
  • Zum Beispiel wird die Tätigkeit des "plötzlichen Fallens auf den Boden" als ein Bewegungsmuster erkannt, das aus einer Bewegung "gehende oder stillstehende Haltung" gefolgt von einer Bewegung "Erreichen des Bodens in kurzer Zeit" wiederum gefolgt von einer Bewegung "still auf dem Boden liegen" gebildet wird. Ähnlicherweise wird die Tätigkeit des "Fallens von einem erhöhten Ort" als ein Bewegungsmuster erkannt, der sich aus den Bewegungen "Klettern", "Fallen", "Auftreffen auf Hindernisse", "Erreichen des Bodens" und "Stillliegen" in dieser Reihenfolge zusammengesetzt ist.
  • Die Bewegung "Klettern" wird erkannt, indem eine Beschleunigung nach oben erfasst wird, die größer als die Gravitationsbeschleunigung ist. Die Bewegungen "Fallen", "Auftreffen auf Hindernisse" und "Erreichen des Bodens" werden jeweils durch Detektion von "Null Beschleunigung in allen Richtungen (wegen des freien Falls)", "in einer kurzen Zeit in verschiedenen Richtungen auftretende intensive Beschleunigung" und "Erleiden einer recht starken Beschleunigung".
  • Indem auf solche Bewegungsmuster zum Erkennen der Bewegung des Beobachtungsobjekts zurückgegriffen wird, eliminiert das Ausführungsbeispiel aus 20 mögliche irrtümliche Erkennung von Bewegungen oder Tätigkeiten. Es sei zum Beispiel angenommen, dass ein Sensor vom Körper des Objekts abgenommen und gewaltsam auf einem Tisch platziert wird. In diesem Fall detektiert der Sensor eine recht starke Beschleunigung, die bei Verwendung eines einzelnen Bewegungserkennungsgeräts leicht als Anzeichen dafür interpretiert werden kann, dass das Objekt von einem erhöhten Ort fällt oder auf den Boden fällt. Dies liegt daran, dass das einzelne Bewegungserkennungsgerät keinen Rückgriff auf eine Historie von mehrfachen Bewegungen des Objekts hat. Im Gegensatz dazu ist die assoziative Verarbeitungseinheit dazu in der Lage, Bewegungen vor und nach etwa der im obigen Beispiel detektierten recht starken Beschleunigung zu überprüfen, wodurch die Umstände des Objekts besser erfasst und das Ergebnis der Erkennung genauer gemacht wird. Wenn der Sensor anschaulicherweise eine Art von unerklärbarer Beschleunigung detektiert hat, wenn er am menschlichen Körper angebracht wird, kann diese Beschleunigung korrekt als eine Bewegung des vom Körper abgenommenen Sensors erkannt werden, solange die Beschleunigung im voraus als zu dieser bestimmten Bewegung gehörend klassifiziert worden ist. Auf diese Weise kann das Auftreten einer falsch erkannten einzelnen Bewegung minimiert werden.
  • Wenn die assoziative Verarbeitungseinheit 64 irgendein solches spezifisches Bewegungsmuster aus den historischen Daten in der Speichereinheit 62 detektiert, lässt die Einheit 64 die Benachrichtigungseinheit 146 den Aufseher oder Wächter durch eine Nachricht benachrichtigen, die angibt, was das erkannte spezifische Bewegungsmuster bedeutet. Der Aufseher oder Wächter empfängt die Nachricht über die Nachrichtenemp fangseinheit 147 und erkennt dadurch die Situation, in der sich das Beobachtungsobjekt im Moment befindet.
  • Wie beschrieben bietet das Ausführungsbeispiel aus 20 den Vorteil, dass es Aufsehern oder Wächtern, die für Leute, die sozial ungeschützt sind und Schutz brauchen, oder für Arbeiter, die isoliert arbeiten, verantwortlich sind, erlaubt, von einer gefährlichen Situation automatisch benachrichtigt zu werden, in der die ihnen Anvertrauten sich aus irgendeinem Grund befinden.
  • Als Variation des Ausführungsbeispiels aus 20 kann das System mit der unter Bezugnahme auf 10 beschriebenen Positionsmesseinheit 41 als eine Einrichtung zum Messen der Position des Objekts ergänzt werden. Alternativ kann das Ausführungsbeispiel mit der assoziativen Verarbeitungseinheit 64 aus 12 zum Identifizieren der Position des Objekts auf der Grundlage einer Historie von Bewegungen des Letzteren ergänzt werden. Bei allen diesen Variationen werden die Positionsdaten des Objekts, das sich in einer gefährlichen oder auf eine andere Art abweichenden Situation befindet, an den Aufseher oder Wächter gesendet, so dass Letzterer erkennen kann, wo sich das Objekt im Moment befindet und was ihm oder ihr zugestoßen ist.
  • Bei dem Aufbau, bei dem die Positionsmesseinheit 41 zusätzlich dazu ausgelegt ist, spezifische Bewegungsmuster zu messen, können Vorkehrungen getroffen werden, die eine Wahl auf der Grundlage davon, wo der Vorfall beobachtet wird, erlauben, ob das erkannte Bewegungsmuster berichtet oder nicht berichtet werden soll. Dieses Merkmal ist dabei nützlich, einen falschen Alarm zu vermeiden, der durch eine scheinbar zusammenfallende Bewegung des Beobachtungsobjekts hervorgerufen wird, wenn sich das Objekt tatsächlich zur Untersuchung in einem Krankenhaus auf eine Liege legt oder zu Hause ins Bett steigt.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 21 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem, das Bewegungs-/Tätigkeitserkennungsgeräte gemäß der Erfindung zur Verhaltensanalyse, Verhaltensaufzeichnung und Verhaltensüberwachung anwendet.
  • Das die Erfindung ausführende Erkennungssystem wird in Verbindung mit einem typischen Aufbau zur Verhaltensanalyse von Tieren beschrieben. In diesem Gebiet gibt es zahlreiche Studien über die von Tierbewegungen gefolgten Orte. Bis jetzt hat es bloß einen Weg zum Beobachten der Bewegungen/Tätigkeiten von Tieren gegeben: über das menschliche Auge. Es gibt viele noch zu klärende Aspekte des Verhaltens und der Bewegungen von Tieren, die von Menschen nicht beobachtbare Orte bewohnen. Dieses Ausführungsbeispiel ist dazu beabsichtigt, automatisch die noch zu entdeckenden Bewegungen/Tätigkeiten von solchen Tieren in ihren unerforschten Territorien aufzuzeichnen.
  • Dieses die Erfindung ausführende Erkennungssystem ist wie in 21 gezeigt aufgebaut. In 21 stehen Bezugsnummern 151 und 152 für Vögel, die Beobachtungsziele für Verhaltensanalyse, Verhaltensaufzeichnung und/oder Verhaltensüberwachung sind. Jeder Vogel ist mit einem Mess- und Kommunikationsgerät 150 ausgestattet, das die Zustandsänderung des Vogels misst und die Messungen über Funk überträgt. Ein Satellit 153 empfängt Messdaten über Zustandsänderungen jedes Vogels und leitet diese weiter, um so die Bestimmung der Position, von der aus der Vogel die Daten übertragen hat, zu bestimmen.
  • Eine Möglichkeit, die Position eines Vogels zu bestimmen, beinhaltet das Integrieren eines GPS-Empfängers im Mess- und Kommunikationsgerät 150 des Vogels. Im Betrieb werden vom Gerät 150 an den Satelliten 153 übertragene Verhaltensdaten von vom GPS-Empfänger gemessenen Positionsdaten, die die momentane Position des Vogels angeben, begleitet. Alternativ können mehrere Satelliten 153 dazu verwendet werden, vom selben Vogel gesendete Funksignale zu empfangen. Die empfangenen Funksignale werden durch Triangulierung verarbeitet, um die Position des Vogels zu bestimmen.
  • Die gemessenen und über den Satelliten 153 gesammelten Daten werden anschaulicherweise an das Bewegungs-/Tätigkeitserkennungsgerät 154 in 1 gesendet. Die Daten werden verarbeitet, um die Bewegung/Tätigkeit jedes Vogels in kurzer Zeit zu erkennen. Wenn zum Beispiel der Vogel seine Haltung kaum ändert und keinerlei Bewegungszeichen abgibt, kann der Vogel als schlafend erkannt werden; wenn der Vogel in seiner Haltung gleich bleibt, sich aber weitläufig bewegt, kann der Vogel als im Flug befindlich erkannt werden; wenn der Vogel seine Haltung beträchtlich ändert, aber kaum seinen Ort wechselt, kann der Vogels als fressend erkannt werden.
  • Das dieses Ausführungsbeispiel bildende Erkennungsgerät sendet Daten, die erkannte Bewegungen und Tätigkeiten des Vogels repräsentieren, an eine Verhaltensanalyseeinheit 155, eine Verhaltensaufzeichnungseinheit 156 und eine Verhaltensüberwachungseinheit 157. Die Verhaltensanalyseeinheit 155 analysiert das Verhaltensmuster jedes Vogels, indem es anschaulicherweise feststellt, wann das Beobachtungsobjekt aufwacht, sich bewegt, frisst und schläft. Die Verhaltensaufzeichnungseinheit 156 analysiert die von jedem Vogel verfolgten Bewegungsorte für seine verschiedenen Aktivitäten wie etwa das Fressen. Die Verhaltensüberwachungseinheit 157 überwacht das Verhalten des Vogels, indem sie erfasst, wo sich jeder Vogel im Moment befindet und mit welcher Aktivität jeder Vogel im Moment beschäftigt ist.
  • Schließlich gibt eine Anzeigeeinheit 158 wie etwa ein CRT eine Gesamtanzeige der von den oben erwähnten Einheiten analysierten Ergebnisse. Ein Anzeigebeispiel in 21 zeigt eine Anzeige eines typischen Orts einer Bewegung eines Vogels, die vom Satelliten 153 verfolgt und mit den auf dem Weg erkannten Aktivitäten des Vogels überlagert ist. Wie dargestellt zeigt die Anzeige automatisch, wann und wo jeder Vogel bestimmte Aspekte seines Verhaltens gezeigt hat.
  • Das Ausführungsbeispiel aus 21 bietet den Vorteil, dass es die automatische Beobachtung der von Beobachtungsobjekten verfolgten Bewegungsorte ebenso wie deren Verhalten, besonders in für Menschen unzugänglichen Territorien, erlaubt.
  • Da es nicht erforderlich für menschliche Beobachter ist, das fragliche Objekt unmittelbar visuell zu beobachten, eliminiert das Ausführungsbeispiel aus 21 mögliche Verhaltensabweichungen, die von der Anwesenheit von Menschen in dem Bereich hervorgerufen werden. Es ist daher möglich, Tiere so zu beobachten, wie sie sich ohne menschlichen Eingriff natürlicherweise geben und verhalten.
  • Ein weiteres Ausführungsbeispiel der Erfindung ist unten unter Bezugnahme auf 22 beschrieben. Dieses Ausführungsbeispiel ist eine Gestenerkennungsvorrichtung, die ein Bewegungs-/Tätigkeitserkennungsschema gemäß der Erfindung verwendet.
  • Gesten sind als vorgegebene Bewegungen mit spezifischen Bedeutungen definiert. Eine Person übermittelt eine gewünschte Bedeutung durch Ausführen der geeigneten Geste. In solch einem Fall kann die ausgeführte Geste die mit der Geste assoziierte herkömmlicherweise definierte Bedeutung darstellen oder nicht. Wenn zum Beispiel die Bewegung "nach rechts zeigen" als eine Geste vorgegeben ist, die tatsächlich "eine Anweisung, nach links zu gehen" bedeutet, dann wird ein Beobachter, der die Geste in diesem Kontext interpretiert, demgemäß nach links gehen.
  • Das Ausführungsbeispiel aus 22 wird implementiert durch Ergänzen des Ausführungsbeispiels aus 1 mit einer Datenbank 161 mit einer Übersetzungstabelle, die die Bedeutungsentsprechung zwischen Gesten auf der einen Seite und Bewegungen/Tätigkeiten auf der anderen Seite definiert, und mit einem Gestenerkennungsgerät 162. Das Gestenerkennungsgerät 162 erkennt die Bedeutung jeder vom Beobachtungsobjekt 1 durchgeführten Geste auf der Grundlage der von der Signalverarbeitungseinheit 7 erkannten Bewegung/Tätigkeit und der obigen Übersetzungstabelle. Die erkannte Bewegung der Geste wird durch eine Ausgabeeinheit 163 ausgegeben.
  • Bei diesem Ausführungsbeispiel wird die vom Objekt 1 ausgeführte Geste von den Messinstrumenten 2 und 3 gemessen. Die Messsignale werden vom A/D-Wandler 4 in digitales Format gewandelt. Die Extraktionseinheit 5 für charakteristische Größen extrahiert eine charakteristische Größe aus den digitalisierten Signalen. Die so aus der Geste extrahierte charakteristische Größe wird an die Signalverarbeitungseinheit 7 zur Bewegungs-/Tätigkeitserkennung gesendet. Die Signalverarbeitungseinheit 7 erkennt, ob die charakteristische Größe eine herkömmlicherweise definierte Bewegung/Tätigkeit angibt. Das erkannte Ergebnis wird an das Gestenerkennungsgerät 162 weitergeleitet.
  • Das Gestenerkennungsgerät 162 erkennt die Bedeutung der Eingabegeste durch Abfragen der die vorgegebene Meinung von verschiedenen Bewegungen/Tätigkeiten enthaltenden Übersetzungstabellendatenbank 161. Im oben angegebenen Beispiel ist die Bewegung "Zeigen nach rechts" gemäß der Übersetzungstabelle als "Aufforderung, nach links zu gehen" definiert. Auf diese Weise wird die Bedeutung der erkannten Geste bestimmt und von der Ausgabeeinheit 163 ausgegeben.
  • Bei der Verwendung des Ausführungsbeispiels aus 22 ermöglicht die Ausführung einer vorgegebenen Geste das Übertragen einer mit der fraglichen Geste assoziierten spezifischen Bedeutung.
  • Weil den gespeicherten Gesten jeweils eine vorgegebene Bedeutung zugeordnet ist, eliminiert die Erkennung einer spezifischen Geste semantische Mehrdeutigkeit, die mit Gesten im Allgemeinen verbunden ist.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 23 beschrieben. Dieses Ausführungsbeispiel ist ein mit einer Funkkommunikationseinrichtung ausgestattetes Bewegungs-/Tätigkeitserkennungsgerät.
  • Das Ausführungsbeispiel aus 23 bietet den gleichen Effekt in Bezug auf Erkennungsfähigkeiten wie das Ausführungsbeispiel aus 1. Was das Ausführungsbeispiel von dem aus 1 unterscheidet, ist, dass die hinzugefügte Funkkommunikationsfunktion Daten über die detektierte Zustandsänderung des Beobachtungsobjekts 1 über Funk überträgt.
  • Wie in 23 gezeigt umfasst das Ausführungsbeispiel aus 23 anschaulicherweise zwei Hauptkomponenten: ein am Beobachtungsobjekt 1 befestigtes Gerät 173 auf der überwachten Seite sowie ein Gerät 177 auf der überwachenden Seite. Das Gerät 173 auf der überwachten Seite weist eine am Objekt 1 befestigte Zustandsänderungsmesseinheit 171 (äquivalent zu den Messinstrumenten 2 und 3 aus 2) sowie eine Funkübertragungseinheit 172 zum Übertragen von der Messeinheit 171 gemessenen Signalen auf. Das Beobachtungsobjekt 1 braucht bloß zwei Einheiten zu tragen, d.h. die Messeinheit 171 und die Übertragungseinheit 172. Der verringerte Umfang an herumzutragender Ausstattung verleiht dem Objekt eine größere Bewegungsfreiheit als jemals zuvor.
  • Ein über Funk zu übertragendes Signal 178 kann entweder ein direkt von der Zustandsänderungsmesseinheit 171 gemessenes Signal (vom analogen Typ) oder ein digitalisiertes Signal sein, das nach der Messung einer Analog-Digital-Wandlung unterzogen wurde. Die Arten von Signalen für die Verwendung bei diesem Ausführungsbeispiel können solche von elektromagnetischer Strahlung oder von Infrarotstrahlung sein, sind aber nicht darauf beschränkt.
  • Das zum Gerät 177 auf der überwachenden Seite gesendete gemessene Ergebnis wird von einer Empfangseinheit 174 empfangen und von einem Bewegungs-/Tätigkeitserkennungsgerät 175 erkannt. Das Erkennungsgerät 175 umfasst anschaulicherweise den A/D-Wandler 4, die Extraktionseinheit 5 für charakteristische Größen, die Datenbank 6 für charakteristische Größen von Bewegungen/Tätigkeiten und die Signalverarbeitungseinheit 7 zur Bewegungs-/Tätigkeitserkennung, die alle im Aufbau von 1 enthalten sind. Das erkannte Ergebnis vom Erkennungsgerät 175 wird an die Ausgabeeinheit 176 zur dortigen Ausgabe gesendet.
  • Das Ausführungsbeispiel aus 23 erlaubt, dass von der Zustandsänderungsmesseinheit 171 vorgenommene Messungen über Funk übertragen werden. Dieses Merkmal ermöglicht es dem Beo bachtungsobjekt 1, sich freier zu bewegen und sich weniger eingeschränkt als zuvor zu fühlen.
  • Ein weiterer Vorzug dieses Ausführungsbeispiels ist, dass die am Beobachtungsobjekt befestigte Ausstattung klein und von leichtem Gewicht ist; die befestigte Ausstattung besteht lediglich aus der Zustandsänderungsmesseinheit und der Übertragungseinheit, die von der Messeinheit eingegebene Signale überträgt.
  • Ein weiteres Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 24 beschrieben. Dieses Ausführungsbeispiel ist ein mit einer Funkkommunikationseinrichtung ergänztes Bewegungs-/Tätigkeitserkennungsgerät gemäß der Erfindung.
  • Das Ausführungsbeispiel aus 24 enthält ein Gerät auf der überwachten Seite, das die Bewegungen oder Tätigkeiten des Objekts erkennt, und eine Funkkommunikationseinrichtung zum Senden des erkannten Ergebnisses an ein Gerät auf der überwachenden Seite. Solche Teile des Ausführungsbeispiels, die strukturell identische Gegenstücke im Ausführungsbeispiel aus 23 haben, werden durch gleiche Bezugszeichen bezeichnet, und ihre Beschreibungen werden hier, wo sie redundant sind, weggelassen.
  • Ein von der Zustandsänderungsmesseinheit 171 im Gerät 184 auf der bewachten Seite gemessenes Signal wird durch das Bewegungs-/Tätigkeitserkennungsgerät 175 erkannt. Das erkannte Ergebnis wird durch die Funkübertragungseinheit 181 an das Gerät 185 auf der überwachenden Seite übertragen. Das vom Gerät 185 auf der überwachenden Seite empfangene erkannte Ergebnis wird direkt von der Ausgabeeinheit 176 ausgegeben.
  • Die über Funk übertragenen Daten 183 repräsentieren das erkannte Ergebnis. Als Vorteil dieses Ausführungsbeispiels belegen die Daten, die im Vergleich zu den gemessenen Rohdaten beträchtlich komprimiert sind, lediglich einen begrenzten Funkübertragungsbereich oder brauchen bei der Übertragung nur eine recht kurze Zeit. Darüber hinaus kann das Objekt 1 die befestigte kabellose Ausstattung überallhin, wo es will, herumtragen.
  • Wie beschrieben und gemäß dem Ausführungsbeispiel aus 24 werden die von der Zustandsänderungsmesseinheit vorgenommenen Messungen über Funk übertragen. Dieses Merkmal verleiht dem Beobachtungsobjekt eine vergrößerte Bewegungsfreiheit und verringert Belastungen des Objekts.
  • Als ein weiterer Vorteil des Ausführungsbeispiels wird die über Funk übertragene Datenmenge so komprimiert, dass die Datenübertragung einen begrenzten Funkübertragungsbereich, ein verringertes Funkkanalbelegungsverhältnis und/oder eine erhöhte Übertragungsgeschwindigkeit aufweist.
  • Während die Ausführungsbeispiele aus 23 und 24 die Funkübertragungseinrichtung verwendet haben, um den Umfang an vom Beobachtungsobjekt zu tragender Ausstattung zu verringern, beschränkt dies nicht die Erfindung. Anstatt die Übertragungs- und Empfangseinheiten zum Implementieren der Funkübertragungsfunktion zu verwenden, kann eine Variation der Erfindung eine auf der überwachten Seite angeordnete tragbare Datenspeichereinheit und eine auf der überwachenden Seite vorgesehene Datenbezugseinheit aufweisen. Bei solch einem Aufbau speichert die tragbare Datenspeichereinheit die Bewegungsdaten des Objekts oder erkannte Daten über die Bewegung des Objekts zeitweilig. Wenn sich das Objekt am Platz des Beobachters einfindet, verwendet der Beobachter die Datenbezugsein heit zum Lesen der Daten direkt aus der vom Objekt mitgebrachten Datenspeichereinheit.
  • Ein weiteres Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 25 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem mit einem Bewegungs-/Tätigkeitserkennungsgerät gemäß der Erfindung, das mit einer Verarbeitungsfunktion einer Prepaid-Gebühr ergänzt ist.
  • Wie in 25 gezeigt umfasst dieses die Erfindung ausführende Erkennungssystem auf der überwachten Seite ein Erkennungsgerät 192 zum Erkennen der Bewegung/Tätigkeit des Beobachtungsobjekts, eine Gebührenstandspeichereinheit 195 zum Implementieren der Verarbeitungsfunktion für Prepaid-Gebühren und eine Gebührenstandberechnungseinheit 196. Auf der überwachenden Seite enthält das Erkennungssystem eine Empfangseinheit 193 zum Empfangen des erkannten Ergebnisses und eine Steuereinheit 197 für die Verarbeitungsfunktion für Prepaid-Gebühren zum Ausgeben einer Gebührenstandkürzungsaufforderung, einer Gebührenstandverifikationsaufforderung und anderen Anweisungen.
  • Unten wird eine typische Anwendung des Ausführungsbeispiels aus 25 in einer Spiele anbietenden Spielhalle beschrieben. Das in der Spielhalle zum Eingeben der Gesten eines Spielers verwendete Bewegungs-/Tätigkeitserkennungsgerät 192 kann anschaulicherweise durch das oben beschriebene Erkennungsgerät aus 1 oder 22 implementiert werden.
  • In einem von einem Spielapparat angebotenen Spiel führt ein Spieler (Beobachtungsobjekt) Gesten aus, die vom Erkennungsgerät 192 erkannt werden. Das erkannte Ergebnis, das die Gesten darstellt, bildet Anweisungen, die in den Spielapparat (Gerät auf der überwachenden Seite) eingegeben werden und dem Spieler das Genießen des Spiels ermöglichen. Wenn der Spieler anschaulicherweise eine vorgegebene Geste, die einen bestimmten Trick in einem "virtuellen" Kampf repräsentiert, führt eine im Spielapparat angezeigte Figur den bezeichneten Trick gegen ihren Gegner aus.
  • Ein Gebührenbegleichungsschema wird vom Ausführungsbeispiel wie folgt implementiert. Die Ausstattung auf der Seite des Spielers beinhaltet die Gebührenstandspeichereinheit 195 und die Gebührenstandberechnungseinheit 196. Wenn der Spieler das Spiel zu spielen beginnt, detektiert das Erkennungsgerät 192 die Startbewegung des Spielers und übermittelt das detektierte Ergebnis an die Empfangseinheit 193 im Spielapparat. Im Spielapparat versorgt die Steuerungseinheit 197 für die Verarbeitungsfunktion für Prepaid-Gebühren die Ausstattung des Spielers mit einer Gebührenstandkürzungsaufforderung, einer Gebührenstandverifikationsaufforderung oder anderen geeigneten Anweisungen, die vom Spieltyp abhängen, der von den von der Empfangseinheit 193 empfangenen Daten repräsentiert wird. In der Ausstattung des Spielers kürzt die Gebührenstandberechnungseinheit 196 den Gebührenstand in der Gebührenstandspeichereinheit 195 oder führt andere geeignete Operationen in Obereinstimmung mit den empfangenen Anweisungen aus.
  • Auch wenn sie nicht gezeigt sind, enthält die Ausstattung auf der Seite des Spielers eine Warneinrichtung, die dem Spieler eine Warnung gibt, wenn der gespeicherte Stand in der Speichereinheit 195 unter ein vorgegebenes Niveau fällt. Vor dem Spielen des Spiels wird jeder Spieler aufgefordert, eine vorgegebene Gebühr an den Spielapparat zu zahlen. Das Zahlen der Gebühr setzt den Stand auf einen Anfangswert in der Speichereinheit 195 vor dem Starten des Spiels.
  • Das Ausführungsbeispiel aus 25 integriert wirksam eine Gesteneingabefunktion zum Spielen von Spielen und die mit dem Spielen assoziierte Verarbeitungsfunktion für Prepaid-Gebühren. So ist es für keinen Spieler erforderlich, viele ungewohnte Geräte in der Spielhalle zu tragen, sondern stattdessen die Spiele dort auf eine unbehinderte Weise zu genießen.
  • Ein weiteres Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 26 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem mit einem Bewegungs-/Tätigkeitserkennungsgerät gemäß der Erfindung, das mit einer Kreditverarbeitungsfunktion ergänzt ist. Da das Erkennungssystem aus 26 eine Variation des Ausführungsbeispiels aus 25 ist, werden gleiche Teile in beiden Ausführungsbeispielen durch gleiche Bezugszeichen bezeichnet, und ihre detaillierten Beschreibungen werden hier weggelassen, wo sie redundant sind.
  • Das Erkennungssystem aus 26 umfasst ein Bewegungs-/Tätigkeitserkennungsgerät 192 und eine Gebührenzahlungsaufforderungseinheit 198 als Ausstattung auf der überwachten Seite und enthält eine Empfangseinheit 193 für erkannte Ergebnisse und eine Zahlungsaufforderungsempfangseinheit 199 als Ausstattung auf der überwachenden Seite. Zum Zweck der Anschaulichkeit wird die in Verbindung mit dem Ausführungsbeispiel aus 25 dargestellte Spielhalle wieder als eine Anwendung des Ausführungsbeispiels aus 26 herangezogen.
  • Bei diesem Ausführungsbeispiel beinhaltet die am Spieler befestigte Ausrüstung eine Kreditkartenverarbeitungsfunktion. Wenn der Spieler ein Spiel spielt, erkennt das Erkennungsgerät 192 die Art des Spiels und lässt die Gebührenzahlungsaufforderungseinheit 198 eine das erkannte Ergebnis wiedergeben de Gebührenzahlungsaufforderung ausgeben. Die Zahlungsaufforderung wird von der Empfangseinheit 199 auf der überwachenden Seite empfangen. Nach Erhalt der Aufforderung lässt die Empfangseinheit 199 eine Kreditverarbeitungseinheit 200 der betreffenden Kreditgesellschaft die zu belastende Gebühr zusammen mit der Kreditkartennummer des Spielers vorlegen.
  • Das Ausführungsbeispiel aus 26 integriert so die Gesteneingabefunktion zum Spielen von Spielen und die Kreditverarbeitungsfunktion wirksam. Daher ist es für keinen Spieler erforderlich, viele ungewohnte Geräte in der Spielhalle zu tragen, sondern stattdessen die Spiele auf eine unbehinderte Weise zu genießen.
  • Ein weiteres Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 27 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem mit einem Bewegungs-/Tätigkeitserkennungsgerät, das mit einer Einzahlungsverarbeitungsfunktion ergänzt ist, Solche Teile des Ausführungsbeispiels mit strukturell identischen Gegenstücken im Ausführungsbeispiel aus 25 werden durch gleiche Bezugszeichen bezeichnet, und ihre detaillierten Beschreibungen werden hier weggelassen, wo sie redundant sind.
  • Das Erkennungssystem aus 27 umfasst ein Bewegungs-/Tätigkeitserkennungsgerät 192 und eine Einzahlungsrückerstattungsaufforderungseinheit 202 als Ausstattung auf der überwachten Seite und enthält eine Empfangseinheit 193 für erkannte Ergebnisse und eine Bezahlungseinheit 203 für zurückerstattete Einzahlungen als Ausstattung auf der überwachenden Seite. Wiederum zum Zwecke der Anschauung wird die in Verbindung mit dem Ausführungsbeispiel aus 25 dargestellte Spielhalle als eine Anwendung des Ausführungsbeispiels aus 27 herangezogen.
  • Als Beispiel sei angenommen, dass die Spieler Gesteneingabegeräte (d.h. Erkennungsgeräte 192) mieten, Spiele spielen und die Geräte nach dem Spielen zurückgeben. In solchen Fällen, in denen ein Teil der Spielausstattung an Kunden vermietet wird, wird der Ausstattungsrückgabeanteil angehoben, wenn Strafen auf fehlende vermietete Geräte erhoben werden. Eine typische Strategie, um die Rückgabe der ausgeliehenen Ausstattung zu sichern, ist ein Einzahlungsschema. Das die Erfindung in 27 ausführende System unterstützt ein Einzahlungsschema, bei dem jeder Spieler, wenn er das Gesteneingabegerät 192 ausleiht, eine vorgegebene Geldsumme beim Geschäft einzahlt und die Einzahlung bei Rückgabe des gemieteten Gesteneingabegeräts 192 zurückerstattet bekommt.
  • Bei diesem System mietet der Spieler das Gesteneingabegerät 192 und hinterlässt die vorgegebene Einzahlung bei der überwachenden Seite. Wenn das Gesteneingabegerät 192 zurückgegeben wird, sendet die Einzahlungsrückerstattungsaufforderungseinheit 202, die vom Spieler zusammen mit dem Gesteneingabegerät 192 getragen wird, eine Einzahlungsrückerstattungsaufforderung an die Bezahlungseinheit 203 für rückerstattete Einzahlungen auf der überwachenden Seite. Nach Erhalt der Aufforderung gibt die Bezahlungseinheit 203 für rückerstattete Einzahlungen die Einzahlung an den Spieler zurück.
  • Wie beschrieben bietet das Ausführungsbeispiel aus 27 den Vorteil, dass die Rückgaberate gemieteter Bewegungs-/Tätigkeitserkennungsgeräte erhöht wird.
  • Das die Erfindung in 27 ausführende Erkennungssystem kann, ohne Beschränkung darauf, auf zwei Arten von Ausstattung angewendet werden: eine automatische Vermietungsvorrichtung, die mehrere Gesteneingabegeräte beherbergt und die eine von diesen jedesmal vermietet, wenn sie eine vorgegebene Geldsumme als Einzahlung erhält; und eine automatische Geräterückgabevorrichtung, die beim Empfang eines vermieteten Gesteneingabegeräts die gleiche Geldsumme wie die vorgegebene Einzahlung auszahlt.
  • Ein anderes Ausführungsbeispiel der Erfindung wird unten unter Bezugnahme auf 28 beschrieben. Dieses Ausführungsbeispiel ist ein Erkennungssystem mit einem Bewegungs-/Tätigkeitserkennungsgerät, das durch eine Eintritts-/Austrittsverifikationsfunktion zum Prüfen jedes Eintritts in einen ausgezeichneten Bereich durch ein Objekt oder jedes Austritts daraus ergänzt ist. Solche Teile des Ausführungsbeispiels mit strukturell identischen Gegenstücken im Ausführungsbeispiel aus 25 sind durch gleiche Bezugszeichen bezeichnet, und ihre detaillierten Beschreibungen werden hier weggelassen, wo sie redundant sind.
  • Das die Erfindung in 28 ausführende Erkennungssystem umfasst ein Bewegungs-/Tätigkeitserkennungsgerät 192 und eine Antworteinheit 205 zum Antworten an eine Eintritts-/Austrittsverifikationseinheit als Ausstattung auf der überwachten Seite und enthält eine Empfangseinheit 193 für erkannte Ergebnisse, eine Eintritts-/Austrittsverifikationseinheit 206 und eine Ansageeinheit 207 als Ausstattung auf der überwachenden Seite. Wiederum zum Zwecke der Anschauung wird die in Verbindung mit dem Ausführungsbeispiel aus 25 dargestellte Spielhalle hier als eine Anwendung des Ausführungsbeispiels in 28 herangezogen.
  • Es sei angenommen, dass Spieler Gesteneingabegeräte (Teil der Ausstattung auf der überwachten Seite) mieten, Spiele spielen und die Geräte nach den Spielen zurückgeben. In den Fällen, in denen die Erkennungsgeräte 192 ausgeliehen und dann zu rückgegeben werden, wird die Rückgaberate der ausgeliehenen Ausstattung erhöht, wenn den Spielern zu geeigneten Gelegenheiten eine Ansage gemacht wird, die sie dazu drängt, die Ausstattung zurückzugeben. Wenn zum Beispiel ein. Spieler aus dem ausgezeichneten Spielbereich heraustritt, um irgendwo anders hinzugehen, wird ihm eine Warnung gegeben, wenn er oder sie noch immer das gemietete Gesteneingabegerät, das detektiert wurde, trägt. Solch ein Schema wird durch das Ausführungsbeispiel aus 28 automatisch implementiert.
  • Das Gesteneingabegerät beinhaltet das Gestenerkennungsgerät 192 und die Antworteinheit 205 zum Antworten auf eine Eintritts-/Austrittsverifikationseinheit. Bisweilen sendet die Eintritts-/Austrittsverifikationseinheit 206, die auf der überwachenden Seite angeordnet ist, Funksignale aus, die einen sehr beschränkten Bereich abdecken.
  • Wenn ein Spieler den Spielbereich zu verlassen versucht, während er noch immer das Gesteneingabegerät trägt, empfängt die Antworteinheit 205 ein Signal von der Eintritts-/Austrittsverifikationseinheit 206, die auf der Begrenzung des Bereichs angeordnet ist. Die Antworteinheit 205 gibt ein Antwortsignal an die Verifikationseinheit 206 zurück. Nach Erhalt des Antwortsignals überprüft die Verifikationseinheit 206, ob der Spieler dabei ist, den Spielbereich zu verlassen, während er noch immer das ausgeliehene Gesteneingabegerät trägt. Das Überprüfungsergebnis wird an die Ansageeinheit 207 weitergeleitet, die eine Warnung an den fraglichen Spieler ausgibt.
  • Wie beschrieben bietet das Ausführungsbeispiel aus 28 den Vorteil, dass die Rückgaberate vermieteter Bewegungs-/Tätigkeitserkennungsgeräte in einem abgegrenzten Bereich erhöht wird.
  • Es folgt eine Beschreibung eines Beispiels der Erkennung von Tätigkeiten eines Beobachtungsobjekts, in dem zyklische Bewegung als ein Beispiel dient.
  • 47 enthält erklärende Diagramme, die ein Verfahren zur Extraktion eines Gangzyklus zeigen, der als Grundlage der Erkennung einer zyklischen Bewegung dient. Ein Gangzyklus ist eine Zeitdauer zwischen zwei aufeinanderfolgenden Fersenkontakten des gleichen Beins mit der Erdoberfläche. Ein Fersenkontakt ist definiert als ein Moment, in dem die Ferse eines Fußes auf die Erde trifft. Wenn das rechte und das linke Bein mit derselben Geschwindigkeit bewegt werden, ist ein Gangzyklus eine Zeit, die man braucht, um sich zwei Schritte nach vorne zu bewegen. 47 enthält Diagramme, die jeweils ein Spektrum eines Beschleunigungssignals in der vertikalen Richtung der Bewegung eines menschlichen Körpers zeigen, wobei das Signal als ein Ergebnis einer Beobachtung erhalten wurde, die für eine Vielzahl von Gehgeschwindigkeiten und Gehbedingungen, von einem langsam gehenden Zustand zu einem rennenden Zustand, ausgeführt wurde. Genauer sind 47A und 47B Diagramme, die jeweils Frequenzspektren für einen normal gehenden Zustand und einen langsam gehenden Zustand zeigen. Im Fall der Zustände des langsamen Gehens und des Rennens wird ein Spektrum wie das in 47A gezeigte erhalten, das eine starke Komponente 2001 bei einer dem Gangzyklus entsprechenden Frequenz zeigt. Beobachtungsergebnisse weisen ebenfalls daraufhin, dass das Spektrum im Falle eines extrem langsam gehenden Zustands mit einem Gangzyklus kleiner oder gleich ungefähr 1,5 Sekunden, d.h. im Falle eines Gehens mit hinterherziehenden Füßen, eine andere starke Komponente aufweisen kann als die dominante Komponente bei einer dem Gangzyklus entsprechenden Frequenz, die von hier an ebenfalls als Gangzyklusfrequenz bezeichnet wird. Es sei bemerkt, dass der durchschnittliche Gangzyklus gesunder Leute 1,03 Sekunden beträgt, während der durchschnittliche Gangzyklus von älteren Leuten 1,43 Sekunden beträgt. Darüber hinaus zeigt das Spektrum in einem extremen Fall andere dominante Komponenten 2006, die sogar noch stärker als die dominante Komponenten 2002 bei einer dem Gangzyklus entsprechenden Frequenz, wie der in 47B gezeigten. Es soll angemerkt werden, dass die in 47A und 47B gezeigten Spektren jeweils durch Normalisieren der Intensitäten (oder der Potenzen) aller Komponenten außer der Direct-Current-Komponente mittels der maximalen Spektrumsintensität (Potenz). Glücklicherweise weisen Ergebnisse der Beobachtung auch darauf hin, dass es in den beobachteten Geh- und Rennbewegungen mit einem Gangzyklus im Bereich von 0,35 bis 2,0 Sekunden, die jeweils den Zuständen des Rennens und des langsamen Gehens entsprechen, kein Spektrum gibt, das eine starke Komponente bei einer niedrigeren Frequenz als der Gangzyklusfrequenz zeigt, wodurch die folgende Verarbeitungsprozedur möglich wird. Es folgt eine Beschreibung der Verarbeitungsprozedur zum Finden der Gangzyklusfrequenz und der Intensität (oder der Potenz) einer Spektralkomponente bei der Gangzyklusfrequenz in einem eine Bewegung repräsentierenden Spektrum unter Bezugnahme auf 47C.
    • (1) Der Durchschnittswert T (durch Bezugszeichen 2003 bezeichnet) der Potenzen aller Spektralkomponenten außer der Direct-Current-Komponente (d.h. die Oberwelle 0-ter Ordnung) wird mittels der folgenden Gleichung berechnet:
      Figure 00730001
      wobei die Bezeichnung m die höchste Ordnung der Oberwellen und die Notation P(n) die Potenz der Oberwelle n-ter Ordnung des Spektrums bezeichnen.
    • (2) Um lediglich Komponenten zu extrahieren, die jeweils eine größere Potenz als den Durchschnittswert T haben, werden Frequenzbereiche (ai, bi) identifiziert, die eine durch die folgenden Beziehungen repräsentierte Bedingung erfüllen: n ≠ 0 und P(n) > T.
  • Die obige Beziehung zeigt an, dass die Potenzen P(n) aller Spektralkomponenten außer der Direct-Current-Komponente in jedem der Frequenzbereiche (ai, bi) größer als der Durchschnittswert T 2003 sind.
  • Der Durchschnittswert T der Spektralpotenz wird wie oben beschrieben als ein Schwellenwert benutzt, da die Potenz beim Gangzyklus und andere Potenzen jeweils in Abhängigkeit vom Typ der Bewegung variieren, so dass es passieren kann, dass die Potenz bei der Gangzyklusfrequenz nicht extrahiert werden kann, wenn der Schwellenwert auf einen festen Wert gesetzt ist.
  • Es sei angemerkt, dass während der Durchschnittswert T als ein Schwellenwert im vorliegenden Ausführungsbeispiel genommen wird, die Beschreibung nicht beschränkend auszulegen ist. Zum Beispiel ist anstelle der Verwendung des Durchschnittswerts T als ein Schwellenwert eine Verarbeitung unter Verwendung eines Produkts des Durchschnittswerts T und eines vorgegebenen Koeffizienten als ein Schwellenwert ebenfalls denkbar.
    • (3) Ein Bereich (a0, b0) niedrigster Frequenz, d.h. ein Frequenzbereich (wobei i = 0) zu niedrigsten Frequenzen unter den im obigen Schritt (2) gefundenen Frequenzbereichen (ai, bi), wird identifiziert und eine maximale Potenz P(j) und die Frequenz j einer Spektralkomponente mit der maximalen Potenz P(j) im Bereich (a0, b0) niedrigster Frequenz werden gefunden. Es sei angemerkt, dass die maximale Potenz P(j) und die Frequenz j in 47C jeweils durch Bezugszeichen 2005 und 2004 bezeichnet sind. Die maximale Potenz P(j) wird durch die folgende Gleichung ausgedrückt: S = P(j) = max[P(a0), P(b0)],wobei die Notation S die Potenz einer Spektralkomponente bei einer Gangzyklusfrequenz j ist. Das bedeutet, dass die Frequenz j und die Potenz P(j), die mit der oben beschriebenen Prozedur gefunden wurden, die Gangzyklusfrequenz und die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz sind. Die Frequenz j wird als die Anzahl von Schritten pro Sekunde definiert. Wie oben beschrieben setzt sich der Gangzyklus Gc aus zwei Schritten zusammen. Daher kann die Länge des Gangzyklus Gc mittels der folgenden Gleichung gefunden werden: Gc = 2/j.
  • Wie oben beschrieben sind 47A und 47B Spektren, aus denen die Gangzyklusfrequenzen 2001 und 2002 jeweils extrahiert werden. Vergleiche von Messergebnissen mittels einer Stoppuhr mit Ergebnissen, die aus der oben beschriebenen Prozedur erhalten wurden, zeigen für Gangzyklen im Bereich von 0,35 bis 2,0 Sekunden eine näherungsweise Übereinstimmung der beiden.
  • Der Unterschied zwischen den Zuständen des Gehens und Rennens besteht darin, dass es im Letzteren Zeitabschnitte gibt, in denen beide Füße gleichzeitig vom Erdboden abgehoben sind. Zum Beginn eines Abschnitts des freien Falls beider Füße von einem Zustand, in dem beide von der Erdoberfläche getrennt sind, zur Erde hin gibt ein am menschlichen Körper befestigter Beschleunigungssensor einen gemessenen Beschleunigungswert von 0G an. Das bedeutet, dass das Messergebnis wahrscheinlich einen Zustand von fast gar keiner Gravitations kraft anzeigt. Indem daher beurteilt wird, ob ein Zustand keiner Gravitationskraft auftritt, erscheint die Erkennung des Unterschieds zwischen den Zuständen des Gehens und Rennens möglich. Als Beobachtungsergebnisse der Zustände des normalen Gehens und normalen Rennens beobachtete Wellenformen sind jeweils in 48A und 48B dargestellt. Im Falle des in 48A gezeigten Gehens zeigt der Graph Variationen in der Beschleunigung mit einer Amplitude von ungefähr 0,3 G um eine Gravitationskraftbeschleunigung von 1,0 G herum. Es ist offensichtlich aus der Figur, dass der Minimalwert der vom menschlichen Körper erfahrenen Beschleunigung ungefähr 0,7 G ist, was darauf hinweist, dass der Zustand keiner Gravitationskraft nicht auftritt. Im Falle des in 48B gezeigten Rennens zeigt der Graph auf der anderen Seite Variationen in der Beschleunigung mit einer auf ungefähr 1,0 G gesteigerten Amplitude sowie die Existenz von Zuständen keiner Gravitationskraft, d.h. Zuständen von einer Gravitationskraft von 0,0 G. Um zu einer Beurteilung davon zu kommen, ob ein Zustand keiner Gravitationskraft existiert oder nicht, kann die mittels der oben beschriebenen Prozedur gefundene Potenz einer Spektralkomponente bei der Gangzyklusfrequenz verwendet werden, um die Amplitude der Variationen in der Beschleunigung mit einem kritischen Wert, der wie in 48B gezeigt 1,0 G ist, zu vergleichen. Dies liegt daran, dass die Variationen in der Beschleunigungssignalamplitude im Zustand des Rennens durch eine sinusförmige Kurve mit einer der Gangzyklusfrequenz gleichen Frequenz repräsentiert werden können. Die Potenz der sinusartigen Spektralkomponente bei der Gangzyklusfrequenz entspricht daher gerade dem Wert der Amplitude des Beschleunigungssignals mit einer Frequenz, die mit der Gangzyklusfrequenz übereinstimmt. In der Praxis entspricht die Potenz der Spektralkomponente bei der Gangzyklusfrequenz jedoch nicht perfekt dem Wert der Amplitude des Beschleuni gungssignals aufgrund einer Abtastbeziehung zwischen der Breite einer Fensterfunktion zum Ausführen der FFT-Verarbeitung und des Gangzyklus, Diskrepanzeffekten zwischen den Variationen in der Beschleunigung und der sinusartigen Kurve und Effekten der Trägheitskraft eines infinitesimalen Gewichts im Beschleunigungssensor. Aus diesem Grund wird anstelle der in 48B gezeigten Amplitude 1,0 G eine Gangzyklusamplitude von 0,8 G als ein Kriterium dafür verwendet, ob die Bewegung Gehen oder Rennen ist. In Anbetracht der Tatsache, dass die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz als ein Wert zum Vergleichen mit einem kritischen Wert in einer Beurteilung von Übergängen aus dem Ruhezustand zum Gehen und dann zum Rennen verwendet werden kann, wird der Bewegungszustand durch die Verwendung solch einer Spektralkomponentenpotenz erkannt. Natürlich kann eine Beurteilung dessen, ob ein Zustand keiner Gravitationskraft auftritt oder nicht, dadurch erfolgen, dass ein minimaler Beschleunigungswert einer gemessenen Beschleunigungswellenform gefunden wird, wie offensichtlich aus 48B folgt. In diesem Fall ist es jedoch notwendig, Probleme inkorrekter Erkennung aufgrund von Rauschen in Betracht zu ziehen.
  • Beobachtungsergebnisse von Übergängen zu zügigeren Bewegungen, das heißt von einem Ruhezustand in einen gehenden Zustand und dann in einen rennenden Zustand, geben an, dass die erkannte Potenz einer Spektralkomponente bei der Gangzyklusfrequenz ansteigt, was solche Bewegungsübergänge begleitet. Aus diesem Grund wurde anstatt der Erkennung des Zustands als entweder gehend oder rennend wie ein Binärwert ein Versuch unternommen, den Zustand des Gehens oder Rennens durch Aufteilung in feine Zustände zu erkennen, wobei die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz als ein Indikator genommen wurde. 49 ist ein Diagramm, das Beziehungen zwischen der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz und dem Grad der Erkennungswahrscheinlichkeit jedes Erkennungsgegenstands, einen Indikator dafür, wie wahrscheinlich die Erkennung des Erkennungsgegenstands ist, zeigt. Die vertikale und die horizontale Achse der Figur stellen jeweils den Grad der Erkennungswahrscheinlichkeit und die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz dar, wobei die letztere in Einheiten der Gravitationskraft (G) ausgedrückt ist, da die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz der Amplitude eines das Spektrum repräsentierenden Beschleunigungssignals entspricht. Mit einem Erkennungsgegenstand ist der Zustand einer Bewegung wie etwa die Ruhe, das langsame Gehen, das Gehen, das zügige Gehen oder das Rennen gemeint. Wie in der Figur gezeigt ist der Wahrscheinlichkeitsgrad Wn jedes Erkennungsgegenstands eine Funktion von S, der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz. Der Wert des Grads der Erkennungswahrscheinlichkeit kann ein beliebiger Wert im Bereich von 0 bis 1 für einen möglichen Wert Su der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz wie im Folgenden beschrieben sein, wobei die Grenzwerte 0 und 1 jeweils die eine unwahrscheinlichste Möglichkeit repräsentierende minimale Wahrscheinlichkeit und die eine wahrscheinlichste Möglichkeit repräsentierende maximale Wahrscheinlichkeit angeben: Wn:Su → {0, 1}.
  • Danach wird die Funktion als Leistungsfunktion verwendet. Es gibt zwei Arten von verwendeten Leistungsfunktionen. Eine Leistungsfunktion der ersten Art ist eine Gehleistungsfunktion oder eine Rennleistungsfunktion, die jeweils zur Auswertung des Bewegungszustands als gehend oder rennend verwendet werden. Die Gehleistungsfunktion und die Rennleistungsfunkti on werden jeweils in 49 durch eine gepunktete Linie 2101 und eine durchgezogene Linie 2104 gezeigt. Wie in der Fig. gezeigt wird der Zustand eine Bewegung gemäß der ersten Art von Leistungsfunktion, falls die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz größer als ein kritischer Wert ist, als gehend im Falle einer Gehleistungsfunktion oder als rennend im Falle einer Rennleistungsfunktion mit einem Grad der Erkennungswahrscheinlichkeit von 1 eingestuft. Die Leistungsfunktion Wstep der ersten Art ist wie folgt gegeben:
    Figure 00790001
  • Eine Leistungsfunktion der zweiten Art ist eine Leistungsfunktion des lockeren Gehens oder eine Leistungsfunktion des zügigen Gehens, die jeweils zur Auswertung des Zustands einer Bewegung als locker gehend oder zügig gehend verwendet werden. Die Leistungsfunktion des lockeren Gehens und die Leistungsfunktion des zügigen Gehens werden jeweils durch eine gestrichelte Linie 2102 und eine punktgestrichelte Linie 2103 in 49 gezeigt. Wie in der Figur gezeigt erreicht der Grad der Erkennungswahrscheinlichkeit gemäß der zweiten Art von Leistungsfunktion bei einem gewissen Wert der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz einen Spitzenwert von 1, das heißt, der Bewegungszustand wird als locker gehend im Falle einer Leistungsfunktion des lockeren Gehens oder als zügig gehend im Falle einer Leistungsfunktion des zügigen Gehens mit einem Grad der Erkennungswahrscheinlichkeit von 1 eingestuft. Die Leistungsfunktion Wpeak der zweiten Art ist wie folgt beschrieben:
    Figure 00790002
    Figure 00800001
  • Die Werte der als kritische Werte verwendeten Parameter a, b und c werden durch Beobachten der Bedingungen einiger normal gesunder Leute unter Beobachtung bestimmt. Die horizontale und die vertikale Achse der in 48 gezeigten Kurven repräsentieren jeweils die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz und den Grad der Erkennungswahrscheinlichkeit. Zu erkennende Bewegungszustände sind Ruhe, Gehen und Rennen. Darüber hinaus repräsentiert der Zustand einer als lockeres Gehen bezeichneten Bewegung den Grad eines Übergangsvorgangs von einem Ruhezustand ins normale Gehen, während der Zustand einer als zügiges Gehen bezeichneten Bewegung den Grad eines Übergangsvorgangs vom normalen Gehen ins Rennen repräsentiert, so dass es insgesamt fünf Bewegungszustände gibt.
  • Der Ruhezustand wird erkannt, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz einen Wert einnimmt, der kleiner oder gleich 0,006 G ist. Dies liegt daran, dass die maximale Potenz von in einem Ruhezustand gemessenen Beschleunigungsspektralkomponenten ungefähr 0,004 G beträgt. Wenn der Wert 0,004 G als Schwellenwert benutzt würde, würde ein Ruhezustand wahrscheinlich inkorrekt als Gehend erkannt werden, weil die Potenz von Rauschen, das der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz im Ruhezustand zugefügt ist, zu einem Wert größer als 0,004 G führen würde. Daher gewährleistet der Schwellenwert 0,006 G, dass ein Ruhezustand durch die Verarbeitung unter keinen Umständen inkorrekt als gehend erkannt wird.
  • Der Zustand des Gehens wird erkannt, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz den Schwellen wert 0,006 G des oben beschriebenen Ruhezustands übersteigt, wobei der Grad der Erkennungswahrscheinlichkeit linear mit der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz ansteigt. Der Grad der Erkennungswahrscheinlichkeit erreicht einen Maximalwert von 1, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz auf 0,03 G ansteigt wobei diese danach wie durch den Graph 2101 gezeigt flach bleibt. Hier wird das Gehen, wie durch den Graph 2101 angegeben, als ein Zustand aller Bewegungen einschließlich sogar des Rennens definiert. Wenn demgemäß ein anderer Zustand einer zyklischen Bewegung als ein Ruhezustand (das heißt Gehen) erkannt wird, ist der Grad der Erkennungswahrscheinlichkeit des Gehens größer als 0. Es sei angemerkt, dass ein Wert leicht größer als 0 dem sehr langsamen Gehen mit einem Gangzyklus von 2,0 Sekunden entspricht. Wenn die Gehbewegung weiter in einen Zustand eintritt, in dem sich der menschliche Körper bis zum Äußersten nach oben und unten bewegt, steigt die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz auf 0,03 G an. Fuzzy-Zustandsverarbeitung wird daher für einen mehrdeutigen Zustand zwischen einem Ruhezustand mit der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz bei einem Wert gleich 0,006 G und einem gehenden Zustand mit dem Grad der Erkennungswahrscheinlichkeit bei einem Wert gleich 1,0 und der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz bei einem auf 0,03 G angestiegenen Wert ausgeführt. Dieser Zustand des Gehens im Bereich von 0,006 G bis 0,03 G ist ein Fuzzy-Zustand oder ein mehrdeutiger Zustand. Tatsächlich stellen alle in 49 gezeigten geneigten Liniensegmente einen Fuzzy-Zustand dar. Die Gehleistungsfunktion Wwalk für solch eine Fuzzy-Zustandsverarbeitung wird durch das folgende Symbol gegeben: Wwalk(S:0,006; 0,03).
  • Wie durch den Graph 2102 angezeigt steigt der Grad der Erkennungswahrscheinlichkeit des lockeren Gehens linear von 0 beim Schwellenwert des Ruhezustands an und erreicht einen Spitzenwert von 1,0, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz gleich 0,1 G wird. Danach sinkt der Grad der Erkennungswahrscheinlichkeit linear vom Spitzenwert 1,0 ab und erreicht den niedrigsten Wert 0, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz auf 0,3 G ansteigt. Dieser Graph 2102 ist so gezeichnet, dass er kritische Werte von 0,1 G und 0,3 G zeigt, da die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz, wenn das Beobachtungsobjekt langsam geht, sich als 0,1 G ergibt und sich, wenn das Objekt normal geht, die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz als 0,3 G ergibt. Die Leistungsfunktion des lockeren Gehens Wleisurely für solch eine Fuzzy-Zustandsverarbeitung wird durch das folgende Symbol bezeichnet: Wleisurely(S: 0,006; 0,1; 0,3).
  • Wie durch den Graph 2103 angezeigt steigt der Grad der Erkennungswahrscheinlichkeit des zügigen Gehens linear von 0 beim normalen Gehen an, wobei die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz einen Wert gleich 0,3 G hat, und erreicht einen Spitzenwert von 1,0, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz gleich 0,5 G wird. Danach sinkt der Grad der Erkennungswahrscheinlichkeit linear vom Spitzenwert 1,0 ab und erreicht den niedrigsten Wert 0, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz auf 0,8 G ansteigt. Dieser Graph 2103 ist so gezeichnet, dass er kritische Werte von 0,5 G und 0,8 G ähnlich dem das langsame Gehen repräsentierenden Graph 2102 zeigt, da sich die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz, wenn das Beobachtungsobjekt schnell geht, als 0,5 G herausgestellt hat und sich, wenn das Objekt in den rennenden Zustand eintritt, die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz als 0,8 G herausgestellt hat. Die Leistungsfunktion des zügigen Gehens Wbrisk für eine solche Fuzzy-Zustandsverarbeitung wird durch das folgende Symbol bezeichnet: Wbrisk(S:0,3; 0,5; 0,8).
  • Wie durch den Graph 2104 angezeigt wird der Zustand des Rennens erkannt, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz den Wert 0,5 G übersteigt, wobei der Grad der Erkennungswahrscheinlichkeit linear mit der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz ansteigt. Der Grad der Erkennungswahrscheinlichkeit erreicht einen Maximalwert von 1, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz auf 0,8 G ansteigt und bleibt danach flach. Der Graph 2104 ist so gezeichnet, dass er einen kritischen Wert von 0,8 G zeigt, da ein Zustand des sehr langsamen Rennens beobachtet worden ist, bei dem ab und zu beide Füße von der Erdoberfläche getrennt waren, wenn die Potenz einer Spektralkomponente bei der Gangzyklusfrequenz den Wert 0,8 G erreicht. Wie zuvor beschrieben ist der Wert 0,8 G ein kritischer Wert, der bei der Beurteilung verwendet wird, ob ein Zustand keiner Gravitationskraft existiert oder nicht. Die Leistungsfunktion des Rennens Wrun für solch eine Fuzzy-Zustandsverarbeitung wird durch das folgende Symbol bezeichnet: Wrun(S:0,5; 0,8).
  • Der Bewegungszustand wird durch Auswertung des Grads der Erkennungswahrscheinlichkeit der Bewegung erkannt, indem der Wert der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz im Ausdruck der Leistungsfunktion für die Bewegung eingesetzt wird. Wenn der Wert der Potenz einer Spektralkomponente bei der Gangzyklusfrequenz zum Beispiel bei 0,6 G beobachtet wird, ergibt sich der Grad der Erkennungswahrscheinlichkeit für das Gehen aus dem in 49 gezeigten Graph 2101 als 1,0, ein Wert, der einen Zustand des Gehens einschließlich des Rennens angibt. Genauer gesagt befindet sich das Beobachtungsobjekt in einem Bewegungszustand mit einem Wahrscheinlichkeitsgrad fürs zügige Gehen von 0,67 und einem Wahrscheinlichkeitsgrad für das Rennen von 0,33 jeweils den Graphen 2103 und 2104 entsprechend und befindet sich auf keinen Fall in einem Zustand des lockeren Gehens.
  • Darüber hinaus kann der Gradient eines menschlichen Körpers, das heißt, der Zustand der aufrechten/sich anlehnenden Haltung des menschlichen Körpers, aus einem Durchschnittswert von von einem Beschleunigungssensor beobachteten Beschleunigungsänderungen erkannt werden. Der Beschleunigungssensor wird zum Messen von Beschleunigungsänderungen in einer Achsenrichtung bezüglich deren Struktur verwendet. Wenn insbesondere ein Gradientenwinkel, der durch die Empfindlichkeitsrichtung des Beschleunigungssensors und die Richtung der Gravitationskraft gebildet wird, auf 0 Grad gesetzt wird, das heißt auf einen Gradientenwinkel, bei dem die Empfindlichkeitsrichtung des Beschleunigungssensors mit der Richtung der Gravitationskraft übereinstimmt, wird eine Beschleunigung von 1,0 G, ein Durchschnittswert gleich der Gravitationskraftbeschleunigung, beobachtet. Wenn der Gradientenwinkel jedoch ansteigt, sinkt die beobachtete Durchschnittsbeschleunigung im Ganzen graduell aber invers proportional zum Gradientenwinkel ab. Wenn die Empfindlichkeitsrichtung des Beschleunigungssensors schließlich rechtwinklig zur Gravitationskraft richtung gerichtet wird, das heißt, wenn der von der Empfindlichkeitsrichtung des Beschleunigungssensors und der Gravitationskraftrichtung gebildete Gradientenwinkel auf 90 Grad gesetzt wird, wird die Gravitationskraftbeschleunigung nicht mehr beobachtet. Daher kann in einem Ruhezustand der Gradient des Beschleunigungssensors (das heißt, der Gradient des menschlichen Körpers) aus dem beobachteten Durchschnittswert der Beschleunigung gemessen werden. Selbst wenn der menschliche Körper in Bewegung gesetzt wird, kann der Zeitachsendurchschnitt beobachteter Beschleunigungswerte unter der Annahme, dass der menschliche Körper keine andere externe Kraft als die Gravitationskraft erfährt, als Gravitationskraftbeschleunigung angesehen werden. Indem daher das Verhältnis eines berechneten Durchschnittswerts von beobachteten Beschleunigungsänderungen zur Gravitationskraftbeschleunigung 1,0 G berechnet wird, kann der Gradient des menschlichen Körpers gefunden werden. Der Durchschnittswert beobachteter Beschleunigungsänderungen wird als die Größe einer Direct-Current-Komponente (die Oberwelle 0-ter Ordnung) eines sich aus einer Frequenzanalyse ergebenden Spektrums ausgegeben. Die Größe der Direct-Current-Komponente wird dazu verwendet, den Gradienten des menschlichen Körpers zu finden, der wiederum dazu verwendet wird, zu einer Beurteilung über den Zustand der aufrechten/sich anlehnenden Haltung des menschlichen Körpers zu kommen.
  • Im Falle des oben beschriebenen Beispiels ergibt sich aus dem von der vorliegenden Erfindung vorgesehenen Erkennungsverfahren ein Wahrscheinlichkeitsgrad des zügigen Gehens von 0,67 und ein Wahrscheinlichkeitsgrad des Rennens von 0,33. Durch bloßes Betrachten solcher Zahlen ist es nichtsdestoweniger noch immer schwierig für den Beobachter zu wissen, in welcher Bewegung der Körper des Beobachtungsobjekts sich befindet. Um dieses Problem zu lösen, ist ein Ausführungsbeispiel vorgesehen, das ein Verfahren zum Ausdrücken von Erkennungsergebnissen einer Bewegung nicht durch Zahlen oder Worte sondern durch Animation mittels CG (Computergrafik) implementiert, was vom Betrachter intuitiv mit Leichtigkeit verstanden werden kann.
  • 30 ist ein Diagramm, das die Konfiguration eines Systems zum Anzeigen von Ergebnissen zeigt, die aus der Beobachtung einer Bewegung, einer Tätigkeit und/oder Arbeit eines Beobachtungsobjekts mittels einer Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung erhalten wurden, durch Animation mittels Computergrafik als einem Verfahren zum Ausdrücken von Bewegungen, Tätigkeiten und/oder Arbeit eines Gelenkstrukturkörpers.
  • Wie in dem Konfigurationsdiagramm gezeigt umfasst das Systeme an einem Beobachtungsobjekt 1 befestigte Messinstrumente 2 und 3; eine Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1033 zum Erkennen der Bewegung, der Tätigkeit und/oder der Arbeit des Beobachtungsobjekts auf der Grundlage von durch die Messinstrumente 2 und 3 gemessenen Ergebnissen; eine erste Datenbank 1030, die Daten charakteristischer Größen zur Verwendung bei der Erkennung der Bewegung, der Tätigkeit und/oder der Arbeit enthält; eine Bewegungs-/Tätigkeits-/Arbeitsausdrucksvorrichtung 1035 mit Gelenkstrukturkörpern zum Ausdrücken von Bewegungen, Tätigkeiten und/oder Arbeit eines Gelenkstrukturkörpers, die aus einem Ergebnis einer Erkennung 1034 als ein zwei- oder dreidimensionales Bild abgeleitet worden sind; eine zweite Datenbank 1031, die Daten charakteristischer Größen zur Verwendung beim Ausdrücken der Bewegung, der Tätigkeit und/oder der Ar beit enthält; sowie eine Ausgabeeinheit 1032 zum Anzeigen der zwei- oder dreidimensionalen Bilder.
  • Zuerst werden die Messergebnisse von den am Beobachtungsobjekt 1 befestigten Messinstrumenten 2 und/oder 3 an die Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1033 übertragen. Die Ergebnisse werden dann mit in der ersten Datenbank 1030 gespeicherten charakteristischen Größen verglichen, um das Erkennungsergebnis 1034 auszugeben. Es sei angemerkt, dass eine charakteristische Größe einer Bewegung im Allgemeinen der Potenz (Intensität) einer Spektralkomponente bei der Gangzyklusfrequenz für die Bewegung entspricht, das heißt, der Amplitude des die Bewegung repräsentierenden Beschleunigungssignals entspricht. Bei diesem Beispiel weist das Erkennungsergebnis daraufhin, dass sich das Beobachtungsobjekt 1 in einem Zustand des Gehens befindet. Das Erkennungsergebnis 1034 wird dann an die Bewegungs-/Tätigkeits-/Arbeitsausdrucksvorrichtung 1035 mit Gelenkstrukturkörpern zum Ausdrücken von Bewegungen, Tätigkeiten und/oder Arbeit eines Gelenkstrukturkörpers geliefert. Bei diesem Beispiel ist der Gelenkstrukturkörper das Beobachtungsobjekt.
  • Die Bewegungs-/Tätigkeits-/Arbeitsausdrucksvorrichtung 1035 mit Gelenkstrukturkörpern bezieht charakteristische Größen für das von der Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1033 ausgegebene Beobachtungsergebnis 1034 aus der zweiten Datenbank 1031. Die charakteristischen Größen werden zum Erzeugen von Informationen über die Bewegung des Gelenkstrukturkörpers verwendet, der schließlich an die Ausgabeeinheit 1032 als Animation geliefert wird.
  • Ein Verfahren zum Ausdrücken der Bewegung eines Menschen gemäß den Charakteristiken der Bewegung mittels Computergrafik ist in einem Magazin wissenschaftlicher Arbeiten unter dem Titel "A method of Expressing Walking Behavior of a Human Being Accompanying Feelings by Animation using computer graphics," veröffentlicht von der Academic Society of Electronic, Information and Communication Engineers, D – II, Band J76-D-II, Nr. 8, S. 1822 bis 1831, August 1993, und in US-Patent 5,483,630 offenbart. Diese Dokumente beschreiben ein Verfahren zum Ausdrücken einer Vielzahl von Bewegungen mittels Animation mit Computergrafik, wobei charakteristische Größen, die Charakteristiken aller Arten von Gehverhalten ausdrücken, aus verschiedenen Arten von Gehverhalten von Menschen extrahiert, und dann kann durch Synthetisieren einer Vielzahl extrahierter charakteristischer Größen und durch Steuern der Stärke (das Gewicht) jeder charakteristischen Größe eine Vielzahl von Bewegungen durch Animation mittels Computergrafik ausgedrückt werden. Es sei angemerkt, dass die Stärke (Gewicht) einer charakteristischen Größe im Allgemeinen dem Grad der Erkennungswahrscheinlichkeit der Bewegung entspricht, die durch ein Spektrum repräsentiert wird, deren Komponentenpotenz bei der Gangzyklusfrequenz der charakteristischen Größe entspricht.
  • Die vorliegende Erfindung bietet ein neuartiges Verfahren, das auf dem in den obigen Dokumenten offenbarten Verfahren basiert. Das von der vorliegenden Erfindung gebotene Verfahren wird zum Ausdrücken einer Vielzahl von Bewegungen durch Animation mittel Computergrafik gemäß den Charakteristiken der erkannten Bewegungen verwendet.
  • Genauer verwenden die Erfinder der vorliegenden Erfindung das in den obigen Dokumenten offenbarte Verfahren, wodurch es erlaubt wird, dass eine Vielzahl von zyklischen Bewegungen durch Steuern der charakteristischen Größen der Bewegungen erzeugt werden. Ein Verarbeitungsablauf zum Erzeugen solcher zyklischer Bewegungen wird wie folgt kurz beschrieben.
  • 31 ist ein Skelettdiagramm, das ein Verfahren zum Ausdrücken einer Bewegung eines Menschen durch Verwendung der charakteristischen Größen der Bewegung zeigt. Insbesondere wird die Figur verwendet, um ein Beispiel der Erzeugung der Bewegung des rechten Kniegelenks 1044 als einer Funktion j(t) zu erklären. Es sei jedoch angemerkt, dass Bewegungen anderer Gelenke ebenfalls durch die Verwendung des gleichen Verfahrens erzeugt werden können. Im Ergebnis können auch Bewegungen von Gelenken des gesamten Körpers erzeugt werden.
  • Zuerst wird der Beugungswinkel des Gelenks des rechten Knies, der während einer Vielzahl von Gehbewegungen gebildet wird, gemessen. Dann ergibt sich eine Differenz G(ω) zwischen der Frequenzcharakteristik B(ω) des normalen Gehens und der Frequenzcharakteristik J(ω) einer tatsächlich gemessenen Gehbewegung wie folgt: G(ω) = B(ω) – J(ω)
  • G(ω) in der obigen Gleichung ist eine charakteristische Größe, die zum Ausdrücken der tatsächlich gemessenen Bewegung verwendet wird. Diese charakteristische Größe G(ω) wird in einer in 31 gezeigten Datenbank 1041 für charakteristische Größen gespeichert, die der in 30 gezeigten zweiten Datenbank entspricht. Wie oben beschrieben entspricht eine charakteristische Größe einer Bewegung im Allgemeinen der Potenz (Intensität) einer Spektralkomponente bei der Gangzyklusfrequenz für die Bewegung, das heißt, sie entspricht der Amplitude des die Bewegung repräsentierenden Beschleunigungssignals. Wie in 31 gezeigt gibt es mehrere in der Daten bank 1041 für charakteristische Größen gespeicherte charakteristische Größen G(ω). Jede der charakteristischen Größen hat ein adverbielles Subskript zum Ausdrücken der Charakteristik des Gehens wie etwa "leisurely" ("locker") für eine charakteristische Größe Gleisurely(ω), "brisk" ("zügig") für eine charakteristische Größe Gbrisk(ω) und "run" ("rennen°') für eine charakteristische Größe Grun(ω). Darüber hinaus ist es möglich, adverbielle Subskripte wie etwa "walking" ("gehend") und "depressed" ("deprimiert") jeweils an das Symbol G zum Bilden neuer charakteristischer Größen Gwalk(ω) und Gdepressed(ω), die in 31 nicht gezeigt sind, anzuhängen. Es sei angemerkt, dass all diese neuen charakteristischen Größen durch Verwendung des unten erklärten Verfahrens aufgefunden werden können.
  • Eine Bewegung kann durch Synthetisieren charakteristischer Größen für die zu erzeugende Bewegung, um eine neue charakteristische Größe zu ergeben, erzeugt werden. Die Bewegung j(t) des Gelenks wird dann durch Ausführen einer inversen Transformationsverarbeitung an der neu erschaffenen charakteristischen Größe erzeugt. Offensichtlicherweise ergibt sich aus der folgenden Gleichung, dass durch Überlagern einer Mehrzahl charakteristischer Größen und durch Anpassen der Gewichte (der Stärken) der charakteristischen Größen eine andere als die tatsächlich gemessene Bewegung ebenfalls erzeugt werden kann. j(t) = F–1[J(ω)] = F–1[B(ω)+ΣWn·Gn(ω)]wobei die Bezeichnung F–1 die inverse Fourier-Transformation angibt, die Bezeichnung j(t) den Beugungswinkel des Gelenks als eine Funktion der Zeit ausgedrückt bezeichnet, die Bezeichnung J(ω) den Beugungswinkel des Gelenks als eine Funk tion der Frequenz ausgedrückt bezeichnet, die Bezeichnung B(ω) die charakteristische Größe des normalen Gehens ist, die Bezeichnung Gn(ω) eine ausgewählte charakteristische Größe darstellt und die Bezeichnung Wn das Gewicht der ausgewählten charakteristischen Größe Gn(ω) ist. Wie oben beschrieben entspricht die Stärke (Gewicht) einer charakteristischen Größe im Allgemeinen dem Grad der Erkennungswahrscheinlichkeit der Bewegung, die durch ein Spektrum repräsentiert wird, deren Komponentenpotenz bei der Gangzyklusfrequenz der charakteristischen Größe entspricht.
  • Zum Beispiel überlagere man die charakteristische Größe Gwalk(j) mit dem Subskript "walking", die einen normal gehenden Zustand darstellt, auf der charakteristischen Größe Gbrisk(ω) mit dem Subskript "brisk", die einen zügig gehenden Zustand darstellt, um eine neue charakteristische Größe Gbrisk(ω) mit einem neuen Subskript "brisk-walking" zum Darstellen einer tatsächlich gemessenen Bewegung zu erzeugen. Wir nehmen nun an, dass lediglich das Gewicht der charakteristischen Größe Gwalk(j) mit dem Subskript "walking" gesteuert werde. Wenn das Gewicht zum Beispiel auf einen Wert kleiner oder gleich 1 gesetzt wird, wird eine als "eher zügig gehend" bezeichnete Zwischenbewegung zwischen den Zuständen des normalen Gehens und des zügigen Gehens erzeugt. Wenn das Gewicht auf einen Wert größer als 1 gesetzt wird, um den adverbiellen Ausdruck "brisk" zu betonen, wird eine als "sehr zügig gehend" bezeichnete Bewegung erzeugt. Wie oben beschrieben können neue adverbielle Ausdrücke wie etwa "eher-zügiggehend" und "sehr-zügig-gehend" durch Anpassen des Gewichts einer existierenden charakteristischen Größe durch Vorgänge neu erschaffen werden, die jeweils als Interpolation und Extrapolation der existierenden adverbiellen Ausdrücke "walking" und "brisk" bekannt sind. Darüber hinaus kann auch eine neue nicht tatsächlich gemessene Bewegung erzeugt werden. Zum Beispiel kann eine als "jogging" bezeichnete neue Bewegung durch Interpolation der charakteristischen Größe Gwalk(ω), die einen Zustand des normalen Gehens repräsentiert, und der charakteristischen Größe Grun(ω), die einen Zustand des Rennens repräsentiert, erzeugt werden. Ferner kann eine als "zügig rennend" bezeichnete neue Bewegung durch Extrapolation der charakteristischen Größe Gbrisk(ω), die einen Zustand des zügigen Gehens repräsentiert, und der charakteristischen Größe der als "jogging" bezeichneten neuen Bewegung erzeugt werden. Dieses Verfahren ist dadurch gekennzeichnet, dass Bewegungen einer Vielzahl von Beobachtungsobjekten mit Leichtigkeit durch Synthetisieren ausgewählter charakteristischer Größen und Anpassen der bei der Synthese verwendeten ausgewählten charakteristischen Größen erzeugt werden können. Die Operation zum Synthetisieren charakteristischer Größen, um Bewegungsinformationen zur Anzeige zu erzeugen, wird durch die in 30 gezeigte Bewegungs-/Tätigkeits-/Arbeitsausdrucksvorrichtung 1035 für Gelenkstrukturkörper ausgeführt.
  • Die Gewichte von bei einer Synthese der charakteristischen Größen zu verwendenden charakteristischen Größen werden jeweils gemäß dem Grad der Erkennungswahrscheinlichkeit einer durch die charakteristische Größe repräsentierten Bewegung angepasst, die durch Verwendung einer Technik zur Bewegungserkennung mittels eines Beschleunigungssensors erhalten wird. Wenn die Bewegung insbesondere durch ein Spektrum repräsentiert ist, entspricht die Potenz einer Komponente davon bei der Gangzyklusfrequenz der charakteristischen Größe. Die Anpassung der Gewichte der charakteristischen Größen ermöglicht es, dass Ergebnisse der Bewegungserkennung durch Animation mittels CG (Computergrafik) angezeigt werden können. Die charakteristischen Größen werden in einem Verfahren zum Erzeugen von Bewegungen eines Menschen aus charakteristischen Größen von Bewegungen ausgewählt und synthetisiert. 32 ist ein Skelettdiagramm, das zur Erklärung eines Verfahrens zum Anzeigen von Ergebnissen einer Bewegungserkennung 1050 durch Animation mittels Computergrafik verwendet wird. Wie in der Figur gezeigt beinhalten die Ergebnisse der Bewegungserkennung 1050 den Grad der Erkennungswahrscheinlichkeit Wn für jeden Erkennungsgegenstand Rn. Zum Beispiel ist der Grad der Erkennungswahrscheinlichkeit für den gehenden Erkennungsgegenstand Wgehen. Zuerst werden charakteristische Größen Gn(ω) für die Erkennungsgegenstände Rn aus der Datenbank 1041 für charakteristische Größen ausgelesen. Indem die zuvor angegebene Gleichung verwendet wird, werden die charakteristischen Größen Gn(ω) aufeinander überlagert, wobei die Grade der Erkennungswahrscheinlichkeit Wn der Erkennungsgegenstände als Gewichte der charakteristischen Größen Gn(ω) der jeweiligen Erkennungsgegenstände wie folgt verwendet werden: j(t) = F–1[J(ω)] = F–1[Wwalk·{B(ω)+ΣWn·Gn(ω)}]
  • Aus der obigen Gleichung folgt offensichtlich, dass der Grad der Erkennungswahrscheinlichkeit Wwalk als ein Gewicht der Gesamtheit aller charakteristischen Größen verwendet wird, um einen Ausdruck zum Erkennen des Zustand des Gehens zu erschaffen. Gemäß der durch die obige Gleichung ausgedrückten Überlagerungssteuerung sinkt die Größe der Bewegung des gesamten menschlichen Körpers graduell ab, während der Grad der Erkennungswahrscheinlichkeit Wwalk für das Gehen kleiner als 1 wird. Wenn der Grad der Erkennungswahrscheinlichkeit Wwalk für das Gehen gleich 0 wird, werden alle Gelenkwinkel ebenfalls 0, was eine aufrechte Haltung ausdrückt.
  • Außerdem kann durch Auswählen solch einer Frequenz ω, dass sich eine Computergrafikanimationsfigur zum selben Gangzyklus wie dem erkannten Gangzyklus bewegt, eine Animation mittels Computergrafik erzeugt werden, bei der die Computergrafikanimationsfigur ihre Beine zum selben Gangzyklus wie das Beobachtungsobjekt bewegt. Auf diese Weise kann ebenfalls die Geschwindigkeit der Bewegung des Erkennungsergebnisses ausgedrückt werden.
  • 33 bis 36 sind Diagramme, die jeweils ein Beispiel zeigen, bei dem eine Bewegung mittels des Erkennungsverfahrens nach der vorliegenden Erfindung erkannt und ein Erkennungsergebnis durch Animation mittels Computergrafik angezeigt wird. Ein Diagramm (a) jeder der Figuren zeigt eine beobachtete Wellenform der von einem Beschleunigungssensor gemessenen Beschleunigungswerte, und ein Diagramm (b) zeigt einen Durchschnitt der gemessenen Beschleunigungswerte. Ein Diagramm (c) zeigt Ergebnisse der Erkennung, und ein Diagramm (e) zeigt ein Spektrum der Bewegung des beobachteten menschlichen Körpers. Ein Diagramm (f) zeigt eine charakteristische Größe der Spektralkomponente bei der Gangzyklusfrequenz, und ein Diagramm (g) zeigt die Erkennungsergebnisse durch Animation mittels Computergrafik.
  • Zuerst wird das in 33 gezeigte Beispiel erklärt. Eine gemessene Wellenform 1060 wird in einem Diagramm (a) der Figur gezeigt, wobei die waagerechte und die senkrechte Achse jeweils zum Darstellen der Zeit und der Beschleunigung verwendet werden. Bei diesem Beispiel fängt ein Beobachtungsobjekt, das sich anfänglich in einem Ruhezustand befindet, graduell zu gehen an, und geht schließlich zügig. Es folgt offensichtlich aus dem Diagramm (a), dass die gemessene Wellenform eine Amplitude hat, die ansteigt, während das Objekt vom Ruhezustand ins zügige Gehen übergeht. Ein Diagramm (b) zeigt einen Durchschnittswert der im Diagramm (a) gezeigten gemessenen Wellenform oder der Direct-Current-Komponente der Wellenform. Bei diesem Beispiel weist das Beobachtungsobjekt immer eine aufrechte Haltung auf, was durch die Tatsache belegt wird, dass die Gravitationskraftbeschleunigung 1061 die ganze Zeit bei einem Wert von ungefähr 1,0 G bleibt. Ein Diagramm (e) ist ein Spektrum der Bewegung des menschlichen Körpers, das als ein Ergebnis der Ausführung einer Frequenzanalyse an der im Diagramm (a) gezeigten gemessenen Wellenform erhalten wird. Die waagerechte und die senkrechte Achse des Diagramms (e) werden jeweils zum Repräsentieren der Frequenz und der Intensität (die Potenz) der Spektralkomponenten verwendet. Ein Diagramm (f) zeigt nur eine Spektralkomponente 1072 bei einer Gangzyklusfrequenz, die die stärkste Intensität unter allen Spektralkomponenten hat. Das Diagramm (f) aus 33 zeigt nur eine Komponente des gleichen Spektrums, das im Diagramm (e) gezeigt wird, außer dass die senkrechte Achse des Ersteren eine vom Letzteren verschiedene Skala aufweist. Insbesondere ist die Intensität des Diagramms (e) so normalisiert, dass die maximale Intensität des Spektrums als eine volle Skala der senkrechten Achse gezeigt wird. Ein Diagramm (c) zeigt Beobachtungsergebnisse als ein Bewegungszustandsspektrum, wobei der momentane Zeitpunkt mit dem linken Ende 1071 des im Diagramm (a) gezeigten Wellenformgraphen übereinstimmt. Graphen werden im Diagramm (c) gezeigt, wobei dessen waagerechte und senkrechte Achse jeweils zum Repräsentieren der Zeit und eines Erkennungsgegenstands (das heißt, des Bewegungszustands) verwendet werden. Die Erkennungsgegenstände sind, von unten beginnend, Gehen 1075, zügiges Gehen 1074 und lockeres Gehen 1073. Jeder der Graphen ist in einer Synthese schwarzer und weißer Farbe mit einer variablen Konzentration gezeichnet, die den Grad der Erkennungswahrscheinlichkeit (o der das in einem Vorgang zur Synthetisierung charakteristischer Größen zu verwendende Gewicht) darstellen. Die weiße und die schwarze Farbe repräsentieren jeweils Grade der Erkennungswahrscheinlichkeit von 0,0 und 1,0. Bei einem frühen Teil einer Dauer 1067 des Ruhezustands gibt es keinen Erkennungsgegenstand. Aus diesem Grund ist in diesem Teil kein Graph angezeigt. Am Ende dieser Dauer 1067 beginnt sich das Beobachtungsobjekt jedoch zu bewegen, wie durch einen gezeigten Graph des Gehens in allen Farben außer der weißen angezeigt wird. Wenn das Beobachtungsobjekt am Anfang einer Dauer 1068 eines Zustands des lockeren Gehens (ein Ruhe-Gehen-Übergang) zu gehen anfängt, wird neben dem Graph des Gehens auch ein Graph des lockeren Gehens gezeigt. Offensichtlich verwandeln sich während dieser Dauer 1068 die Farben sowohl des Graphen des Gehens als auch des Graphen des lockeren Gehens nach und nach von Weiß in Schwarz, was graduell ansteigende Grade der Erkennungswahrscheinlichkeit der Erkennungsgegenstände "Gehen" und "locker Gehen", die jeweils durch Bezugszeichen 1075 und 1073 bezeichnet sind, anzeigt. Wenn sich das Beobachtungsobjekt der Grenze 1070 zwischen dem Übergang 1068 des lockeren Gehens und einem darauf folgenden Zustand des zügigen Gehens nähert, verwandelt sich die Farbe des Graphen des lockeren Gehens außerdem nach und nach von Schwarz in Weiß, was einen graduell abfallenden Grad der Erkennungswahrscheinlichkeit des Erkennungsgegenstands "lockeres Gehen", der durch das Bezugszeichen 1073 bezeichnet ist, anzeigt. Dies liegt daran, dass sich das Beobachtungsobjekt einer normal gehenden Bewegung nähert. Wenn das Beobachtungsobjekt die Grenze 1070 passiert, wird ein Graph des zügigen Gehens angezeigt, der einen graduell ansteigenden Grad der Erkennungswahrscheinlichkeit des Erkennungsgegenstands "zügiges Gehen", der durch ein Bezugszeichen 1074 bezeichnet wird, anstelle des Graphen des lockeren Gehens anzeigt. Der Graph des zügigen Gehens zeigt an, dass ein Zustand des zügigen Gehens erkannt worden ist. Es ist das Diagramm (g), das das Erkennungsergebnis durch Animation mittels Computergrafik zeigt. Um genauer zu sein, zeigt die Animation eine zügig gehende Bewegung zum momentanen Zeitpunkt am linken Ende 1071 des im Diagramm (a) gezeigten Wellenformgraphen. Ein Diagramm (h) zeigt ein Spektrogramm der Bewegung des menschlichen Körpers, wobei die waagerechte und die senkrechte Achse jeweils zum Repräsentieren der Zeit und der Frequenz verwendet werden. Auch wenn es nicht im Detail gezeigt ist, repräsentiert das Spektrogramm die Intensitäten des Spektrums durch die Konzentration von Pixeln.
  • 34 beinhaltet Diagramme, die ein Beispiel einer Erkennung eines Zustands des Rennens zeigen. Aus dem Diagramm (a) der Figur folgt offensichtlich, dass die Amplitude der gemessenen Wellenformen im Wesentlichen groß im Vergleich zu der in 33 gezeigten ist. Ein Diagramm (f) zeigt die charakteristische Größe lediglich einer Spektralkomponente 1080 bei einer Gangzyklusfrequenz, die die stärkste Intensität unter allen Spektralkomponenten aufweist. Die in 34 gezeigte stärkste Intensität ist viel stärker als die entsprechende in 33 gezeigte. Ein Diagramm (g) zeigt ein Erkennungsergebnis durch Animation mittels Computergrafik. 35 beinhaltet Diagramme, die ein Beispiel einer Erkennung eines Zustands des lockeren Gehens zeigen, das heißt, eines Zustands des ruhigen und langsamen Gehens. Aus dem Diagramm (a) der Figur folgt offensichtlich, dass die Amplitude der gemessenen Wellenformen klein im Vergleich zu der in 33 gezeigten ist, da sich die Bewegung in einem Zustand des lockeren Gehens befindet. Ein Diagramm (f) zeigt die charakteristische Größe lediglich einer Spektralkomponente 1081 bei einer Gangzyklusfrequenz, die die stärkste Intensität unter allen Spektralkomponenten aufweist. Die in 35 gezeigte stärkste Intensität ist viel schwächer als die entsprechende in 33 gezeigte. Ein Diagramm (g) zeigt ein Erkennungsergebnis durch Animation mittels Computergrafik, die eine Bewegung in einem Zustand des lockeren Gehens oder einem Zustand des schwankenden Gehens darstellt. Die Animation wird erzeugt, indem die bei der Erkennung der Zustände des Gehens und des schwankenden Gehens erhaltenen charakteristischen Größen übereinandergelegt und deren jeweilige Grade der Erkennungswahrscheinlichkeit als Gewichte verwendet werden. 36 beinhaltet Diagramme, die ein Beispiel der Erkennung eines zusammenbrechenden Zustands zeigen. Das Beobachtungsobjekt bricht zu einem Zeitpunkt zusammen, der durch eine senkrechte unterbrochene Linie 1082 in der Figur bezeichnet ist. Zu diesem Zeitpunkt fällt die Amplitude der Wellenform wie in einem Diagramm (a) gezeigt abrupt auf 0,0 G, während der Durchschnittswert der Beschleunigung ebenfalls graduell auf 0,0 G absinkt, was einen Übergang von der aufrechten Haltung auf eine liegende Haltung anzeigt. Wenn sich der menschliche Körper in dieser liegenden Haltung befindet ist die Messachse (oder die Empfindlichkeitsrichtung) des Beschleunigungssensors senkrecht zur Gravitationskraftrichtung gerichtet, wodurch es unmöglich wird, die Gravitationskraftbeschleunigung zu beobachten. Ein Diagramm (g) zeigt ein Erkennungsergebnis durch Animation mittels Computergrafik, die einen Zustand der liegenden Haltung darstellt.
  • Es sei angemerkt, dass die Vorrichtung und das System gemäß der vorliegenden Erfindung ebenfalls als Werkzeug bei der Diagnose und Anzeige des Zustands eines Rehabilitationstrainings verwendet werden können. In diesem Fall kann ein im Zustand vorhandenes Problem betont werden, anstatt ein Erkennungsergebnis durch Animation mittels Computergrafik, so wie es ist, anzuzeigen. Wenn zum Beispiel ein Zustand erkannt wird, in dem das Beobachtungsobjekt seine Füße nachschleppt, wird der Zustand durch Animation angezeigt, indem der Grad der Erkennungswahrscheinlichkeit für den erkannten Zustand, der als Gewicht für den Zustand des Füße Nachziehens verwendet wird, betont wird, Auf diese Weise kann die fragliche Stelle betont und in Form einer Figur angezeigt werden, die vom Beobachter mit Leichtigkeit verstanden werden kann. Natürlich ist solch eine Betonungsverarbeitung auf alle anderen Gebiete von Bewegungs-, Tätigkeits- und/oder Arbeitserkennung als Rehabilitationstraining anwendbar, um ein Erkennungsergebnis in der Form einer Figur anzuzeigen, die vom Beobachter mit Leichtigkeit verstanden werden kann.
  • Wie oben beschrieben erlaubt das vorliegende Ausführungsbeispiel, dass ein Ergebnis einer Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit durch Animation ausgedrückt werden kann, die vom Beobachter intuitiv mit Leichtigkeit verstanden werden kann, was einen Effekt darstellt, demgemäß ein leicht verständliches Ergebnis der Erkennung dem Beobachter präsentiert wird.
  • Es sollte angemerkt werden, dass, während die vorliegende Erfindung unter Bezugnahme auf ein dargestelltes bevorzugtes Ausführungsbeispiel beschrieben worden ist, bei dem ein Gelenkkörper auf einer Anzeigeeinheit durch Animation mittels Computergrafik angezeigt wurde, die Beschreibung nicht in einem beschränkenden Sinn ausgelegt werden soll. Das heißt, die vorliegende Erfindung kann ebenfalls auf eine Pose eines statischen Bildes, das eine Charakteristik einer Bewegung ausdrückt, angewendet werden. Im Falle einer gehenden Bewegung wird zum Beispiel ein Bild einer Seitenansicht eines gehenden Objekts genommen, und das sich ergebende statische Bild wird als eine charakteristische Größe (ein charakteristisches Bild) der gehenden Bewegung verwendet. Wenn dann ein Erkennungsergebnis eine gehende Bewegung anzeigt, wird das statische Bild ausgelesen und angezeigt. In diesem Fall ist der Verarbeitungsumfang im Vergleich zur oben beschriebenen Anzeige durch Animation mittels Computergrafik gering, was es möglich macht, ein Erkennungsergebnis mittels eines Computers mit einer geringen Prozessorgeschwindigkeit anzuzeigen.
  • Es folgt eine Beschreibung eines Ausführungsbeispiels zur Anzeige eines Ergebnisses der Erkennung der Position ebenso wie der Bewegung, der Tätigkeit und/oder der Arbeit eines Beobachtungsobjekts. Im Gegensatz zu den bisher beschriebenen Ausführungsbeispielen wird im Falle des vorliegenden Ausführungsbeispiels auch die Position eines Beobachtungsobjekts erkannt und angezeigt. 37 ist ein Diagramm, das die Konfiguration eines Systems zur Anzeige eines Ergebnisses der Erkennung der Position ebenso wie der Bewegung, der Tätigkeit und/oder der Arbeit eines Beobachtungsobjekts zeigt. Die in der Figur gezeigte Bezugsnummer 1100 ist eine Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung zum Erkennen einer Bewegung, einer Tätigkeit und/oder Arbeit eines Menschen typischerweise unter Verwendung des zuvor unter Bezugnahme auf 1 erklärten Erkennungsverfahrens. 1101 bezeichnet eine Bewegungs-/Tätigkeits-/Arbeitsverarbeitungsvorrichtung für Gelenkstrukturkörper, die mit einer Funktion zur Anzeige einer Bewegung, einer Tätigkeit und/oder Arbeit eines Gelenkstrukturkörpers durch Animation mittels Computergrafik auf der Grundlage eines Erkennungsergebnisses einer Bewegung, einer Tätigkeit und/oder Arbeit eines Gelenkstrukturkörpers, die durch die Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 typischerweise unter Verwendung des zuvor unter Bezugnahme auf 31 erklärten An zeigeverfahrens ausgeführt wird, versehen ist. Die Bezugsnummer 1102 ist eine Messvorrichtung für die Position eines Menschen zum Identifizieren der Position eines Beobachtungsobjekts, die typischerweise das zuvor unter Bezugnahme auf 11 erklärte Verfahren verwendet. Die Bezugsnummer 1103 ist eine Verarbeitungseinheit zur Anzeige geografischer Informationen oder Informationen über das Innere von Gebäuden. Die geografischen Informationen enthalten Höhen von Feldern und Bergen über dem Meeresspiegel, Straßen- und Straßenseitendaten sowie Daten über Orte und Formen von Gebäuden und Strukturen. Auf der anderen Seite enthalten die Informationen über das Innere von Gebäuden Daten von Raumeinrichtungsplänen in den Gebäuden und Layout von Ausstattung. Diese Informationsteile werden in einer Datenbank 1104 gespeichert. Bezugsnummer 1105 ist eine Anzeigeeinheit. Die Verarbeitungseinheit 1103 zur Anzeige geografischer Informationen oder Informationen über das Innere von Gebäuden wird zum Ausdrücken der geografischen Informationen oder der Informationen über das Innere eines Gebäudes verwendet, die sich auf den Umfang einer Position des Beobachtungsobjekts beziehen, das von der Messvorrichtung 1102 für die Position eines Menschen durch eine zwei- oder dreidimensionale Figur unter Verwendung eines Verfahrens zur Anzeige geografischer Informationen und Informationen über das Innere von Gebäuden identifiziert wurde. In der Zwischenzeit wird die Bewegung des Objekts an der Position des Beobachtungsobjekts durch Computergrafikanimation mittels der Bewegungs-/Tätigkeits-/Arbeitsverarbeitungsvorrichtung 1101 für Gelenkstrukturkörper angezeigt.
  • 38 ist ein Diagramm, das ein Beispiel von Operationen zeigt, die vom in 37 gezeigten System ausgeführt werden. Das Beispiel zeigt Bewegungen von Beobachtungsobjekten wie etwa Patienten in einem Krankenhaus. Bei diesem Beispiel wird ein Layout des Inneren des Krankenhauses dargestellt. Wenn das Beobachtungsobjekt ein Gebäude verlässt, kann jedoch auch eine Außenszenerie, die Straßen und Parks enthält, auf die gleiche Weise ausgedrückt werden. Die in der Figur gezeigten Bezugsnummern 1105 und 1106 sind jeweils ein Anzeigebildschirm und eine Cafeteria. Die Bezugsnummer 1107 bezeichnet ein Gesprächszimmer und die Bezugsnummer 1108 bezeichnet private Räume. Das Layout der Cafeteria 1106, des Gesprächszimmers 1107 und der privaten Räume 1108 wird auf der Grundlage der geografischen Informationen und der Informationen über das Innere von Gebäuden, die in der in 37 gezeigten Datenbank 1104 gespeichert sind, erschaffen. Die Bezugsnummern 1110, 1111, 1112, 1114, 1115 und 1109 bezeichnen jeweils einen im Krankenhaus anwesenden Menschen. An jedem der Beobachtungsobjekte sind die Messvorrichtung 1102 für die Position eines Menschen und die Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 befestigt, die in 37 gezeigt sind. Die Messvorrichtung 1102 der Position eines Menschen wird zum Identifizieren der Position des Beobachtungsobjekts, an dem die Messvorrichtung 1102 der Position eines Menschen befestigt ist, unter Verwendung der Stärken von den PHS-Basisstationen 1116 oder 1113 übertragenen elektrischen Wellen verwendet. Auf der anderen Seite wird die Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 zum Erkennen der Bewegung des Beobachtungsobjekts verwendet, an dem die Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 befestigt ist. Dann wird die Bewegung des Objekts an der Position des Beobachtungsobjekts durch Computergrafikanimation mittels der Bewegungs-/Tätigkeits-/Arbeitsverarbeitungsvorrichtung 1101 für Gelenkstrukturkörper angezeigt. Wie in 38 gezeigt geht das Beobachtungsobjekt 1109 bei diesem Beispiel zügig vor dem ersten privaten Raum 1108, während die Beobachtungsobjekte 1114 und 1115 in der Cafeteria 1106 sitzen.
  • Auf diese Weise erlaubt das vorliegende Ausführungsbeispiel, dass die von jedem Beobachtungsobjekt ausgeführte Bewegung und der Ort jedes Beobachtungsobjekts durch Animation ausgedrückt werden kann, die vom Beobachter mit Leichtigkeit verstanden werden kann, was den Effekt hervorbringt, dass es möglich ist, dem Beobachter ein leicht verständliches Beobachtungsergebnis zu präsentieren.
  • Darüber hinaus bringt das vorliegende Ausführungsbeispiel auch den Effekt hervor, dass die Beobachtung mittels solcher Ausstattung wie einer Fernsehkamera kaum durch einen blinden Fleck oder Ähnliches, was auf dem Beobachtungsergebnis liegt, beeinträchtigt wird, wodurch es möglich wird, an jedem Platz gute Beobachtung auszuführen.
  • Während eine Fernsehkamera im Allgemeinen ein kleineres Bild des Beobachtungsobjekts liefert, wenn die Entfernung zum Objekt größer wird, wodurch die Beobachtung schwierig wird, bringt das vorliegende Ausführungsbeispiel auf der anderen Seite ferner den Effekt hervor, dass gute Beobachtungen an jedem Platz möglich werden, solange die Position eines Beobachtungsobjekts sich innerhalb eines Bereichs befindet, der das Übertragen von die Beobachtungsergebnisse repräsentierenden Daten von der Messvorrichtung 1102 der Position eines Menschen und der Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 jeweils an die Verarbeitungseinheit 1103 zur Anzeige geografischer Informationen oder Informationen über das Innere von Gebäuden und die Bewegungs-/Tätigkeits-/Arbeitsverarbeitungsvorrichtung 1101 für Gelenkstrukturkörper erlaubt.
  • Während das Überwachen von durch eine Fernsehkamera erzeugten Bildern dem Beobachter den Erhalt von Informationen erlaubt, die klar anzeigen, wer und wo das Beobachtungsobjekt ist, was unbeabsichtigterweise zu der Möglichkeit führen kann, dass die Privatsphäre des Objekts verletzt wird, bringt das vorliegende Ausführungsbeispiel auf der anderen Seite außerdem den Effekt hervor, dass es durch Ausdrücken der Bewegungen, Tätigkeiten und/oder Arbeit zum Beispiel nur der in 38 gezeigten Beobachtungsobjekte 1114 und 1115 durch Animation mittels Computergrafik, bei der die Objekte durch Animationsfiguren mit der gleichen Form wie die anderen Beobachtungsobjekte abgesehen von der Art, wie sie gehen, repräsentiert werden, möglich ist, zu erfahren, dass die zwei Objekte 1114 und 1115 an Orten in der Cafeteria 1106 sitzen, aber unmöglich ist, andere persönliche Informationen zu erfahren, was zum Schutz der persönlichen Privatsphäre führt.
  • 39 ist ein Diagramm, das ein Anzeigebeispiel zeigt, das das Auftreten eines Notfalls darstellt. Beispiele von Notfällen sind Zustände des Zusammenbrechens und des kritischen Leidens eines Patienten. In dem in der Figur gezeigten Beispiel bricht das Beobachtungsobjekt 1112 vor dem vierten privaten Raum zusammen. Wie oben beschrieben werden persönliche Informationen aller Beobachtungsobjekte bei dem Anzeigeverfahren, das bei dem zuvor beschriebenen Ausführungsbeispiel verwendet wird, aufgrund des Schutzes der Privatheit verborgen. Im Falle des vorliegenden Ausführungsbeispiels werden persönliche Informationen eines Beobachtungsobjekts jedoch bewusst beim Auftreten eines das Beobachtungsobjekt betreffenden Notfalls offenbart. Ein Notfall wird mittels des unter Bezugnahme auf 20 zuvor beschriebenen Verfahrens erkannt. In der Erklärung von 20 wird eine bestimmte Bewegung, Tätigkeit und/oder Arbeit erkannt. Im Falle des vorlie genden Ausführungsbeispiels bezieht sich die bestimmte Bewegung, Tätigkeit und/oder Arbeit, da ein Krankenhaus als Beispiel genommen wurde, auf einen Notfallzustand eines Patienten. Da dies schon unter Bezugnahme auf 20 erklärt worden ist, wird die Beschreibung des Erkennungsverfahrens jedoch nicht wiederholt. Beim Auftreten solch eines Notfalls werden die Position ebenso wie die Bewegung, die Tätigkeit und/oder die Arbeit des Beobachtungsobjekts als Animationsfigur 1112 angezeigt, und der Anzeigebildschirm enthält zur gleichen Zeit auch Informationen 1117 über den vom Notfall betroffenen Patienten wie etwa den Namen, die Fallhistorie, den verantwortlichen Arzt und den Namen des Sorgeberechtigten des Patienten, die unter Bezug auf die ID-Nummern der am Patienten befestigten Mess- und Erkennungsvorrichtungen erhalten wurden.
  • Das vorliegende Ausführungsbeispiel bringt daher den Effekt hervor, dass es dem Beobachter beim Auftreten eines Notfalls erlaubt wird, unverzüglich Informationen über den Ort und den Notfallzustand ebenso wie minimale persönliche Informationen über das vom Notfall betroffene Beobachtungsobjekt zu erhalten, was auf jeden Fall bei der Handhabung des Notfalls erforderlich ist, während die Privatheit anderer Beobachtungsobjekte zur gleichen Zeit geschützt bleibt.
  • 40 ist ein Diagramm, das ein Beispiel der Darstellung von Positionen und Bewegungen, Tätigkeiten ebenso wie Arbeit von Krankenhausangestellten zeigt. Im oben beschriebenen Ausführungsbeispiel ist es beim Auftreten eines Notfalls notwendig, Krankenhausangestellte auszuwählen, die fähig sind, den Notfall zu behandeln. Um solche Angestellten auszuwählen, ist es notwendig, die momentanen Positionen und Bewegungen, Tätigkeiten ebenso wie die Arbeit der Krankenhausangestellten anzuzeigen. Bei diesem Beispiel wird eine Animationsfigur 1118 für einen Krankenhausangestellten verwendet. Wie in der Figur gezeigt trägt die Animationsfigur 1118 einen Hut, um zu zeigen, dass die Animationsfigur für einen Krankenhausangestellten verwendet wird. Bei diesem Beispiel geht der Krankenhausangestellte 1118 lediglich, wodurch er sich in einer Lage befindet, in der er ausreichend fähig dazu ist, den Notfall zu behandeln. Wenn ein Ergebnis der Erkennung der Tätigkeit oder Arbeit, die von der Animationsfigur 1118 vorgenommen oder erledigt werden, anzeigt, dass der Krankenhausangestellte zur Zeit mit einer Operation oder der Behandlung eines anderen Patienten in einem kritischen Zustand beschäftigt ist, werden jedoch andere Krankenhausangestellte in enger Nähe zu der Stelle des Notfalls durch Betrachten dieses Bildschirms gefunden, ohne dass es erforderlich ist, sich unmittelbar mit den anderen Krankenhausangestellten abzusprechen.
  • Das vorliegende Ausführungsbeispiel bringt daher einen Effekt hervor, dass Leute, die in der Lage sind einen Notfall zu behandeln, als solche eingestuft werden können, ohne dass es erforderlich ist, dies direkt mit diesen Leuten abzusprechen.
  • Im Falle des vorliegenden Ausführungsbeispiels ist es ein Mensch, der die Beurteilung darüber bildet, wer wie oben beschrieben einen Notfall behandeln soll. Es sei jedoch angemerkt, dass anstelle eines Menschen auch ein Computer verwendet werden kann, um automatisch optimale Krankenhausangestellte durch Ausführen einer Vielzahl optimierter Algorithmen auf der Grundlage der Position eines Patienten in einem kritischen Zustand, dem Grund des Notfalls, der Fallhistorie für den Patienten und des für den Patienten verantwortlichen Arztes ebenso wie der Positionen, der Arbeitsbedingungen und der Spezialisierungen der Krankenhausangestellten in enger Nähe zum Platz des Notfalls auszuwählen.
  • 41 ist ein Diagramm, das die Konfiguration eines Systems zum Anzeigen einer Folge von Bewegungszuständen zeigt, die zu dem Auftreten eines Notfalls führen, und zum Ausführen der Verarbeitung zur Handhabung des Notfalls. Ein Notfall wird mittels des zuvor unter Bezugnahme auf 20 beschriebenen Verfahrens erkannt. Die Teile der Verarbeitung, die von dem in 41 gezeigten System ausgeführt werden, nachdem ein Notfall erkannt worden ist, sind daher Teile einer Nach-Notfallerkennungsverarbeitung.
  • Wie in 41 gezeigt enthält das System eine Speichereinheit 1120 zum Speichern von Informationen über die Position ebenso wie über die Bewegung, die Tätigkeit und/oder die Arbeit jedes Beobachtungsobjekts, das heißt, eines Patienten, der in diesem Fall in einen kritischen Zustand gerät. Insbesondere wird die Speichereinheit 1120 zum Speichern der Typen einer Bewegung, einer Tätigkeit und/oder Arbeit jedes Beobachtungsobjekts, die von der Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 erkannt wurden, von Informationen über die Position jedes Beobachtungsobjekts, die von der Messvorrichtung 1102 für die Position eines Menschen identifiziert worden ist, und von einem Zeitpunkt, zu dem jede Bewegung erkannt worden ist, verwendet. 42 ist ein Beispiel der Struktur von in der Speichereinheit 1120 gespeicherten Daten zum Repräsentieren der erkannten Bewegung, Tätigkeit und/oder Arbeit eines Beobachtungsobjekts ebenso wie der Position und des Zeitpunkts, zu dem die Bewegung, die Tätigkeit und/oder die Arbeit erkannt worden sind. Wie in der Figur gezeigt umfasst die Struktur eine obere Reihe 1122 zum Beschreiben der Zustände der Bewegung, Tätigkeit und/oder Ar beit und eine untere Reihe 1123 zum Beschreiben der Koordinaten x, y und z des Orts und des Zeitpunkts, zu dem die Bewegung, Tätigkeit und/oder Arbeit auftreten. Ein neuer Satz solcher Informationen wird jedesmal hinzugefügt, wenn ein Zustand einer Bewegung, einer Tätigkeit und/oder Arbeit erkannt wird. Bei diesem Beispiel wird ein zuletzt hinzugefügter Satz von Informationen in einer Spalte 1125 aufgezeichnet. Das heißt, Informationssätze werden sequenziell einer nach dem anderen von links nach rechts und oben nach unten hinzugefügt. Je mehr eine Spalte auf der linken Seite angeordnet ist oder je höher die Position einer Spalte in der Datenstruktur ist, desto chronologisch älter ist der in der Spalte aufgezeichnete Informationssatz.
  • Seien die spezifischen Bewegungsmuster 1121 eines Patienten, der in einem Notfall zusammenbricht, liegt und für immer liegt, wie in 42 gezeigt. Wenn dieses spezifische Bewegungsmuster detektiert wird, führt eine Notfallerkennungsvorrichtung 1125 Animationsverarbeitung mittels einer Bewegungs-/Tätigkeits-/Arbeitsausdrucksvorrichtung 1126 für Gelenkstrukturkörper zum Ausdrücken ebenfalls eines Übergangs eines Beobachtungsobjekts von einem Ort zu einem anderen aus, um Details des Notfalls anzuzeigen.
  • 43 ist ein Diagramm, das beim Auftreten eines Notfalls eine typische Anzeige einer Folge von Bewegungszuständen zeigt, die zu dem Notfall führen, und welche durch die Bewegungs-/Tätigkeits-/Arbeitsausdrucksvorrichtung 1126 für Gelenkstrukturkörper ausgedrückt werden. Die Bezugsnummer 1112 ist ein Ort, an dem ein beobachteter Patient zusammenbricht. Wenn die Notfallerkennungsvorrichtung 1125 das in 42 gezeigte spezifische Bewegungsmuster 1121 detektiert, wird die zum Speichern der identifizierten Positionen ebenso wie der erkannten Bewegungen, Tätigkeiten und/oder Arbeit des Patienten verwendete Speichereinheit 1120 retroaktiv um eine vorgegebene Zeit zu einer Spalte 1124 der Datenstruktur zum Aufzeichnen eines Zustands des zügigen Gehens im Falle dieses Beispiels zurückgeführt. Dann wird Animation auf der Grundlage von Bewegungen, Tätigkeiten und/oder Arbeit des beobachteten Patienten ausgeführt, wobei mit dem in der Spalte 1124 aufgezeichneten Informationssatz begonnen wird und einer nach dem anderen zum chronologisch neuesten Satz sequenziell vorgegangen wird. Das in 43 gezeigte Beispiel stellt Animation dar, bei der die retroaktive Spur des Notfalls bei einem Zeitabschnitt 1130 beginnt, in dem der Patient zügig gegangen war. In einem darauf folgenden Zeitabschnitt 1131 ist der Patient gegangen und im nächsten Zeitabschnitt 1132 stand er still. Daraufhin ist der Patient während eines Zeitabschnitts 1133 zusammengebrochen und im folgenden Zeitabschnitt 1134 lag der Patient und hat sich nicht mehr bewegt, Es sei angemerkt, dass durch Wiederholen des oben beschriebenen Vorgangs eine Reihe von Bewegungszuständen, die zum Auftreten eines Notfalls führen, wiederholt dargestellt werden können.
  • Das vorliegende Ausführungsbeispiel bringt daher einen Effekt hervor, dass aufgrund der Tatsache, dass eine Reihe von Bewegungszuständen, die zum Auftreten eines Notfalls führen, retroaktiv bis zu einem Zeitpunkt in der Vergangenheit angezeigt werden kann, ein detailliertes Verständnis des Notfalls auf der Grundlage einer Reihe von Umständen, die zum Notfall führen, daher mit Leichtigkeit erhalten werden kann und vorzunehmende Aktionen zur Handhabung des Notfalls daher leicht in Betracht gezogen werden können.
  • Es folgt eine Beschreibung eines Ausführungsbeispiels, das ein Verfahren zur Verbesserung der Genauigkeit von mittels der Messvorrichtung 1102 für die Position eines Menschen erhaltenen gemessenen Werten durch die Verwendung von Ergebnissen der Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit als einer Referenz zur Betrachtung unter Bezugnahme auf 44 und 45 implementiert. 44 ist ein Diagramm, das die Konfiguration eines Systems zum Verbessern der Genauigkeit von mittels der Messvorrichtung 1102 für die Position eines Menschen erhaltenen gemessenen Werten durch die Verwendung von Ergebnissen einer Erkennung einer Bewegung, einer Tätigkeit und/oder einer Arbeit als einer Referenz zur Betrachtung zeigt, und 45 ist ein Diagramm, das zur Erklärung davon verwendet wird, wie die Genauigkeit von mittels der Messvorrichtung 1102 für die Position eines Menschen erhaltenen gemessenen Werten verbessert werden kann, indem Ergebnisse der Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit als eine Referenz zur Betrachtung verwendet werden.
  • Da sie schon zuvor beschrieben wurde, wird eine detaillierte Erklärung der Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 weggelassen. In der Messvorrichtung 1102 für die Position eines Menschen wird die Verteilung der Intensität des elektrischen Feldes einer von jeder von mehreren Basisstationen übertragenen elektrischen Welle im voraus durch Messung oder Simulation herausgefunden. Die am Beobachtungsobjekt befestigte Messvorrichtung 1102 für die Position eines Menschen empfängt elektrische Wellen von den Basisstationen und berechnet die Intensität von jeder der elektrischen Wellen, Die Intensitäten der elektrischen Wellen werden dann mit den Verteilungen von Intensitäten elektrischer Felder verglichen, um einige Kandidatenpositionen zu identifizieren. Zum Beispiel nehmen wir nun an, dass die am Beobachtungsobjekt befestigte Messvorrichtung 1102 für die Position eines Menschen eine elektrische Welle mit einer Intensität Xdb eines elektrischen Feldes von einer durch eine Bezugsnummer 1150 bezeichneten Basisstation A und eine elektrische Welle mit einer Intensität Ydb eines elektrischen Feldes von einer durch eine Referenznummer 1151 in 45 bezeichnete Basisstation B empfängt. Die in der Figur gezeigte Referenznummer 1152 ist ein Bereich der Verteilung der Intensität des elektrischen Feldes der von der Station A 1150 übertragenen elektrischen Welle, in dem die Intensität des elektrischen Feldes gleich Xdb ist. Auf die gleiche Weise ist die Referenznummer 1153 ein Bereich der Verteilung der Intensität des elektrischen Feldes der von der Station B 1151 übertragenen elektrischen Welle, in dem die Intensität des elektrischen Feldes gleich Ydb ist. Wie oben beschrieben wurden die Verteilungen im voraus durch Messung oder Simulation bestimmt. Ein Bereich, in dem die Messvorrichtung 1102 für die Position eines Menschen dazu in der Lage ist, die elektrischen Wellen von beiden Stationen A und B zur gleichen Zeit zu empfangen, ist daher ein Kreuzungsbereich 1154 der Bereiche der Verteilungen der Intensitäten 1152 und 1153 der elektrischen Felder. Das heißt, das Beobachtungsobjekt befindet sich an einem Ort irgendwo innerhalb des Kreuzungsbereichs 1154. Dieser Bereich hat jedoch eine relativ große Fläche aufgrund der geringen Messgenauigkeit einer Intensität eines elektrischen Feldes durch die Messvorrichtung 1102 für die Position eines Menschen und aufgrund der zufälligen Reflexion der elektrischen Wellen. Im Ergebnis ist es lediglich möglich, nichts weiter als ein grobe Position des Beobachtungsobjekts zu identifizieren. Um dieses Problem zu lösen, ist daher eine Einheit 1140 vorgesehen, die ein Verfahren zum Schlussfolgern der Position eines Beobachtungsobjekts aus geografischen Informationen und Informationen über das Innere von Gebäuden verwendet. Durch die Verwendung dieses Verfah rens kann eine präzisere Position eines Beobachtungsobjekt s aus einem Bereich, in dem sich das Objekt befindet und der von der Messvorrichtung 1102 für die Position eines Menschen gefunden worden ist, dem Zustand einer Bewegung, einer Tätigkeit und/oder Arbeit das Objekts, der von der Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 gefunden worden ist, ebenso wie den geografischen Informationen und Informationen über das Innere von Gebäuden, die in der Datenbank 1104 gespeichert sind, identifiziert werden. Im Falle des in 45 gezeigten Beispiels nehmen wir nun zum Beispiel an, dass sich zwei Beobachtungsobjekte 1156 und 1157 in dem von der Messvorrichtung 1102 für die Position eines Menschen gefundenen Bereich befinden, aber entsprechend dem Zustand der Bewegung, Tätigkeit und/oder Arbeit des von der Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 gefundenen Objekts erkannt wird, dass sich das Objekt in einer Bewegung des Besteigens einer Treppe befindet. Die geografischen Informationen und Informationen über das Innere von Gebäuden, die in der Datenbank 1104 gespeichert sind, werden dann auf einen Ort, an dem die Treppe sich befindet, durchsucht. Aus einem Ergebnis der Suche wird ein Ort 1155, an dem sich die Treppe befindet, als die Position des Beobachtungsobjekts identifiziert, das heißt, das Objekt 1156 anstelle des Objekts 1157 in diesem Fall. Wenn die Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 vermutet, dass das Objekt an einer gewöhnlichen Stelle ohne besondere Form geht, so wie es der Fall beim Objekt 1157 ist, dann kann die exakte Position des Beobachtungsobjekts auf der anderen Seite ebenfalls identifiziert werden, da die Position des Objekts selbstverständlich nicht der Ort ist, an dem sich die Treppe befindet. Darüber hinaus kann die Position eines Beobachtungsobjekts ebenfalls aus Informationen über einen Zeitpunkt, zu dem das Objekt das Besteigen der Treppe beendet, und einer Zeitdauer, während der das Objekt geht, wie folgt identifiziert werden.
  • 46 ist ein Diagramm, das im Detail zeigt, wie die Position eines Beobachtungsobjekts aus Informationen über einen Zeitpunkt, zu dem das Objekt das Besteigen der Treppe beendet, und einer Zeitdauer, während der das Objekt geht, identifiziert werden kann. 46 ist ein Diagramm, das zum Erklären eines Verfahrens zum Korrigieren einer Position, die durch Verwendung von durch die Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 ausgegebenen Ergebnissen der Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit als einer Betrachtungsreferenz identifiziert worden ist. Die Bezugsnummer 1165 gibt eine Richtung an, entlang der das Beobachtungsobjekt geht. In dem in dieser Figur gezeigten Beispiel wird die Position eines Beobachtungsobjekts identifiziert mittels: einer Vorrichtung zum Bestimmen einer groben absoluten Position des Objekts mittels einer von einer Basisstation A 1150 eines zellularen Systems übertragenen elektrischen Welle; einer Vorrichtung zum Bestimmen einer relativen Position mittels der Anzahl von Gehschritten, die von einem am Objekt befestigten Instrument zum Zählen der Anzahl der Gehschritte ausgegeben werden, und mittels Informationen, die von einem ebenfalls am Objekt befestigten Instrument zum Überwachen von Änderungen in der Orientierung und Änderungen in der Weiterbewegungsrichtung ausgegeben werden; sowie einer Vorrichtung zum Bestimmen einer Position unter Verwendung von Ergebnissen der Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit, die von der oben unter Bezugnahme auf 4 beschriebenen Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung 1100 ausgegeben werden.
  • Wie zuvor beschrieben ist die Messgenauigkeit eines zellularen Systems nicht so hoch. Im Ergebnis kann daher die absolute Position eines Beobachtungsobjekts, auch wenn die die Bedingung der Intensität des elektrischen Feldes erfüllende grobe Region, das heißt, eine Region, in der die Intensität der elektrischen Felder stark genug zum Empfangen ist, identifiziert ist, nicht bestimmt werden, falls sich das Objekt bewegt. Um dieses Problem zu lösen, wird auf eine Einrichtung zum Bestimmen einer relativen Position zurückgegriffen. Die Vorrichtung zum Bestimmen einer relativen Position wird zur Berechnung einer Bewegungsentfernung eines Beobachtungsobjekts durch Berechnen des Produkts der Anzahl von Gehschritten, die von dem am Objekt befestigten Instrument zum Zählen der Anzahl der Gehschritte ausgegeben werden, und einer durchschnittlichen Schrittlänge des Objekts verwendet. Die Vorrichtung zum Bestimmen einer relativen Position eines Beobachtungsobjekts wird ebenfalls zur Identifikation der Bewegungsrichtung des Objekts durch Verwendung von Informationen verwendet, die von einem Instrument zum Überwachen von Änderungen in der Orientierung und Änderungen in der Weiterbewegungsrichtung, die typischerweise durch einen am Objekt befestigten Orientierungssensor oder ein Gyroskop implementiert werden, ausgegeben werden. Indem die Bewegungsentfernungen in ihren jeweiligen Bewegungsrichtungen integriert werden, kann die momentane relative Position des Beobachtungsobjekts bestimmt werden. Im Ergebnis ist es möglich, die Bewegung des Beobachtungsobjekts in einem die Bedingung der Intensität des elektrischen Feldes erfüllenden identifizierten groben Bereich zu verfolgen, das heißt, in einem Bereich, in dem die Intensität der elektrischen Felder stark genug zum Empfangen ist. Insbesondere wird die absolute Position eines Beobachtungsobjekts durch die Verwendung einer vom zellularen System gemessenen absoluten Position als einer Referenz (oder einer Anfangsposition) aus einer von der Messvorrichtung für die relative Position ausgegebenen relativen Position als einem Integrationsergebnis herausgefunden werden, das durch Integrieren der Bewegungsentfernungen in ihren jeweiligen Bewegungsrichtungen wie oben beschrieben berechnet wird. Wie oben beschrieben ist die Messgenauigkeit der Messvorrichtung für absolute Werte, die zur Bestimmung der Anfangsposition des Beobachtungsobjekts verwendet wird, gering. Im Ergebnis wird ein Anfangsfehler die anschließend gefundenen Werte beeinträchtigen. Ferner werden in der Vorrichtung zum Messen einer relativen Position Abtastintervallfehler, Messfehler und Integrationsfehler ebenfalls akkumuliert. Um dieses Problem zu lösen, wird die Vorrichtung zum Bestimmen einer Position mittels Ergebnissen der Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit zum Kompensieren der Fehler bei der absoluten Position verwendet.
  • Im Falle des in 46 gezeigten Beispiels nehmen wir nun an, dass ein Ergebnis der Erkennung des Zustands einer Bewegung, einer Tätigkeit und/oder Arbeit anzeigt, dass das Beobachtungsobjekt das Besteigen der Treppe beendet hat. In diesem Fall wird das obere Ende 1160 der Treppe als die Position des Objekts identifiziert. Das obere Ende 1160 der Treppe weist eine viel höhere Genauigkeit auf als der Kreuzungsbereich 1154, der als vom zellularen System ausgegebenes Messergebnis erhalten wurde. Wenn dann das obere Ende 1160 als ein Anfangswert für die absolute Position verwendet wird, ist es daher möglich, die Position des Beobachtungsobjekts mittels der Vorrichtung zum Messen einer relativen Position zu verfolgen.
  • Wir nehmen nun an, dass sich das Objekt gemäß dem am Beobachtungsobjekt befestigten Orientierungssensor oder Gyroskop vom Anfangswert 1160 der absoluten Position in einer Richtung gen Süden bewegt. Darüber hinaus kann gemäß dem am Objekt befestigten Instrument zum Berechnen der Anzahl von Gehschritten eine Entfernung, entlang der das Objekt gegangen ist, berechnet werden. Auf diese Weise kann eine Gehposition 1163 des Objekts identifiziert werden. Wir nehmen nun an, dass das Objekt seine Bewegungsrichtung Richtung Westen entlang eines Positionssegments 1165 dreht. Auf die gleiche Weise kann die Gehposition beim Segment 1165 aus den Informationen, die vom Orientierungssensor oder Gyroskop ausgegeben worden sind, und einer Gehschrittanzahl, die vom Instrument zum Zählen der Anzahl der Gehschritte erzeugt worden ist, identifiziert werden. Vom Objekt verfolgte Positionen danach können ebenfalls auf die gleiche Weise gefunden werden, was die Identifikation der momentanen Position 1161 des Objekts erlaubt.
  • Es sei angemerkt, dass während die vorliegende Erfindung unter Bezugnahme auf ein Ausführungsbeispiel beschrieben worden ist, bei dem ein zellulares System als eine typische Einrichtung zum Messen einer absoluten Position verwendet worden ist, die Beschreibung nicht in einer beschränkenden Weise ausgelegt werden soll. Ein anderes System zum Messen einer absoluten Position wie das GPS kann ebenfalls benutzt werden.
  • Im oben beschriebenen Ausführungsbeispiel wird eine Entfernung als ein Produkt der Anzahl von Gehschritten und der Länge eines Standardgehschritts berechnet. Es sollte jedoch angemerkt werden, dass ein Ergebnis der Erkennung einer Bewegung, einer Tätigkeit und/oder Arbeit anzeigen kann, dass ein Beobachtungsobjekt sich in einem Bewegungszustand eines lockeren Gehens oder Rennens befindet. In diesem Fall wird, anstatt die Länge des Standardgehschritts zu verwenden, die Länge des tatsächlichen Gehschritts bei der Bewegung, Tätig keit und/oder Arbeit aus Erkennungsgegenständen, das heißt Bewegungszuständen, und den für die Erkennungsgegenstände erhaltenen Graden der Erkennungswahrscheinlichkeit berechnet. Ähnlicherweise wird die Entfernung dann als ein Produkt der Anzahl von Gehschritten und der Länge des tatsächlichen Gehschritts berechnet. Auf diese Weise kann die Entfernung mit einem hohen Grad an Genauigkeit im Vergleich zu der gefunden werden, die durch Verwendung der Länge des Standardgehschritts berechnet wird.
  • Wie ebenfalls oben beschrieben wurde, wird beim vorliegenden Ausführungsbeispiel eine Bewegungsentfernung als ein Produkt der Anzahl der Gehschritte und der Länge eines Standardgehschritts wie oben beschrieben berechnet. Es sei angemerkt, dass als Alternative ein Sensor zum Detektieren der Geschwindigkeit oder der Beschleunigung eines Beobachtungsobjekts in der Weiterbewegungsrichtung verwendet werden kann. Im Falle eines Geschwindigkeitssensors wird die Bewegungsentfernung dann durch Integration der gemessenen Geschwindigkeitswerte berechnet. Im Falle eines Beschleunigungssensors wird die Bewegungsentfernung auf der anderen Seite durch doppelte Integration der gemessenen Beschleunigungswerte berechnet.
  • Wie ebenfalls oben beschrieben wurde, wird beim vorliegenden Ausführungsbeispiel eine von der Vorrichtung zum Messen einer absoluten Position in Verbindung mit der Bewegungs-/Tätigkeits-/Arbeitserkennungsvorrichtung gefundene Position als eine Anfangsposition einer Gehposition verwendet. Es sei jedoch angemerkt, dass wenn sich das Beobachtungsobjekt während einer von der Messvorrichtung der relativen Position ausgeführten Messung in solch einer Bewegung befindet und/oder solch eine Tätigkeit vornimmt, dass die Position des Objekts identifiziert werden kann, eine als neue Anfangsposi tion zu verwendende Position ebenfalls neu auf der Grundlage der Bewegung, der Tätigkeit und/oder der Arbeit unter Verwendung relevanter geografischer Informationen oder relevanter Informationen über das Innere des Gebäudes als einer Referenz identifiziert werden kann. Auf diese Weise wird verhindert, dass sich Abtastintervallfehler, Messfehler und Integrationsfehler in der Vorrichtung zum Messen einer relativen Position akkumulieren. Diese Technik ist besonders effektiv für eine Messung einer Position außerhalb des Servicebereichs des zellularen Systems. Im Falle einer Messung einer Position außerhalb des Servicebereichs wird die Position, da die Vorrichtung zum Messen einer absoluten Position nicht verwendet werden kann, identifiziert, indem lediglich auf die Vorrichtung zum Messen einer relativen Position zurückgegriffen wird, die das oben beschriebene Problem der Fehlerakkumulation aufweist. Indem jedoch diese Technik verwendet wird, wird die identifizierte Position von Zeit zu Zeit korrigiert, wodurch das Lösen des Problems der Fehlerakkumulation ermöglicht wird.
  • Wie ebenfalls oben beschrieben wurde, sieht das vorliegende Ausführungsbeispiel ein Verfahren zum Messen einer Position unter Verwendung eines auf mehreren Basisstationen basierenden zellularen Systems vor. Alternativ kann das zellulare System ebenfalls in Verbindung mit einem GPS zum Bestimmen einer Position mittels eines Satelliten oder einer anderen Positionsmessvorrichtung verwendet werden, um die Genauigkeit der Position zu verbessern.
  • Darüber hinaus ist es beim Zeichenverfahren möglich, das Beobachtungsobjekt in einem Bildschirm an einer Position zu platzieren, die von den Vorrichtungen und Verfahren gemäß dem vorliegenden Ausführungsbeispiel gefunden wurden, und einen Zeichenbereich synchron zur Position des Objekts, die sich von Zeit zu Zeit ändert, zu zeichnen, wobei dieser die Bewegung des Objekts begleitet.
  • Ferner kann ein Navigationssystem zum Führen eines Beobachtungsobjekts gemäß dem gleichen Prinzip durch Verwendung von Informationen über die Position des Objekts, die von den Vorrichtungen und Verfahren gemäß dem vorliegenden Ausführungsbeispiel als Feedback gebildet werden.
  • Schließlich bringt das vorliegende Ausführungsbeispiel den Effekt hervor, dass Fehler in einer Position, die als ein Messergebnis unter Verwendung der herkömmlichen Positionsmessvorrichtung erhalten worden ist, kompensiert werden können, um eine weiter verbesserte Genauigkeit zu erhalten.

Claims (4)

  1. Erkennungssystem zur Erkennung von Bewegungen und/oder Tätigkeiten eines beobachteten Objekts (1), aufweisend: eine an dem beobachteten Objekt (1) angebrachte Meßeinrichtung (2, 3) zur Messung einer Zustandsänderung infolge der Bewegungen und/oder Tätigkeiten des beobachteten Objekts, einer Charakteristikgrößen-Gewinnungseinrichtung (5) zur Gewinnung charakteristischer Größen aus den von der Meßeinrichtung (2, 3) vorgenommenen Messungen, eine Erkennungseinrichtung (7) zur Erkennung der Bewegungen und/oder Tätigkeiten des beobachteten Objekts entsprechend der aus den Messungen gewonnenen charakteristischen Größen, und eine Ausgabeeinrichtung (8) zur Ausgabe eines Erkennungsergebnisses, gekennzeichnet durch eine Ortsmeßeinrichtung (403) zum Messen von Orten des beobachteten Objekts (1), eine Speichereinrichtung (1104) zum Speichern geographischer Informationen und Informationen über das Innere von Gebäuden, eine Ortsfolgerungseinrichtung (1103) zum Korrigieren des von der Ortsmeßeinrichtung (403) gemessenen Orts des Objekts (1) durch Durchsuchen der geographischen Informationen und der Informationen über das Innere von Gebäuden, die in der Speichereinrichtung (1104) gespeichert sind, nach einem mit den von der Erkennungseinrichtung erkannten Bewegungen und/oder Tätigkeiten verknüpften Platz.
  2. System nach Anspruch 1, aufweisend: eine Bewegungszeit-Meßeinrichtung (1100), um aus den Messungen eine eine zeitliche Charakteristik der Bewegungen und/oder Tätigkeiten wiedergebende Bewegungszeit zu gewinnen, und eine Normierungseinrichtung zum Normieren der Messungen auf eine Zeitbasis, die von der gewonnenen Bewegungszeit geliefert wird, wobei die Charakteristikgrößen-Gewinnungseinrichtung (5) die charakteristischen Größen gewinnt, indem sie die normalisierten Messungen einer Analyse der zeitlichen Frequenz unterwirft.
  3. System nach Anspruch 2, aufweisend: eine Ausgabeeinrichtung (1105), die die Erkennungsergebnisse und die Bewegungszeit ausgibt, die in Verbindung mit den erkannten Bewegungen und Tätigkeiten gemessen wurde.
  4. System nach Anspruch 1, wobei die Ortsmeßeinrichtung (403) eine Relativorts-Meßeinrichtung zur Messung relativer Orte des beobachteten Objekts (1) ausgehend von einem anfänglichen Ort enthält und die Ortsfolgerungseinrichtung (1103) den mit den erkannten Bewegungen und/oder Tätigkeiten verknüpften Platz aus einem Gebiet um den relativen Ort herum sucht und der Platz als neuer anfänglicher Ort verwendet wird.
DE69736622T 1996-07-03 1997-07-02 System zur Bewegungserkennung Expired - Lifetime DE69736622T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP17345396 1996-07-03
JP17345396 1996-07-03

Publications (2)

Publication Number Publication Date
DE69736622D1 DE69736622D1 (de) 2006-10-19
DE69736622T2 true DE69736622T2 (de) 2007-09-13

Family

ID=15960757

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69736622T Expired - Lifetime DE69736622T2 (de) 1996-07-03 1997-07-02 System zur Bewegungserkennung

Country Status (3)

Country Link
US (2) US6571193B1 (de)
EP (1) EP0816986B1 (de)
DE (1) DE69736622T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009035072A1 (de) * 2009-07-28 2011-02-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Prädiktion der Position und/oder Bewegung eines Objekts relativ zu einem Fahrzeug

Families Citing this family (393)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6266623B1 (en) 1994-11-21 2001-07-24 Phatrat Technology, Inc. Sport monitoring apparatus for determining loft time, speed, power absorbed and other factors such as height
US8280682B2 (en) 2000-12-15 2012-10-02 Tvipr, Llc Device for monitoring movement of shipped goods
JP2000194726A (ja) * 1998-10-19 2000-07-14 Sony Corp 情報処理装置及び方法、情報処理システム並びに提供媒体
CN1127402C (zh) 1998-11-30 2003-11-12 索尼公司 机器人装置及其控制方法
US7904187B2 (en) 1999-02-01 2011-03-08 Hoffberg Steven M Internet appliance system and method
WO2000068642A2 (en) * 1999-05-06 2000-11-16 Gerhard Stephanus Mynhardt Apparatus for determining the speed of travel and distance travelled by a user
US7212829B1 (en) 2000-02-28 2007-05-01 Chung Lau Method and system for providing shipment tracking and notifications
US7218938B1 (en) 2002-04-24 2007-05-15 Chung Lau Methods and apparatus to analyze and present location information
US6975941B1 (en) 2002-04-24 2005-12-13 Chung Lau Method and apparatus for intelligent acquisition of position information
US7905832B1 (en) 2002-04-24 2011-03-15 Ipventure, Inc. Method and system for personalized medical monitoring and notifications therefor
US7321774B1 (en) 2002-04-24 2008-01-22 Ipventure, Inc. Inexpensive position sensing device
US7366522B2 (en) 2000-02-28 2008-04-29 Thomas C Douglass Method and system for location tracking
US7643655B2 (en) * 2000-11-24 2010-01-05 Clever Sys, Inc. System and method for animal seizure detection and classification using video analysis
US6678413B1 (en) * 2000-11-24 2004-01-13 Yiqing Liang System and method for object identification and behavior characterization using video analysis
AU2002255568B8 (en) 2001-02-20 2014-01-09 Adidas Ag Modular personal network systems and methods
CN1287733C (zh) * 2001-03-06 2006-12-06 微石有限公司 身体动作检测装置
JP2002358149A (ja) 2001-06-01 2002-12-13 Sony Corp ユーザ入力装置
US7580912B2 (en) * 2001-06-12 2009-08-25 Alcatel-Lucent Usa Inc. Performance data mining based on real time analysis of sensor data
WO2003003194A1 (fr) 2001-06-27 2003-01-09 Sony Corporation Dispositif a circuit integre, dispositif de traitement de l'information, procede de gestion de memoire de support d'information, terminal mobile, dispositif a circuit integre a semi-conducteur, et procede de communication par terminal mobile
FI110549B (fi) 2001-06-29 2003-02-14 Nokia Corp Menetelmä ja järjestely liikkeen määrittämiseksi
US20030033602A1 (en) * 2001-08-08 2003-02-13 Simon Gibbs Method and apparatus for automatic tagging and caching of highlights
US7091989B2 (en) * 2001-08-10 2006-08-15 Sony Corporation System and method for data assisted chroma-keying
US6703936B2 (en) * 2001-09-28 2004-03-09 Veridian Engineering, Inc. System and method for tracking movement of individuals
US7212653B2 (en) * 2001-12-12 2007-05-01 Kabushikikaisha Equos Research Image processing system for vehicle
US20030140060A1 (en) * 2002-01-23 2003-07-24 Gehlot Narayan L. Dynamic database
US7319383B2 (en) * 2002-02-15 2008-01-15 Hrl Laboratories, Llc Distributed motion prediction network
US20030187820A1 (en) 2002-03-29 2003-10-02 Michael Kohut Media management system and process
US9049571B2 (en) 2002-04-24 2015-06-02 Ipventure, Inc. Method and system for enhanced messaging
US9182238B2 (en) 2002-04-24 2015-11-10 Ipventure, Inc. Method and apparatus for intelligent acquisition of position information
US7366645B2 (en) * 2002-05-06 2008-04-29 Jezekiel Ben-Arie Method of recognition of human motion, vector sequences and speech
US6774799B2 (en) * 2002-06-03 2004-08-10 Pro Tech Monitoring, Inc. House arrest tracker system
JP4126485B2 (ja) * 2002-06-24 2008-07-30 カシオ計算機株式会社 ナビゲート装置及びプログラム
US8120624B2 (en) 2002-07-16 2012-02-21 Noregin Assets N.V. L.L.C. Detail-in-context lenses for digital image cropping, measurement and online maps
WO2004047426A2 (en) * 2002-11-15 2004-06-03 Esc Entertainment, A California Corporation Reality-based light environment for digital imaging in motion pictures
JP3801163B2 (ja) * 2003-03-07 2006-07-26 セイコーエプソン株式会社 体動検出装置、ピッチ計、歩数計、腕時計型情報処理装置、制御方法及び制御プログラム
EP1616196A4 (de) 2003-04-03 2009-05-20 Univ Virginia Verfahren und system zur ableitung von charakteristika des menschlichen gangs und zur passiven fallerkennung aus bodenvibrationen
US7619513B2 (en) 2003-10-03 2009-11-17 Satellite Tracking Of People Llc System and method for tracking movement of individuals
US20050235327A1 (en) * 2003-11-07 2005-10-20 Vitito Christopher J Vehicle entertainment system
US8780282B2 (en) * 2003-11-07 2014-07-15 Voxx International Corporation Vehicle entertainment system
FI119277B (fi) 2003-11-21 2008-09-30 Polar Electro Oy Järjestely, menetelmä ja tietokoneohjelma ihmisen fyysisen aktiivisuustason määrittämiseksi
US7463929B2 (en) * 2003-11-21 2008-12-09 Simmons John C Intelligent assisted control of living bodies
NL1025233C2 (nl) * 2004-01-14 2005-07-18 Henk Kraaijenhof Botontkalkingsschoen.
US7707039B2 (en) 2004-02-15 2010-04-27 Exbiblio B.V. Automatic modification of web pages
US8442331B2 (en) 2004-02-15 2013-05-14 Google Inc. Capturing text from rendered documents using supplemental information
US7812860B2 (en) 2004-04-01 2010-10-12 Exbiblio B.V. Handheld device for capturing text from both a document printed on paper and a document displayed on a dynamic display device
US10635723B2 (en) 2004-02-15 2020-04-28 Google Llc Search engines and systems with handheld document data capture devices
US20050195094A1 (en) * 2004-03-05 2005-09-08 White Russell W. System and method for utilizing a bicycle computer to monitor athletic performance
JP2005292893A (ja) * 2004-03-31 2005-10-20 Nec Access Technica Ltd 携帯情報端末装置
US7990556B2 (en) 2004-12-03 2011-08-02 Google Inc. Association of a portable scanner with input/output and storage devices
US9116890B2 (en) 2004-04-01 2015-08-25 Google Inc. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US20060098900A1 (en) 2004-09-27 2006-05-11 King Martin T Secure data gathering from rendered documents
US7894670B2 (en) 2004-04-01 2011-02-22 Exbiblio B.V. Triggering actions in response to optically or acoustically capturing keywords from a rendered document
US8146156B2 (en) 2004-04-01 2012-03-27 Google Inc. Archive of text captures from rendered documents
US9143638B2 (en) 2004-04-01 2015-09-22 Google Inc. Data capture from rendered documents using handheld device
WO2008028674A2 (en) 2006-09-08 2008-03-13 Exbiblio B.V. Optical scanners, such as hand-held optical scanners
US20060081714A1 (en) 2004-08-23 2006-04-20 King Martin T Portable scanning device
US8081849B2 (en) 2004-12-03 2011-12-20 Google Inc. Portable scanning and memory device
US9008447B2 (en) 2004-04-01 2015-04-14 Google Inc. Method and system for character recognition
JP2005293505A (ja) * 2004-04-05 2005-10-20 Sony Corp 電子機器、及び入力装置、並びに入力方法
US8713418B2 (en) 2004-04-12 2014-04-29 Google Inc. Adding value to a rendered document
US8489624B2 (en) 2004-05-17 2013-07-16 Google, Inc. Processing techniques for text capture from a rendered document
US8620083B2 (en) 2004-12-03 2013-12-31 Google Inc. Method and system for character recognition
US8874504B2 (en) 2004-12-03 2014-10-28 Google Inc. Processing techniques for visual capture data from a rendered document
US8346620B2 (en) 2004-07-19 2013-01-01 Google Inc. Automatic modification of web pages
US7143001B2 (en) * 2004-07-21 2006-11-28 Rockwell Automation Technologies, Inc. Method for monitoring operating characteristics of a single axis machine
US7254516B2 (en) 2004-12-17 2007-08-07 Nike, Inc. Multi-sensor monitoring of athletic performance
FI20055027A (fi) * 2005-01-19 2006-07-20 Polar Electro Oy Järjestelmä, suoritemittari, palvelin ja tietokoneohjelma
JP4389821B2 (ja) * 2005-03-22 2009-12-24 ソニー株式会社 体動検出装置、コンテンツ再生装置、体動検出方法およびコンテンツ再生方法
US8083589B1 (en) 2005-04-15 2011-12-27 Reference, LLC Capture and utilization of real-world data for use in gaming systems such as video games
US20060282021A1 (en) * 2005-05-03 2006-12-14 Devaul Richard W Method and system for fall detection and motion analysis
US20060260624A1 (en) * 2005-05-17 2006-11-23 Battelle Memorial Institute Method, program, and system for automatic profiling of entities
US9104650B2 (en) * 2005-07-11 2015-08-11 Brooks Automation, Inc. Intelligent condition monitoring and fault diagnostic system for preventative maintenance
KR100738074B1 (ko) * 2005-07-16 2007-07-10 삼성전자주식회사 건강관리장치 및 방법
DE102005043647A1 (de) * 2005-09-13 2007-03-29 Actimon Gmbh & Co. Kg Monitoring System
US7733224B2 (en) 2006-06-30 2010-06-08 Bao Tran Mesh network personal emergency response appliance
US7911339B2 (en) * 2005-10-18 2011-03-22 Apple Inc. Shoe wear-out sensor, body-bar sensing system, unitless activity assessment and associated methods
US20070288263A1 (en) * 2005-12-09 2007-12-13 Valence Broadband, Inc. Methods and systems for monitoring quality and performance at a healthcare facility
US7761310B2 (en) 2005-12-09 2010-07-20 Samarion, Inc. Methods and systems for monitoring quality and performance at a healthcare facility
CA2604214A1 (en) * 2005-12-09 2007-07-19 Valence Broadband, Inc. Methods and systems for monitoring quality and performance at a healthcare facility
US7911348B2 (en) 2005-12-09 2011-03-22 Bee Cave, LLC. Methods for refining patient, staff and visitor profiles used in monitoring quality and performance at a healthcare facility
US7786874B2 (en) 2005-12-09 2010-08-31 Samarion, Inc. Methods for refining patient, staff and visitor profiles used in monitoring quality and performance at a healthcare facility
WO2007069127A2 (en) 2005-12-15 2007-06-21 Koninklijke Philips Electronics N.V. Detection and compensation method for monitoring the place of activity on the body
US7978081B2 (en) * 2006-01-09 2011-07-12 Applied Technology Holdings, Inc. Apparatus, systems, and methods for communicating biometric and biomechanical information
GB0602127D0 (en) * 2006-02-02 2006-03-15 Imp Innovations Ltd Gait analysis
EP1983898B1 (de) * 2006-02-03 2017-01-18 Koninklijke Philips N.V. Ultraschallverfahren und vorrichtung zur messung oder bestimmung des fliessverhaltens einer nicht sinusoidalen periodizität
JP4785553B2 (ja) * 2006-02-16 2011-10-05 セイコーインスツル株式会社 歩数測定装置
JP4811046B2 (ja) * 2006-02-17 2011-11-09 ソニー株式会社 コンテンツの再生装置、オーディオ再生機およびコンテンツの再生方法
US7827000B2 (en) * 2006-03-03 2010-11-02 Garmin Switzerland Gmbh Method and apparatus for estimating a motion parameter
US8055469B2 (en) * 2006-03-03 2011-11-08 Garmin Switzerland Gmbh Method and apparatus for determining the attachment position of a motion sensing apparatus
US7467060B2 (en) * 2006-03-03 2008-12-16 Garmin Ltd. Method and apparatus for estimating a motion parameter
EP1993444A2 (de) * 2006-03-08 2008-11-26 Philips Intellectual Property & Standards GmbH Verfahren und system zur überwachung der funktionalen verwendung von gliedmassen
US9390229B1 (en) 2006-04-26 2016-07-12 Dp Technologies, Inc. Method and apparatus for a health phone
US8005701B2 (en) * 2006-06-08 2011-08-23 Bayerische Motoren Werke Aktiengesellschaft Systems and methods for generating a work schedule
US8902154B1 (en) 2006-07-11 2014-12-02 Dp Technologies, Inc. Method and apparatus for utilizing motion user interface
US20080055316A1 (en) * 2006-08-30 2008-03-06 Microsoft Corporation Programmatically representing sentence meaning with animation
US20080076977A1 (en) * 2006-09-26 2008-03-27 Nellcor Puritan Bennett Inc. Patient monitoring device snapshot feature system and method
US8005257B2 (en) * 2006-10-05 2011-08-23 The United States Of America As Represented By The Secretary Of The Navy Gesture recognition apparatus and method
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
KR100827076B1 (ko) * 2006-10-31 2008-05-02 삼성전자주식회사 이동거리 측정 장치 및 방법
KR100800874B1 (ko) * 2006-10-31 2008-02-04 삼성전자주식회사 보폭 추정 방법 및 이를 위한 휴대 단말
US9526995B2 (en) * 2006-11-22 2016-12-27 Sony Interactive Entertainment America Llc Video game recording and playback with visual display of game controller manipulation
US8652040B2 (en) 2006-12-19 2014-02-18 Valencell, Inc. Telemetric apparatus for health and environmental monitoring
US8157730B2 (en) 2006-12-19 2012-04-17 Valencell, Inc. Physiological and environmental monitoring systems and methods
US7653508B1 (en) 2006-12-22 2010-01-26 Dp Technologies, Inc. Human activity monitoring device
US8078426B2 (en) * 2006-12-28 2011-12-13 Precor Incorporated Metric display for exercise equipment
US8620353B1 (en) 2007-01-26 2013-12-31 Dp Technologies, Inc. Automatic sharing and publication of multimedia from a mobile device
US8949070B1 (en) 2007-02-08 2015-02-03 Dp Technologies, Inc. Human activity monitoring device with activity identification
NZ553146A (en) * 2007-02-09 2011-05-27 Say Systems Ltd Improvements relating to monitoring and displaying activities
US8788848B2 (en) * 2007-03-22 2014-07-22 Microsoft Corporation Optical DNA
US8837721B2 (en) * 2007-03-22 2014-09-16 Microsoft Corporation Optical DNA based on non-deterministic errors
US7753861B1 (en) 2007-04-04 2010-07-13 Dp Technologies, Inc. Chest strap having human activity monitoring device
US8408041B2 (en) 2007-04-19 2013-04-02 Koninklijke Philips Electronics N.V. Fall detection system
GB0708457D0 (en) * 2007-05-01 2007-06-06 Unilever Plc Monitor device and use thereof
JP2008305198A (ja) * 2007-06-07 2008-12-18 Fujitsu Component Ltd 入力システム及び入力装置
US8602997B2 (en) 2007-06-12 2013-12-10 Sotera Wireless, Inc. Body-worn system for measuring continuous non-invasive blood pressure (cNIBP)
EP2162059B1 (de) 2007-06-12 2021-01-13 Sotera Wireless, Inc. Vitalzeichenmonitor und verfahren zur messung des blutdrucks mit optischen, elektrischen und druck-wellenformen
US11330988B2 (en) 2007-06-12 2022-05-17 Sotera Wireless, Inc. Body-worn system for measuring continuous non-invasive blood pressure (cNIBP)
US11607152B2 (en) 2007-06-12 2023-03-21 Sotera Wireless, Inc. Optical sensors for use in vital sign monitoring
US8027542B2 (en) * 2007-06-18 2011-09-27 The Regents Of The University Of California High speed video action recognition and localization
US8555282B1 (en) 2007-07-27 2013-10-08 Dp Technologies, Inc. Optimizing preemptive operating system with motion sensing
JP4992595B2 (ja) * 2007-07-27 2012-08-08 オムロンヘルスケア株式会社 活動量計
US7647196B2 (en) * 2007-08-08 2010-01-12 Dp Technologies, Inc. Human activity monitoring device with distance calculation
US20090044332A1 (en) * 2007-08-13 2009-02-19 Valence Broadband, Inc. Height adjustable patient support platforms
US20090044334A1 (en) * 2007-08-13 2009-02-19 Valence Broadband, Inc. Automatically adjusting patient platform support height in response to patient related events
US20110021317A1 (en) * 2007-08-24 2011-01-27 Koninklijke Philips Electronics N.V. System and method for displaying anonymously annotated physical exercise data
US20110035662A1 (en) 2009-02-18 2011-02-10 King Martin T Interacting with rendered documents using a multi-function mobile device, such as a mobile phone
US7984006B2 (en) * 2007-09-18 2011-07-19 Palo Alto Research Center Incorporated Learning a user's activity preferences from GPS traces and known nearby venues
US8251903B2 (en) 2007-10-25 2012-08-28 Valencell, Inc. Noninvasive physiological analysis using excitation-sensor modules and related devices and methods
US7987069B2 (en) * 2007-11-12 2011-07-26 Bee Cave, Llc Monitoring patient support exiting and initiating response
JP5159263B2 (ja) * 2007-11-14 2013-03-06 株式会社日立製作所 作業情報処理装置、プログラム及び作業情報処理方法
JP5358831B2 (ja) * 2007-12-18 2013-12-04 新世代株式会社 運動形態判別装置、運動形態判別方法、及び、コンピュータプログラム
EP2235602A4 (de) * 2008-01-23 2018-03-28 The Regents of The University of California Systeme und verfahren für verhaltensüberwachung und kalibrierung
JP5141317B2 (ja) * 2008-03-14 2013-02-13 オムロン株式会社 対象画像検出デバイス、制御プログラム、および該プログラムを記録した記録媒体、ならびに対象画像検出デバイスを備えた電子機器
JP4613974B2 (ja) * 2008-03-28 2011-01-19 ソニー株式会社 通信機器および通信システム
US8320578B2 (en) * 2008-04-30 2012-11-27 Dp Technologies, Inc. Headset
US8260578B2 (en) * 2008-05-19 2012-09-04 The Procter & Gamble Company Method of determining the dynamic location of a protection
US8185354B2 (en) * 2008-05-19 2012-05-22 The Procter & Gamble Company Method of determining the dynamic location of a protection device
US8285344B2 (en) 2008-05-21 2012-10-09 DP Technlogies, Inc. Method and apparatus for adjusting audio for a user environment
US8113991B2 (en) * 2008-06-02 2012-02-14 Omek Interactive, Ltd. Method and system for interactive fitness training program
KR100988459B1 (ko) * 2008-06-24 2010-10-18 한국전자통신연구원 낙상 감지 장치 및 방법
US8996332B2 (en) 2008-06-24 2015-03-31 Dp Technologies, Inc. Program setting adjustments based on activity identification
FR2933185B1 (fr) * 2008-06-27 2017-07-21 Movea Sa Systeme et procede de determination d'informations representatives du mouvement d'une chaine articulee
KR101000789B1 (ko) * 2008-08-04 2010-12-13 한국전자통신연구원 사용자 인식 장치 및 사용자 인식 방법
TWI457793B (zh) * 2008-08-08 2014-10-21 Ind Tech Res Inst 即時動作辨識方法及其慣性感測與軌跡重建裝置
US8140369B2 (en) * 2008-08-21 2012-03-20 Toyota Motor Engineering & Manufacturing North America, Inc. System and method for optimizing manufacturing workforce
US8187182B2 (en) 2008-08-29 2012-05-29 Dp Technologies, Inc. Sensor fusion for activity identification
JP2012502562A (ja) * 2008-09-03 2012-01-26 スニフ ラブス,インコーポレーテッド 発見プロトコル
JP5208637B2 (ja) * 2008-09-16 2013-06-12 株式会社東芝 情報処理装置、方法及びプログラム
JP5417779B2 (ja) * 2008-09-18 2014-02-19 オムロンヘルスケア株式会社 活動量計
US8872646B2 (en) 2008-10-08 2014-10-28 Dp Technologies, Inc. Method and system for waking up a device due to motion
WO2010047150A1 (ja) * 2008-10-20 2010-04-29 株式会社日立製作所 作業情報処理装置、プログラムおよび作業情報処理方法
FI20085993A0 (fi) * 2008-10-21 2008-10-21 Polar Electro Oy Näyttömoodin valinta
US8634635B2 (en) * 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
KR101278605B1 (ko) 2008-11-04 2013-06-25 파나소닉 주식회사 측정 장치, 인슐린 주입 장치, 측정 방법, 인슐린 주입 장치의 제어 방법 및 프로그램
US8310547B2 (en) * 2008-12-05 2012-11-13 Electronics And Telecommunications Research Institue Device for recognizing motion and method of recognizing motion using the same
KR101210277B1 (ko) * 2008-12-23 2012-12-18 한국전자통신연구원 행위 모니터링 시스템 및 행위 모니터링을 위한 정보 전송 방법
JP5376960B2 (ja) * 2009-01-15 2013-12-25 株式会社東芝 測位装置及び測位時間間隔制御方法
TW201028886A (en) * 2009-01-22 2010-08-01 Asustek Comp Inc Method and system for identifying 3D motion
JP2012518236A (ja) * 2009-02-17 2012-08-09 オーメック インタラクティブ,リミテッド ジェスチャー認識のための方法及びシステム
US9135948B2 (en) * 2009-07-03 2015-09-15 Microsoft Technology Licensing, Llc Optical medium with added descriptor to reduce counterfeiting
JP5789199B2 (ja) 2009-02-25 2015-10-07 ヴァレンセル,インコーポレイテッド ヘッドセット及びイアバッド
US9750462B2 (en) 2009-02-25 2017-09-05 Valencell, Inc. Monitoring apparatus and methods for measuring physiological and/or environmental conditions
US8788002B2 (en) 2009-02-25 2014-07-22 Valencell, Inc. Light-guiding devices and monitoring devices incorporating same
US8216136B2 (en) 2009-03-05 2012-07-10 Nellcor Puritan Bennett Llc Systems and methods for monitoring heart rate and blood pressure correlation
US20120116257A1 (en) * 2009-03-05 2012-05-10 Searete Llc Postural information system and method including determining response to subject advisory information
CN102349087B (zh) 2009-03-12 2015-05-06 谷歌公司 自动提供与捕获的信息例如实时捕获的信息关联的内容
US8447066B2 (en) 2009-03-12 2013-05-21 Google Inc. Performing actions based on capturing information from rendered documents, such as documents under copyright
JP2010263953A (ja) * 2009-05-12 2010-11-25 Oki Electric Ind Co Ltd 運動分析装置、プログラム及び方法、並びに、運動分析システム
US8475370B2 (en) 2009-05-20 2013-07-02 Sotera Wireless, Inc. Method for measuring patient motion, activity level, and posture along with PTT-based blood pressure
US20150164437A1 (en) * 2009-05-20 2015-06-18 Sotera Wireless, Inc. Graphical mapping system for continuously monitoring a patient's vital signs, motion, and location
US11896350B2 (en) 2009-05-20 2024-02-13 Sotera Wireless, Inc. Cable system for generating signals for detecting motion and measuring vital signs
US9492092B2 (en) * 2009-05-20 2016-11-15 Sotera Wireless, Inc. Method for continuously monitoring a patient using a body-worn device and associated system for alarms/alerts
JP5674766B2 (ja) * 2009-05-20 2015-02-25 コーニンクレッカ フィリップス エヌ ヴェ 着用位置を検出するためのセンシングデバイス
US9417700B2 (en) 2009-05-21 2016-08-16 Edge3 Technologies Gesture recognition systems and related methods
US9529437B2 (en) 2009-05-26 2016-12-27 Dp Technologies, Inc. Method and apparatus for a motion state aware device
JP4679677B2 (ja) * 2009-05-27 2011-04-27 パナソニック株式会社 行動認識装置
US8755569B2 (en) * 2009-05-29 2014-06-17 University Of Central Florida Research Foundation, Inc. Methods for recognizing pose and action of articulated objects with collection of planes in motion
CN102227697B (zh) * 2009-06-08 2014-12-10 松下电器产业株式会社 操作识别系统、操作识别装置及操作识别方法
US10408623B2 (en) * 2009-06-12 2019-09-10 Microsoft Technology Licensing, Llc Retracing steps
US9775529B2 (en) 2009-06-17 2017-10-03 Sotera Wireless, Inc. Body-worn pulse oximeter
US20110022443A1 (en) * 2009-07-21 2011-01-27 Palo Alto Research Center Incorporated Employment inference from mobile device data
US9024865B2 (en) * 2009-07-23 2015-05-05 Qualcomm Incorporated Method and apparatus for controlling mobile and consumer electronic devices
US8744765B2 (en) * 2009-07-30 2014-06-03 Msa Technology, Llc Personal navigation system and associated methods
US20110054833A1 (en) * 2009-09-02 2011-03-03 Apple Inc. Processing motion sensor data using accessible templates
US8504317B2 (en) * 2009-09-04 2013-08-06 Panasonic Corporation Position calibration information collecting apparatus, position calibration information collecting method, and position calibration information collecting program
US8740807B2 (en) 2009-09-14 2014-06-03 Sotera Wireless, Inc. Body-worn monitor for measuring respiration rate
US11253169B2 (en) 2009-09-14 2022-02-22 Sotera Wireless, Inc. Body-worn monitor for measuring respiration rate
US8527038B2 (en) 2009-09-15 2013-09-03 Sotera Wireless, Inc. Body-worn vital sign monitor
US8321004B2 (en) * 2009-09-15 2012-11-27 Sotera Wireless, Inc. Body-worn vital sign monitor
US10420476B2 (en) 2009-09-15 2019-09-24 Sotera Wireless, Inc. Body-worn vital sign monitor
US10806351B2 (en) 2009-09-15 2020-10-20 Sotera Wireless, Inc. Body-worn vital sign monitor
US20110066044A1 (en) 2009-09-15 2011-03-17 Jim Moon Body-worn vital sign monitor
US8364250B2 (en) * 2009-09-15 2013-01-29 Sotera Wireless, Inc. Body-worn vital sign monitor
US8923945B2 (en) * 2009-09-24 2014-12-30 Covidien Lp Determination of a physiological parameter
KR101283464B1 (ko) * 2009-09-29 2013-07-12 한국전자통신연구원 동작 인식용 신발을 이용한 동작 인식 시스템
WO2011057089A1 (en) * 2009-11-06 2011-05-12 Espenusa Holding, Llc Data collection unit with integrated closure system and sensor housing
KR101647722B1 (ko) * 2009-11-13 2016-08-23 엘지전자 주식회사 영상표시장치 및 그 동작방법
US20110118969A1 (en) * 2009-11-17 2011-05-19 Honeywell Intellectual Inc. Cognitive and/or physiological based navigation
US9803986B2 (en) * 2009-11-24 2017-10-31 Core Wireless Licensing S.A.R.L. Method and apparatus for determining premises semantics
US9081799B2 (en) 2009-12-04 2015-07-14 Google Inc. Using gestalt information to identify locations in printed information
US9323784B2 (en) 2009-12-09 2016-04-26 Google Inc. Image search using text-based elements within the contents of images
US8793727B2 (en) * 2009-12-10 2014-07-29 Echostar Ukraine, L.L.C. System and method for selecting audio/video content for presentation to a user in response to monitored user activity
JP5424852B2 (ja) * 2009-12-17 2014-02-26 キヤノン株式会社 映像情報処理方法及びその装置
US9141507B2 (en) * 2009-12-23 2015-09-22 Microsoft Technology Licensing, Llc Visualization of states of a process
JP5225475B2 (ja) * 2010-01-07 2013-07-03 株式会社東芝 移動状態推定装置、方法およびプログラム
US9068844B2 (en) 2010-01-08 2015-06-30 Dp Technologies, Inc. Method and apparatus for an integrated personal navigation system
US10159431B2 (en) * 2010-01-08 2018-12-25 Kermit Patrick Parker Digital professional training instructor (the DPT instructor)
JP2011170857A (ja) * 2010-02-22 2011-09-01 Ailive Inc 最小のディレイでモーション認識を行うシステム及び方法
US20110224564A1 (en) 2010-03-10 2011-09-15 Sotera Wireless, Inc. Body-worn vital sign monitor
JPWO2011114620A1 (ja) * 2010-03-16 2013-06-27 日本電気株式会社 関心度計測システム
JP5560845B2 (ja) * 2010-03-30 2014-07-30 ソニー株式会社 情報処理装置、画像出力方法及びプログラム
US9173594B2 (en) 2010-04-19 2015-11-03 Sotera Wireless, Inc. Body-worn monitor for measuring respiratory rate
US9339209B2 (en) 2010-04-19 2016-05-17 Sotera Wireless, Inc. Body-worn monitor for measuring respiratory rate
US8979765B2 (en) 2010-04-19 2015-03-17 Sotera Wireless, Inc. Body-worn monitor for measuring respiratory rate
US8888700B2 (en) 2010-04-19 2014-11-18 Sotera Wireless, Inc. Body-worn monitor for measuring respiratory rate
US9173593B2 (en) 2010-04-19 2015-11-03 Sotera Wireless, Inc. Body-worn monitor for measuring respiratory rate
US8747330B2 (en) 2010-04-19 2014-06-10 Sotera Wireless, Inc. Body-worn monitor for measuring respiratory rate
JP6192032B2 (ja) 2010-04-22 2017-09-06 リーフ ヘルスケア インコーポレイテッド 患者の生理学的状況をモニタリングするシステム
US8396252B2 (en) 2010-05-20 2013-03-12 Edge 3 Technologies Systems and related methods for three dimensional gesture recognition in vehicles
US8639020B1 (en) 2010-06-16 2014-01-28 Intel Corporation Method and system for modeling subjects from a depth map
US8620625B2 (en) 2010-07-30 2013-12-31 Hill-Rom Services, Inc. Above bed sensor
JP5713595B2 (ja) * 2010-07-16 2015-05-07 オムロンヘルスケア株式会社 運動検出装置、および、運動検出装置の制御方法
US9940682B2 (en) 2010-08-11 2018-04-10 Nike, Inc. Athletic activity user experience and environment
US8655093B2 (en) 2010-09-02 2014-02-18 Edge 3 Technologies, Inc. Method and apparatus for performing segmentation of an image
US8666144B2 (en) 2010-09-02 2014-03-04 Edge 3 Technologies, Inc. Method and apparatus for determining disparity of texture
US8582866B2 (en) 2011-02-10 2013-11-12 Edge 3 Technologies, Inc. Method and apparatus for disparity computation in stereo images
WO2012030872A1 (en) 2010-09-02 2012-03-08 Edge3 Technologies Inc. Method and apparatus for confusion learning
US20120058824A1 (en) 2010-09-07 2012-03-08 Microsoft Corporation Scalable real-time motion recognition
US9148483B1 (en) 2010-09-30 2015-09-29 Fitbit, Inc. Tracking user physical activity with multiple devices
US11243093B2 (en) 2010-09-30 2022-02-08 Fitbit, Inc. Methods, systems and devices for generating real-time activity data updates to display devices
US8615377B1 (en) 2010-09-30 2013-12-24 Fitbit, Inc. Methods and systems for processing social interactive data and sharing of tracked activity associated with locations
US9390427B2 (en) 2010-09-30 2016-07-12 Fitbit, Inc. Methods, systems and devices for automatic linking of activity tracking devices to user devices
US9241635B2 (en) 2010-09-30 2016-01-26 Fitbit, Inc. Portable monitoring devices for processing applications and processing analysis of physiological conditions of a user associated with the portable monitoring device
US10983945B2 (en) 2010-09-30 2021-04-20 Fitbit, Inc. Method of data synthesis
US8762101B2 (en) 2010-09-30 2014-06-24 Fitbit, Inc. Methods and systems for identification of event data having combined activity and location information of portable monitoring devices
US8954290B2 (en) 2010-09-30 2015-02-10 Fitbit, Inc. Motion-activated display of messages on an activity monitoring device
US10004406B2 (en) 2010-09-30 2018-06-26 Fitbit, Inc. Portable monitoring devices for processing applications and processing analysis of physiological conditions of a user associated with the portable monitoring device
US8954291B2 (en) 2010-09-30 2015-02-10 Fitbit, Inc. Alarm setting and interfacing with gesture contact interfacing controls
US8712724B2 (en) 2010-09-30 2014-04-29 Fitbit, Inc. Calendar integration methods and systems for presentation of events having combined activity and location information
US8694282B2 (en) 2010-09-30 2014-04-08 Fitbit, Inc. Methods and systems for geo-location optimized tracking and updating for events having combined activity and location information
US8762102B2 (en) 2010-09-30 2014-06-24 Fitbit, Inc. Methods and systems for generation and rendering interactive events having combined activity and location information
US8805646B2 (en) 2010-09-30 2014-08-12 Fitbit, Inc. Methods, systems and devices for linking user devices to activity tracking devices
US8738323B2 (en) 2010-09-30 2014-05-27 Fitbit, Inc. Methods and systems for metrics analysis and interactive rendering, including events having combined activity and location information
US8744803B2 (en) 2010-09-30 2014-06-03 Fitbit, Inc. Methods, systems and devices for activity tracking device data synchronization with computing devices
US8620617B2 (en) 2010-09-30 2013-12-31 Fitbit, Inc. Methods and systems for interactive goal setting and recommender using events having combined activity and location information
US8738321B2 (en) 2010-09-30 2014-05-27 Fitbit, Inc. Methods and systems for classification of geographic locations for tracked activity
US8548740B2 (en) * 2010-10-07 2013-10-01 Honeywell International Inc. System and method for wavelet-based gait classification
TWI439947B (zh) * 2010-11-11 2014-06-01 Ind Tech Res Inst 辨識人體移動行為之方法及系統
US8907287B2 (en) * 2010-12-01 2014-12-09 Hill-Rom Services, Inc. Patient monitoring system
KR101159475B1 (ko) * 2010-12-10 2012-06-25 숭실대학교산학협력단 근전도 센서와 가속도 센서를 이용한 로봇 이동 제어 장치 및 방법
US20140249432A1 (en) 2010-12-28 2014-09-04 Matt Banet Body-worn system for continuous, noninvasive measurement of cardiac output, stroke volume, cardiac power, and blood pressure
US8888701B2 (en) 2011-01-27 2014-11-18 Valencell, Inc. Apparatus and methods for monitoring physiological data during environmental interference
US8970589B2 (en) 2011-02-10 2015-03-03 Edge 3 Technologies, Inc. Near-touch interaction with a stereo camera grid structured tessellations
KR101810751B1 (ko) 2011-02-17 2017-12-19 나이키 이노베이트 씨.브이. 물리적 활동 데이터와 영상 데이터간의 선택 및 상관
CN103491860B (zh) 2011-02-18 2016-10-19 索泰拉无线公司 用于测量生理特性的光学传感器
US9439574B2 (en) 2011-02-18 2016-09-13 Sotera Wireless, Inc. Modular wrist-worn processor for patient monitoring
US8761437B2 (en) 2011-02-18 2014-06-24 Microsoft Corporation Motion recognition
WO2012119126A2 (en) * 2011-03-02 2012-09-07 The Regents Of The University Of California Apparatus, system, and method for automatic identification of sensor placement
US20130029681A1 (en) * 2011-03-31 2013-01-31 Qualcomm Incorporated Devices, methods, and apparatuses for inferring a position of a mobile device
US11048333B2 (en) 2011-06-23 2021-06-29 Intel Corporation System and method for close-range movement tracking
JP6074170B2 (ja) 2011-06-23 2017-02-01 インテル・コーポレーション 近距離動作のトラッキングのシステムおよび方法
WO2013016007A2 (en) 2011-07-25 2013-01-31 Valencell, Inc. Apparatus and methods for estimating time-state physiological parameters
WO2013019494A2 (en) 2011-08-02 2013-02-07 Valencell, Inc. Systems and methods for variable filter adjustment by heart rate metric feedback
US8849605B2 (en) * 2011-08-23 2014-09-30 Qualcomm Incorporated Method and apparatus for sensor based pedestrian motion detection in hand-held devices
US9374659B1 (en) 2011-09-13 2016-06-21 Dp Technologies, Inc. Method and apparatus to utilize location data to enhance safety
US9672609B1 (en) 2011-11-11 2017-06-06 Edge 3 Technologies, Inc. Method and apparatus for improved depth-map estimation
US8958631B2 (en) 2011-12-02 2015-02-17 Intel Corporation System and method for automatically defining and identifying a gesture
US20150119728A1 (en) * 2011-12-02 2015-04-30 Fitlinxx, Inc. Health monitor
US9734304B2 (en) 2011-12-02 2017-08-15 Lumiradx Uk Ltd Versatile sensors with data fusion functionality
US9700222B2 (en) 2011-12-02 2017-07-11 Lumiradx Uk Ltd Health-monitor patch
FR2984511B1 (fr) * 2011-12-19 2014-12-05 Commissariat Energie Atomique Systeme et procede de detection d'au moins une phase transitoire dans une activite stationnaire d'un etre anime
JP5892785B2 (ja) * 2011-12-22 2016-03-23 株式会社日立製作所 情報処理装置、及び情報処理方法
US9352207B2 (en) * 2012-01-19 2016-05-31 Nike, Inc. Action detection and activity classification
JP5927966B2 (ja) * 2012-02-14 2016-06-01 ソニー株式会社 表示制御装置、表示制御方法、及びプログラム
US10445464B2 (en) * 2012-02-17 2019-10-15 Location Labs, Inc. System and method for detecting medical anomalies using a mobile communication device
US9295390B2 (en) 2012-03-02 2016-03-29 Hill-Rom Services, Inc. Facial recognition based monitoring systems and methods
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
US20130281796A1 (en) * 2012-04-20 2013-10-24 Broadmaster Biotech Corp. Biosensor with exercise amount measuring function and remote medical system thereof
US9452318B2 (en) * 2012-04-24 2016-09-27 East Carolina University Exercise apparatus and related methods and computer program products
US9641239B2 (en) 2012-06-22 2017-05-02 Fitbit, Inc. Adaptive data transfer using bluetooth
US9770195B2 (en) * 2012-08-09 2017-09-26 The Regents Of The University Of California Automated scratch detection system and signal processing algorithm for the study of pruritus in animals
US10408857B2 (en) * 2012-09-12 2019-09-10 Alpinereplay, Inc. Use of gyro sensors for identifying athletic maneuvers
US9214077B2 (en) 2012-10-08 2015-12-15 Location Labs, Inc. Bio-powered locator device
JP2014086809A (ja) * 2012-10-22 2014-05-12 Ricoh Co Ltd 機器制御装置、機器制御方法およびプログラム
US9797743B2 (en) * 2012-11-01 2017-10-24 Verizon Telematics Inc. Method and system for determining whether to reset a height in a height determining device based on the occurrence of steps
US9526437B2 (en) 2012-11-21 2016-12-27 i4c Innovations Inc. Animal health and wellness monitoring using UWB radar
CN104956222B (zh) 2012-12-17 2018-10-02 雅培医护站股份有限公司 便携式临床分析系统的操作和核查
EP2932250B1 (de) 2012-12-17 2017-10-04 Abbott Point Of Care, Inc. Selbstkorrektur zur räumlichen ausrichtung und bewegung von tragbaren klinischen testvorrichtungen
ES2773301T3 (es) * 2012-12-17 2020-07-10 Abbott Point Of Care Inc Determinación de la orientación espacial en sistemas portátiles de análisis clínicos
WO2014099420A1 (en) 2012-12-17 2014-06-26 Abbott Point Of Care Inc A portable clinical analysis system for immunometric measurement
WO2014099419A1 (en) 2012-12-17 2014-06-26 Abbott Point Of Care Inc A portable clinical analysis system for hematocrit measurement
WO2014097348A1 (ja) * 2012-12-18 2014-06-26 富士通株式会社 情報処理装置の制御方法、制御プログラム、情報処理装置
JP5811360B2 (ja) * 2012-12-27 2015-11-11 カシオ計算機株式会社 運動情報表示システムおよび運動情報表示方法、運動情報表示プログラム
US9728059B2 (en) 2013-01-15 2017-08-08 Fitbit, Inc. Sedentary period detection utilizing a wearable electronic device
EP2928364A4 (de) 2013-01-28 2015-11-11 Valencell Inc Vorrichtungen zur überwachung physiologischer funktionen mit von körperbewegungen abgekoppelten sensorelementen
ITAN20130026U1 (it) * 2013-03-08 2014-09-09 Safe Way S R L Calzatura integrante sensori
WO2014145122A2 (en) * 2013-03-15 2014-09-18 Aliphcom Identification of motion characteristics to determine activity
US10149617B2 (en) * 2013-03-15 2018-12-11 i4c Innovations Inc. Multiple sensors for monitoring health and wellness of an animal
US9710761B2 (en) 2013-03-15 2017-07-18 Nordic Technology Group, Inc. Method and apparatus for detection and prediction of events based on changes in behavior
US10721448B2 (en) 2013-03-15 2020-07-21 Edge 3 Technologies, Inc. Method and apparatus for adaptive exposure bracketing, segmentation and scene organization
US10359288B2 (en) 2013-03-26 2019-07-23 Google Llc Signal processing to extract a pedestrian's moving direction
WO2014153727A1 (en) * 2013-03-26 2014-10-02 Google Inc. Signal processing to extract a pedestrian's moving direction
US20160073934A1 (en) * 2013-04-15 2016-03-17 dorseVi Pty Ltd. Method and apparatus for monitoring dynamic status of a body
US9125015B2 (en) 2013-06-28 2015-09-01 Facebook, Inc. User activity tracking system and device
US8948783B2 (en) 2013-06-28 2015-02-03 Facebook, Inc. User activity tracking system
AU2014324081A1 (en) * 2013-09-19 2016-04-14 Dorsavi Pty Ltd Method and apparatus for monitoring quality of a dynamic activity of a body
CN104516660B (zh) * 2013-09-27 2019-03-08 联想(北京)有限公司 一种信息处理方法、系统及电子设备
CN103581852B (zh) * 2013-09-30 2018-03-06 吴家宝 人体摔倒检测的方法、装置及移动终端系统
US20160258778A1 (en) * 2013-10-11 2016-09-08 Imsi Design, Llc Method for calibrating the physical position and orientation of an electronic device using device sensors only
JP6077183B2 (ja) * 2013-10-16 2017-02-08 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ユーザの運動を電圧に変換するデバイス
KR20150084184A (ko) * 2014-01-13 2015-07-22 주식회사 독트라 동물용 운동 보조 장치와 동물 활동 정보 모니터링 시스템 및 방법
JP6281290B2 (ja) 2014-01-15 2018-02-21 Tdk株式会社 リストバンド型腕動作判定装置
US10327671B2 (en) * 2014-02-17 2019-06-25 Hong Kong Baptist University Algorithms for gait measurement with 3-axes accelerometer/gyro in mobile devices
US9402155B2 (en) 2014-03-03 2016-07-26 Location Labs, Inc. System and method for indicating a state of a geographic area based on mobile device sensor measurements
US10004455B2 (en) * 2014-04-03 2018-06-26 Universiti Brunei Darussalam Realtime biofeedback mechanism and data presentation for knee injury rehabilitation monitoring and a soft real time intelligent system thereof
KR101573138B1 (ko) 2014-04-04 2015-12-01 삼성전자주식회사 사용자의 활동량 측정 방법 및 장치
US9311804B2 (en) 2014-04-11 2016-04-12 Hill-Rom Services, Inc. Patient-need prediction system
US9173596B1 (en) * 2014-06-28 2015-11-03 Bertec Limited Movement assessment apparatus and a method for providing biofeedback using the same
US9414784B1 (en) 2014-06-28 2016-08-16 Bertec Limited Movement assessment apparatus and a method for providing biofeedback using the same
US9508026B2 (en) 2014-07-01 2016-11-29 Irida Labs S.A. System and a method for camera motion analysis and understanding from a video sequence
US9538921B2 (en) 2014-07-30 2017-01-10 Valencell, Inc. Physiological monitoring devices with adjustable signal analysis and interrogation power and monitoring methods using same
EP4098178B1 (de) 2014-08-06 2024-04-10 Yukka Magic LLC Optische physiologische sensormodule mit reduziertem signalrauschen
KR102299361B1 (ko) 2014-09-03 2021-09-07 삼성전자주식회사 혈압을 모니터링하는 장치 및 방법, 혈압 모니터링 기능을 갖는 웨어러블 디바이스
US20170245785A1 (en) * 2014-09-15 2017-08-31 3M Innovative Properties Company Impairment detection
BR112017005277B1 (pt) 2014-09-15 2022-11-16 3M Innovative Properties Company Método para monitoramento de indicadores de disfunção e dispositivo para monitorar indicadores de disfunção
JP6446941B2 (ja) * 2014-09-22 2019-01-09 カシオ計算機株式会社 運動解析装置、方法、およびプログラム
US9794653B2 (en) 2014-09-27 2017-10-17 Valencell, Inc. Methods and apparatus for improving signal quality in wearable biometric monitoring devices
US10129384B2 (en) 2014-09-29 2018-11-13 Nordic Technology Group Inc. Automatic device configuration for event detection
US20160089080A1 (en) * 2014-09-30 2016-03-31 Mophie, Inc. System and method for activity determination
EP3032455A1 (de) * 2014-12-09 2016-06-15 Movea Vorrichtung und Verfahren zur Klassifizierung und Neuklassifizierung einer Benutzeraktivität
CN105824588A (zh) 2015-01-06 2016-08-03 阿里巴巴集团控股有限公司 提示消息的显示方法及装置
KR102411658B1 (ko) 2015-01-15 2022-06-21 삼성전자주식회사 생체 정보 검출 장치
CA2880623A1 (en) * 2015-02-02 2016-08-02 Jian Chen Emg diagnostic method for traumatic brain injury
US10212325B2 (en) 2015-02-17 2019-02-19 Alpinereplay, Inc. Systems and methods to control camera operations
KR102384225B1 (ko) * 2015-03-06 2022-04-07 삼성전자주식회사 혈압 측정 장치 및 방법
US20180225523A1 (en) * 2015-05-05 2018-08-09 Dean Drako 3D Event Sequence Capture and Image Transform Apparatus and Method for Operation
US10025989B2 (en) * 2015-05-05 2018-07-17 Dean Drako 3D event capture and image transform apparatus and method for operation
US10010129B2 (en) 2015-05-28 2018-07-03 Nike, Inc. Lockout feature for a control device
US10600333B2 (en) * 2015-06-23 2020-03-24 Reperformance Inc. System and method for normalizing activity results
JP6701634B2 (ja) 2015-07-06 2020-05-27 オムロンヘルスケア株式会社 行動通知システム、運動情報測定装置、電子機器、行動通知方法、行動通知プログラム
US10398359B2 (en) * 2015-07-13 2019-09-03 BioMetrix LLC Movement analysis system, wearable movement tracking sensors, and associated methods
US10610101B2 (en) * 2015-07-29 2020-04-07 Athalonz, Llc Arm fatigue analysis system
KR102434701B1 (ko) 2015-09-01 2022-08-22 삼성전자주식회사 생체 정보 획득 장치 및 생체 정보 획득 방법과 생체 정보 검사 장치
US10172541B2 (en) 2015-09-25 2019-01-08 J-Mex Inc. Motion recognition device and method
TWI625114B (zh) * 2015-09-25 2018-06-01 晶翔微系統股份有限公司 運動辨識裝置及方法
WO2017070463A1 (en) 2015-10-23 2017-04-27 Valencell, Inc. Physiological monitoring devices and methods that identify subject activity type
US10945618B2 (en) 2015-10-23 2021-03-16 Valencell, Inc. Physiological monitoring devices and methods for noise reduction in physiological signals based on subject activity type
US10321208B2 (en) 2015-10-26 2019-06-11 Alpinereplay, Inc. System and method for enhanced video image recognition using motion sensors
KR101892026B1 (ko) * 2015-11-10 2018-08-27 현대자동차주식회사 차량의 원격 주차 제어 방법 및 장치
US10919574B2 (en) 2015-11-10 2021-02-16 Hyundai Motor Company Automatic parking system and automatic parking method
US10606257B2 (en) 2015-11-10 2020-03-31 Hyundai Motor Company Automatic parking system and automatic parking method
US10906530B2 (en) 2015-11-10 2021-02-02 Hyundai Motor Company Automatic parking system and automatic parking method
KR102070568B1 (ko) * 2015-11-19 2020-01-29 파나소닉 아이피 매니지먼트 가부시키가이샤 보행 동작 표시 시스템 및 컴퓨터 판독 가능한 기록 매체에 저장된 프로그램
US10055948B2 (en) 2015-11-30 2018-08-21 Nike, Inc. Apparel with ultrasonic position sensing and haptic feedback for activities
JP2017117089A (ja) * 2015-12-22 2017-06-29 ローム株式会社 センサノード、センサネットワークシステム、および監視方法
US10463909B2 (en) * 2015-12-27 2019-11-05 Seismic Holdings, Inc. System and method for using performance signatures
US9830755B2 (en) 2016-02-17 2017-11-28 Jvis-Usa, Llc System including a hand-held communication device having low and high power settings for remotely controlling the position of a door of a land vehicle and key fob for use in the system
US10395455B2 (en) 2016-02-17 2019-08-27 Jvis-Usa, Llc System for remotely controlling the position of a land vehicle door wherein hand-held and mobile communication devices of the system communicate via inductive coupling
US9593522B1 (en) 2016-02-17 2017-03-14 Jvis-Usa, Llc System including a hand-held communication device having a motion sensor for remotely controlling the position of a door of a land vehicle and key fob for use in the system
US9963107B2 (en) 2016-02-17 2018-05-08 Jvis-Usa, Llc System for remotely opening a land-vehicle door
US10284822B2 (en) 2016-02-17 2019-05-07 Jvis-Usa, Llc System for enhancing the visibility of a ground surface adjacent to a land vehicle
US10080530B2 (en) 2016-02-19 2018-09-25 Fitbit, Inc. Periodic inactivity alerts and achievement messages
US11369288B2 (en) 2016-03-14 2022-06-28 National Ict Australia Limited Activity pulse
JP6784044B2 (ja) * 2016-03-24 2020-11-11 カシオ計算機株式会社 行動解析装置、行動解析方法及びプログラム
US9963246B2 (en) * 2016-03-28 2018-05-08 Amazon Technologies, Inc. Combining depth and thermal information for object detection and avoidance
US11452465B2 (en) * 2016-04-08 2022-09-27 Sharp Kabushiki Kaisha Action determination apparatus and action determination method
US10214180B2 (en) 2016-06-24 2019-02-26 Emerson Electric Co. Systems and methods for machine sensing and communication
WO2018009736A1 (en) 2016-07-08 2018-01-11 Valencell, Inc. Motion-dependent averaging for physiological metric estimating systems and methods
US10455816B2 (en) * 2016-07-20 2019-10-29 International Business Machines Corporation Sensor based activity monitor
KR102655671B1 (ko) 2016-10-12 2024-04-05 삼성전자주식회사 생체정보 추정 장치 및 방법
US20180182253A1 (en) * 2016-12-22 2018-06-28 Motorola Mobility Llc Wireless Tracking System to Monitor and Guide a User
CN107479560A (zh) * 2017-09-29 2017-12-15 上海与德通讯技术有限公司 一种控制方法及机器人
US11189149B2 (en) 2017-10-24 2021-11-30 Assa Abloy Ab Wearable device with multibiometry
KR101989477B1 (ko) * 2017-12-06 2019-06-14 인하대학교 산학협력단 Emg신호 분석을 위한 tas 특징 추출 장치 및 방법
JP2019139570A (ja) * 2018-02-13 2019-08-22 株式会社東芝 判別装置、判別方法およびプログラム
US11638554B2 (en) 2018-02-21 2023-05-02 T.J.Smith And Nephew, Limited Negative pressure dressing system with foot load monitoring
US10572002B2 (en) 2018-03-13 2020-02-25 Facebook Technologies, Llc Distributed artificial reality system with contextualized hand tracking
US10528133B2 (en) * 2018-03-13 2020-01-07 Facebook Technologies, Llc Bracelet in a distributed artificial reality system
CN108771543B (zh) * 2018-04-16 2020-11-03 齐鲁工业大学 一种基于大数据的真实环境下老人跌倒检测方法及系统
EP3804452A1 (de) 2018-06-04 2021-04-14 T.J. Smith & Nephew, Limited Gerätekommunikationsverwaltung bei benutzeraktivitätsüberwachungssystemen
DE102018211414A1 (de) * 2018-07-10 2020-01-16 BSH Hausgeräte GmbH Verfahren zum Erkennen von Bewegungsformen
BR102018016532A2 (pt) 2018-08-13 2020-03-10 Marcelo Goulart Tozatto Sistema e método de monitoramento e gerenciamento de interações entre seres vivos e/ou entes inanimados
US11350853B2 (en) 2018-10-02 2022-06-07 Under Armour, Inc. Gait coaching in fitness tracking systems
CN109601486B (zh) * 2018-12-25 2023-12-19 中国科学院城市环境研究所 昆虫卫星载荷实验舱
US11417163B2 (en) * 2019-01-04 2022-08-16 Byton North America Corporation Systems and methods for key fob motion based gesture commands
CN110363140B (zh) * 2019-07-15 2022-11-11 成都理工大学 一种基于红外图像的人体动作实时识别方法
CN110839558B (zh) * 2019-11-19 2021-07-06 中国科学院深圳先进技术研究院 一种动物听觉联想匹配的行为学实验装置及实验方法
US20210192681A1 (en) * 2019-12-18 2021-06-24 Ati Technologies Ulc Frame reprojection for virtual reality and augmented reality
CN111652133B (zh) * 2020-06-02 2022-07-12 中国科学院深圳先进技术研究院 行为识别装置及方法、计算机设备和可读存储介质
CN112842328A (zh) * 2021-01-25 2021-05-28 北京易飞华通科技开发有限公司 基于物联网的集成化步态、距离、相对体重、脑电波同步传感分析系统
WO2023069781A1 (en) * 2021-10-24 2023-04-27 Simmons Chia Lin System and method for fall detection using multiple sensors, including barometric or atmospheric pressure sensors
CN115793866B (zh) * 2023-02-13 2023-07-28 西安飞蝶虚拟现实科技有限公司 基于动作捕捉的元宇宙远程互动系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0507355B1 (de) * 1986-10-14 1997-01-08 Yamaha Corporation Vorrichtung zur Musiktonsteuerung unter Verwendung eines Detektors
US5047952A (en) * 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
US5483630A (en) * 1990-07-12 1996-01-09 Hitachi, Ltd. Method and apparatus for representing motion of multiple-jointed object, computer graphic apparatus, and robot controller
JP3179474B2 (ja) 1990-11-28 2001-06-25 株式会社日立製作所 コンピュータグラフィックの表示方法及び情報処理装置
JP3550703B2 (ja) 1993-09-30 2004-08-04 株式会社モリタ東京製作所 歯科治療装置
JP3630712B2 (ja) * 1994-02-03 2005-03-23 キヤノン株式会社 ジェスチャー入力方法及びその装置
US5516105A (en) * 1994-10-06 1996-05-14 Exergame, Inc. Acceleration activated joystick
US6466232B1 (en) * 1998-12-18 2002-10-15 Tangis Corporation Method and system for controlling presentation of information to a user based on the user's condition
US6526395B1 (en) * 1999-12-31 2003-02-25 Intel Corporation Application of personality models and interaction with synthetic characters in a computing system
US6703936B2 (en) * 2001-09-28 2004-03-09 Veridian Engineering, Inc. System and method for tracking movement of individuals

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009035072A1 (de) * 2009-07-28 2011-02-10 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Vorrichtung zur Prädiktion der Position und/oder Bewegung eines Objekts relativ zu einem Fahrzeug

Also Published As

Publication number Publication date
US20030208335A1 (en) 2003-11-06
US6571193B1 (en) 2003-05-27
EP0816986A2 (de) 1998-01-07
US6941239B2 (en) 2005-09-06
EP0816986B1 (de) 2006-09-06
EP0816986A3 (de) 2000-06-28
DE69736622D1 (de) 2006-10-19

Similar Documents

Publication Publication Date Title
DE69736622T2 (de) System zur Bewegungserkennung
JP3570163B2 (ja) 動作及び行動の認識方法及び装置及びシステム
Preatoni et al. Motor variability in sports: a non-linear analysis of race walking
Barrett et al. Gender differences in the variability of lower extremity kinematics during treadmill locomotion
DE202018006818U1 (de) System zur optimierten Gelenküberwachung in der Physiotherapie
EP1851511B1 (de) Verfahren und vorrichtung zur auswertung von bewegungssignalen
EP2506807B1 (de) Adaptives steuerungs- und regelungssystem für prothesen mit willkürlicher steuerung
DE102014217945A1 (de) Tragbares Aktivitäts-Überwachungsgerat und entsprechendes Verfahren
CN110046675A (zh) 一种基于改进的卷积神经网络的下肢运动能力评估方法
DE112011102491T5 (de) Gangartänderung-Bestimmungseinheit
DE112008000325T5 (de) System und Verfahren zur Vorhersage des Sturzrisikos für einen Bewohner eines Wohnraumes
US7978085B1 (en) Human and physical asset movement pattern analyzer
Kastavelis et al. The effect of virtual reality on gait variability
CN110755085B (zh) 基于关节活动度与运动协调性的运动功能评估方法及设备
DE112011105030T5 (de) Aktivitätsmesser
EP1395968A2 (de) Verfahren und vorrichtung zur haltungs- oder bewgungskontrolle einer person
Atallah et al. Detecting walking gait impairment with an ear-worn sensor
CN108960155A (zh) 基于Kinect的成人步态提取与异常分析方法
DE112015003789T5 (de) Handschuh zum Sammeln von Daten zur Gebärdensprachenerkennung
DE102010063818A1 (de) Verfahren und Vorrichtung zur automatischen Erfassung der Mobilität einer Person
DE202007010056U1 (de) System zur Bestimmung der körperlichen Aktivität eines Lebewesens
DE102008039153A1 (de) Sehhilfe, Wahrnehmungshilfe und Sehhilfeverfahren
Gurbuz et al. Continuous human activity recognition and step-time variability analysis with FMCW radar
DE102005038960A1 (de) Vorrichtung und Verfahren zur bezugssystemunabhängigen Erfassung von Körperbewegungen
Deprá et al. Postural control underlying head movements while tracking visual targets

Legal Events

Date Code Title Description
8364 No opposition during term of opposition