DE202021103224U1 - System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur - Google Patents
System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur Download PDFInfo
- Publication number
- DE202021103224U1 DE202021103224U1 DE202021103224.3U DE202021103224U DE202021103224U1 DE 202021103224 U1 DE202021103224 U1 DE 202021103224U1 DE 202021103224 U DE202021103224 U DE 202021103224U DE 202021103224 U1 DE202021103224 U1 DE 202021103224U1
- Authority
- DE
- Germany
- Prior art keywords
- procedure
- person
- test
- terminal
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/20—Individual registration on entry or exit involving the use of a pass
- G07C9/22—Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder
- G07C9/25—Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition
- G07C9/257—Individual registration on entry or exit involving the use of a pass in combination with an identity check of the pass holder using biometric data, e.g. fingerprints, iris scans or voice recognition electronically
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/117—Identification of persons
- A61B5/1171—Identification of persons based on the shapes or appearances of their bodies or parts thereof
- A61B5/1176—Recognition of faces
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/68—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
- A61B5/6887—Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
- A61B5/6888—Cabins
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Human Computer Interaction (AREA)
- General Physics & Mathematics (AREA)
- Collating Specific Patterns (AREA)
Abstract
Ein System (2000) zum computergestützten Nachverfolgen einer von einer Person (1) durchzuführenden Testprozedur, insbesondere für einen Virusnachweistest, bevorzugt zur Durchführung eines SARS-CoV-2 Tests, wobei das System (2000) umfasst:
- eine Identifizierungseinheit eines Endgeräts (30), die eingerichtet ist zum Identifizieren (201) der Person (1) unmittelbar vor einem Durchführen der Testprozedur durch die Person (1);
- wobei die Identifizierungseinheit des Endgeräts (30) weiter eingerichtet ist zum Identifizieren (202) zumindest eines Testobjekts (20), bevorzugt einer Testkassette, insbesondere für einen SARS-CoV-2 Test, mehr bevorzugt eines Teststreifens, weiter bevorzugt ein Reagenz in einem Behälter, weiter bevorzugt eines Testsensors, unmittelbar vor der Durchführung der Testprozedur, die Identifizierungseinheit aufweisend:
- eine Kamera (31) des Endgeräts (30), eingerichtet zum Erfassen (2021) eines Objektidentifizierungsdatensatzes (21) als maschinenlesbaren Datensatz; und
- eine Auswerteeinheit (33) des Endgeräts (30), eingerichtet zum Vergleichen (2022) des erfassten Objektidentifizierungsdatensatzes (21) mit einem Objektdatensatz (420) eines Hintergrundsystems (40);
- eine Nachverfolgungseinheit des Endgeräts (30), die eingerichtet ist zum Nachverfolgen (203) einer oder mehrerer Positionen der Person (1) während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung mittels eines Prüfens, ob beide Hände (12) der Person (1) während der gesamten Durchführung der Testprozedur in einem vordefinierten Bereich oder einem von der Kamera (31a) des Endgeräts (30) erfassbaren Bereich sind;
- die Nachverfolgungseinheit des Endgeräts (30), zudem eingerichtet zum Nachverfolgen (203) von einer oder mehreren Positionen des zumindest einen Testobjekts (20) anhand der Form des Objekts während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung; und
- einer Anzeigeeinheit (34) des Endgeräts, eingerichtet zum Anleiten (204) der Person (1) zum Durchführen der Testprozedur während der Durchführung der Testprozedur.
- eine Identifizierungseinheit eines Endgeräts (30), die eingerichtet ist zum Identifizieren (201) der Person (1) unmittelbar vor einem Durchführen der Testprozedur durch die Person (1);
- wobei die Identifizierungseinheit des Endgeräts (30) weiter eingerichtet ist zum Identifizieren (202) zumindest eines Testobjekts (20), bevorzugt einer Testkassette, insbesondere für einen SARS-CoV-2 Test, mehr bevorzugt eines Teststreifens, weiter bevorzugt ein Reagenz in einem Behälter, weiter bevorzugt eines Testsensors, unmittelbar vor der Durchführung der Testprozedur, die Identifizierungseinheit aufweisend:
- eine Kamera (31) des Endgeräts (30), eingerichtet zum Erfassen (2021) eines Objektidentifizierungsdatensatzes (21) als maschinenlesbaren Datensatz; und
- eine Auswerteeinheit (33) des Endgeräts (30), eingerichtet zum Vergleichen (2022) des erfassten Objektidentifizierungsdatensatzes (21) mit einem Objektdatensatz (420) eines Hintergrundsystems (40);
- eine Nachverfolgungseinheit des Endgeräts (30), die eingerichtet ist zum Nachverfolgen (203) einer oder mehrerer Positionen der Person (1) während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung mittels eines Prüfens, ob beide Hände (12) der Person (1) während der gesamten Durchführung der Testprozedur in einem vordefinierten Bereich oder einem von der Kamera (31a) des Endgeräts (30) erfassbaren Bereich sind;
- die Nachverfolgungseinheit des Endgeräts (30), zudem eingerichtet zum Nachverfolgen (203) von einer oder mehreren Positionen des zumindest einen Testobjekts (20) anhand der Form des Objekts während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung; und
- einer Anzeigeeinheit (34) des Endgeräts, eingerichtet zum Anleiten (204) der Person (1) zum Durchführen der Testprozedur während der Durchführung der Testprozedur.
Description
- TECHNISCHES GEBIET DER ERFINDUNG
- Die Erfindung bezieht sich auf ein System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur, insbesondere einer Fertigungsprozedur oder Testprozedur, beispielsweise für einen Virustest, bevorzugt zur Durchführung eines Tests auf SARS-CoV-2. Die Erfindung betrifft auch ein System zum computergestützten Validieren einer von einer Person durchgeführten und computergestützt nachverfolgten Prozedur. Die Erfindung betrifft zudem ein System zum Einrichten eines Personenprofils zur Verwendung in einem der zuvor genannten System. Die Erfindung betrifft zudem ein Computerprogramm-Produkt.
- TECHNISCHER HINTERGRUND
- Eine Prozedur kann von einer Person händisch und/oder unter Verwendung von Hilfsmitteln durchgeführt werden. Die Prozedur kann an der Person selbst, einem Tier oder einer Sache durchgeführt werden. Eine ordnungsgemäße Durchführung der Prozedur entscheidet darüber, ob die Prozedur mit dem gewünschten Erfolg durchgeführt wurde. Die Prozedur kann zum Erkennen von Manipulationsversuchen bzw. zum Erkennen von Fehlern während der Durchführung der Prozedur durch eine Validierung-, eine Qualitätssicherung- und/oder eine Zertifizierung (nachfolgend alles zusammenfassend als Validierung bezeichnet) abgesichert werden.
- Dazu kann die durchzuführende Prozedur während der Prozedurdurchführung beispielsweise stichprobenartig von einer weiteren Person (=Supervisor) überprüft werden.
- Ein Nachteil, dass die weitere Person physisch anwesend sein muss, um die Prozedur während der Durchführung nachzuverfolgen, kann mittlerweile umgangen werden, indem die weitere Person mittels einer Videokommunikation die Durchführung einer Prozedur auch aus der Ferne beobachten kann und so Manipulationen und Fehler bei der Durchführung der Prozedur erkennen kann und die Prozedur entsprechend validiert oder eben nicht validiert. So ist beispielsweise in der
WO 2014 / 114 513 A1 - Auch dieses Fernbeobachten löst nicht das Problem, dass die weitere Person zeitlich zum Nachverfolgen einer Prozedur verfügbar sein muss. Die Verfügbarkeit einer derartigen weiteren Person kann eingeschränkt sein, sodass es zu Wartezeiten bei der Validierung der Prozedur kommt. Das Vorhalten einer weiteren Person erhöht somit Personalkosten und schränkt den Validierungsprozess zeitlich stark ein.
- Zudem kann diese weitere Person Fehler bei der Durchführung der Prozedur übersehen, sodass die Validierung entweder ungerechtfertigter Weise fehlschlägt (falsch negative Validierung) oder ungerechtfertigter Weise erfolgt (falsch positive Validierung).
- ZUSAMMENFASSUNG DER ERFINDUNG
- Der Erfindung liegt die Aufgabe zu Grunde, ein System zum Nachverfolgen einer von einer Person durchzuführenden Prozedur zu schaffen, um Fehler bei der Durchführung der Prozedur zuverlässiger zu vermeiden und bei dem Fehler während der Durchführung zuverlässig erkannt werden, wobei gänzlich auf die Anwesenheit einer weiteren Person verzichtet werden soll. Das Nachverfolgen soll in Echtzeit ermöglicht werden.
- Die Aufgabe wird durch die in den unabhängigen Patentansprüchen beschriebenen Merkmale gelöst. Vorteilhafte Ausgestaltungen der Erfindung sind in den abhängigen Ansprüchen angegeben.
- Die Aufgabe wird durch ein System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur gelöst. Das System umfasst eine Identifizierungseinheit eines Endgeräts, die eingerichtet ist zum Identifizieren der Person unmittelbar vor einem Durchführen der Prozedur durch die Person. Die Identifizierungseinheit umfasst eine Erfassungseinheit des Endgeräts, eingerichtet zum Erfassen von Biometriedaten der Person; und eine Auswerteeinheit des Endgeräts, eingerichtet zum Vergleichen der erfassten Biometriedaten mit Biometriedaten eines Personendatensatzes, wobei der Personendatensatz in einer Speichereinheit des Endgeräts abgelegt ist; wobei die Identifizierungseinheit weiter eingerichtet ist zum Identifizieren eines durch die Prozedur zu veränderndem Objekt unmittelbar vor der Durchführung der Prozedur; eine Nachverfolgungseinheit des Endgeräts, eingerichtet zum Nachverfolgen zumindest einer Position der Person und zumindest einer Position des zumindest einen Objekts durch das Endgerät mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung während der Durchführung der Prozedur; und einer Anzeigeeinheit des Endgeräts, eingerichtet zum Anleiten der Person zum Durchführen der Prozedur während der Durchführung der Prozedur.
- In einer Ausgestaltung wird ein System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Testprozedur, insbesondere für einen Virusnachweistest, bevorzugt zur Durchführung eines Tests auf SARS-CoV-2 vorgeschlagen. Das System umfasst eine Identifizierungseinheit eines Endgeräts, die eingerichtet ist zum Identifizieren der Person unmittelbar vor einem Durchführen der Testprozedur durch die Person, wobei die Identifizierungseinheit des Endgeräts weiter eingerichtet ist zum Identifizieren eines Testobjekts, bevorzugt einer Testkassette, insbesondere für einen SARS-CoV-2 Test, mehr bevorzugt eines Teststreifens, weiter bevorzugt ein Reagenz in einem Behälter, weiter bevorzugt eines Testsensors, unmittelbar vor der Durchführung der Testprozedur, die Identifizierungseinheit aufweisend eine Kamera des Endgeräts, eingerichtet zum Erfassen eines Objektidentifizierungsdatensatzes als maschinenlesbaren Datensatz; und eine Auswerteeinheit des Endgeräts, eingerichtet zum Vergleichen des erfassten Objektidentifizierungsdatensatzes mit einem Objektdatensatz eines Hintergrundsystems; eine Nachverfolgungseinheit des Endgeräts, die eingerichtet ist zum Nachverfolgen einer oder mehrerer Positionen der Person während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung mittels eines Prüfens, ob beide Hände der Person während der gesamten Durchführung der Testprozedur in einem vordefinierten Bereich oder einem von der Kamera des Endgeräts erfassbaren Bereich sind; die Nachverfolgungseinheit des Endgeräts, zudem eingerichtet zum Nachverfolgen von einer oder mehreren Positionen des Testobjekts anhand der Form des Objekts während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung; und einer Anzeigeeinheit des Endgeräts, eingerichtet zum Anleiten der Person zum Durchführen der Testprozedur während der Durchführung der Testprozedur
- Alle Einheiten sind Einheiten des (gleichen) Endgeräts. Ein Endgerät kann ein elektronisches Endgerät umfassend eine Anzeigeeinheit (Display), eine Eingabeeinheit (Touchscreen, Tastatur, Bedienfeld), einer Erfassungseinheit (Kamera, Barcode-Scanner) und eine Auswerteeinheit (Steuereinheit, CPU). Das Endgerät ist beispielsweise ein PC, ein Laptop, ein Smartphone, ein Tablet, ein Terminal und/oder ein sonstiges elektronisches Gerät. Das Endgerät ist dazu eingerichtet, Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung auszuführen.
- An das Endgerät kann einer oder mehrere Sensoren angeschlossen sein. Ein oder mehrere Sensoren, insbesondere Beschleunigungs- oder Positionssensoren, können dabei an der Person, beispielsweise einer Extremität, insbesondere einer oder beider Hände, angeordnet sein. Einer oder mehrere Sensoren, insbesondere Beschleunigungs- oder Positionssensoren, können eine oder mehrere Bewegungs- und/oder Positionsinformationen über die zumindest eine Position der Person an das Endgerät bereitstellen. Einer oder mehrere Sensoren können dabei an dem einen oder mehreren Objekten, beispielsweise ein Sensor pro Objekt, angeordnet sein. Dieser eine oder die mehreren Sensoren können eine oder mehrere Bewegungs- und/oder Positionsinformationen über die zumindest eine Position des zumindest einen Objekts an das Endgerät bereitstellen. Das Bereitstellen dieser Signale erfolgt bevorzugt drahtlos, beispielsweise mittels einer Bluetooth-Kommunikation und/oder einer NFC-Kommunikation sein.
- An die Person und oder das zumindest eine Objekt kann alternativ oder zusätzlich eine optische Markierung angebracht sein, die es einer Erfassungseinheit erleichtert (ermöglicht) die zumindest eine Position der Person und die zumindest eine Position des zumindest einen Objekts nachzuverfolgen.
- Die Auswerteeinheit des Endgeräts ist dazu eingerichtet, mittels der Anzeigeeinheit die Person derart anzuweisen, dass die Person mit einer ausführlichen und schrittweisen Anleitung durch die Testprozedur geleitet wird. Dabei kommen computergestützte Methoden der künstlichen Intelligenz (AI) und der erweiterten Realität (AR) im System zum Einsatz, um die Testprozedur selbst, die Bewegungsabläufe und Objekte ggf. auch Hilfsmittel nachzuverfolgen, um die richtige Durchführung des Tests sicher zu stellen. Zusätzlich ist die Auswerteeinheit des Endgeräts dazu eingerichtet, während der Prozedurdurchführung im Zufallsverfahren Bilder von der Person oder den Objekten ggf. der Hilfsmittel zu erfassen und diese in einer Prozedurdokumentation in einer Speichereinheit des Endgeräts abzuspeichern. Die Person kann zuvor auf den Bildern identifiziert werden.
- Jede der Anweisungen kann ein Animationsvideo enthalten. Die Anweisung kann durch „Augmented Reality“ unterstützt werden. Während eines Prozessschritts kann der Prozessschritt dokumentiert werden, indem mindestens eine Aufnahme durch eine Kamera des Endgeräts von der Person während des Prozessschritts gemacht wird. Es können auch mehrere, beispielsweise zwei, Aufnahmen durch die Kamera des Endgeräts von der Person während des Prozessschritts gemacht werden. Es kann auch ein oder mehrere Videos durch die Kamera des Endgeräts von der Person während des Prozessschritts gemacht werden. Diese Aufnahmen werden in einer Produktdokumentation im Datensatz in der Speichereinheit des Endgeräts gespeichert.
- Jeder Prozessschritt der Testprozedur kann durch das Endgerät nachverfolgt werden. Je nach Prozess wird der Schritt daraufhin geprüft, ob dieser erfolgreich entlang der Anleitung von derselben Testperson umgesetzt wurde.
- Die Person kann darüber informiert werden, dass eine Prozedur wegen Verstoß gegen die Prozedurdurchführungsvorschriften oder wegen Abbruch fehlgeschlagen ist.
- Die Auswerteeinheit des Endgeräts ist dazu eingerichtet, zu prüfen, ob ein soeben nachverfolgter Prozessschritt ein letzter Prozessschritt der Prozedur ist. Ergibt die Prüfung, dass der soeben nachverfolgte Prozessschritt nicht der letzte Prozessschritt der Prozedur ist, wird ein weiterer (nächster) Prozessschritt über die Anzeigeeinheit des Endgeräts angeleitet.
- Bevorzugt ist das Endgerät das Smartphone des Benutzers. Das Smartphone kann einfach transportiert werden und ist ggf. bereits hinreichend personalisiert.
- Eine Prozedur kann eine Abfolge von Schritten zum Erzielen eines Ergebnisses sein. Die Abfolge kann fest vorgegeben sein, sodass Schrittreihenfolgen zu beachten sind. Die Abfolge kann alternativ willkürlich sein und nur das Ergebnis der Prozedur entscheidend sein.
- Eine Prozedur kann eine Testprozedur, beispielsweise eine humanmedizinische Testprozedur, sein.
- Die Prozedur kann eine veterinärmedizinische Testprozedur zur Untersuchung einer Körperflüssigkeit an einem Tier sein. Die veterinärmedizinische Testprozedur wird von einer Person durchgeführt.
- Die Testprozedur kann eine Untersuchung einer Körperflüssigkeit sein. Die Testprozedur kann zur Untersuchung einer Körperflüssigkeit einer Person und/oder eines Tieres auf Infektionen, Eigenschaften und/oder Parameter sein. Beispielsweise ist die Testprozedur die Durchführung eines Virusnachweistests, eines Keimtests, eines Bakterientests und/oder eines Pilztests an einer Person oder einem Tier.
- Die Körperflüssigkeit kann das Blut, der Abstrich, der Speichel, das Aerosol, die Tränenflüssigkeit, der Schweiß, der Urin, das Sputum, und/oder der Stuhl einer Person und/oder eines Tieres sein. Die Körperflüssigkeit kann durch Abnahme von einer Hautoberfläche, beispielsweise von einer Hand oder einer Stirn erfolgen.
- Die Prozedur kann dabei das Entnehmen der Körperflüssigkeiten-Probe mit unmittelbar daran anschließendem An- oder Aufbringen einer Körperflüssigkeiten-Probe auf das Objekt sein.
- Zwischen dem Entnehmen der Probe und dem An- oder Aufbringen der Probe auf das Objekt können Proben-Vorbereitungs-, Proben-Bearbeitungs- und Proben-Nachbearbeitungsschritte in der Prozedur vorgesehen sein.
- Es kann zumindest das eine Objekt oder es können mehrere Objekte bei der Durchführung der Prozedur nachverfolgt werden. Die Nachverfolgung mehrerer Objekte kann gleichzeitig erfolgen.
- Das Objekt ist ein Gut, eine Ware, ein Halbzeug, ein Gegenstand, ein Werkstück, ein Bauteil, ein Lebensmittel und/oder ein Rohstoff.
- In einer humanmedizinischen oder veterinärmedizinischen Testprozedur kann das Objekt beispielsweise eine Testkassette, ein Teststreifen, ein Messstreifen, ein Reagenz in einem Behälter und/oder ein humanmedizinischer Testsensor (beispielsweise zum Erfassen eines Vitalwertes (Blutdruck, Herzfrequenz, Atemfrequenz, Temperatur) der Person oder des Tieres) sein.
- Das Objekt wird durch die Prozedur verändert. Das heißt, das Objekt hat einen ersten Zustand vor der Durchführung der Prozedur und einen zweiten Zustand - vom ersten Zustand verschiedenen zweiten Zustand - nach der Durchführung der Prozedur. Die Prozedur ist ursächlich für die Überführung des Objekts von dem ersten Zustand in den zweiten Zustand.
- Der Zustand des Objekts kann eine Form, eine Kontur, eine Farbe, ein Aggregatzustand und/oder ein Volumen sein.
- Die Auswerteeinheit des Endgeräts ist dazu eingerichtet, das Nachfolgen, auch Erfassen, Überwachen, Detektieren und/oder Begleiten, der Prozedur computergestützt bzw. computerbasiert, bevorzugt ausschließlich computergestützt, durchzuführen. Damit erfolgt das Nachfolgen insbesondere ohne weitere Person (ohne menschliches Zutun außer der Durchführung der Prozedur selbst), die Prozedur wird nun nicht mehr von einer weiteren Person begleitet. Damit kann eine Person, die die Prozedur durchführt, mittels eines Endgeräts angeleitet und die korrekte Durchführung der Prozedur durch dieses Verfahren sichergestellt werden. Mit dem erfindungsgemäßen Verfahren können Manipulationen oder Fehler im Ablauf der Prozedur zuverlässig erkannt und durch entsprechende Warnungen bzw. Instruktionen vermieden werden. Mit dem erfindungsgemäßen Verfahren kann bei Erkennen von Manipulationen oder Fehlern im Ablauf der Prozedur ein Prozedurabbruch und die Ungültigkeit der Prozedur zuverlässig erkannt werden.
- Eine Person ist ein Mensch. Die Person, nachfolgend auch Benutzer, Testperson, Prozedurdurchführende(r), soll bzw. möchte die Prozedur (selbst) durchführen. Zur Durchführung der Prozedur benötigt die Person zumindest teilweise seinen eigenen Körper, insbesondere seine Körperteile, insbesondere seine Extremitäten. Die Prozedur wird demnach zumindest teilweise „händisch“ und damit nicht voll-automatisch durchgeführt. Beispielsweise benötigt der Mensch einen oder beide Arme, eine oder beide Hände, ein oder beide Beine und/oder ein oder beide Füße.
- Zudem kann die Prozedur auch an einem Tier durchgeführt werden. Eine Person, die die Prozedur an dem Tier durchführt, ist ein Mensch und soll bzw. möchte die Prozedur (selbst) durchführen. Zur Durchführung der Prozedur benötigt die Person zumindest teilweise den Körper, insbesondere seine Körperteile, insbesondere die Extremitäten, des Tieres. Die Prozedur wird demnach zumindest teilweise „händisch“ und damit nicht voll-automatisch durchgeführt. Beispielsweise benötigt der Mensch ein Körperteil des Tieres, um die Prozedur an dem Tier durchzuführen, beispielsweise um eine Probe zu entnehmen.
- Die Prozedur ist personenbezogen, das heißt es ist ein unmittelbares Kriterium des Nachverfolgens der Prozedur, dass eine bestimmte Person die Prozedur durchführt.
- Unmittelbar vor der Durchführung der Prozedur, also ohne wesentlichen zeitlichen Abstand zur Durchführung der Prozedur durch die Person (ggf. außer einer Objekt- und/oder Hilfsmittel-Identifizierung und unmittelbaren Prozedur-Vorbereitungsschritten), wird die Person durch das Endgerät identifiziert.
- Die Identifizierungseinheit umfasst Mittel zum Erfassen von Biometriedaten der Person durch das Endgerät. Die Biometriedaten sind das Ergebnis einer Messung und ggf. Auswertung zum Erkennen der Person basierend auf ihren Verhaltens- und biologischen Eigenschaft. Als biometrische Charakteristika (=Biometriedaten) können u. a. verwendet werden, eine DNA (=mobiler DNA-Test, genetischer Fingerabdruck) der Person, ein Blutbild (Hämogramm) der Person, ein Fingerabdruck (Fingerlinienbild) der Person, ein Gangstil der Person, eine Gesichtsgeometrie der Person, eine Handgeometrie der Person, eine Handlinienstruktur der Person, eine Handvenenstruktur der Person, eine Iris (Regenbogenhaut) der Person bzw. eine Iris-Erkennung der Person, ein Körpergeruch der Person, eine Körpergröße (Anthropometrie) der Person, eine Lippenbewegung der Person, ein Nagelbettmuster der Person, eine Ohrform der Person, eine Retina (Augenhintergrund) der Person, eine Stimme der Person bzw. Sprecherauthentifizierung (ungleich Spracherkennung) der Person bzw. eine Stimmerkennung (Klangfarbe) der Person, eine Unterschrift (statisch, dynamisch, auch Handschrift) der Person, eine Röntgenaufnahme eines Gebisses der Person und/oder ein Zahnabdruck der Person.
- Bevorzugt werden einfach erfassbare und technisch einfach (bzw. ausgereift) prüfbare Biometriedaten der Person verwendet, beispielsweise die Gesichtsgeometrie, ein Fingerabdruck und/oder eine Iris- oder Retina-Erkennung.
- Die Identifizierungseinheit umfasst zudem ein Mittel zum Vergleichen der erfassten Biometriedaten mit Biometriedaten eines Personendatensatzes durch das Endgerät. Damit werden die erfassten Biometriedaten mit abgespeicherten Biometriedaten abgeglichen und die Identität der Person wird verifiziert.
- Der abgespeicherte Personendatensatz (Personenprofil) wird bevorzugt durch ein ebenfalls hier beschriebenes Verfahren und System zum Einrichten eines Personenprofils erhalten und auf dem Endgerät abgespeichert.
- Als Ergebnis dieses Identifizieren-Schritts ist die Person, die die Prozedur (unmittelbar nach dem Identifizieren) durchführen möchte, durch das Verfahren identifiziert und anhand des abgespeicherten Personendatensatzes auch für das Verfahren verifiziert.
- Ebenfalls unmittelbar vor der Durchführung der Prozedur, also ohne wesentlichen zeitlichen Abstand zur Durchführung der Prozedur durch die Person, wird ein durch die Prozedur zu veränderndes Objekt durch das Endgerät identifiziert. Als Ergebnis dieses Identifizieren-Schritts ist das Objekt, das durch die durchzuführende Prozedur (unmittelbar nach dem Identifizieren) zu verändern ist, durch das Verfahren identifiziert.
- Im Nachverfolgen-Schritt des Verfahrens wird zumindest eine Position der Person und zumindest eine Position des Objekts durch das Endgerät mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung und/oder Erfassen/Auswerten von Sensorsignalen der angeschlossenen Sensoren während der Durchführung der Prozedur nachverfolgt.
- Eine Gestenerkennung ist die computerbasierte automatische Erkennung von einer oder mehrerer durch die Person ausgeführter Gesten mittels des Endgeräts. Die dazu angewendeten Methoden beschreiben Algorithmen und mathematische Verfahren zur Erkennung der Geste. Dabei kann jede Körperhaltung der Person und jede Körperbewegung der Person prinzipiell eine Geste darstellen. Bevorzugt werden mit der Gestenerkennung Hand- und Kopfgesten der Person erkannt. Eine Geste der Person kann mittels am Körper der Person getragener oder mit der Hand der Person geführter (und an das Endgerät angeschlossener) Sensorik, insbesondere integrierter Beschleunigungs- oder Positionssensoren, durch das Endgerät erkannt werden. Alternativ oder zusätzlich kann eine Geste auch mit (personen-) externer Sensorik erkannt werden, insbesondere einer oder mehrerer Erfassungseinheiten des Endgeräts. Bevorzugt werden Kameras des Endgeräts (oder an das Endgerät anschließbare Kameras) genutzt, um Bilder der Person zu erstellen. Diese kamerabasierte Gestenerkennung verwendet eine 2D- und/oder 3D-Bildanalyse, um die Geste der Person zu erkennen.
- Es können zwei Gestenarten unterschieden werden. Bei einer kontinuierlichen Geste (erste Art) besteht eine direkte Verbindung zwischen der durch das Endgerät beobachteten Bewegung und einem Zustand im Endgerät (Beispiel: Zeigen auf den Bildschirm kann einen Zeiger steuern). Eine diskrete Geste (zweite Art) ist Teil einer (beschränkten) Menge von eindeutigen Gesten, wobei mit jeder dieser eindeutigen Gesten in der Regel jeweils eine Aktion verknüpft ist.
- Bei der Erkennung einer Geste fließen die Informationen der Sensorik in Algorithmen ein, welche die Rohdaten analysieren, um die Gesten zu erkennen. Dabei können Algorithmen zur Mustererkennung zum Einsatz kommen. Zur Entfernung von Rauschen und zur Datenreduktion erfolgt häufig im ersten Schritt eine Vorbearbeitung der Sensordaten. Anschließend werden Merkmale aus den Sensordaten extrahiert. Diese Merkmale dienen als Eingabe für eine Klassifikation. Hierfür werden bevorzugt Hidden Markov Models, künstliche neuronale Netze oder andere Techniken der künstlichen Intelligenz eingesetzt.
- Eine Mustererkennung ist die computerbasierte automatische Erkennung von Regelmäßigkeiten, Wiederholungen, Ähnlichkeiten oder Gesetzmäßigkeiten in einer Datenmenge (Bilder, Video) mittels des Endgeräts. Dabei kann das Erkennen von Mustern, als den Merkmalen, die allen Dingen einer Kategorie gemeinsam sind (und sie deshalb vom Inhalt anderer Kategorien unterscheidet) entscheidend sein. Ein Merkmal für die Mustererkennung kann durch eine automatische Merkmalsynthese oder empirisch durch Einlernen und Erfahrung gewonnen werden. Zur Reduktion der gewonnen Merkmale wird dann geprüft, welche Merkmale für die Klassentrennung relevant sind und welche weggelassen werden können. Abschließend kann eine Klassifizierung der Merkmale in Klassen erfolgen. Es kann eine syntaktische Musterkennung, eine statistische Musterkennung und/oder eine strukturelle Mustererkennung angewendet werden.
- Eine Bilderkennung - als Teilgebiet der Mustererkennung und Bildverarbeitung - ist die computerbasierte automatische Segmentierung von Elementen in einem Bild. Dabei kann das zumindest eine Objekt, die Person bzw. darüberhinausgehend ein Ort und/oder eine Aktion in einem erfassten Bild identifiziert werden. Dabei kann tiefgreifendes maschinelles Lernen eingesetzt werden, beispielsweise werden Faltungsprozessoren für künstliche neuronale Netze verwendet. Beispielsweise können Bilderkennungsalgorithmen mithilfe von vergleichenden 3D-Modellen, Auftritten aus verschiedenen Winkeln mithilfe einer Kantenerkennung arbeiten, die auf Trainingsbildern mit maschinellem Lernen trainiert werden können.
- Beispielsweise wird für eine computergestützte Gesten- und/oder Muster- und/oder Bilderkennung eine Modellierung mittels Mediapipe basierend auf OpenCV verwendet. Diese Modellierung ist geeignet für eine Körpergestenerkennung- und Nachverfolgung („Human Pose Detection and Tracking“ oder „Hand Tracking“, „Holistic Tracking“, „Face Detection“) einer Person, ein Erzeugen einer Gesichtsgeometrie (Face Mesh), eine Objekterkennung- und Nachverfolgung („Object Detection and Tracking“ oder „Hand Tracking“, „Holistic Tracking“). Auf die Mediapipe Veröffentlichungen gemäß Website https://google.github.io/mediapipe/ wird hier explizit Bezug genommen.
- Durch die Nachverfolgen-Einheit kann zumindest die Position und/oder auch die Bewegung der identifizierten Person und des identifizierten Objekts rein computergestützt durch das Endgerät erkannt und verfolgt werden. So kann nachverfolgt werden, ob die Person die Prozedur korrekt durchführt, beispielsweise ob das Objekt korrekt verändert wird und/oder ob die Person einen Manipulationsversuch oder einen Fehler vornimmt.
- In dem Anleiten-Schritt des Verfahrens wird die Person zum Durchführen der Prozedur durch das Endgerät während der Durchführung der Prozedur angeleitet. Dieses Anleiten der Person kann durch ein Anzeigen sowie akustisches und/oder visuelles Ausgeben von Instruktionen, Warnungen, Hinweisen, Vorführungen, Videos, Bildern, Animationen, Augmented Reality und/oder Beispielen auf einer Anzeigeeinheit (Display, Ausgabeeinheit, Lautsprecher) des Endgeräts erfolgen. Dieses Anleiten kann zu unterschiedlichen Zeitpunkten während der Prozedur erfolgen, beispielsweise zu Beginn einmal oder mehrfach mitten in der Prozedur und/oder zum Ende der Prozedur. Die Anleitung kann die Abfolge der Prozedur abbilden, um die Person gemäß der Schrittabfolge der Prozedur durch die Prozedur zu leiten.
- Zum Anleiten kann das Endgerät in Kenntnis von der Prozedur, von einzelnen oder der Gesamtheit der Abfolge der Prozedur, deren Ablauf, deren zu erwartender Zeitdauer, deren zwischen einzelnen oder allen Prozedurschritten zu erwartenden Zeitdauern, und/oder zu einem zu erwartenden Endergebnis und/oder einem oder mehreren Zwischenergebnissen sein.
- Auf diese Weise wird einer Person eine Anleitung zur Durchführung gegeben und die Durchführung zudem computergestützt - in Echtzeit - nachverfolgt.
- Mittels der Erfasseneinheit der Identifizierungseinheit kann ein Gesicht der Person mittels einer Kamera des Endgeräts erfasst werden. Das erfasste Gesicht kann mittels den oder anderen Methoden computergestützter Gesichts- Muster- und/oder Bilderkennung durch eine Auswerteeinheit des Endgeräts analysiert werden, um die (zu erfassenden) Biometriedaten der Person zu erhalten. Das Gesicht als Biometriedaten einer Person zu erfassen kann eine eindeutige Feststellung der Identität einfach ermöglichen, die dafür anzuwendenden Methoden der computergestützten Gesichts- Muster- und/oder Bilderkennung sind zuverlässig und gering rechenintensiv.
- Mittels der Erfasseneinheit der Identifizierungseinheit kann das Identifizieren der Person zu einem oder mehreren zufälligen Zeitpunkten während der Durchführung der Prozedur wiederholt werden. Damit kann geprüft werden, ob noch dieselbe Person die Prozedur durchführt oder ob - unerlaubter Weise - die identifizierte Person nicht mehr der die Prozedur durchführende Person ist.
- Das zum Identifizieren angewendete Erfassen der Person kann das Aufnehmen eines Bildes und/oder eines oder mehrerer Video(-frames) sein. Diese Aufnahme kann zu Dokumentationszwecken auf dem Endgerät gespeichert werden. Diese Aufnahme kann Teil einer Dokumentation der Durchführung der Prozedur sein.
- Die Nachverfolgen-Einheit kann mit einer Fehlermeldungseinheit ausgestattet sein, die dazu eingerichtet ist das Nachverfolgen zu beenden, wenn im Vergleichenschritt festgestellt wird, dass die erfassten Biometriedaten nicht mit den Biometriedaten des Personendatensatzes übereinstimmen (fehlende Verifizierung). Auf diese Weise wird sichergestellt, dass eine personengebundene Prozedurdurchführung auch tatsächlich von einer einem Personendatensatz entsprechenden Person durchgeführt wird.
- Unmittelbar vor dem Durchführen der Prozedur durch die Person können alle während der Prozedur zu verwendenden Hilfsmittel durch das Endgerät identifiziert werden. Ein Hilfsmittel kann ein beliebiger Gegenstand, ein Messgerät, ein Bauteil, ein Behälter, ein Sensor, ein Werkzeug und/oder der gleichen sein. Das Hilfsmittel hilft (oder ist notwendig), dass die Durchführung der Prozedur erfolgreich durchgeführt werden kann. Der Sensor - hier als Hilfsmittel - einer der zuvor erwähnten Sensoren zum Erfassen der Position oder Bewegung der Person oder des Objekts sein. Der Sensor kann alternativ oder zusätzlich der zuvor beschriebene Testsensor sein.
- Jedes verwendete Hilfsmittel kann mittels einer Erfassungseinheit, beispielsweise einer Kamera und/oder der angeschlossenen Sensoren des Endgeräts erfasst werden. Das erfasste Hilfsmittel kann mittels Methoden computergestützter Gesichts- und/oder Muster- und oder Bilderkennung und/oder Erfassen/Auswerten von Sensorsignalen der angeschlossenen Sensoren durch eine Auswerteeinheit des Endgeräts analysiert werden, woraufhin das Hilfsmittel identifiziert werden kann.
- Die Identifizieren-Einheit zum Identifizieren des Objekts kann umfassen: eine Erfassen-Einheit zum Erfassen eines Objektidentifizierungsdatensatzes durch das Endgerät; und eine Vergleichen-Einheit zum Vergleichen des erfassten Objektidentifizierungsdatensatzes mit einem Objektdatensatz eines Hintergrundsystems. Ein Objektidentifizierungsdatensatz ist ein Datensatz, der im Verfahren eindeutig einem Objekt zugeordnet werden kann und das Objekt eindeutig identifizieren kann. Dieser Objektidentifizierungsdatensatz kann beispielsweise eine Produktkennung, eine Seriennummer, ein Barcode, ein QR-Code, ein RFID-Tag-Code, NFC-Tag-Code, etc. sein, der mittels des Endgeräts ausgelesen werden kann.
- In einer Ausgestaltung ist der Objektidentifizierungsdatensatz ein QR-Code auf einer Testkassette (=Testobjekt). Der QR-Code kann kodiert und/oder verschlüsselt sein, sodass das Auslesen keinen Aufschluss über eine Systematik des Objektidentifizierungsdatensatzes ermöglicht.
- Zum Identifizieren des Objekts kann die Identifizierungseinheit im Erfassenschritt mittels der Erfasseneinheit ein maschinenlesbarer Datensatz, insbesondere einer Kamera des Endgeräts erfassen. Ein maschinenlesbarer Datensatz kann eine auf dem Objekt aufgebrachte Seriennummer sein, die mittels der Erfassungseinheit erfasst wird. Die Seriennummer kann eine Fertigungsnummer bei der Herstellung des Objekts sein. Die Seriennummer kann eine vom Objekt unabhängige Seriennummer eines Drittanbieters sein, der das Verfahren und System zum computergestützten Nachverfolgen bereitstellt. Die erfasste Seriennummer kann durch die Auswerteeinheit analysiert werden, beispielsweise kann eine optische Zeichenerkennung (OCR) angewendet werden. Der maschinenlesbare Datensatz kann ein auf dem Objekt aufgebrachter Zeichencode sein, die mittels der Erfassungseinheit erfasst wird. Der Zeichencode, beispielsweise ein Barcode oder ein QR-Code kann durch die Auswerteeinheit analysiert werden. Der maschinenlesbare Datensatz kann ein in einen RFID-Tag oder einen NFC-Tag eincodierter Datensatz sein, der mittels der Erfassungseinheit, insbesondere einem NFC-Leseeinheit oder RFID-Leseeinheit erfasst wird. Der Zeichencode, beispielsweise ein Barcode oder ein QR-Code kann durch die Auswerteeinheit analysiert werden.
- Der maschinenlesbare Datensatz des Objekts kann durch Abfragen eines entsprechenden Objektdatensatzes in einem Hintergrundsystem validiert werden. Der maschinenlesbare Datensatz des Objekts ist damit in einem Hintergrundsystem registriert. Auf diese Weise kann die Echtheit eines Objekts, einen Typ des Objekts, ein Produktionsdatum, eine Hersteller-ID, ein Gültigkeitsdatum, eine Objekteigenschaft und/oder ein Zertifikat abgefragt und/oder nachgewiesen werden. Zur Validierung des Objekts wird der maschinenlesbare Datensatz mit dem Objektdatensatz verglichen und bei Übereinstimmung (und oder auch bei bloßer Existenz im Hintergrundsystem) wird das Objekt als echt validiert und ist für die Prozedur freigegeben.
- Nach einer Validierung des maschinenlesbaren Datensatzes kann der Objektdatensatz oder ein Prozeduridentifizierungsdatensatz in der Datenbank des Hintergrundsystems durch Änderung eines Status ungültig werden. Damit wird eine Einmaligkeit des Objekts sichergestellt.
- Mittels der Nachverfolge-Einheit kann die zumindest eine Position und/oder eine Bewegung der Person, bevorzugt auch eine Bewegung eines Körperteils (Extremität) der Person und die zumindest eine Position und/oder eine Bewegung des Objekts mittels einer Kamera als Erfassungseinheit des Endgeräts erfasst werden. Die erfasste Position und Bewegung der Person und des Objekts werden mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung durch eine Auswerteeinheit des Endgeräts analysiert. Damit kann geprüft werden, ob die Person eine der Prozedur entsprechende Bewegung durchführt und/oder ob das Objekt der Prozedur entsprechend verändert wird. Fehl- oder Falschbewegungen der Person oder des Objekts können damit geprüft werden.
- Zudem kann ein Bewegungsradius von Person und Objekt nachverfolgt werden. Wird erkannt, dass die Person und/oder das Objekt außerhalb eines vordefinierten Positionsrahmens ist, kann das Verfahren abgebrochen und die Prozedur als ungültig betrachtet werden, beispielsweise beim Verlassen eines von einer Kamera erfassbaren Bereichs oder eines zuvor definierten Bereichs. Die Person wird so gezwungen, in einem vordefinierbaren Bewegungsradius und einem vordefinierbaren Bewegungsmuster zu verbleiben. Auch kann geprüft werden, ob Bewegungsabläufe des Objekts mit der durchzuführenden Prozedur übereinstimmen. Falsche Positionen oder Bewegungen werden so erkannt.
- Der zuvor definierte Bereich wird beispielsweise vor dem Durchführen der Prozedur bestimmt und festgelegt. Der von der Kamera erfassbare Bereich wird beispielsweise vor dem Durchführen der Prozedur bestimmt und festgelegt. Die Bereiche können durch darstellbare Hilfslinien auf einer Anzeige des Endgeräts angezeigt werden.
- Mittels der Nachverfolge-Einheit kann eine Objekteigenschaft des Objekts mittels einer Kamera des Endgeräts erfasst werden. Die erfasste Objekteigenschaft des Objekts kann mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung durch eine Auswerteeinheit des Endgeräts analysiert werden. Die analysierte Objekteigenschaft des Objekts kann mit einer während der Prozedur zu erwartenden Objekteigenschaft, beispielsweise in Echtzeit, verglichen werden. Dazu sollten Zustandsänderungen des Objekts während der Prozedur, also Form- Farb-, und/oder Bedingungsveränderung bzw. Zwischen- und/oder Endergebnisse dem Endgerät bekannt sein.
- Das System kann eine Fehlermeldung generieren, wenn im Analysierenschritt festgestellt wird, dass die erfasste Position der Person und/oder die erfasste Bewegung der Person und/oder die erfasste Position des Objekts und/oder die erfasste Bewegung des Objekts außerhalb fester Vorgaben der Prozedur sind. Verlässt beispielsweise die Person oder ein Körperteil (eine Hand, beide Hände) einen Erfassungsbereich der Kamera des Endgeräts könnte die Prozedur als ungültig gelten. Verlässt beispielsweise das Objekt einen Erfassungsbereich der Kamera des Endgeräts könnte die Prozedur als ungültig gelten.
- Für ein Dokumentieren des Durchführens der Prozedur kann das Durchführen der Prozedur zu einem oder mehreren zufälligen Zeitpunkten während der Durchführung der Prozedur mittels einer Kamera des Endgeräts erfasst und abgespeichert werden. So entsteht eine Prozedurdokumentation in Echtzeit, die im Endgerät in einem Prozeduridentifizierungsdatensatz abgelegt werden kann und jederzeit später abrufbar ist. Eine Validierung der Prozedur kann beispielsweise auch aufgrund dieser Prozedurdokumentation (nach-)geprüft werden.
- Die Prozedurdokumentation umfasst beispielsweise eine oder mehrere zufällige Aufnahmen der Person und/oder des Objekts bei der Durchführung der Prozedur und/oder eines Prozedurschritts. Dabei können einzelne Bilder (ein Videoframe) oder mehrere Videoframes (als ein oder mehrere Videos) durch die Kamera des Endgeräts von der Person während des Prozessschritts gemacht werden. Die Prozedurdokumentation umfasst beispielsweise bewusst von der Auswerteeinheit angewiesene Aufnahmen der Person und/oder des Objekts bei der Durchführung der Prozedur und/oder eines Prozedurschritts.
- Ein Prozedurergebnis für einen Antigen Test eines Virusnachweistests (als Prozedur) kann das Anzeigen eines Balkens auf einem Teststreifen einer Testkassette (als Objekt) umfassen. Dieser Balken kann von der Erfassungseinheit des Endgeräts erfasst und ausgewertet werden. Das Vorhandensein oder Nichtvorhandensein eines Balkens an einer vordefinierten Position der Testkassette zeigt das Prozedurergebnis an. So kann das Vorhandensein des Balkens bedeuten, dass das Prozedurergebnis „positiv“ ist. So kann das Nichtvorhandensein des Balkens bedeuten, dass das Prozedurergebnis „negativ“ ist.
- Zudem kann ein Kontrollbalken in der Testkassette vorgesehen sein, der als Selbsttest des Teststreifens dient. So kann das Vorhandensein des Kontrollbalkens bedeuten, dass die Testkassette ordnungsgemäß funktioniert. So kann das Nichtvorhandensein des Kontrollbalkens bedeuten, dass die Testkassette fehlerhaft ist.
- In einer Ausgestaltung können auf einer Testkassette (Objekt) mehrere Balken zur Darstellung mehrerer Prozedurergebnisse vorhanden sein. Dabei werden mit einer Körperflüssigkeit (der Person oder des Tieres) eine Mehrzahl von Tests parallel oder zeitlich versetzt durchgeführt. Jedes Prozedurergebnis wird mit einem eigenen Balken auf der Testkassette angezeigt. Das Vorhandensein oder Nichtvorhandensein eines Balkens an einer für dieses Prozedurergebnis vordefinierten Position der Testkassette zeigt das Prozedurergebnis an. So können verschiedene Tests durch Entnahme/Abnahme von nur einer Probe an einer Körperflüssigkeit durchgeführt werden.
- In einer Ausgestaltung können auf einer Testkassette (Objekt) mehrere Balken zur Darstellung eines Prozedurergebnisses vorhanden sein. So kann über die Anzahl der Balken eine Konzentration der Infektiosität der Körperflüssigkeit abgebildet werden, beispielsweise als prozentuale Angabe, beispielsweise ein Balken für gering, zwei Balken für mittel, drei Balken für stark (Konzentration bezogen auf eine Referenzkonzentration der Infektiosität).
- Für das Anleiten können Anleitungshinweise auf einer Anzeige des Endgeräts angezeigt werden, wobei ein Anleitungshinweis in Abhängigkeit der Durchführung der Prozedur und/oder in Abhängigkeit des Nachverfolgens von Positionen und Bewegungen der Person und des Objekts durch das Endgerät während der Durchführung der Prozedur erfolgen können.
- Erfindungsgemäß ist zudem ein Verfahren und ein System zum computergestützten Validieren einer von einer Person durchgeführten und computergestützt nachverfolgten Prozedur vorgesehen. Das Verfahren umfasst dabei die folgenden Schritte: Anfordern einer Validierung eines Prozedurergebnisses durch eine Personeneingabe an einem Endgerät; Erzeugen und Versenden einer Validierungsanfrage bei einem Hintergrundsystem umfassend einen Streuwert über den Personendatensatz und einen Prozeduridentifizierungsdatensatz des zu validierenden Prozedurergebnisses; Empfangen im Endgerät eines Validierungstoken vom Hintergrundsystem; Anzeigen eines maschinenlesbaren Codes auf Basis des Validierungstoken und Anzeigen des Prozedurergebnisses auf einer Anzeigeeinheit des Endgeräts; Prüfen des maschinenlesbaren Codes durch eine Prüfinstanz unter Prüfung des Validierungstokens; Anzeigen eines Validierungsergebnisses bezüglich des Prozedurergebnisses zusammen mit dem Prozedurergebnis und dem Streuwert über den Personendatensatz und bevorzugt Prozedurinformationen auf einer Anzeigeeinheit der Prüfinstanz.
- Dieses Validierungsverfahren wird auf eine von der Person durchgeführte Prozedur angewendet. Die Durchführung der Prozedur hat dabei ein Prozedurergebnis erzeugt. Das Prozedurergebnis kann das veränderte Objekt sein (der zweite Zustand des Objekts nach der Durchführung der Prozedur).
- Die Person wählt dazu das zu validierende Prozedurergebnis durch Eingabe am Endgerät aus. Daraufhin erzeugt das Endgerät eine Validierungsanfrage. Die Person, die die Validierungsanfrage wählt und deren Prozessergebnis gezeigt werden soll, wird bevorzugt nochmal von dem Endgerät identifiziert. Das ist insbesondere notwendig, wenn die Prüfinstanz keine Person sondern ein Automat (Barcode-Scanner) ist. Diese Validierungsanfrage umfasst einen Streuwert des Personendatensatzes, der in der Speichereinheit des Endgeräts abgelegt ist. Der Personendatensatz ist eineindeutig der Person zugeordnet, die die Prozedur durchgeführt hat. Der Streuwert (=Hash) der Validierungsanfrage kann mittels einer kryptografischen Streuwert-Funktion, die von der Auswerteeinheit des Endgeräts auf den Personendatensatz angewendet werden kann, erhalten werden. Eine Hashfunktion oder Streuwertfunktion ist eine Abbildung, die den Personendatensatz auf die Streuwerte (=Hashwerte) abbildet. Eine Hashfunktion ist nicht injektiv.
- Diese Validierungsanfrage umfasst auch eine Prozeduridentifizierungsdatensatz, kurz Prozedur-ID. Diese Prozedur-ID ist im Verfahren und System eindeutig einer noch-durchzuführenden und/oder bereits durchgeführten Prozedur zugeordnet. Damit wird das Verfahren fälschungssicherer und manipulationssicherer.
- Das Hintergrundsystem empfängt die Anfrage und erzeugt einen Validierungstoken. Der Validierungstoken wird an das Endgerät zurückgesendet.
- Auf einer Anzeigeeinheit des Endgeräts wird nun eine vom Endgerät generierter maschinenlesbarer Code angezeigt. Der maschinenlesbare Code wurde unter Verwendung des Validierungstokens erstellt. Zudem wird das Prozedurergebnis angezeigt.
- Zum Validieren des Prozedurergebnisses liest eine Prüfinstanz, beispielsweise eine Erfassungseinheit (Kamera, QR-Scanner, Barcode-Scanner) eines Endgeräts oder Automaten, den maschinenlesbaren Code aus und prüft den Validierungstoken auf Gültigkeit. Mit dem Einlesen stellt die Prüfinstanz eine Validierungsanfrage unter Prüfung des Validierungstokens. Ist der Validierungstoken gültig, so können vom Hintergrundsystem das Prozedurergebnis, der Streuwert über den Personendatensatz und bevorzugt Prozedurinformationen abgerufen werden.
- Auf einer Anzeigeeinheit der Prüfinstanz wird ein positives Validierungsergebnis zusammen mit dem Prozedurergebnis und Daten aus dem Hintergrundsystem angezeigt, wenn der Validierungstoken dekodiert, zeitlich gültig und überprüft (im Sinne von validiert, also wurde die Prozedur von dieser Person durchgeführt) werden konnte.
- Auf einer Anzeigeeinheit der Prüfinstanz wird ein negatives Validierungsergebnis zusammen mit dem Prozedurergebnis und Daten aus dem Hintergrundsystem angezeigt, wenn der Validierungstoken nicht dekodiert werden konnte oder wenn der Token ungültig ist (Zeitablauf) oder wenn die Überprüfung nicht erfolgreich ist.
- Die computergestützt nachverfolgte Prozedur ist bevorzugt eine, die mit dem Verfahren (bzw. System) zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur gemäß der vorhergehenden Art nachverfolgt wurde. Damit schließt sich das Validierungsverfahren an das Nachverfolge-Verfahren an, womit sowohl eine Nachverfolgung der Prozedur als auch eine Validierung der Prozedur computergestützt, manipulationssicher und ohne weitere Person durchführbar ist.
- Die Prüfinstanz kann eine Person oder ein System (Endgerät, Automat, Barcodescanner mit Auswerteeinheit) sein. Das System kann eine Einlasskontrolle zu einem Gebäude (Restaurant, Konzertsaal, Theater, etc.) oder einer Anlage sein (Stadion, Konzertfläche, Restaurant, etc.) sein. Das System kann überprüfen, ob der Validierungstoken erfolgreich validiert werden konnte und kann die identifizierte Person bei validiertem Prozedurergebnis passieren.
- In einer bevorzugten Ausgestaltung umfasst die Validierungsanfrage einen Prozedurdokumentationsdatensatz, der bei der Durchführung der Prozedur mit erstellt wurde.
- Der Prozedurdokumentationsdatensatz umfasst beispielsweise zufällige Aufnahmen der Person und/oder des Objekts bei der Durchführung. Der Prozedurdokumentationsdatensatz umfasst beispielsweise bewusst angewiesene Aufnahmen der Person und/oder des Objekts bei der Durchführung. Dabei können einzelne Bilder (ein Videoframe) oder mehrere Videoframes (als ein oder mehrere Videos) durch die Kamera des Endgeräts von der Person während des Prozessschritts gemacht werden.
- Bevorzugt kann der Validierungstoken eine Gültigkeitszeitdauer für das Validierungsergebnis bezüglich des Prozedurergebnisses definieren. Die Gültigkeitsdauer kann beispielsweise 1 Minute, 2 Minuten, 5 Minuten, 10 Minuten, 15 Minuten oder 20 Minuten betragen. Die Gültigkeitsdauer wird in den Validierungstoken kodiert. Ist die Gültigkeitsdauer abgelaufen, ist das Validierungsergebnis negativ. Die Person muss dann eine neue Validierung vornehmen.
- Die Anzahl der Validierung gemäß dem o.g. Verfahren ist nicht beschränkt. So kann ein Prozedurergebnis beliebig oft validiert werden. Eine bereits durchgeführte Validierung wird im Hintergrundsystem protokolliert und kann kein zweites Mal aufgerufen werden.
- Das Validierungsergebnis kann Prozedurinformationen umfassen. Diese Prozedurinformationen sind Informationen des Hintergrundsystems, die die Prüfinstanz bei Prüfen des maschinenlesbaren Codes vom Hintergrundsystem erhalten hat. Damit erhält die Prüfinstanz Zusatzinformationen über die Prozedurdurchführung. Die Prozedurinformation kann ein Prozedurdatum und/oder eine Prozedurzeit gemäß Hintergrundsystem sein. Ist die Prozedur beispielsweise eine humanmedizinische Testprozedur, dann kann angegeben werden, wann die Prozedur durchgeführt wurde. Beispielsweise kann so bei einem Virusnachweistest darauf geschlossen werden, ob das Prozedurergebnis überhaupt noch aussagekräftig ist. Beispielsweise informieren die Prozedurinformationen (zumindest indirekt) darüber, dass die Testprozedur ungültig ist und eine neue Testprozedur durchzuführen ist.
- Der Prozeduridentifizierungsdatensatz wird bevorzugt von dem Endgerät erzeugt und dem Hintergrundsystem mitgeteilt. Alternativ wird der Prozeduridentifizierungsdatensatz vom Hintergrundsystem generiert und dem Endgerät bei Prozedurbeginn mitgeteilt.
- Der maschinenlesbare Code ist bevorzugt als QR-Code, angezeigt. Die Prüfinstanz umfasst eine Erfassungseinheit, um den maschinenlesbaren Code einzulesen.
- Das Prozedurergebnis kann vom Hintergrundsystem abgefragt werden.
- Die Erfindung umfasst zudem ein System zum computergestützten Validieren einer von einer Person durchgeführten Prozedur. Das System umfasst eine Eingabeeinheit eines Endgeräts, eingerichtet zum Empfangen einer Personeneingabe zum Anfordern einer Validierung eines Prozedurergebnisses. Das System umfasst zudem eine Steuereinheit, eingerichtet zum Erzeugen eines Streuwerts über einen, in einer Speichereinheit des Endgeräts abgelegten Personendatensatz; Erzeugen einer Validierungsanfrage umfassend den Streuwert und einen Prozeduridentifizierungsdatensatz des zu validierenden Prozedurergebnisses; Senden der Validierungsanfrage an ein Hintergrundsystem; und Empfangen im Endgerät eines Validierungstoken des Hintergrundsystems. Das System umfasst zudem eine Anzeigeeinheit des Endgeräts, eingerichtet zum Anzeigen eines maschinenlesbaren Codes mit dem Validierungstoken und dem Prozedurergebnis. Das System umfasst zudem eine Prüfinstanz, eingerichtet zum Prüfen des maschinenlesbaren Codes unter Prüfung des Validierungstoken und Anzeigen eines Validierungsergebnisses bezüglich des Prozedurergebnisses zusammen mit dem Prozedurergebnis und dem Streuwert über den Personendatensatz und bevorzugt Prozedurinformationen.
- Erfindungsgemäß ist zudem ein System zum Einrichten eines Personenprofils umfassend ein Endgerät und ein Identifizierungsdokument vorgesehen. Das System umfasst: eine Erfassungseinheit des Endgeräts, eingerichtet zum Erfassen von Daten eines Identifizierungsdokuments einer Person; eine Auswerteeinheit des Endgeräts, eingerichtet zum Auswerten der Daten des erfassten Identifizierungsdokuments zum Erhalten eines Personendatensatzes umfassend Biometriedaten und personenbezogene Daten der Person; und eine Speichereinheit des Endgeräts, eingerichtet zum Abspeichern des erhaltenen Personendatensatzes als Personenprofil.
- Die Erfassungseinheit des Endgeräts kann eine Kamera sein, wobei die Kamera eingerichtet ist, ein Lichtbild des Identifizierungsdokuments zu erfassen. Die Auswerteeinheit des Endgeräts kann ein Gesichtserkennungsmodul umfasst, wobei das Gesichtserkennungsmodul eingerichtet ist, das erfasste Lichtbild mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung zu analysieren, um die Biometriedaten des Personendatensatzes zu erhalten.
- Die Erfassungseinheit des Endgeräts kann eine Kamera sein, wobei die Kamera eingerichtet ist, personenbezogene Daten des Identifizierungsdokuments zu erfassen. Die Auswerteeinheit des Endgeräts kann ein Zeichenerkennungsmodul umfasst, wobei das Zeichenerkennungsmodul eingerichtet ist, die erfassten personenbezogenen Daten mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung zu analysieren, um die personenbezogenen Daten des Personendatensatzes zu erhalten.
- Das Identifizierungsdokument kann einen elektronischen Datenspeicher umfassen, wobei die Erfassungseinheit des Endgeräts eine Leseeinheit ist, wobei die Leseeinheit eingerichtet ist, den elektronischen Datenspeicher des Identifizierungsdokuments auszulesen; und wobei die Auswerteeinheit des Endgeräts eingerichtet ist, die ausgelesenen Daten auszuwerten, um den Personendatensatzes zu erhalten.
- Die Auswerteeinheit kann ein Verschlüsselungsmodul umfasst, wobei das Verschlüsselungsmodul eingerichtet ist, den erhaltenen Personendatensatz kryptografisch abzusichern. Die Speichereinheit des Endgeräts kann eingerichtet sein, den kryptografisch abgesicherten Personendatensatz abzuspeichern.
- Die Kommunikation zwischen Endgerät und Hintergrundsystem erfolgt über TCP/IP Protokoll. Das Hintergrundsystem umfasst eine Serverarchitektur, auf der eine Datenbank läuft. Die Datenbank verwaltet einen Objektdatensatz der eineindeutig einem Objekt zugeordnet wird, eine Prozedur-ID für jede Prozedur und einen Personendatensatz für jede Person. Gestrichelt dargestellte Elemente sind optional.
- Figurenliste
- Nachfolgend wird anhand von Figuren die Erfindung bzw. weitere Ausführungsformen und Vorteile der Erfindung näher erläutert, wobei die Figuren lediglich Ausführungsbeispiele der Erfindung beschreiben. Gleiche Bestandteile in den Figuren werden mit gleichen Bezugszeichen versehen. Die Figuren sind nicht als maßstabsgetreu anzusehen, es können einzelne Elemente der Figuren übertrieben groß bzw. übertrieben vereinfacht dargestellt sein.
-
1 zeigt ein Ablaufdiagram eines Verfahrens100 ; -
2 zeigt ein System1000 ; -
3 zeigt ein Ablaufdiagrams eines Verfahrens200 ; -
4 zeigt ein System2000 ; -
5 zeigt ein Verfahrens300 ; -
6 zeigt ein System3000 ; -
7a-f zeigt jeweils ein Anzeigeelement eines Endgeräts; -
8a-h zeigt ein Ablaufdiagram der Verfahren100 ,200 ,300 ; -
9a-f zeigt beispielhafte Strukturen für verschiedene Datensätze der Verfahren100 ,200 ,300 ; und -
10a-b zeigt zwei alternative Ausgestaltungen des Verfahrensschritts2044a . - DETAILLIERTE BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
-
1 zeigt ein Ablaufdiagram eines Verfahrens100 zum Einrichten eines Personendatensatzes (=Personenprofils). Gestrichelt dargestellte Elemente sind optional.2 zeigt ein Systems1000 zum Einrichten eines Personenprofils umfassend ein Endgerät30 und ein Identifizierungsdokument10 . Bei der Beschreibung der1 wird auch auf das System1000 der2 eingegangen. - Das Verfahren
100 der1 umfasst in einem ersten Schritt101 das Erfassen von Daten11 ,14 ,15 eines Identifizierungsdokuments30 der Person1 mittels eines Endgeräts30 . Das Endgerät30 weist dazu eine Erfassungseinheit31 auf. - Das Identifizierungsdokument
30 ist beispielsweise ein Personalausweis, ein Reisepass, ein Führerschein und/oder ein Firmenausweis derjenigen Person1 , deren Personendatensatz320 im Endgerät30 eingerichtet werden soll. - Das Identifizierungsdokument
10 kann ein Lichtbild14 der Person1 aufweisen. Das Lichtbild14 kann auf einer Vorderseite12 des Identifizierungsdokuments10 angeordnet sein. - Das Identifizierungsdokument
10 kann personenbezogene Daten15 der Person1 aufweisen. Die personenbezogenen Daten15 können auf einer Vorderseite12 und/oder auf einer Rückseite13 des Identifizierungsdokuments10 angeordnet sein. Personenbezogene Daten15 einer Person1 können eine oder mehrere der folgenden Angaben umfassen: Vorname der Person1 , Nachname der Person1 , Geburtsname der Person1 , Geburtstag der Person1 , Geburtsort der Person1 , Anschrift der Person1 , Staatsangehörigkeit der Person1 , händische Unterschrift der Person, Augenfarbe der Person1 , Körpergröße der Person1 , Identifizierungsdokumentennummer des Identifizierungsdokuments10 , Identifizierungsdokumententyp des Identifizierungsdokuments10 , Ausstellungsdatum des Identifizierungsdokuments10 , Ausstellungsbehörde des Identifizierungsdokuments10 , Gültigkeitsdatum des Identifizierungsdokuments10 . - Das Identifizierungsdokument
10 kann einen Datenspeicher11 mit Biometriedaten der Person1 und personenbezogene Daten15 der Person1 aufweisen. Die Biometriedaten sind Merkmale der Person1 , die so eindeutig sind, dass diese Person1 anhand dieser Merkmale identifiziert werden kann. Die Biometriedaten auf einem deutschen Personalausweis als Beispiel eines Identifizierungsdokuments10 einer Person1 sind die Gesichtsgeometrie des Gesichts1a der Person1 , die Fingerabdrücke der Person1 und/oder die händische Unterschrift der Person1 . - Weitere mögliche Biometriedaten einer Person
1 (auch mit Blick auf die Verfahren200 und300 , die nachfolgend beschrieben werden) können sein: eine DNA (=mobiler DNA-Test, genetischer Fingerabdruck) der Person1 , ein Blutbild (Hämogramm) der Person1 , ein Fingerabdruck (Fingerlinienbild) der Person1 , ein Gangstil der Person1 , eine Handgeometrie der Person1 , eine Handlinienstruktur der Person1, eine Handvenenstruktur der Person1, eine Iris (Regenbogenhaut) der Person1 bzw. eine Iris-Erkennung der Person1 , ein Körpergeruch der Person1 , eine Körpergröße (Anthropometrie) der Person1 , eine Lippenbewegung der Person1 , ein Nagelbettmuster der Person1 , eine Ohrform der Person1 , eine Retina (Augenhintergrund) der Person1 , eine Stimme der Person1 bzw. Sprecherauthentifizierung (ungleich Spracherkennung) der Person1 bzw. eine Stimmerkennung (Klangfarbe) der Person1 , eine Unterschrift (statisch, dynamisch, auch Handschrift) der Person1 , eine Röntgenaufnahme eines Gebisses der Person und/oder ein Zahnabdruck der Person1 . - Die Erfassungseinheit kann eine Kamera
31a sein. Die Kamera31a kann eine Frontkamera des Endgeräts30 sein, die auf der Seite einer Anzeigeeinheit34 (Display) des Endgeräts30 angeordnet ist. Die Kamera31a kann eine Rückkamera des Endgeräts30 sein, die auf einer, der Seite der Anzeigeeinheit34 (Display) des Endgeräts30 gegenüberliegenden Seite angeordnet ist. - Die Erfassungseinheit
31 kann eine Leseeinheit31b sein. Die Leseeinheit31b ist eingerichtet, elektronische Daten aus dem Datenspeicher11 des Identifizierungsdokuments30 (oder auch eines Objekts20 gemäß der Verfahren200 ,300 ) zu empfangen. Das Empfangen erfolgt beispielsweise mittels Nahfeldkommunikationsmitteln (NFC, RFID) als Leseeinheit31b . Zum Auslesen der Daten des Datenspeichers11 des Identifizierungsdokuments10 kann eine PIN-Abfrage notwendig sein. - Die Erfassungseinheit
31 kann ein Code-Scanner31c sein. Der Code-Scanner31c ist eingerichtet, maschinenlesbare Datensätze, wie Barcodes, QR-Codes, etc. vom Identifizierungsdokument30 (oder auch eines Objekts20 gemäß der Verfahren200 ,300 ) zu erfassen. - In einem Folgeschritt der
1 erfolgt ein Auswerten102 der Daten11 ,14 ,15 des erfassten Identifizierungsdokuments30 durch eine Auswerteeinheit33 des Endgeräts30 zum Erhalten eines Personendatensatzes320 umfassend Biometriedaten und personenbezogene Daten der Person1 . Die Auswerteeinheit33 ist beispielsweise eine CPU des Endgeräts30 . Die Auswerteeinheit ist dazu eingerichtet, Methoden computergestützter Gesichts-, Muster-, Zeichen- und/oder Bilderkennung auszuführen. Mit der Ausführung werden die erfassten Daten11 ,14 ,15 des Identifizierungsdokuments10 ausgewertet. - So kann das erfasste Lichtbild
14 des Identifizierungsdokuments10 mittels eines Gesichtserkennungsmoduls330 ausgewertet werden. Das Gesichtserkennungsmodul330 analysiert dazu das erfasste Lichtbild14 und extrahiert Gesichtsmerkmalsdaten der Person1 als Biometriedaten des Personendatensatzes320 . - So können die erfassten personenbezogenen Daten
15 des Identifizierungsdokuments10 mittels einer optischen Zeichenerkennung (englisch optical character recognition, OCR) einer Zeichenerkennungsmoduls331 analysiert werden. Das Zeichenerkennungsmoduls331 analysiert dazu die erfassten personenbezogenen Daten15 und extrahiert diese als personenbezogene Daten des Personendatensatzes320 . - So können die erfassten Daten aus dem Datenspeicher
11 des Identifizierungsdokuments10 mittels NFC-Kommunikation im Endgerät30 erhalten werden und diese erfassten Daten umfassen sowohl die Biometriedaten als auch personenbezogene Daten des Personendatensatzes320 . - In einem optionalen Schritt
104 wird der erhaltene Personendatensatz320 mittels Verschlüsselungsmodul332 der Auswerteeinheit33 des Endgeräts30 kryptografisch verschlüsselt. - In einem Abspeichern-Schritt
103 wird der erhaltenen Personendatensatzes320 als Personenprofil in einer Speichereinheit32 des Endgeräts30 abgespeichert, ggf. kryptografisch gesichert, wenn Schritt104 ebenfalls ausgeführt wurde. Eine Struktur eines beispielhaften Personendatensatz320 ist in9b gezeigt. - Im optionalen Schritt
105 wird mittels der Auswerteeinheit33 , beispielsweise ebenfalls mit dem Modul332 der Auswerteeinheit33 des Endgeräts30 , ein Streuwert (=Hashwert) des Personendatensatzes320 erzeugt. - Im optionalen Schritt
106 wird der im Schritt105 erzeugt Streuwert des Personendatensatzes320 vom Endgerät 3 an ein Hintergrundsystem40 gesendet. Im Hintergrundsystem40 kann dieser Streuwert430 in einer Datenbank41 abgelegt werden. Der Streuwert430 kann dabei ein Teil eines anonymisierten Personendatensatzes410 in dem Hintergrundsystem40 sein. Eine beispielhafte Struktur eines anonymisierten Personendatensatzes410 ist in9a gezeigt. - Der anonymisierte Personendatensatzes
410 (=„Remote_Testee“) kann neben dem Streuwert430 auch einen Log-Eintrag umfassen, mit dem Prozedurereignisse, insbesondere fehlgeschlagene Objektidentifizierungen, mit Zeitstempel abgelegt werden können. - Der anonymisierte Personendatensatzes
410 (=„Remote_Testee“) kann zudem eine Personenidentifikationsnummer umfassen, mit der die Person1 eindeutig am Hintergrundsystem40 referenziert werden kann. - Alternativ wird mit dem Schritt
106 der gesamte Personendatensatz320 (Biometriedaten und personenbezogene Daten) in dem Hintergrundsystem40 abgelegt. Dazu ist das Hintergrundsystem40 bevorzugt eine vertrauenswürdige Instanz (trusted server), der zur Verwaltung derartiger Personendatensätze320 eine entsprechende Datenintegrität und Manipulationssicherheit aufweist. - In
1 gestrichelt dargestellt ist ein optionaler Schritt1012 , der im Ablaufdiagramm der8 näher erläutert wird. Im optionalen Schritt1012 kann nach dem Erfassen der Daten11 ,14 ,15 des Identifizierungsdokuments10 das Endgerät30 die Person1 dazu auffordern, ein Bild des Gesichts1a der Person1 von der Erfassungseinheit31 des Endgeräts30 zu erfassen. Dieses erfasste Gesicht1a der Person1 wird vom Endgerät30 in den Schritten1022 ,1023 der8b mit den erhaltenen Biometriedaten aus dem Identifizierungsdokument10 verglichen, um zu verifizieren, dass die Person1 auf dem Identifizierungsdokument10 auch die Person1 vor dem Endgerät30 ist. Dieser zusätzliche Verifizierenschritt (Schritte1012 ,1022 ,1023 der8b) erhöht die Sicherheit am Verfahren100 ,200 und300 und dient der gesicherten Identitätsfeststellung der Person1 . - Bevorzugt werden die erfassten Biometriedaten der Person
1 mit dem Personendatensatz verknüpft und nicht die Biometriedaten des Lichtbilds des Identifizierungsdokuments, um Lichtverhältnisse und optische Veränderungen der Person1 gegenüber dem Lichtbild im Personendatensatz320 abzubilden. - Das Verfahren
100 zum Einrichten eines Personendatensatzes320 für eine durchzuführende Testprozedur eines Antigen-Test auf SARS-CoV-2- ist in den8a und8b dargestellt und wird später beschrieben. -
2 zeigt das Systems1000 zum Einrichten eines Personenprofils320 umfassend das Endgerät30 und das Identifizierungsdokument10 . Auf die Ausführungen zur1 wird verwiesen, um unnötige Wiederholungen zu vermeiden. - Das Endgerät
30 kann ein Smartphone der Person1 sein. Dieses Endgerät30 wird von der Person1 ständig mitgeführt und kann zur Prozedurnachverfolgung (Verfahren200 ) und Prozedurvalidierung (Verfahren300 ) flexibel verwendet werden. Smartphones haben mittlerweile ausreichend Prozessor- und Rechenleistungen in ihren Auswerteeinheiten33 , bspw. einer CPU, einer GPU oder zusätzlicher Signalprozessoren, dass damit eine computergestützte Gesichts- und/oder Muster- und/oder Bilderkennung basierend auf Methoden der künstlichen Intelligenz und des maschinellen Lernens zuverlässig ausgeführt werden können. - Das Endgerät
30 der Systeme1000 ,2000 und3000 sollte ein Endgerät30 sein, das ein Betriebssystem ab iOS™ der Version12 und/oder ab Android™ der Version 9 (Pie) oder jünger unterstützt. -
3 zeigt ein Ablaufdiagrams eines Verfahrens200 zum computergestützten Nachverfolgen einer von einer Person1 durchzuführenden Prozedur. Gestrichelt dargestellte Elemente sind optional.4 zeigt ein Systems2000 zum computergestützten Nachverfolgen einer von der Person1 durchzuführenden Prozedur. Bei der Beschreibung der3 wird auch auf das System2000 der3 eingegangen. Das Verfahren200 kann sich dem Verfahren100 der1 direkt anschließen. Ein beispielhaftes Anschließen ist in8c gezeigt. - In einem Schritt
201 wird durch eine Identifizierungseinheit des Endgeräts30 unmittelbar vor einem Durchführen der Prozedur durch die Person1 die Person1 identifiziert. Dazu werden in einem Erfassenschritt2011 die Biometriedaten der Person1 durch das Endgerät30 erfasst. Dieses Erfassen im Schritt2011 kann auf Basis der gleichen Technologien erfolgen, wie das Erfassen der Biometriedaten vom Identifizierungsdokument30 , nur mit dem Unterschied, dass nun nicht das Identifizierungsdokument30 , sondern die Person1 (selbst) von der Erfassungseinheit31 des Endgeräts30 erfasst wird. - Zum Identifizieren
201 werden die im Schritt2011 erfassten Biometriedaten mit den Biometriedaten des Personendatensatzes320 durch die Identifizierungseinheit des Endgeräts30 im Schritt2012 verglichen. Diese Biometriedaten des Personendatensatzes320 können aus der Speichereinheit32 des Endgeräts30 abgerufen werden. Diese Biometriedaten des Personendatensatzes320 wurden bevorzugt mit dem Verfahren100 der1 (System1000 der2 ) erhalten. Dazu ist ggf. eine Entschlüsselung des Personendatensatzes320 notwendig (wenn eine Verschlüsselung im Schritt104 des Verfahrens100 erfolgt ist). - Alternativ (oder zusätzlich) können diese Biometriedaten von einem Hintergrundsystem
40 im Schritt2013 abgerufen werden (bspw. wenn sie dort im Schritt106 hinversendet wurden). Das Hintergrundsystem40 könnte eine vertrauliche Instanz zur Verwaltung von Personendatensätzen320 sein. Das Abrufen vom Hintergrundsystem40 ist weniger bevorzugt, da dadurch Biometriedaten außerhalb des Endgeräts30 vorliegen müssen. Ein Vergleich2012 mit lokal gespeicherten Biometriedaten ist aus Sicherheitsgründen bevorzugt. - Zum Identifizieren
202 der Person1 kann im Erfassenschritt2011 ein Gesicht1a der Person1 mittels der Erfassungseinheit31 , insbesondere einer Kamera31a des Endgeräts30 erfasst werden. Das erfasste Gesicht1a kann mittels Methoden computergestützter Gesichtserkennung durch die Auswerteeinheit33 des Endgeräts30 analysiert werden, um die Biometriedaten der Person1 zu erhalten. - Das Identifizieren
202 der Person1 kann zu einem oder mehreren zufälligen Zeitpunkten während der Durchführung der Prozedur wiederholt werden. Damit wird sichergestellt, dass die identifizierte (und verifizierte) Person1 während der gesamten Prozedurdauer die Prozedur durchführt. - In einem Folgeschritt
202 wird zumindest eines durch die Prozedur zu veränderndes Objekt20 durch das Endgerät30 unmittelbar vor der Durchführung der Prozedur identifiziert. Das Objekt20 ist insbesondere ein Gegenstand, der durch die Proezdur von einem ersten Zustand in einen zweiten Zustand verändert wird. Das Objekt20 kann ein Testobjekt, beispielsweise eine Testkassette eines Virusnachweistests sein. Der erste Zustand dieser Testkassette könnte dann sein, dass die Testkassette einen unverbrauchten Teststreifen hat. Der zweite Zustand (nach der Prozedur) könnte dann sein, dass die Testkassette - durch Applizieren einer Abstrich-, Speichel- oder Spuckprobe - einen verbrauchten Teststreifen hat. Der verbrauchte Teststreifen hat im Vergleich zum unverbrauchten Teststreifen zumindest eine sichtbare Kontrolllinie, während der unverbrauchte Teststreifen keine sichtbare Kontrolllinie hat. - Zum Identifizieren
202 des Objekts20 kann eine Abfrage2023 eines Objektidentifizierungsdatensatzes420 oder eines Prozedurdatensatzes 45) aus dem (oder einem anderen) Hintergrundsystem40 erfolgen. - Durch diese Abfrage
2023 kann ein in9c dargestellter Objektidentifizierungsdatensatzes420 abgefragt werden. Der Objektidentifizierungsdatensatzes420 kann beispielsweise einen Objekttyp umfassen. Dies ist sinnvoll, wenn eine Prozedur mit verschiedenen Typen von Objekten20 durchgeführt werden kann. Mit dem Objekttyp kann dann das Anleiten und Dokumentieren entsprechend angepasst werden. Der Objektidentifizierungsdatensatzes420 kann beispielsweise eine Herstellerangabe, ein Produktionsdatum, ein Gültigkeitsdatum, eine Objekteigenschaft und/oder ein Zertifikat umfassen. Damit kann das Objekt20 bestmöglich im Verfahren200 identifiziert werden und nützliche Informationen für die Durchführung der Prozedur bereitgestellt werden. - Durch diese Abfrage
2023 kann alternativ oder zusätzlich ein in9e dargestellter Prozedurdatensatzes450 abgefragt werden. Der Prozedurdatensatz450 kann beispielsweise eine Prozedurseriennummer umfassen. - Der Prozedurdatensatzes
450 kann beispielsweise einen Status des Objekts20 umfassen. Ein Status des Objekts20 kann „initialisiert“ sein, beispielsweise wenn das Objekt im Verfahren200 angelegt wurde. Ein Status des Objekts20 kann „hergestellt“ sein, beispielsweise wenn das Objekt für das Verfahren200 hergestellt wurde. Ein Status des Objekts20 kann „in Verwendung“ sein, beispielsweise wenn das Objekt im Verfahren200 verwendet wird. Ein Status des Objekts20 kann „fertiggestellt“ sein, beispielsweise wenn das Objekt im Verfahren200 fertiggestellt wurde. - Der Prozedurdatensatz
450 kann ein Prozedurergebnis umfassen. Das Prozedurergebnis kann „positiv“, „negativ“ oder „ungültig“ sein. Ein ungültiges Prozedurergebnis wird ausgegeben, wenn die Prozedur falsch angewendet wurde oder Person1 und/oder Objekt20 nicht prozedurkonform identifiziert/nachverfolgt werden konnten. Ein positives Prozedurergebnis kann ausgegeben werden, wenn eine Prozedur fehlerfrei und manipulationsfrei durchlaufen wurde. In Anlehnung an einen Virusnachweistest als Prozedur, ist ein positives Testergebnis der Nachweis von Viren durch die Testkassette. In Anlehnung an einen Virusnachweistest als Prozedur, ist ein negatives Testergebnis der fehlende Nachweis von Viren durch die Testkassette. - Der Prozedurdatensatz
450 kann einen Zeitstempel, beispielsweise eine Zeit- oder Datumsangabe umfassen. Der Prozedurdatensatz450 kann den Streuwert430 umfassen. Der Prozedurdatensatz450 kann eine Prozedur-Identifizierungsnummer umfassen. Der Prozedurdatensatz450 kann eine Personenidentifizierungsnummer umfassen. - Das Identifizieren
202 des Objekts20 kann das Erfassen2021 eines Objektidentifizierungsdatensatzes21 des Objekts durch das Endgerät30 und ein Vergleichen2022 des erfassten Objektidentifizierungsdatensatzes21 mit dem Objektidentifizierungsdatensatz420 des Hintergrundsystems40 umfassen. Damit wird eine Manipulationssicherheit erhöht. Der Objektidentifizierungsdatensatz21 ist beispielsweise ein maschinenlesbarer Datensatz, beispielsweise ein QR-Code210 , ein Barcode oder ein RFID/NFC-Tag. Der maschinenlesbarer Datensatz kann auch eine eindeutige Seriennummer220 sein, die im Verfahren200 vergeben wurde. Der maschinenlesbare Datensatz des Objekts20 kann durch Abfragen2023 eines entsprechenden Objektidentifizierungsdatensatzes420 in einem Hintergrundsystem40 validiert werden, wobei nach einer erfolgreichen Validierung des maschinenlesbaren Datensatzes ein Status des Objektidentifizierungsdatensatzes420 oder eines Prozedurdatensatzes450 im Hintergrundsystem40 auf „in Verwendung“ gesetzt wird. - In dem Schritt
202 kann optional auch jedes Hilfsmittel50 durch das Endgerät30 unmittelbar vor der Prozedur identifiziert werden. Dabei kann jedes verwendete Hilfsmittel50 mittels einer Kamera31a des Endgeräts30 erfasst werden. Das erfasste Hilfsmittel50 kann mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung durch die Auswerteeinheit33 des Endgeräts30 analysiert werden, um das Hilfsmittel50 zu identifizieren. - Nach erfolgreicher Identifizierung in den Schritten
201 und202 wird die Prozedur von der Person1 durchgeführt. Dazu wird die Person ggf. dazu aufgefordert, sich vor da Endgerät30 zu platzieren und die Frontkamera31a des Endgeräts 3900 zu aktivieren (sogenannter Selfie-Modus). So kann der Benutzer sich selbst während der Durchführung der Prozedur beobachten (Self-Mirroring). Damit kann er sich selbst begutachten und das Endgerät30 kann darüber hinaus die Person1 , das Objekt20 und/oder das Hilfsmittel50 erkennen und erfassen. Während der gesamten Durchführung der Prozedur bleibt die Erfassungseinheit31 des Endgeräts30 aktiviert, wodurch das Endgerät30 Bilder erfassen und auswerten kann. - Dazu wird die Person ggf. auch dazu aufgefordert, einen von der Kamera
31a des Endgeräts erfassbaren Bereich oder einen vordefinierten Bereich nicht mehr zu verlassen. - Der erfassbare Bereich kann auf der Anzeigeeinheit
34 des Endgeräts30 während der gesamten Prozedur oder nur zu Beginn der Prozedur angezeigt werden. Dieser Bereich kann durch Methoden der „erweiterten Realität“ (engl. „Augmented Reality“) in der Anzeigeeinheit34 des Endgeräts30 durch Linien, Schraffuren, etc. angezeigt werden. Er kann durch Entfernungen zur Kamera, Lichtverhältnisse, etc. vom Endgerät30 selbst bestimmt werden. Er kann durch die Prozedur selbst bzw. das Objekt20 und/oder die Hilfsmittel50 vorbestimmt sein. - In einem Schritt
203 wird zumindest eine Position der Person1 und zumindest eine Position des Objekts20 und ggf. eine Position des Hilfsmittels50 durch das Endgerät30 mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung während der Durchführung der Prozedur nachverfolgt. Dabei können Positionen und Bewegungen erfasst und mittels der Auswerteeinheit33 des Endgeräts mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung analysiert werden. Beispielsweise wird die Position und/oder die Bewegung eines Körperteils der Person1 , bevorzugt eine oder beide Hände12 der Person1 erfasst und analysiert dazu werden. - Dabei kann eine Nachverfolgungseinheit des Endgeräts
30 zum Nachverfolgen203 einer oder mehrerer Positionen der Person1 während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung mittels eines Prüfens, ob beide Hände12 der Person1 während der gesamten Durchführung der Testprozedur in einem vordefinierten Bereich oder einem von der Kamera31a des Endgeräts30 erfassbaren Bereich sind, eingerichtet sein. - Dabei kann eine Nachverfolgungseinheit des Endgeräts
30 zum Nachverfolgen203 von einer oder mehreren Positionen des Testobjekts20 anhand der Form des Objekts während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung eingerichtet sein. - Das Prüfen durch die Nachverfolgungseinheit des Endgeräts
30 kann dabei auch umfassen, ob das Gesicht1a und die beiden Hände1b der Person1 während einer Abgabe einer Speichelprobe in dem vordefinierten Bereich oder dem von der Kamera31a des Endgeräts30 erfassbaren Bereich ist. - Das Prüfen durch die Nachverfolgungseinheit des Endgeräts
30 kann dabei auch umfassen, ob das Gesicht1a und die beiden Hände1b der Person1 während einer Hinzugabe einer Extraktionsflüssigkeit in die Speichelprobe in dem vordefinierten Bereich oder dem von der Kamera31a des Endgeräts30 erfassbaren Bereich ist. - Das Prüfen durch die Nachverfolgungseinheit des Endgeräts
30 kann dabei auch umfassen, ob das Gesicht1a und die beiden Hände1b der Person1 während eines Schüttelns der Speichelprobe für eine vorgegebene Zeitdauer in dem vordefinierten Bereich oder dem von der Kamera31a des Endgeräts30 erfassbaren Bereich ist - Das Prüfen durch die Nachverfolgungseinheit des Endgeräts
30 kann dabei auch umfassen, ob das Gesicht1a und die beiden Hände1b der Person1 und das Objekt20 während eines Injizierens der Speichelprobe auf das Objekt20 in dem vordefinierten Bereich oder dem von der Kamera31a des Endgeräts30 erfassbaren Bereich ist. - Während der Prozedurdurchführung wird die Prozedur durch Anweisungen oder Hinweise oder Warnungen angeleitet 204.
- Während der Prozedurdurchführung wird die Prozedur dokumentiert 205. Dazu werden beispielsweise in zufällig ausgewählten Zeitpunkten Screenshots von dem Endgerät
30 aufgenommen und in einen Prozedur-Identifizierungsdatensatz321 in der Speichereinheit32 des Endgeräts30 abgelegt. Eine beispielhafte Struktur eines Prozedur-Identifizierungsdatensatzes321 ist in9d dargestellt. Der Prozedur-Identifizierungsdatensatz321 der9d umfasst eine Prozedur-Identifizierungsnummer, die bevorzugt Verfahrens- und Systemweit eindeutig ist. Der Prozedur-Identifizierungsdatensatz321 umfasst zudem die Prozedurdokumentation, die Ergebnisse und/oder Zwischenergebnisse und/oder Momentaufnahmen (Screenshots) von der Durchführung umfasst. Dabei können einzelne Bilder (ein Videoframe) oder mehrere Videoframes (als ein oder mehrere Videos) durch die Kamera des Endgeräts von der Person während des Prozessschritts gemacht worden sein. -
4 zeigt das System2000 , es wird auf die Ausführungen zur3 verwiesen. Die Systemkomponenten (Endgerät30 , Hintergrundsystem40 ) sind bevorzugt die Systemkomponenten aus der2 oder der4 , es wird zur Vermeidung von Wiederholungen auf die Aussagen der1 bis3 verwiesen. - Die Auswerteeinheit
33 kann ein Mustererkennungsmodul333 umfassen. Dieses Mustererkennungsmodul333 ist eingerichtet, Methoden computergestützter Gesichts-, Muster-, Zeichen- und/oder Bilderkennung auszuführen. Beispielsweise wird zum Erfassen und Auswerten der Position oder Bewegungen von Person1 , Objekt20 und/oder Hilfsmittel50 ein „Model target tracking“ Verfahren aus dem Bereich der künstlichen Intelligenz angewendet. - Beispielsweise werden zum Erfassen und Auswerten der Position oder Bewegungen von Person
1 , Objekt20 und/oder Hilfsmittel50 Sensoren (nicht gezeigt in4 ) an der Person1 (bspw. an den Händen12 ) angebracht. Die von diesen Sensoren generierten Sensordaten werden dem Endgerät30 als Positions- oder Bewegungsinformationen bereitgestellt und werden von der Auswerteeinheit33 bei der Erfassung und Analyse der Position oder Bewegungen von Person1 , Objekt20 und/oder Hilfsmittel50 ausgewertet. Zum Einsatz kommen beispielsweise UWB-Sensoren oder Bluetooth-Sensoren. Die Sensoren sind Beschleunigungs- und/oder Positionssensoren.5 zeigt ein Ablaufdiagrams eines Verfahrens300 zum computergestützten Validieren einer von einer Person1 durchgeführten und computergestützt nachverfolgten Prozedur. Gestrichelt dargestellte Elemente sind optional.6 zeigt ein Systems3000 zum computergestützten Validieren einer von einer Person1 durchgeführten und computergestützt nachverfolgten Prozedur. Bei der Beschreibung des Verfahrens300 aus5 wird auch auf das System3000 der6 eingegangen. Das Verfahren300 kann sich dem Verfahren200 der1 direkt anschließen. Ein beispielhaftes Anschließen ist in8g-h gezeigt. - In einem Schritt
301 wird eine Validierung eines Prozedurergebnisses durch eine Personeneingabe an einem Endgerät30 angefordert. Dazu wählt die Person1 am Endgerät30 aus, welches Prozedurergebnis validiert werden soll. Beispielsweise können verschiedene Prozedurergebnisse im Endgerät30 ausgewählt werden. - Im Schritt
302 wird eine Validierungsanfrage im Endgerät30 erzeugt und an das Hintergrundsystem40 gesendet. Die Validierungsanfrage umfasst den Streuwert430 über den Personendatensatz320 und einen Prozeduridentifizierungsdatensatz321 des zu validierenden Prozedurergebnisses. Personendatensatz320 und einen Prozeduridentifizierungsdatensatz321 werden entsprechend aus der Speichereinheit32 des Endgeräts30 erhalten, ggf. ist eine Entschlüsselung vorzunehmen, wenn Schritt104 angewendet wurde. - Im Hintergrundsystem
40 wird im Schritt303 ein Validierungstoken440 erstellt. Eine beispielhafte Struktur eines Validierungstokens ist in9f dargestellt.. Der Validierungstoken440 umfasst beispielsweise auch den Streuwert430 des Personendatensatzes320 (gleich Streuwert430 des Personendatensatzes320 im Prozedurdatensatz450 oder zum Streuwert430 des Personendatensatzes320 im anonymisierten Personendatensatzes410 ). Der Validierungstoken440 umfasst beispielsweise zudem die Prozeduridentifikationsnummer. Der Validierungstoken440 umfasst Tokeneigenschaften, beispielsweise eine Zeitdauer, die der Validierungstoken440 gültig ist und/oder eine Signatur des Hintergrundsystems40 . Der Validierungstoken440 ist beispielsweise ein jwt-Token. Der Streuwert430 kann dabei bei jeder Validierungsanfrage neu erstellt werden und mit der Prozedur-Identifizierungsnummer zur Validierung des Prozedurergebnisses (Verfahren300 ) an das Hintergrundsystem40 gesendet werden. Die Validierung findet dann über den Token440 statt und gleicht die vorher übergebenen Parameter mit dem im Hintergrundsystem40 dokumentierten Datenbestand ab. Ist der Datenabgleich positiv so ist die Validierung positiv. Ist der Datenabgleich negativ (weichen die übergebenen Daten von den abgelegten Daten ab), so ist die Validierung negativ. - Dieser Validierungstoken
440 wird im Schritt304 im Endgerät30 empfangen. - Im Anzeigen-Schritt
305 wird ein maschinenlesbarer Code mit dem Validierungstoken440 und einem Link zum Hintergrundsystem40 (bspw. einem Validierungsserver) erzeugt und zusammen mit den Prozedurergebnissen auf der Anzeigeeinheit34 des Endgeräts30 angezeigt. Dabei wird die Validierungsbestätigung auf Basis des Validierungstokens440 erzeugt. Die Validierungsbestätigung wird zusammen mit dem Prozedurergebnisses auf der Anzeigeeinheit34 des Endgeräts30 angezeigt. - Eine Prüfinstanz
2 , beispielsweise ein Auditor oder ein Automat mit Scanfunktion liest im Schritt306 die Validierungsbestätigung aus. Eine Prüfinstanz2 , beispielsweise ein Auditor oder ein Automat mit Scanfunktion liest im Schritt306 den maschinenlesbaren Code aus. Mit dem Einlesen im Schritt306 stellt die Prüfinstanz2 eine Validierungsanfrage unter Prüfung des Validierungstokens440 an das Hintergrundsystem40 . Ist der Validierungstoken440 gültig, so können vom Hintergrundsystem40 das Prozedurergebnis, der Streuwert430 über den Personendatensatz320 und bevorzugt Prozedurinformationen abgerufen werden.. In einem Anzeigen-Schritt 308 wird das Validierungsergebnis bezüglich des Prozedurergebnisses zusammen mit dem Prozedurergebnis und dem Streuwert430 über den Personendatensatz320 und bevorzugt die Prozedurinformationen auf einer Anzeigeeinheit der Prüfinstanz2 angezeigt. - Diese computergestützt nachverfolgte Prozedur ist bevorzugt eine nach dem Verfahren
200 zum computergestützten Nachverfolgen der von der Person1 durchzuführenden Prozedur computergestützt nachverfolgt worden. - Der Validierungstoken
440 hat eine Gültigkeitszeitdauer für das Prozedurergebnis definiert. Diese Gültigkeitsdauer ist beispielsweise zehn Minuten. Damit haben Person1 und Prüfinstanz2 diese zehn Minuten nach dem Anfordern-Schritt301 Zeit, das Prozedurergebnis zu validieren. Danach ist der Validierungstoken ungültig, die Validierung ist nicht mehr möglich. - Das Prozedurergebnis kann beliebig oft validiert werden.
- Die Prozedurinformation ist beispielsweise ein Prozedurdatum und/oder eine Prozedurzeit gemäß Hintergrundsystem. Diese Prozedurinformation wird auf der Anzeigeeinheit der Prüfinstanz
2 angezeigt, wodurch ein Benutzer der Prüfinstanz2 die Informationen gemäß Hintergrundsystem2 (nicht gemäß Endgerät30 ) sieht. Dies gilt auch für das Prozedurergebnis, das vom Hintergrundsystem erhalten und in der Prüfinstanz2 angezeigt wird. - Der Prozeduridentifizierungsdatensatz
321 wird vom Endgerät30 erzeugt. - Der maschinenlesbare Code, bevorzugt ein QR-Code, wird angezeigt. Die Prüfinstanz
2 hat eine Erfassungseinheit (Kamera, Lesegerät), um den QR-Code im Schritt306 einzulesen. -
6 zeigt das System3000 , es wird auf die Ausführungen zur5 verwiesen. Die Systemkomponenten (Endgerät30 , Hintergrundsystem40 ) sind bevorzugt die Systemkomponenten aus der2 oder der4 , es wird zur Vermeidung von Wiederholungen auf die Aussagen der1 bis5 verwiesen. - In
7a-e ist jeweils ein Anzeigeelement34 eines Endgeräts30 gezeigt, auf dem Anleitungshinweise während der Durchführung der Prozedur dargestellt sind. - So zeigt
7a beispielsweise eine Instruktion341 , wie das Objekt40 behandelt/verändert werden muss, um eine Prozedur erfolgreich durchzuführen. Hier muss ein Teil A an ein Teil B angefügt werden, es könnte sich um das Zusammenbauen einer Testapparatur handeln. Die (korrekte oder fehlerhafte) Durchführung dieser Instruktion341 wird dann von dem Endgerät30 nachverfolgt. - So zeigt
7b beispielsweise eine Instruktion341 , dass nun eine Wartezeit von 10 min einzuhalten ist, um eine Prozedur erfolgreich durchzuführen. Die (korrekte oder fehlerhafte) Durchführung dieser Instruktion341 wird dann von dem Endgerät30 nachverfolgt. So könnte es ein Fehler bewertet werden, wenn binnen dieser Wartezeit das Objekt40 aus dem vordefinierten oder erfassbaren Bereich der Erfassungseinheit des Endgeräts30 entnommen wird. - So zeigt
7c beispielsweise eine Instruktion342 , wie eine Position des Objekts40 korrigiert werden muss, um eine Prozedur erfolgreich durchzuführen. Hier muss das Objekt40 gedreht werden, möglicherweise erfolgte diese Instruktion342 nach dem Erkennen einer fehlerhaften Positionierung des Objekts40 . Die (korrekte oder fehlerhafte) Durchführung dieser Instruktion342 wird dann von dem Endgerät30 nachverfolgt. - So zeigt
7d beispielsweise eine Instruktion342 , was am Objekt40 korrigiert werden muss, um eine Prozedur erfolgreich durchzuführen. Hier muss mehr Speichel auf das Objekt40 appliziert werden, möglicherweise erfolgte diese Instruktion342 nach dem Erkennen, dass dem Objekt40 nicht ausreichend Speichel zugeführt wurde. Die (korrekte oder fehlerhafte) Durchführung dieser Instruktion342 wird dann von dem Endgerät30 nachverfolgt. - So zeigt
7e beispielsweise eine Warnung343 , die beachtet werden muss, um eine Prozedur erfolgreich durchzuführen und/oder um sich nicht zu verletzen. Hier könnte gewarnt werden, dass eine ausreichende Menge an Extraktionsflüssigkeit zu applizieren ist und der diesbezügliche Behälter ggf. ungeeignet ist. - So zeigt
7d beispielsweise ein (Zwischen-) Ergebnis344 eines Schritts oder der gesamten Prozedur. Hier gilt ein Ergebnis als „ungültig“. -
8a-h zeigt ein Ablaufdiagram der Verfahren100 ,200 ,300 für einen Virentest, hier ein Antigen-Test auf SARS-CoV-2, als eine beispielhafte Prozedur. Dieses Ablaufdiagram ermöglicht den Test als Spucktest oder als Abstrichtest (Schritt 2100). Andere Testverfahren sind nicht ausgeschlossen, optionale Schritte werden gestrichelt dargestellt. - Andere Prozeduren, insbesondere humanmedizinische Testprozeduren, zum Untersuchen von Flüssigkeiten (Blut, Abstrich, Speichel, Aerosol, Tränenflüssigkeit, Schweiß, Urin und/oder Stuhl) eines Menschen oder eines Tieres, beispielsweise ein anderer Virusnachweistest, ein Keimtest, ein Bakterientest, ein Pilztest, etc. können durch das erfindungsgemäße Verfahren ebenfalls abgebildet werden. Die Körperflüssigkeit kann durch Abnahme von einer Hautoberfläche, beispielsweise von einer Hand oder einer Stirn erfolgen. Die Körperflüssigkeit einer Person und/oder eines Tieres kann auf eine oder mehrere Infektionen, eine oder mehrerer Eigenschaften und/oder einen oder mehrere Parameter untersucht werden.
- Dieses Ablaufdiagramm leitet eine Person
1 an, einen Antigen-Test auf SARS-CoV-2 selbstständig und insbesondere ohne weitere Person (über Videokommunikation oder physisch anwesend) durchzuführen. Dieser Antigen-Test auf SARS-CoV-2 kann bequem von überall durchgeführt werden. Dieser Antigen-Test auf SARS-CoV-2erfüllt alle Sicherheits- und Zertifizierungsstandards und gilt, als wäre dieser Antigen-Test auf SARS-CoV-2von einer zertifizierten Person (insbesondere humanmedizinisches Personal, wie Arzt, Krankenschwester, Apotheker) begleitet, überwacht oder gar durchgeführt worden. Dazu werden neben dem Anleiten zur korrekten Durchführung zudem auch Positionen/Bewegungen der Person und des Testobjekts (hier eine Testkassette oder ein Teststreifen) nachverfolgt (Schritt203 ) und diese Positionen/Bewegungen auf Korrektheit geprüft und deren Durchführung dokumentiert (Schritt205 ). - Dieses Ablaufdiagramm beinhaltet zudem auch das Einrichten eines Personenprofils (Verfahren
100 , siehe1 und2 ) und das Validieren eines Prozedurergebnisses (Verfahren300 , siehe3 und4 ). - Gemäß
8a wird im Schritt1003 geprüft, ob ein Personenprofil (=Personendatensatz 320) im Speicher32 des Endgeräts30 vorhanden ist. - Wird im Schritt
1003 festgestellt, dass ein Personenprofil vorhanden ist (Ja-Fall), so kann das Verfahren100 zum Einrichten eines Personenprofils übersprungen/ausgelassen werden und es wird in einem optionalen Folgeschritt1004 durch das Endgerät30 geprüft, ob (erstens) ein Quarantäne-Ende-Datum des Personendatensatz320 vorhanden ist und ob (zweitens) dieses Quarantäne-Ende-Datum nach dem aktuellen Datum liegt. Das aktuelle Datum ist beispielsweise das Datum der Durchführung dieses Verfahrens. - Wird im optionalen Schritt
1004 festgestellt, dass ein Quarantäne-Ende-Datum im Personendatensatz320 vorhanden ist und dass dieses Quarantäne-Ende-Datum nach dem aktuellen Datum liegt (Ja-Fall), so muss die Person1 weiter in Quarantäne bleiben. Es wird mit optionalem Schritt 1005 eine Mitteilung auf der Anzeigeeinheit34 des Endgeräts30 angezeigt, die die Person1 darauf hinweist, dass die Person1 weiterhin in Quarantäne sein muss. Ein Antigen-Test auf SARS-CoV-2 muss bei dieser Person1 nicht durchgeführt werden, denn egal, wie das Ergebnis dieses Antigen-Test auf SARS-CoV-2ist, die Person darf sich nicht in der Öffentlichkeit aufhalten. Mit den Schritten1004 und 1005 kann eine Testkassette (als Testobjekt20 ) eingespart werden. Nach der Mitteilung im optionalen Schritt 1005 wird das Verfahren gemäß8a-h beendet. - Wird im optionalen Schritt
1004 festgestellt, dass entweder kein Quarantäne-Ende-Datum im Personendatensatz320 vorhanden ist oder dass ein vorhandenes Quarantäne-Ende-Datum vor dem aktuellen Datum liegt (Nein-Fall), so wird ein Startbildschirm zum Auswählen der Durchführung des Verfahrens200 (siehe auch3 ) und des Verfahrens300 (siehe auch5 ) gemäß8c durchgeführt. - Wird im Schritt
1003 festgestellt, dass kein Personenprofil vorhanden ist (Nein-Fall), so wird das Verfahren100 gemäß der1 (bzw. des Systems1000 ) zum Einrichten eines Personenprofils gestartet. - In einem optionalen Schritt
1001 wird der Person1 (erstens) werden auf der Anzeigeeinheit34 des Endgeräts30 die AGB angezeigt und (zweitens) die Person1 auf der Anzeigeeinheit34 des Endgeräts30 angezeigt, dass diese AGB anzunehmen sind. - In einem optionalen Schritt
1002 wird dann geprüft, ob die Person1 durch eine jeweils entsprechende Benutzereingabe auf der Eingabeeinheit35 des Endgeräts30 die AGB ablehnt oder das Verfahren verlassen möchte. Wird im optionalen Schritt1002 festgestellt, dass die Person1 durch entsprechende Benutzereingabe auf der Eingabeeinheit35 des Endgeräts30 die AGB ablehnt oder das Verfahren verlassen möchte (Ja-Fall), so wird das Verfahren gemäß8a-h beendet. - Wird im optionalen Schritt
1002 festgestellt, dass die Person1 durch eine jeweils entsprechende Benutzereingabe auf der Eingabeeinheit35 des Endgeräts30 die AGB nicht ablehnt oder das Verfahren nicht verlassen möchte (Nein-Fall), so wird das Verfahren100 gemäß8b (basierend auf2 und3 ) ausgeführt, insbesondere durch die Schritte101 und102 , siehe gestricheltes Rechteck. - Im Schritt
1011 wird die Person1 mit einer Mitteilung auf der Anzeigeeinheit34 des Endgeräts30 dazu aufgefordert, einen Zugriff auf eine Kamera31a des Endgeräts30 zu erlauben und ein gültiges Identifizierungsdokument10 der Person1 mit Vorderseite12 und Rückseite13 zu zeigen. Diese Mitteilung kann Schritt für Schritt angezeigt werden und vor dem Anzeigen des nächsten Schritts wird von der Person der jeweilige Schritt durchgeführt. - Im Folgeschritt
1021 wird das gezeigte Identifizierungsdokument10 von der Kamera31a des Endgeräts30 erfasst (jeweils Vorder- und Rückseite) und durch die Auswerteeinheit33 eine OCR-Erkennung durchgeführt, um die personenbezogene Daten15 des Identifizierungsdokuments10 für den Personendatensatz320 zu erhalten. In diesem Schritt1021 kann auch ein Lichtbild14 des im Schritt1011 gezeigten Identifizierungsdokument10 von der Kamera31a des Endgeräts30 erfasst werden, um Biometriedaten für den Personendatensatz320 zu erhalten. - Im optionalen Schritt
1012 wird die Person1 mit einer Mitteilung auf der Anzeigeeinheit34 des Endgeräts30 dazu aufgefordert, die Frontkamera31a des Endgeräts30 zu aktivieren und ein Bild von dem Gesicht1a der Person1 zur Verifizierung eines Lichtbilds14 des Identifizierungsdokuments10 zu erstellen. Im optionalen Folgeschritt1022 kann das erstellte Bild des Gesichts1a der Person von der Kamera31a des Endgeräts30 erfasst werden, um Biometriedaten für den Personendatensatz320 zu erhalten. Diese erhaltenen Biometriedaten des erfassten Gesichts1a wird zunächst mit den Biometriedaten des Lichtbilds14 des Identifizierungsdokument10 verknüpft. - Die Kommunikation in den Schritten
1011 ,1021 ,1012 und1022 kann über einen verschlüsselten Datenstrom („data stream“) 1013 in Zusammenarbeit mit einem externen Dienstleister erfolgen. Dabei werden die Videodaten und die OCR-Daten zur Absicherung des so gewonnen Personendatensatz320 verschlüsselt. Ergibt der Vergleich, dass die Biometriedaten mit ausreichender Genauigkeit übereinstimmen, werden die Biometriedaten von dem Lichtbild14 akzeptiert und als Teil in dem Benutzerdatensatz320 vorgesehen. - Im optionalen Schritt
1023 wird dann geprüft, ob die Zeichenerkennung und die Lichtbilderkennung der Schritte1011 ,1021 ,1012 und1022 erfolgreich war (also ob ein gültiger Benutzerdatensatz320 erhalten wurde). Dazu werden die erhaltenen Biometriedaten des erfassten Gesichts1a mit den Biometriedaten des Lichtbilds14 des Identifizierungsdokument10 durch die Auswerteeinheit33 des Endgeräts30 verglichen. - Wird im optionalen Schritt
1023 durch die Auswerteeinheit33 festgestellt, dass die erhaltenen Biometriedaten des erfassten Gesichts1a nicht mit ausreichender Genauigkeit mit den Biometriedaten des Lichtbilds14 des Identifizierungsdokument10 übereinstimmen oder dass die Zeichenerkennung und die Lichtbilderkennung der Schritte1011 ,1021 ,1012 und1022 nicht erfolgreich waren (Nein-Fall), so wird im optionalen Schritt1024 eine Aufforderung an die Person1 generiert und durch die Anzeigeeinheit34 des Endgeräts30 angezeigt, dass ein anderes Identifizierungsdokument zu verwenden ist oder dass das Verfahren100 unter besseren Lichtbedingungen erneut zu versuchen ist. Nach der Mitteilung im optionalen Schritt1024 wird das Verfahren gemäß8a-h beendet. - Wird im optionalen Schritt
1023 durch die Auswerteeinheit33 festgestellt, dass die erhaltenen Biometriedaten des erfassten Gesichts1a mit ausreichender Genauigkeit mit den Biometriedaten des Lichtbilds14 des Identifizierungsdokument10 übereinstimmen oder dass die Zeichenerkennung und die Lichtbilderkennung der Schritte1011 ,1021 ,1012 und1022 erfolgreich waren (Ja-Fall), so wird im Schritt1025 der Benutzerdatensatz320 fertiggestellt. Optional wird der Person1 in diesem Schritt1025 gestattet, die Anschrift als personenbezogenes Datum vor dem Abspeichern103 zu editieren. Der Schritt1025 entspricht den Schritten103 ,104 und105 der1 , auf weiterführende Äußerungen wird verzichtet. - Das Ergebnis der Schritte
1011 ,1021 ,1012 ,1022 ,1023 und1025 ist ein Benutzerdatensatz320 , der Biometriedaten und personenbezogene Daten15 basierend auf dem Identifizierungsdokument10 (und ggf. der Verifizierung der Person1 in Schritt1012 ) umfasst. Dieser Benutzerdatensatz320 kann in einer Speichereinheit32 des Endgeräts30 verschlüsselt abgelegt werden. - Nach dem Schritt
1025 wird das Verfahren200 (siehe auch3 ) und 300 (siehe auch5 ) gemäß8c durchgeführt. - Gemäß
8c wird im optionalen Schritt199 ein Auswahlbildschirm für die Nachverfolgung des Antigen-Tests auf SARS-CoV-2gemäß Verfahren200 und für die Validierung des durchgeführten Antigen-Tests auf SARS-CoV-2gemäß Verfahren300 gezeigt. Mit einer Benutzerauswahl am Endgerät30 im Schritt199 kann entweder das Verfahren200 oder das Verfahren300 ausgewählt werden. Dieser Auswahlbildschirm im Schritt199 ist optional, die Verfahren200 und300 können auch durch verschiedene Applikationen im Endgerät30 einzeln und unabhängig voneinander ausgeführt werden. - Wählt die Person
1 im Schritt199 die Durchführung eines neuen Antigen-Tests auf SARS-CoV-2, so wird das Verfahren200 gemäß3 und4 ausgeführt. Dazu wird im optionalen Schritt2041 ein Einleitungsvideo auf der Anzeigeeinheit34 des Endgeräts30 angezeigt und es wird von der Auswerteeinheit33 des Endgeräts30 geprüft, ob die Umweltbedingungen (Licht, Raum) den Anforderungen an einen Antigen-Test auf SARS-CoV-2 und den Anforderungen für dieses Verfahren200 erfüllen. - Wird im Schritt
2041 durch das Endgerät30 festgestellt, dass die Umweltbedingungen ungeeignet sind, um den Test durchzuführen oder um dessen Durchführungen nachverfolgen zu können (bspw. aufgrund schlechter Lichtverhältnisse oder aufgrund großem Bildrauschanteil oder durch viel Bewegung im Kamerabild oder etc.) (Verlassen-Fall), so wird im Folgeschritt 2049a (in8f) der Person1 das Prozedurergebnis „ungültiger Test“ angezeigt, dieses Prozedurergebnis wird dokumentiert (bspw. in dem Prozedur-Identifizierungsdatensatz321 ) und das Verfahren über eine „Verlassen“ Schaltfläche beendet. - Wird im Schritt
2041 (8c ) durch das Endgerät30 festgestellt, dass die Umweltbedingungen geeignet sind, um den Test durchzuführen und dessen Durchführungen nachverfolgbar sind (Ja-Fall), so wird im optionalen Folgeschritt2042 der Person1 eine Anleitung zum Einrichten des Endgeräts30 auf der Anzeigeeinheit34 des Endgeräts30 angezeigt. Mit dieser Anleitung wird die Person1 dazu angeleitet, die Frontkamera31a des Endgeräts zu aktivieren, die richtige Kameraperspektive einzustellen und sich so vor das Endgerät30 zu positionieren, dass die Kamera31a das Gesicht1a der Person1 und den Arbeitsbereich und die beiden Hände2 der Person1 erfassen kann. Im darauffolgenden Schritt2043 wird geprüft, ob die Einrichtung des Endgeräts30 erfolgreich war. - Wird im optionalen Schritt
2043 durch das Endgerät30 festgestellt, dass die Einrichtung des Endgeräts30 nicht erfolgreich war, so wird der gemeinsame Auswahlbildschirm im Schritt199 wieder gezeigt (8c ). - Wird im optionalen Schritt
2043 durch das Endgerät30 festgestellt, dass die Einrichtung des Endgeräts30 erfolgreich war, so erfolgt im Schritt201 der Versuch die Person1 zu identifizieren. Dazu wird das aktuelle Kamerabild des Endgeräts1 erfasst (also das Gesicht1a der Person1 ) und mit den Biometriedaten des Personendatensatzes320 verglichen (siehe auch Ausführungen zu3 ). - Im folgenden Schritt
2014 wird durch das Endgerät30 geprüft, ob die Identifizierung der Person1 erfolgreich war. Wird im Schritt2014 festgestellt, dass die Identifizierung der Person1 nicht erfolgreich war (Verlassen-Fall), so wird der gemeinsame Auswahlbildschirm im Schritt199 wieder gezeigt (8c ). - Wird im Schritt
2014 durch das Endgerät30 festgestellt, dass die Identifizierung der Person1 erfolgreich war (Ja-Fall), so wird im optionalen Folgeschritt2044a eine Anleitung zum Vorbereiten des Tests angezeigt. Dieses Vorbereiten kann auf verschiedene Weise erfolgen, wovon zwei in der10a und10b dargestellt sind. - Im darauffolgenden Schritt
202 (8d ) erfolgt der Versuch die Testkassette20 (das Testobjekt) zu identifizieren. Dabei wird ein QR-Code210 der Testkassette20 erfasst und es wird geprüft, ob eine im QR-Code210 einkodierte Prozedurseriennummer mit einer Prozedurseriennummer eines Prozedurdatensatzes450 des Hintergrundsystems40 übereinstimmt. Zudem kann in dem Schritt202 geprüft werden, ob ein Status des Prozedurdatensatzes450 auf „hergestellt“ gesetzt ist und ob dieser Status auf den Status „in Verwendung“ gesetzt werden kann. Zudem kann in dem Schritt202 geprüft werden, ob der Person1 der Streuwert430 des Personendatensatzes320 des Prozedurdatensatzes450 zugeordnet werden kann. - Wird im Schritt
202 durch das Endgerät30 festgestellt, dass die Identifizierung der Testkassette20 nicht erfolgreich war (Nein-Fall), so wird im Folgeschritt 2045a die Person durch eine Mitteilung auf der Anzeigeeinheit34 des Endgerät30 darüber informiert, dass die Testkassette20 dieses Antigen-Tests auf SARS-CoV-2 nicht erkannt wurde oder dass die vorliegende Testkassette20 einen ungültigen/unzulässigen QR-Code aufweist. Darauffolgend wird der Auswahlbildschirm im Schritt199 gezeigt (8c ). - Wird im Schritt
202 durch das Endgerät30 festgestellt, dass die Identifizierung der Testkassette20 erfolgreich war (Ja-Fall), so kann die Testprozedur durchgeführt werden, denn sowohl die Person1 als auch das Testobjekt20 konnten identifiziert werden (Schritte201 ,202 ). Somit kann jetzt die Nachverfolgung der Testprozedur gemäß Schritt203 (hier konkret die Schritte 203a-h) erfolgen. In dem optionalen Schritt 2030 der8d kann zwischen verschiedenen Testprozeduren für einen Virusnachweistest, hier Antigen-Tests auf SARS-CoV-2, gewählt werden. Hier stellvertretend wird der Abstrich-Test und der Spuck-Test beschrieben, andere Tests zur Untersuchung der Körperflüssigkeit der Person1 sind ebenfalls denkbar. - Im optionalen Schritt
2046 wird die Person1 durch die Anzeigeeinheit34 des Endgeräts30 befragt, ob sie in den letzten 10 Minuten gegessen, getrunken oder geraucht hat. - Wird im Schritt
2046 durch das Endgerät30 festgestellt (durch eine entsprechende Personeneingabe in der Eingabeeinheit35 des Endgeräts30 ), dass die Person1 in den letzten 10 Minuten gegessen, getrunken oder geraucht hat (Ja-Fall), so wird in einem optionalen Schritt 2045b die Person1 darüber informiert, dass der Test zu einem späteren Zeitpunkt zu wiederholen ist. Zudem kann der Status des Prozedurdatensatzes450 in dem Hintergrundsystem40 von dem Status „in Verwendung“ auf den Status „hergestellt“ zurückgesetzt werden. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Wird im optionalen Schritt
2046 durch das Endgerät30 festgestellt (durch eine entsprechende Personeneingabe in der Eingabeeinheit35 des Endgeräts30 ), dass die Person1 in den letzten 10 Minuten nicht gegessen, nicht getrunken und auch nicht geraucht hat (Nein-Fall), so wird im Schritt204 (8e) die Person1 angewiesen, Person1 mit einer ausführlichen und schrittweisen Anleitung durch die Testprozedur geleitet. Dabei kommen computergestützte Methoden der künstlichen Intelligenz (AI) und der erweiterten Realität (AR) im System, 2000 zum Einsatz, um die Testprozedur selbst, die Bewegungsabläufe und Gegenstände des Test(kits) nachzuverfolgen, um die richtige Durchführung des Tests sicher zu stellen. Zusätzlich werden im Zufallsverfahren Bilder erstellt und in der Prozedurdokumentation gemäß Schritt204 gespeichert. Die Testpersonen werden auf den Bildern identifiziert. - Jede der Anweisungen im Schritt
204 kann ein Animationsvideo enthalten. Die Anweisung kann durch „Augmented Reality“ unterstützt werden. Während eines Prozessschritts wird gemäß Schritt205 der Prozessschritt dokumentiert, indem mindestens eine Aufnahme durch die Kamera31a des Endgeräts30 von der Person1 während des Prozessschritts gemacht wird. Es können auch mehrere, beispielsweise 2, Aufnahmen oder auch ein oder mehrere Videos durch die Kamera31a des Endgeräts30 von der Person1 während des Prozessschritts gemacht werden. Diese Aufnahmen werden in einer Produktdokumentation im Datensatz321 in der Speichereinheit32 des Endgeräts30 gespeichert. - Gemäß
8e wird jeder Prozessschritt der Testprozedur im Schritt203 nachverfolgt. Je nach Prozess wird der Schritt daraufhin geprüft, ob dieser erfolgreich entlang der Anleitung von derselben Testperson1 umgesetzt wurde. - Im Nein-Fall des Schritts
203 von8e wird im Schritt 2045c die Person1 darüber informiert, dass der Test wegen Verstoß gegen die Testvorschriften oder wegen Abbruch fehlgeschlagen ist. Der Test erhält das Prozedurergebnis „ungültig“. Dieses Prozedurergebnis wird in den Prozedurdatensatz450 des Hintergrundsystems40 eingetragen. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Im Ja-Fall des Schritts
203 von8e wird anschließend geprüft, der soeben nachverfolgte Prozessschritt der letzte Prozessschritt der Testprozedur ist. Ist der soeben nachverfolgte Prozessschritt der letzte Prozessschritt der Testprozedur, wird mit dem Schritt2047 der8f weiterverfahren. Ist der soeben nachverfolgte Prozessschritt nicht der letzte Prozessschritt der Testprozedur, wird mit dem Schritt204 der8e der nächste Prozessschritt angeleitet. - Im Schritt
2047 (8f) wird eine Wartezeit von 10 Minuten angezeigt und beispielsweise als Countdown runtergezählt. Die Person1 wird informiert, sobald die Wartezeit verstrichen ist. - Im darauffolgenden Schritt 2044c wird die Person
1 aufgefordert, ein Foto von der Testkassette20 zu machen. Dabei kann die Person1 dazu aufgefordert werden, auf eine Rückkamera des Endgeräts30 zu schalten. Diese Rückkamera hat (meist) eine bessere Auflösung als die Frontkamera, mit der die Person1 nachverfolgt wird (Schritt203 ). - Im darauffolgenden Schritt 203f wird durch das Endgerät
30 (erstens) geprüft, ob die Seriennummer der Testkassette20 mit der im Schritt202 übereinstimmt. Dazu wird (in Anlehnung an die Schritte2044a und202 ) der QR-Code210 der Testkassette20 erfasst und die daraus erhaltene Seriennummer mit der eines Objektdatensatz450 verglichen. Zudem wird im Schritt 203f (zweitens) geprüft, ob ein Kontrollstreifen auf dem Teststreifen der Testkassette20 zu erkennen ist. Der Kontrollstreifen ist ein Sicherheitsmerkmal der Testkassette20 , der immer entstehen muss, ungeachtet der Speichelprobe. - Wird im Schritt 203f durch das Endgerät
30 festgestellt, dass entweder die Seriennummer der Testkassette20 mit der Seriennummer im Schritt202 nicht übereinstimmt oder dass der Kontrollstreifen des Antigen-Test auf SARS-CoV-2auf dem Teststreifen der Testkassette20 nicht zu erkennen ist (Nein-Fall), dann wird in einem Schritt 203g geprüft, ob die Seriennummer der Testkassette20 mit der im Schritt202 übereinstimmt. - Wird im Schritt 203g durch das Endgerät
30 festgestellt, dass die Seriennummer der Testkassette20 nicht mit der Seriennummer im Schritt202 übereinstimmt, dann wird im Schritt 2045e die Person1 darüber informiert, dass die Seriennummer falsch ist. Der Test erhält das Prozedurergebnis „ungültig“, der in den Prozedurdatensatz450 des Hintergrundsystems40 eingetragen wird. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Wird im Schritt 203g durch das Endgerät
30 festgestellt, dass die Seriennummer der Testkassette20 mit der Seriennummer im Schritt202 übereinstimmt, dann wird im Schritt 2045f die Person1 darüber informiert, dass der Kontrollstreifen des Tests auf dem Teststreifen der Testkassette20 nicht zu erkennen ist (bspw. keine Farbveränderung im zu erwartenden Bereich des Teststreifens). Der Test erhält das Prozedurergebnis „ungültig“, der in den Prozedurdatensatz450 des Hintergrundsystems40 eingetragen wird. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Wird im Schritt 203f durch das Endgerät
30 festgestellt, dass die Seriennummer der Testkassette20 mit der Seriennummer im Schritt202 übereinstimmt und dass der Kontrollstreifen des Antigen-Test auf SARS-CoV-2 auf dem Teststreifen der Testkassette20 zu erkennen ist (Ja-Fall), dann wird im Schritt 203h durch das Endgerät30 geprüft, ob das Prozedurergebnis „positiv“ ist. - Wird im Schritt 203g durch das Endgerät
30 festgestellt, dass das Prozedurergebnis nicht „positiv“ ist (Nein-Fall), dann wird im Schritt 2049a durch das Endgerät30 das Prozedurergebnis „negativ“ angezeigt. Dieses Prozedurergebnis wird dokumentiert, beispielsweise durch Setzen des Prozedurergebnis auf „Negativ“ im Prozedurdatensatz450 des Hintergrundsystems40 ggf. auch durch Dokumentieren in der Prozedurdokumentation des Datensatzes321 , beispielsweise auch durch Abspeichern des Fotos aus dem Schritt 2044c in der Prozedurdokumentation der Speichereinheit32 des Endgeräts30 . - Wird im Schritt 203g durch das Endgerät
30 festgestellt, dass das Prozedurergebnis „positiv“ ist (Ja-Fall), dann wird im Schritt 2049b durch das Endgerät30 das Prozedurergebnis „positiv“ angezeigt. Dieses Prozedurergebnis wird dokumentiert, beispielsweise durch Setzen des Prozedurergebnis auf „Positiv“ im Prozedurdatensatz450 des Hintergrundsystems40 ggf. auch durch Dokumentieren in der Prozedurdokumentation des Datensatzes321 , beispielsweise auch durch Abspeichern des Fotos aus dem Schritt 2044c in der Prozedurdokumentation der Speichereinheit32 des Endgeräts30 . Zudem erhält die Person1 eine Anleitung, wie nun weiter vorzugehen ist. Zudem kann im Personendatensatz320 ein Quarantäne-Ende-Datum auf ein Datum in zwei Wochen ausgehend von dem aktuellen Datum gesetzt werden. Anschließend ist das Verfahren200 (Nachverfolgen) beendet. - Wird im gemeinsamen Auswahlbildschirm gemäß Schritt
199 der8c eine Validierung eines bereits durchgeführten Antigen-Test auf SARS-CoV-2 (Spuck-Test oder Abstrich-Test) ausgewählt, so wird das Verfahren gemäß8g und8h durchlaufen (Schaltfläche300 in8g) . - Zunächst wird mit Schritt
3001 der Personendatensatz320 mit der Person1 (die sich vor dem Endgerät1 befindet) verglichen. Ergibt der Vergleich im Schritt3001 , dass der Personendatensatz320 nicht mit der Person1 vor dem Endgerät30 übereinstimmt (Vergleich der Biometriedaten und/oder der benutzerbezogenen Daten) (Nein-Fall), so wird auf der Anzeigeeinheit34 des Endgeräts30 eine Mitteilung angezeigt, dass eine nicht autorisierte Person1 eine Validierung wünscht, was nicht möglich ist. Die Mitteilung könnte lauten „Ungültiger Nutzer zum Darlegen des Tests“. - Ergibt der Vergleich im Schritt
3001 , dass der Personendatensatz320 mit der Person1 vor dem Endgerät30 übereinstimmt (Vergleich der Biometriedaten und/oder der benutzerbezogenen Daten) (Ja-Fall), so wird von dem Endgerät30 eine Validierungsanfrage im Schritt301 erzeugt. Auf Basis dieser Validierungsanfrage wird im Hintergrundsystem40 ein Validierungstoken440 im Schritt303 erzeugt. Zudem wird in der Datenbank41 des Hintergrundsystems40 die Eigenschaften des Tokens mit dem Validierungstoken440 verknüpft. Der Validierungstoken440 wird im Schritt304 an das Endgerät30 übertragen. - Auf Basis des erhaltenen Validierungstoken
440 wird im Schritt305 ein QR-Code erstellt, der mit den Eigenschaften des Tokens verknüpft ist. Beispielsweise ist dieser QR-Code nur für eine gewisse Zeitdauer gültig (bspw. 10 Minuten). Auf der Anzeigeeinheit34 des Endgeräts30 wird das Prozedurergebnis anhand des Datensatzes321 ggf. mit der Prozedurdokumentation angezeigt. Bei der angezeigten Prozedurdokumentation, die auf der Anzeigeeinheit34 im Verfahren300 angezeigt wird, kann die Auswerteeinheit33 des Endgeräts30 per Zufallsprinzip eine Auswahl der während des Nachverfolgen-Verfahrens200 aufgenommenen Bilder und/oder Videos treffen und diese der Prüfinstanz2 auf Verlangen vorzeigen. - Der QR-Code und das Prozedurergebnis wird einer Prüfinstanz im Schritt
306 angezeigt. Dieses Anzeigen erfolgt optisch. Dazu liest die Prüfinstanz2 beispielsweise den QR-Code mittels einer Kamera oder eines Lesegeräts der Prüfinstanz aus. Im Schritt307a wird geprüft, ob der Validierungstoken440 gültig ist. Ergibt die Prüfung im Schritt307a , dass der Validierungstoken440 nicht gültig ist (Nein-Fall), dann wird auf der Anzeigeeinheit der Prüfinstanz2 eine Meldung im Schritt 308a generiert, die angibt, dass der Validierungstoken440 ungültig ist oder der Validierungstoken440 außerhalb der Zeitdauer abgefragt wurde. - Ergibt die Prüfung im Schritt
307a , dass der Validierungstoken440 gültig ist (Ja-Fall), dann wird von der Prüfinstanz2 im Schritt 307b geprüft, ob der Streuwert430 des Personendatensatzes320 gültig ist und ob die Prozedur-Identifizierungsnummer des Prozedurdatensatzes450 gültig ist und ob die Prozedur-Identifizierungsnummer des Prozedurdatensatzes450 mit dem Streuwert430 verknüpft ist (also ob der Prozedurdatensatzes450 den Streuwert430 aufweist. - Ergibt die Prüfung im Schritt 307b, dass der Streuwert
430 des Personendatensatzes320 gültig ist und dass die Prozedur-Identifizierungsnummer des Prozedurdatensatzes450 gültig ist und dass der Prozedurdatensatzes450 den Streuwert430 aufweist (Ja-Fall), dann wird im Schritt 308c bei der Prüfinstanz2 angezeigt, dass das Testergebnis validiert ist (Validierungsergebnis des Prozedurergebnisses ist positiv) und der Prozedurdatensatz450 wird angezeigt, bevorzugt wird auch ein Zeitstempel (Zeit und Datum) des Antigen-Tests auf SARS-CoV-2oder ein Status des SARS-CoV-2 Tests als Prozedurinformation, bevorzugter das Testergebnis des Antigen-Tests auf SARS-CoV-2gemäß Hintergrundsystem40 angezeigt. - Entsprechende Einheiten der Systeme
1000 ,2000 ,3000 der2 ,4 und6 sind dazu eingerichtet, diese Verfahrensschritte durchzuführen. Das Zusammenwirken der System1000 ,2000 ,3000 gemäß der2 ,4 und6 wird nun nochmals anhand von8a-h beschrieben. - Gemäß
8a ist die Auswerteeinheit33 des Endgeräts30 im Schritt1003 dazu eingerichtet, zu prüfen, ob ein Personenprofil (=Personendatensatz 320) im Speicher32 des Endgeräts30 vorhanden ist. - Stellt die Auswerteeinheit
33 des Endgeräts30 im Schritt1003 festgestellt, dass ein Personenprofil im Speicher32 des Endgeräts30 vorhanden ist (Ja-Fall), so ist die Auswerteeinheit33 des Endgeräts30 dazu eingerichtet, das System1000 zum Einrichten eines Personenprofils zu überspringen/auszulassen. - Die Auswerteeinheit
33 des Endgeräts30 ist in einem optionalen Schritt1004 dazu eingerichtet, zu prüfen, ob (erstens) ein Quarantäne-Ende-Datum im Personendatensatz320 der Speichereinheit32 des Endgeräts30 vorhanden ist und ob (zweitens) dieses Quarantäne-Ende-Datum nach dem aktuellen Datum liegt. Das aktuelle Datum ist beispielsweise das Datum der Durchführung dieses Verfahrens. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1004 festzustellen, dass ein Quarantäne-Ende-Datum im Personendatensatz320 vorhanden ist und dass dieses Quarantäne-Ende-Datum nach dem aktuellen Datum liegt (Ja-Fall). In diesem Ja-Fall muss die Person1 weiter in Quarantäne bleiben. Sodann ist die Anzeigeeinheit34 des Endgeräts dazu eingerichtet, im optionalen Schritt 1005 eine Mitteilung auf der Anzeigeeinheit34 des Endgeräts30 anzeigen. Diese Mitteilung im optionalen Schritt105 weist die Person1 daraufhin, dass die Person1 weiterhin in Quarantäne sein muss. Ein Antigen-Test auf SARS-CoV-2 muss bei dieser Person1 nicht durchgeführt werden, denn egal, wie das Ergebnis dieses Antigen-Test auf SARS-CoV-2 ist, die Person darf sich nicht in der Öffentlichkeit aufhalten. Mit den optionalen Schritten1004 und 1005 kann eine Testkassette (als Testobjekt20 ) eingespart werden. Nachdem die Anzeigeeinheit34 des Endgeräts die Mitteilung im optionalen Schritt 1005 angezeigt hat, ist die Auswerteeinheit des Endgeräts30 dazu eingerichtet, das Verfahren gemäß8a-h zu beenden. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1004 festzustellen, dass entweder kein Quarantäne-Ende-Datum im Personendatensatz320 vorhanden ist oder dass ein vorhandenes Quarantäne-Ende-Datum vor dem aktuellen Datum liegt (Nein-Fall). In diesem Nein-Fall ist die Anzeigeeinheit34 des Endgeräts dazu eingerichtet, einen Startbildschirm anzuzeigen. Das Endgerät30 ist dann dazu eingerichtet, eine Benutzereingabe der Person1 zu erfassen, mit der die Durchführung des Verfahrens200 (siehe auch3 ) und/oder des Verfahrens300 (siehe auch5 ) gemäß8c ausgewählt wird. - Stellt die Auswerteeinheit
33 des Endgeräts30 im Schritt1003 festgestellt, dass kein Personenprofil im Speicher32 des Endgeräts30 vorhanden ist (Nein-Fall), so ist die Auswerteeinheit33 des Endgeräts30 dazu eingerichtet, das Verfahren100 durchzuführen. was mit dem System1000 zum Einrichten eines Personenprofils erfolgt. - Die Anzeigeeinheit
34 des Endgeräts ist in einem optionalen Schritt1001 dazu eingerichtet, der Person1 (erstens) auf der Anzeigeeinheit34 des Endgeräts30 die AGB anzuzeigen und (zweitens) der Person1 auf der Anzeigeeinheit34 des Endgeräts30 anzuzeigen, dass diese AGB anzunehmen sind. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1002 zu prüfen, ob die Person1 durch eine jeweils entsprechende Benutzereingabe auf der Eingabeeinheit35 des Endgeräts30 die AGB ablehnt oder das Verfahren verlassen möchte. Die Auswerteeinheit33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1002 festzustellen, dass die Person1 durch entsprechende Benutzereingabe auf der Eingabeeinheit35 des Endgeräts30 die AGB ablehnt oder das Verfahren verlassen möchte (Ja-Fall). Bei dieser festgestellten Benutzereingaben wird das Verfahren gemäß8a-h beendet. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1002 festzustellen, dass die Person1 durch eine jeweils entsprechende Benutzereingabe auf der Eingabeeinheit35 des Endgeräts30 die AGB nicht ablehnt oder das Verfahren nicht verlassen möchte (Nein-Fall). Die Auswerteeinheit33 des Endgeräts30 ist dann dazu eingerichtet, das Verfahren100 basierend auf1 . bzw. das System1000 basierend auf2 auszuführen, insbesondere durch die Schritte101 und102 , siehe gestricheltes Rechteck. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im Schritt1011 eine Mitteilung auf der Anzeigeeinheit34 des Endgeräts30 anzuzeigen, mit der die Person1 dazu aufgefordert wird, einen Zugriff auf eine Kamera31a des Endgeräts30 zu erlauben und ein gültiges Identifizierungsdokument10 der Person1 mit Vorderseite12 und Rückseite13 zu zeigen. Diese Mitteilung kann Schritt für Schritt angezeigt werden und vor dem Anzeigen des nächsten Schritts wird von der Person der jeweilige Schritt durchgeführt. - Die Erfassungseinheit
31 (hier eine Kamera31a ) des Endgeräts30 ist dazu eingerichtet, im Folgeschritt1021 das gezeigte Identifizierungsdokument10 zu erfassen (jeweils Vorder- und Rückseite) und die Auswerteeinheit33 ist dazu eingerichtet, eine OCR-Erkennung auf das erfasste Identifizierungsdokument10 durchzuführen, um die personenbezogene Daten15 des Identifizierungsdokuments10 für den Personendatensatz320 zu erhalten. In diesem Schritt1021 kann die Kamera31a des Endgeräts30 auch dazu eingerichtet sein, ein Lichtbild14 des im Schritt1011 gezeigten Identifizierungsdokument10 zu erfassen, um Biometriedaten für den Personendatensatz320 zu erhalten. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1012 die Person1 mit einer Mitteilung auf der Anzeigeeinheit34 des Endgeräts30 dazu aufzufordern, die Frontkamera31a des Endgeräts30 zu aktivieren und ein Bild von dem Gesicht1a der Person1 zur Verifizierung eines Lichtbilds14 des Identifizierungsdokuments10 zu erstellen. Die Kamera31a des Endgeräts30 ist dazu eingerichtet, im optionalen Folgeschritt1022 das Gesicht1a der Person zu erfassen, um Biometriedaten für den Personendatensatz320 zu erhalten. Die Auswerteeinheit33 des Endgeräts30 ist dazu eingerichtet, diese erhaltenen Biometriedaten des erfassten Gesichts1a zunächst mit den Biometriedaten des Lichtbilds14 des Identifizierungsdokument10 zu verknüpfen. - Das Endgerät
30 ist dazu eingerichtet, eine Kommunikation in den Schritten1011 ,1021 ,1012 und1022 über einen verschlüsselten Datenstrom („data stream“) 1013 in Zusammenarbeit mit einem externen Dienstleister durchzuführen. Dabei werden die Videodaten und die OCR-Daten zur Absicherung des so gewonnen Personendatensatz320 verschlüsselt. Ergibt der Vergleich, dass die Biometriedaten mit ausreichender Genauigkeit übereinstimmen, werden die Biometriedaten von dem Lichtbild14 akzeptiert und als Teil in dem Benutzerdatensatz320 vorgesehen. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1023 zu prüfen, ob die Zeichenerkennung und die Lichtbilderkennung der Schritte1011 ,1021 ,1012 und1022 erfolgreich war (also ob ein gültiger Benutzerdatensatz320 erhalten wurde). Die Auswerteeinheit33 des Endgeräts30 ist dazu eingerichtet, die erhaltenen Biometriedaten des erfassten Gesichts1a mit den Biometriedaten des Lichtbilds14 des Identifizierungsdokument10 zu vergleichen. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1023 festzustellen, dass die erhaltenen Biometriedaten des erfassten Gesichts1a nicht mit ausreichender Genauigkeit mit den Biometriedaten des Lichtbilds14 des Identifizierungsdokument10 übereinstimmen oder dass die Zeichenerkennung und die Lichtbilderkennung der Schritte1011 ,1021 ,1012 und1022 nicht erfolgreich waren (Nein-Fall), Die Auswerteeinheit33 des Endgeräts30 ist in diesem Nein-Fall dazu eingerichtet, im optionalen Schritt1024 eine Aufforderung an die Person1 zu erzeugen und diese durch die Anzeigeeinheit34 des Endgeräts30 anzuzeigen, dass ein anderes Identifizierungsdokument zu verwenden ist oder dass das Verfahren100 unter besseren Lichtbedingungen erneut zu versuchen ist (das System1000 besser ausgeleuchtet werden muss). Nach der Anzeige der Mitteilung im optionalen Schritt1024 ist das Endgerät30 dazu eingerichtet, das Verfahren gemäß8a-h zu beenden. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, im optionalen Schritt1023 durch festzustellen, dass die erhaltenen Biometriedaten des erfassten Gesichts1a mit ausreichender Genauigkeit mit den Biometriedaten des Lichtbilds14 des Identifizierungsdokument10 übereinstimmen oder dass die Zeichenerkennung und die Lichtbilderkennung der Schritte1011 ,1021 ,1012 und1022 erfolgreich waren (Ja-Fall). Die Auswerteeinheit33 des Endgeräts30 ist in diesem Ja-Fall dazu eingerichtet, im Schritt1025 der Benutzerdatensatz320 fertigzustellen. Optional wird der Person1 in diesem Schritt1025 gestattet, die Anschrift als personenbezogenes Datum vor dem Abspeichern103 zu editieren. Der Schritt1025 entspricht den Schritten103 ,104 und105 der1 , auf weiterführende Äußerungen wird verzichtet. - Das Ergebnis der Schritte
1011 ,1021 ,1012 ,1022 ,1023 und1025 ist ein Benutzerdatensatz320 , der Biometriedaten und personenbezogene Daten15 basierend auf dem Identifizierungsdokument10 (und ggf. der Verifizierung der Person1 in Schritt1012 ) umfasst. Dieser Benutzerdatensatz320 kann in einer Speichereinheit32 des Endgeräts30 verschlüsselt abgelegt werden. - Gemäß
8c ist die Auswerteeinheit33 des Endgeräts30 im optionalen Schritt199 dazu eingerichtet, ein Auswahlbildschirm für die Nachverfolgung des Antigen-Test auf SARS-CoV-2gemäß Verfahren200 und für die Validierung des durchgeführten Antigen-Tests auf SARS-CoV-2 gemäß Verfahren300 auf der Anzeigeeinheit34 des Endgeräts30 anzuzeigen. Die Auswerteeinheit33 des Endgeräts30 ist im optionalen Schritt199 dazu eingerichtet, eine Benutzerauswahl an einer Benutzereingabeeinheit35 des Endgeräts30 zu erfassen, woraufhin entweder das Verfahren200 oder das Verfahren300 ausgewählt wird. - Wählt die Person
1 im Schritt199 die Durchführung eines neuen Antigen-Tests auf SARS-CoV-2, so wird das Verfahren200 gemäß3 und4 ausgeführt. Die Auswerteeinheit33 des Endgeräts30 ist dann dazu eingerichtet, im optionalen Schritt2041 ein Einleitungsvideo auf der Anzeigeeinheit34 des Endgeräts30 anzuzeigen. Die Auswerteeinheit33 des Endgeräts30 ist dazu eingerichtet zu prüfen, ob die Umweltbedingungen (Licht, Raum) den Anforderungen an einen Antigen-Test auf SARS-CoV-2und den Anforderungen für dieses Verfahren200 erfüllen. - Wird im Schritt
2041 durch die Auswerteeinheit34 des Endgeräts30 festgestellt, dass die Umweltbedingungen ungeeignet sind, um den Antigen-Test auf SARS-CoV-2durchzuführen oder um dessen Durchführungen nachverfolgen zu können (bspw. aufgrund schlechter Lichtverhältnisse oder aufgrund großem Bildrauschanteil oder durch viel Bewegung im Kamerabild oder etc.) (Verlassen-Fall), so ist die Auswerteeinheit34 des Endgeräts30 im Folgeschritt 2049a (in8f) dazu eingerichtet, der Person1 das Prozedurergebnis „ungültiger Test“ auf der Anzeigeeinheit35 anzuzeigen, dieses Prozedurergebnis in der Speichereinheit32 des Endgeräts zu dokumentieren (bspw. in dem Prozedur-Identifizierungsdatensatz321 ) und das System2000 über eine „Verlassen“ Schaltfläche zu beenden. - Wird im Schritt
2041 durch die Auswerteeinheit33 des Endgeräts30 festgestellt, dass die Umweltbedingungen geeignet sind, um den Test durchzuführen und dessen Durchführungen nachverfolgbar sind (Ja-Fall), so ist die Auswerteeinheit34 des Endgeräts30 im optionalen Folgeschritt2042 dazu eingerichtet, der Person1 eine Anleitung zum Einrichten des Endgeräts30 auf der Anzeigeeinheit34 des Endgeräts30 anzuzeigen. Dabei wird die Frontkamera31a des Endgeräts durch eine Benutzereingabe aktiviert, um die richtige Kameraperspektive einzustellen und sich so vor das Endgerät30 zu positionieren, dass die Kamera31a das Gesicht1a der Person1 erfassen kann. Im darauffolgenden Schritt2043 ist die Auswerteeinheit33 des Endgeräts30 dazu eingerichtet, festzustellen, ob die Einrichtung des Endgeräts30 erfolgreich war. - Die Auswerteeinheit
33 des Endgeräts30 ist im optionalen Schritt2043 dazu eingerichtet, festzustellen, dass die Einrichtung des Endgeräts30 nicht erfolgreich war. Dann ist die Auswerteeinheit34 des Endgeräts30 dazu eingerichtet, den gemeinsamen Auswahlbildschirm im Schritt199 wieder zu zeigen (8c ). - Die Auswerteeinheit
33 des Endgeräts30 ist im optionalen Schritt2043 dazu eingerichtet, festzustellen, dass die Einrichtung des Endgeräts30 erfolgreich war. Dann ist die Auswerteeinheit33 des Endgeräts30 dazu eingerichtet, im Schritt201 zu versuchen, die Person1 zu identifizieren. Die Auswerteeinheit33 des Endgeräts30 ist dazu eingerichtet, das aktuelle Kamerabild des Endgeräts1 zu erfassen (also das Gesicht1a der Person1 ) und mit den Biometriedaten des Personendatensatzes320 zu verglichen (siehe auch Ausführungen zu3 ). - Im folgenden Schritt
2014 ist die Auswerteeinheit33 des Endgeräts30 dazu eingerichtet, zu prüfen, ob die Identifizierung der Person1 erfolgreich war. Ergibt diese Prüfung durch die Auswerteeinheit im Schritt2014 , dass die Identifizierung der Person1 nicht erfolgreich war (Verlassen-Fall), so ist die Auswerteeinheit34 des Endgeräts30 dazu eingerichtet, den gemeinsamen Auswahlbildschirm im Schritt199 wieder zu zeigen (8c ). - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt2014 dazu eingerichtet, festzustellen, dass die Identifizierung der Person1 erfolgreich war (Ja-Fall). Dann ist die Auswerteeinheit33 des Endgeräts30 im optionalen Folgeschritt2044a dazu eingerichtet, eine Anleitung zum Vorbereiten des Tests auf einer Anzeigeeinheit33 anzuzeigen. Dieses Vorbereiten kann auf verschiedene Weise erfolgen, wovon zwei in der10a und10b dargestellt sind. - Die Auswerteeinheit
33 des Endgeräts30 ist im darauffolgenden Schritt202 (8d ) dazu eingerichtet, zu versuchen, die Testkassette20 (das Testobjekt) zu identifizieren. Dabei ist Auswerteeinheit34 des Endgeräts30 dazu eingerichtet, einen QR-Code210 der Testkassette20 mittels der Erfassungseinheit31 des Endgeräts30 zu erfassen und zu prüfen, ob eine im QR-Code210 einkodierte Prozedurseriennummer mit einer Prozedurseriennummer eines Prozedurdatensatzes450 des Hintergrundsystems40 übereinstimmt. Zudem ist die Auswerteeinheit33 des Endgeräts30 in dem Schritt202 dazu eingerichtet, zu prüfen, ob ein Status des Prozedurdatensatzes450 auf „hergestellt“ gesetzt ist und ob dieser Status auf den Status „in Verwendung“ gesetzt werden kann. Zudem kann in dem Schritt202 geprüft werden, ob der Person1 der Streuwert430 des Personendatensatzes320 des Prozedurdatensatzes450 zugeordnet werden kann. - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt202 dazu eingerichtet, festzustellen, dass die Identifizierung der Testkassette20 nicht erfolgreich war (Nein-Fall). Dann ist die Auswerteeinheit34 des Endgeräts30 dazu eingerichtet, im Folgeschritt 2045a die Person durch eine Mitteilung auf der Anzeigeeinheit34 des Endgerät30 darüber zu informieren, dass die Testkassette20 dieses Antigen-Test auf SARS-CoV-2 nicht erkannt wurde oder dass die vorliegende Testkassette20 einen ungültigen/unzulässigen QR-Code aufweist. Darauffolgend wird der Auswahlbildschirm im Schritt199 gezeigt (8c ). - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt202 dazu eingerichtet, festzustellen, dass die Identifizierung der Testkassette20 erfolgreich war (Ja-Fall). Dann kann die Testprozedur durchgeführt werden, denn sowohl die Person1 als auch das Testobjekt20 konnten identifiziert werden (Schritte201 ,202 ). Somit kann jetzt die Nachverfolgung der Testprozedur gemäß Schritt203 (hier konkret die Schritte 203a-h) erfolgen. In dem optionalen Schritt 2030 der8d ist das Endgerät30 dazu eingerichtet, verschiedene Testprozeduren für einen Virusnachweistest, hier Antigen-Test auf SARS-CoV-2nachzuverfolgen, wovon eine Testprozedur auszuwählen ist. Hier stellvertretend wird der Abstrich-Test und der Spuck-Test beschrieben, andere Tests zur Untersuchung der Körperflüssigkeit der Person1 sind ebenfalls denkbar. - Die Auswerteeinheit
33 des Endgeräts30 ist im optionalen Schritt2046 dazu eingerichtet, die Person1 mittels der Anzeigeeinheit34 des Endgeräts30 zu befragen, ob sie in den letzten 10 Minuten gegessen, getrunken oder geraucht hat. - Die Auswerteeinheit
33 des Endgeräts30 ist im optionalen Schritt2046 dazu eingerichtet, durch eine entsprechende Personeneingabe in der Eingabeeinheit35 des Endgeräts30 festzustellen, dass die Person1 in den letzten 10 Minuten gegessen, getrunken oder geraucht hat (Ja-Fall). Sodann ist die Auswerteeinheit33 des Endgeräts30 im optionalen Schritt 2045b dazu eingerichtet, die Person1 mittels der Anzeigeeinheit34 des Endgeräts30 darüber zu informieren, dass der Test zu einem späteren Zeitpunkt zu wiederholen ist. Zudem kann der Status des Prozedurdatensatzes450 in dem Hintergrundsystem40 von dem Status „in Verwendung“ auf den Status „hergestellt“ zurückgesetzt werden. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Die Auswerteeinheit
33 des Endgeräts30 ist im optionalen Schritt2046 dazu eingerichtet, durch eine entsprechende Personeneingabe in der Eingabeeinheit35 des Endgeräts30 festzustellen, dass die Person1 in den letzten 10 Minuten nicht gegessen, nicht getrunken und auch nicht geraucht hat (Nein-Fall). Sodann erzeugt die Auswerteeinheit33 im Schritt204 (8e) Anweisungen and die Person1 die mit einer ausführlichen und schrittweisen Anleitung durch die Testprozedur leiten. Dabei kommen computergestützte Methoden der künstlichen Intelligenz (AI) und der erweiterten Realität (AR) im System, 2000 zum Einsatz, um die Testprozedur selbst, die Bewegungsabläufe und Gegenstände des Test(kits) nachzuverfolgen, um die richtige Durchführung des Tests sicher zu stellen. Zusätzlich werden im Zufallsverfahren Bilder erstellt und in der Prozedurdokumentation gemäß Schritt204 gespeichert. Die Testperson1 wird auf den Bildern identifiziert. - Jede der Anweisungen im Schritt
204 kann ein Animationsvideo enthalten. Die Anweisung kann durch „Augmented Reality“ unterstützt werden. Während eines Prozessschritts wird gemäß Schritt205 der Prozessschritt dokumentiert, indem mindestens eine Aufnahme durch die Kamera31a des Endgeräts30 von der Person1 während des Prozessschritts gemacht wird. Es können auch mehrere, beispielsweise 2, Aufnahmen oder auch ein oder mehrere Videos durch die Kamera31a des Endgeräts30 von der Person1 während des Prozessschritts gemacht werden. Diese Aufnahmen werden in einer Produktdokumentation im Datensatz321 in der Speichereinheit32 des Endgeräts30 gespeichert. - Gemäß
8e ist das Endgerät30 dazu eingerichtet, jeden Prozessschritt der Testprozedur im Schritt203 durch die Nachverfolgungseinheit nachzuverfolgen. Je nach Prozess wird der Schritt daraufhin geprüft, ob dieser erfolgreich entlang der Anleitung von derselben Testperson1 umgesetzt wurde. - Im Nein-Fall des Schritts
203 von8e ist das Endgerät30 dazu eingerichtet, im Schritt 2045c die Person1 mittels der Anzeigeeinheit34 des Endgeräts30 darüber zu informieren, dass der Test wegen Verstoß gegen die Testvorschriften oder wegen Abbruch fehlgeschlagen ist. Der Test erhält das Prozedurergebnis „ungültig“. Das Endgerät30 ist dazu eingerichtet, dieses Prozedurergebnis in den Prozedurdatensatz450 des Hintergrundsystems40 einzutragen. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Im Ja-Fall des Schritts
203 von8e ist das Endgerät30 dazu eingerichtet, im Schritt206 zu prüfen, ob der soeben nachverfolgte Prozessschritt der letzte Prozessschritt der Testprozedur ist. Ist der soeben nachverfolgte Prozessschritt der letzte Prozessschritt der Testprozedur, wird mit dem Schritt2047 der8f weiterverfahren. Ist der soeben nachverfolgte Prozessschritt nicht der letzte Prozessschritt der Testprozedur, wird mit dem Schritt204 der8e der nächste Prozessschritt angeleitet. - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt206 dazu eingerichtet, festzustellen, dass das der Prozessschritt der letzte der Testprozedur war (Ja-Fall). Sodann ist die Auswerteeinheit33 dazu eingerichtet im Schritt2047 , eine Wartezeit von 10 Minuten auf der Anzeigeeinheit34 anzuzeigen und beispielsweise als Countdown runtergezählt. Die Person1 wird informiert, sobald die Wartezeit verstrichen ist. - Einer oder jeder der Schritte 2048a-d kann optional einen Countdown aus. Der Countdown startet beispielsweise mit dem Anzeigen der Aufforderungen auf der Anzeigeeinheit
34 des Endgeräts30 . Wird in dieser Zeit die Anweisung nach Schritten 2048a-d nicht oder falsch befolgt, so wird im Schritt 2045d die Person1 darüber informiert, dass der Test(-Schritt) wegen Zeitüberschreitung fehlgeschlagen ist. Der Test erhält das Prozedurergebnis „ungültig“. Dieses Prozedurergebnis wird in den Prozedurdatensatz450 des Hintergrundsystems40 eingetragen. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt 2044c dazu eingerichtet, mittels der Anzeigeeinheit34 die Person1 aufzufordern, ein Foto von der Testkassette20 zu machen. Dabei kann die Person1 dazu aufgefordert werden, auf eine Rückkamera des Endgeräts30 zu schalten. Diese Rückkamera hat (meist) eine bessere Auflösung als die Frontkamera, mit der die Person1 nachverfolgt wird (Schritte 203a-h). Die Erfassungseinheit31 des Endgeräts30 ist eingerichtet dazu, die Testkassette20 zu erfassen. - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt 203f dazu eingerichtet, erstens zu prüfen, ob die Seriennummer der Testkassette20 mit der im Schritt202 übereinstimmt. Dazu wird (in Anlehnung an die Schritte2044a und202 ) der QR-Code210 der Testkassette20 erfasst und die daraus erhaltene Seriennummer mit der eines Objektdatensatz450 verglichen. Zudem wird im Schritt 203f (zweitens) geprüft, ob ein Kontrollstreifen auf dem Teststreifen der Testkassette20 zu erkennen ist. Der Kontrollstreifen ist ein Sicherheitsmerkmal der Testkassette20 , der immer entstehen muss, ungeachtet der Speichelprobe. - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt 203f dazu eingerichtet, festzustellen, dass entweder die Seriennummer der Testkassette20 mit der Seriennummer im Schritt202 nicht übereinstimmt oder dass der Kontrollstreifen des Antigen-Tests auf SARS-CoV-2auf dem Teststreifen der Testkassette20 nicht zu erkennen ist (Nein-Fall). Sodann ist die Auswerteeinheit33 des Endgeräts33 dazu eingerichtet, im Schritt 203g zu prüfen, ob die Seriennummer der Testkassette20 mit der im Schritt202 übereinstimmt. - Wird im Schritt 203g durch das Endgerät
30 festgestellt, dass die Seriennummer der Testkassette20 nicht mit der Seriennummer im Schritt202 übereinstimmt, dann wird im Schritt 2045e die Person1 darüber informiert, dass die Seriennummer falsch ist. Der Test erhält das Prozedurergebnis „ungültig“, der in den Prozedurdatensatz450 des Hintergrundsystems40 eingetragen wird. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt 203gdazu eingerichtet, festzustellen, dass die Seriennummer der Testkassette20 mit der Seriennummer im Schritt202 übereinstimmt. Sodann ist die Auswerteeinheit33 des Endgeräts30 im Schritt 2045f dazu eingerichtet, die Person1 mittels der Anzeigeeinheit34 darüber zu informieren, dass der Kontrollstreifen des Tests auf dem Teststreifen der Testkassette20 nicht zu erkennen ist (bspw. keine Farbveränderung im zu erwartenden Bereich des Teststreifens). Der Test erhält das Prozedurergebnis „ungültig“, der in den Prozedurdatensatz450 des Hintergrundsystems40 eingetragen wird. Anschließend wird der Auswahlbildschirm in Schritt199 wieder gezeigt (8c ). - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt 203g dazu eingerichtet, festzustellen, dass die Seriennummer der Testkassette20 mit der Seriennummer im Schritt202 übereinstimmt und dass der Kontrollstreifen des Antigen-Tests auf SARS-CoV-2auf dem Teststreifen der Testkassette20 zu erkennen ist (Ja-Fall). Sodann wird im Schritt 203h durch das Endgerät30 geprüft, ob das Prozedurergebnis „positiv“ ist. - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt 203h dazu eingerichtet, festzustellen, dass das Prozedurergebnis nicht „positiv“ ist (Nein-Fall). Sodann ist die Auswerteeinheit33 im Schritt 2049a dazu eingerichtet, das Prozedurergebnis „negativ“ auf der Anzeigeeinheit34 anzuzeigen. Dieses Prozedurergebnis wird dokumentiert, beispielsweise durch Setzen des Prozedurergebnis auf „Negativ“ im Prozedurdatensatz450 des Hintergrundsystems40 ggf. auch durch Dokumentieren in der Prozedurdokumentation des Datensatzes321 , beispielsweise auch durch Abspeichern des Fotos aus dem Schritt 2044c in der Prozedurdokumentation der Speichereinheit32 des Endgeräts30 . - Die Auswerteeinheit
33 des Endgeräts30 ist im Schritt 203h dazu eingerichtet, festzustellen, dass das Prozedurergebnis „positiv“ ist (Ja-Fall). Sodann ist die Auswerteeinheit33 im Schritt 2049a dazu eingerichtet, das Prozedurergebnis „positiv“ auf der Anzeigeeinheit34 anzuzeigen. Dieses Prozedurergebnis wird dokumentiert, beispielsweise durch Setzen des Prozedurergebnis auf „Positiv“ im Prozedurdatensatz450 des Hintergrundsystems40 ggf. auch durch Dokumentieren in der Prozedurdokumentation des Datensatzes321 , beispielsweise auch durch Abspeichern des Fotos aus dem Schritt 2044c in der Prozedurdokumentation der Speichereinheit32 des Endgeräts30 . Zudem erhält die Person1 eine Anleitung, wie nun weiter vorzugehen ist. - Zudem kann im Personendatensatz
320 ein Quarantäne-Ende-Datum auf ein Datum in zwei Wochen ausgehend von dem aktuellen Datum gesetzt werden. Anschließend ist das Verfahren200 (Nachverfolgen) beendet. - Die Anzeigeeinheit
34 des Endgeräts30 kann auf dem gemeinsamen Auswahlbildschirm die Nachverfolgung eines Antigen-Tests auf SARS-CoV-2gemäß Verfahren200 (System2000 ) und die Validierung eines bereits durchgeführten Antigen-Tests auf SARS-CoV-2gemäß Verfahren300 (System3000 ) zur Auswahl durch die Person1 anzeigen. Die Auswerteeinheit33 des Endgeräts ist dazu eingerichtet, die Auswahl (Schaltfläche300 in8g) der Person mit der Benutzereingabe35 des Endgeräts zur Durchführung einer Validierung eines bereits durchgeführten Antigen-Tests auf SARS-CoV-2zu erkennen. Daraufhin ist die Auswerteeinheit33 des Endgeräts dazu eingerichtet, das Verfahren gemäß8g und8h zu durchlaufen. - Die Auswerteeinheit
33 des Endgeräts ist dazu eingerichtet, mit Schritt3001 den Personendatensatz320 mit der Person1 (die sich vor dem Endgerät1 befindet) zu vergleichen. Dazu erfolgt das Erhalten von Biometriedaten, wie zuvor mehrfach beschrieben wurde. Die Auswerteeinheit33 des Endgeräts ist dazu eingerichtet, beim Vergleichen im Schritt3001 festzustellen, dass der Personendatensatz320 nicht mit der Person1 vor dem Endgerät30 übereinstimmt (Vergleich der Biometriedaten und/oder der benutzerbezogenen Daten) (Nein-Fall). In diesem Nein-Fall ist die Auswerteeinheit33 des Endgeräts1 dazu eingerichtet, auf der Anzeigeeinheit34 des Endgeräts30 eine Mitteilung anzuzeigen. Die Mitteilung könnte lauten „Ungültiger Nutzer zum Darlegen des Tests“, um anzuzeigen, dass eine nicht autorisierte Person1 eine Validierung wünscht. - Die Auswerteeinheit
33 des Endgeräts ist dazu eingerichtet, beim Vergleichen im Schritt3001 festzustellen, dass der Personendatensatz320 mit der Person1 vor dem Endgerät30 übereinstimmt (Vergleich der Biometriedaten und/oder der benutzerbezogenen Daten) (Ja-Fall). In diesem Ja-Fall ist die Auswerteeinheit33 des Endgeräts1 dazu eingerichtet, eine Validierungsanfrage im Schritt301 zu erzeugen und an das Hintergrundsystem40 zu senden. Das Hintergrundsystem40 ist dazu eingerichtet, die Validierungsanfrage zu empfangen und auf Basis dieser Validierungsanfrage einen Validierungstoken440 im Schritt303 zu erzeugen. Dabei verknüpft das Hintergrundsystem40 die Eigenschaften des Tokens mit dem Validierungstoken440 . Das Hintergrundsystem40 ist dazu eingerichtet, den Validierungstoken440 im Schritt304 an das Endgerät30 zu übertragen. - Das Endgerät
30 ist eingerichtet, den Validierungstoken440 vom Hintergrundsystem40 zu empfangen. Die Auswerteeinheit33 des Endgeräts30 ist dazu eingerichtet, auf Basis des erhaltenen Validierungstoken440 im Schritt305 einen QR-Code zu erstellen, der mit den Eigenschaften des Tokens verknüpft ist. Beispielsweise ist dieser QR-Code nur für eine gewisse Zeitdauer gültig (bspw. 10 Minuten). Die Auswerteeinheit33 des Endgeräts30 ist dazu eingerichtet, auf der Anzeigeeinheit34 des Endgeräts30 das Prozedurergebnis anhand des Datensatzes321 ggf. mit der Prozedurdokumentation anzuzeigen. Bei der angezeigten Prozedurdokumentation, die auf der Anzeigeeinheit34 im System300 angezeigt wird, ist die Auswerteeinheit33 des Endgeräts30 dazu eingerichtet, per Zufallsprinzip eine Auswahl der während des Nachverfolgen-Verfahrens200 aufgenommenen Bilder und/oder Videos zu treffen und diese Auswahl der Prüfinstanz2 auf Verlangen vorzeigen. - Die Auswerteeinheit
33 des Endgeräts30 ist dazu eingerichtet, auf der Anzeigeeinheit34 des Endgeräts30 , den QR-Code und das Prozedurergebnis der Prüfinstanz im Schritt306 anzuzeigen. Dieses Anzeigen erfolgt optisch. Dazu ist die Prüfinstanz2 eingerichtet, den QR-Code mittels einer Kamera oder eines Lesegeräts der Prüfinstanz einzulesen. - Die Prüfinstanz
2 ist im Schritt307a dazu eingerichtet, zu prüfen, ob der Validierungstoken440 gültig ist. Die Prüfinstanz2 ist im Schritt307a dazu eingerichtet, während dem Prüfen im Schritt307a festzustellen, dass der Validierungstoken440 nicht gültig ist (Nein-Fall), woraufhin die Prüfinstanz2 dazu eingerichtet ist, auf der Anzeigeeinheit der Prüfinstanz2 eine Meldung im Schritt 308a zu generieren, die angibt, dass der Validierungstoken440 ungültig ist oder der Validierungstoken440 außerhalb der Zeitdauer abgefragt wurde. - Die Prüfinstanz
2 ist im Schritt307a dazu eingerichtet, während dem Prüfen im Schritt307a festzustellen, dass der Validierungstoken440 nicht gültig ist (Nein-Fall), woraufhin, die Prüfinstanz eingerichtet ist, im Schritt 307b zu prüfen, ob der Streuwert430 des Personendatensatzes320 gültig ist und ob die Prozedur-Identifizierungsnummer des Prozedurdatensatzes450 gültig ist und ob die Prozedur-Identifizierungsnummer des Prozedurdatensatzes450 mit dem Streuwert430 verknüpft ist (also ob der Prozedurdatensatzes450 den Streuwert430 aufweist). - Die Prüfinstanz
2 ist im Schritt307a dazu eingerichtet, während dem Prüfen im Schritt 307b festzustellen, dass der Streuwert430 des Personendatensatzes320 gültig ist und dass die Prozedur-Identifizierungsnummer des Prozedurdatensatzes450 gültig ist und dass der Prozedurdatensatzes450 den Streuwert430 aufweist (Ja-Fall). Daraufhin ist die Prüfinstanz2 eingerichtet, im Schritt 308c anzuzeigen, dass das Testergebnis validiert ist (Validierungsergebnis des Prozedurergebnisses ist positiv). Dabei kann auch der Prozedurdatensatz450 angezeigt werden, bevorzugt wird auch ein Zeitstempel (Zeit und Datum) des Antigen-Tests auf SARS-CoV-2oder ein Status des SARS-CoV-2 Tests als Prozedurinformation, bevorzugter das Testergebnis des Antigen-Tests auf SARS-CoV-2gemäß Hintergrundsystem40 angezeigt. - In
9a ist eine Struktur eines anonymisierter Personendatensatz in dem Hintergrundsystem40 dargestellt. Der anonymisierte Personendatensatzes410 in dem Hintergrundsystem40 umfasst einen Streuwert430 des Personendatensatzes320 . Der anonymisierte Personendatensatzes410 (=„Remote_Testee“) kann neben dem Streuwert430 auch einen Log-Eintrag umfassen, mit dem Prozedurereignisse, insbesondere fehlgeschlagene Objektidentifizierungen, mit Zeitstempel abgelegt werden können. - Der anonymisierte Personendatensatzes
410 (=„Remote_Testee“) kann zudem eine Personenidentifikationsnummer umfassen, mit der die Person1 eindeutig am Hintergrundsystem40 referenziert werden kann. - In
9b ist eine Struktur eines Personendatensatz320 der Speichereinheit32 des Endgerät30 dargestellt. Der Personendatensatzes320 umfasst Biometriedaten. Biometriedaten sind insbesondere Gesichtsgeometrie-Daten und/oder Fingerabdruck-Daten. Der Personendatensatzes320 umfasst auch personenbezogene Daten. Personenbezogene Daten sind insbesondere Vorname, Nachname, Geburtsdatum, Anschrift, Dokumentennummer. Der Personendatensatzes320 umfasst auch ein Quarantäne-Ende-Datumsfeld, in das ein Ende einer Quarantänezeit (bei SARS-CoV-2 = 2 Wochen) eingetragen werden kann. - In
9c ist eine Struktur eines Objektidentifizierungsdatensatz420 in dem Hintergrundsystem40 dargestellt. Der Objektidentifizierungsdatensatzes420 kann beispielsweise einen Objekttyp umfassen. Dies ist sinnvoll, wenn eine Prozedur mit verschiedenen Typen von Objekten20 durchgeführt werden kann. Mit dem Objekttyp kann dann das Anleiten und Dokumentieren entsprechend angepasst werden. Der Objektidentifizierungsdatensatzes420 kann beispielsweise eine Herstellerangabe, ein Produktionsdatum, ein Gültigkeitsdatum, eine Objekteigenschaft und/oder ein Zertifikat umfassen. Damit kann das Objekt20 bestmöglich im Verfahren200 identifiziert werden und nützliche Informationen für die Durchführung der Prozedur bereitgestellt werden. - In
9d ist eine Struktur eines Prozedur-Identifizierungsdatensatz321 der Speichereinheit32 des Endgeräts30 dargestellt. Der Prozedur-Identifizierungsdatensatz321 der9d umfasst eine Prozedur-Identifizierungsnummer, die bevorzugt verfahrens- und systemweit eindeutig ist. Der Prozedur-Identifizierungsdatensatz321 umfasst zudem die Prozedurdokumentation, die Ergebnisse und/oder Zwischenergebnisse und/oder Momentaufnahmen (Screenshots) von der Durchführung umfasst. - In
9e ist eine Struktur eines Prozedurdatensatz450 in dem Hintergrundsystem40 dargestellt. Der Prozedurdatensatzes450 kann beispielsweise eine Prozedurseriennummer umfassen. - Der Prozedurdatensatzes
450 kann beispielsweise einen Status des Objekts20 umfassen. Ein Status des Objekts20 kann „initialisiert“ sein, beispielsweise wenn das Objekt20 im Verfahren200 existent ist, aber noch keine Registrierung im Hintergrundsystem40 erfolgt ist. Ein Status des Objekts20 kann „hergestellt“ sein, beispielsweise wenn das Objekt20 im Verfahren200 existent ist und auch im Hintergrundsystem40 registriert ist. Ein Status des Objekts20 kann „in Verwendung“ sein, beispielsweise wenn das Objekt im Verfahren200 im Schritt202 erfasst wurde und dann verwendet wird. Ein Status des Objekts20 kann „fertiggestellt“ sein, beispielsweise wenn das Objekt20 im Verfahren200 verwendet wurde und ein Testergebnis generiert hat. - Der Prozedurdatensatz
450 kann ein Prozedurergebnis umfassen. Das Prozedurergebnis kann „positiv“, „negativ“ oder „ungültig“ sein. Ein ungültiges Prozedurergebnis wird ausgegeben, wenn die Prozedur falsch angewendet wurde oder Person1 und/oder Objekt20 nicht prozedurkonform identifiziert/nachverfolgt werden konnten. Ein positives Prozedurergebnis kann ausgegeben werden, wenn eine Prozedur fehlerfrei und manipulationsfrei durchlaufen wurde. In Anlehnung an einen Virusnachweistest als Prozedur, ist ein positives Testergebnis der Nachweis von Viren durch die Testkassette. In Anlehnung an einen Virusnachweistest als Prozedur, ist ein negatives Testergebnis der fehlende Nachweis von Viren durch die Testkassette. - Der Prozedurdatensatz
450 kann einen Zeitstempel, beispielsweise eine Zeit- oder Datumsangabe umfassen. Der Prozedurdatensatz450 kann den Streuwert430 umfassen. Der Prozedurdatensatz450 kann eine Prozedur-Identifizierungsnummer umfassen. Der Prozedurdatensatz450 kann eine Personenidentifizierungsnummer umfassen. - In
10a ist eine erste Ausgestaltung zur Vorbereitung eines Tests gemäß Schritt2044a gezeigt. Dabei wird im Schritt2044a eine Aufforderung zum Auspacken des Antigen-Tests auf SARS-CoV-2angezeigt, wobei die Testkassette20 und auch alle Hilfsmittel50 in das Sichtfeld (erfassbarer Bereich oder vordefinierter Bereich) der Kamera31a des Endgeräts30 platziert werden müssen. Zudem wird die Person im Schritt2044a angewiesen, den QR-Code210 (= maschinenlesbarer Objektidentifizierungsdatensatz21 ) der Testkassette20 so zu platzieren, dass die Kamera31a des Endgeräts30 diesen QR-Code210 erfassen kann (Schritt2021 in3 ). - In dieser Ausgestaltung gemäß
10a ist der QR-Code210 bereits während der Produktion des Tests auf die Testkassette20 appliziert worden. Dabei kann der QR-Code210 aufgedruckt oder mittels Kleber aufgebracht sein. Die Person hat den Test mit der Information erwerben können, dass der Test bereits vollständig für eine Validierung (gemäß dem Verfahren300 ) eingerichtet ist und kein QR-Code210 zusätzlich erworben werden muss. - In
10b ist eine zweite Ausgestaltung zur Vorbereitung eines Tests gemäß Schritt2044a gezeigt. Dabei wird im Schritt20441 (erstens) eine Anleitung zum Erfassen der Testverpackung (im unausgepackten Zustand) angezeigt und (zweitens) eine Aufforderung zum Auspacken des Antigen-Tests auf SARS-CoV-2angezeigt. Durch das Erfassen der Testverpackung ist das Verfahren200 / das System2000 dazu eingerichtet, die Information über den Testtyp (Objekttyp im Objektidentifizierungsdatensatz420 ) zu erfassen. - Danach wird im Schritt 20442 (erstens) eine Aufforderung zum Anbringen eines QR-Codes
210 zur Validierung des Antigen-Tests auf SARS-CoV-2auf die Testkassette20 angezeigt. Sodann muss die Person den QR-Code210 auf die Testkassette20 aufbringen. Das Aufbringen kann mit einem Kleber erfolgen. Beispielsweise ist der QR-Code210 als Klebepatch ausgebildet. Eine Klebeschicht an der Unterseite des QR-Code-Patches sorgt bevorzugt für eine mechanisch nicht lösbare Verbindung von QR-Code-Patch und Testkassette20 . Danach wird im Schritt 20442 (zweitens) die Person1 angewiesen, den aufgebrachten QR-Code210 (= maschinenlesbarer Objektidentifizierungsdatensatz21 ) der Testkassette20 so zu platzieren, dass die Kamera31a des Endgeräts30 diesen QR-Code210 erfassen kann (Schritt2021 in3 ). - In dieser Ausgestaltung gemäß
10b ist der QR-Code210 nicht während der Produktion des Tests auf die Testkassette20 appliziert worden. Die Person hat den Test mit der Information erwerben können, dass der Test nicht für eine Validierung (gemäß dem Verfahren300 ) eingerichtet ist und keinen QR-Code210 enthält. Möchte die Person1 ihr Testergebnis validieren lassen (gemäß Verfahren300 ), so muss die Person1 einen QR-Code210 händisch aufbringen. Den QR-Code210 kann die Person1 parallel zum Test selbst erwerben. In dieser Ausgestaltung gemäß10b wird der QR-Code210 erst durch die Person1 vor der Durchführung des Tests auf die Testkassette20 appliziert. - Im Rahmen der Erfindung können alle beschriebenen und/oder gezeichneten und/oder beanspruchten Elemente beliebig miteinander kombiniert werden.
- Bezugszeichenliste
-
- 1
- Person, Benutzer
- 1a
- Gesicht
- 1b
- Hand
- 2
- Prüfinstanz, ggf. mit Erfassungseinheit,
- 10
- Identifizierunsdokument, ID
- 11
- elektronische Daten eines Datenspeichers
- 12
- Vorderseite
- 13
- Rückseite
- 14
- Lichtbild
- 15
- personenbezogene Daten
- 20
- Objekt für Prozedur, Testkassette für Antigen-Test auf SARS-CoV-2
- 21
- Obj ektidentifizierungsdatensatz
- 210
- QR-Code
- 220
- Seriennummer
- 22
- Form, Kontur
- 30
- Endgerät
- 31
- Erfassungseinheit,
- 31a
- Kamera
- 31b
- Leseeinheit
- 31c
- Code-Scanner
- 32
- Speichereinheit
- 320
- Personendatensatz
- 321
- Prozedur-Identifizierungsdatensatz
- 33
- Auswerteeinheit, Steuereinheit, CPU
- 330
- Gesichtserkennungsmodul
- 331
- Zeichenerkennungsmodul
- 332
- Verschlüsselungsmodul
- 333
- Mustererkennungsmodul
- 34
- Anzeigeeinheit
- 340
- Prozedurergebnis-Validierungsdatensatz
- 341
- Instruktion bzgl. Prozedur
- 342
- Instruktion bzgl. Korrektur in der Prozedur
- 343
- Warnung
- 344
- (Zwischen-)Ergebnis
- 35
- Eingabeeinheit
- 40
- Hintergrundsystem
- 41
- Seichereinheit Datenbank
- 410
- anonymisierter Personendatensatz
- 420
- Obj ektidentifizierungsdatensatz
- 430
- Hashwert über Personendatensatz
320 - 440
- Validierungstoken
- 450
- Prozedurdatensatz
- 42
- Benutzereinrichtungs-System
- 50
- Hilfsmittel (Form, Kontur)
- 100
- Verfahrensschritte zum Einrichten
- 1001
- Anzeige AGB,
- 1002
- Personeneingabe zwecks AGB
- 1003
- Prüfe Existenz von Personenprofil
- 1004
- Prüfe Quarantäne-Ende-Datum
- 101
- Erfassen von Daten
- 1011
- Aufforderung zum Zeigen des Identifizierungsdokuments
- 1012
- Aufforderung zum Zeigen des Gesichts
- 1013
- Verschlüsselter Datenstrom
- 102
- Auswerten der erfassten Daten
- 1021
- Zeichenerkennung am erfassten Identifizierungsdokument
- 1022
- Gesichtserkennung am Lichtbild & am Gesicht
- 1023
- Zeichenerkennung und Gesichtserkennung abgeschlossen
- 1024
- Anzeige eines Fehlers mit Erläuterung
- 1025
- Fertigstellen des Renntzerdatensatzes
- 103
- Abspeichern eines Personendatensatzes als Personenprofil
- 104
- Kryptografisches Absichern des Personendatensatzes
- 105
- Erzeugen eines Streuwerts
- 106
- Senden von Endgeräte-Identifizierungsdatensatz
- 199
- Auswahl
- 200
- Verfahrensschritte zum Nachverfolgen
- 201
- Identifizieren der Person
- 2011
- Erfassen von Biometriedaten
- 2012
- Vergleichen mit gespeicherten Personendaten
- 2013
- Abfragen des Hintergrundsystems
- 2014
- Identifizierung erfolgreich
- 202
- Identifizieren des Objekts/Hilfsmittel
- 2021
- Erfassen eines Objektidentifizierungsdatensatzes
- 2022
- Vergleichen mit Objektdatensatz
- 2023
- Validieren des Objektdatensatzes durch Abfragen im Hintergrundsystem
- 2024
- Ungültigmachen des Obiektdatensatzes
- 203
- Nachverfolgen von Person und Objekt während Prozedurdurchführung
- 204
- Anleiten/Informieren Prozedurdurchführung
- 2041
- Einleitungsvideo
- 2042
- Anleitung zum Einrichten des Endgeräts
- 2043
- Test der Endgeräte-Einrichtung
- 2044a
- Test vorbereiten für Identifizierung
- 20441
- Test aufnehmen 20442 QR-Code und Testkassette verbinden
- 2045
- Prozedurabbruchinformation
- 2046
- Bedingungen für Prozedur abfragen
- 2047
- Wartezeit anzeigen
- 2049a-b
- Prozedurergebnis anzeigen
- 205
- Dokumentieren der Prozedurdurchführung
- 206
- Prüfung, ob alle Prozessschritte durchgeführt worden sind
- 300
- Verfahrensschritte zum Validieren
- 3001
- Vergleich Personendatensatz mit Person
- 301
- Anfordern einer Validierung eines Prozedurergebnisses
- 302
- Anfrage am Hintergrundsystem
- 303
- Erstelle einen Validierungstoken
- 304
- Übertragen des Validierungstoken
- 305
- Anzeigen eines maschinenlesbaren Codes mit Validierungstoken
- 306
- Auslesen des maschinenlesbaren Codes
- 307a,b
- Prüfen des maschinenlesbaren Codes
- 308a-c
- Anzeige des Validierungsergebnisses
- 1000
- System zum Einrichten
- 2000
- System zum Nachverfolgen
- 3000
- System zum Validieren
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- WO 2014/114513 A1 [0004]
Claims (34)
- Ein System (2000) zum computergestützten Nachverfolgen einer von einer Person (1) durchzuführenden Testprozedur, insbesondere für einen Virusnachweistest, bevorzugt zur Durchführung eines SARS-CoV-2 Tests, wobei das System (2000) umfasst: - eine Identifizierungseinheit eines Endgeräts (30), die eingerichtet ist zum Identifizieren (201) der Person (1) unmittelbar vor einem Durchführen der Testprozedur durch die Person (1); - wobei die Identifizierungseinheit des Endgeräts (30) weiter eingerichtet ist zum Identifizieren (202) zumindest eines Testobjekts (20), bevorzugt einer Testkassette, insbesondere für einen SARS-CoV-2 Test, mehr bevorzugt eines Teststreifens, weiter bevorzugt ein Reagenz in einem Behälter, weiter bevorzugt eines Testsensors, unmittelbar vor der Durchführung der Testprozedur, die Identifizierungseinheit aufweisend: - eine Kamera (31) des Endgeräts (30), eingerichtet zum Erfassen (2021) eines Objektidentifizierungsdatensatzes (21) als maschinenlesbaren Datensatz; und - eine Auswerteeinheit (33) des Endgeräts (30), eingerichtet zum Vergleichen (2022) des erfassten Objektidentifizierungsdatensatzes (21) mit einem Objektdatensatz (420) eines Hintergrundsystems (40); - eine Nachverfolgungseinheit des Endgeräts (30), die eingerichtet ist zum Nachverfolgen (203) einer oder mehrerer Positionen der Person (1) während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung mittels eines Prüfens, ob beide Hände (12) der Person (1) während der gesamten Durchführung der Testprozedur in einem vordefinierten Bereich oder einem von der Kamera (31a) des Endgeräts (30) erfassbaren Bereich sind; - die Nachverfolgungseinheit des Endgeräts (30), zudem eingerichtet zum Nachverfolgen (203) von einer oder mehreren Positionen des zumindest einen Testobjekts (20) anhand der Form des Objekts während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung; und - einer Anzeigeeinheit (34) des Endgeräts, eingerichtet zum Anleiten (204) der Person (1) zum Durchführen der Testprozedur während der Durchführung der Testprozedur.
- Das System (200) nach
Anspruch 1 , wobei das Prüfen durch die Nachverfolgungseinheit des Endgeräts (30) auch umfasst, ob das Gesicht (1a) der Person (1) während der gesamten Durchführung der Testprozedur in dem vordefinierten Bereich oder dem von der Kamera (31a) des Endgeräts (30) erfassbaren Bereich ist. - Das System (200) nach
Anspruch 2 , wobei das Prüfen durch die Nachverfolgungseinheit des Endgeräts (30) auch umfasst, ob das Gesicht (1a) und die beiden Hände (1b) der Person (1) während eines Einrichtens eines Test-Sets für die Testprozedur in dem vordefinierten Bereich oder dem von der Kamera (31a) des Endgeräts (30) erfassbaren Bereich ist. - Das System (200) nach einem der vorhergehenden Ansprüche, wobei die Nachverfolgungseinheit des Endgeräts (30) zudem dazu eingerichtet ist, eine oder mehrere Bewegungen der Person und/oder des Testobjekts anhand der Form des Testobjekts (20) während der Durchführung der Testprozedur mittels Methoden computergestützter Gesten- und/oder Muster- und/oder Bilderkennung zu erkennen.
- Das System (200) nach
Anspruch 4 , wobei die Nachverfolgungseinheit des Endgeräts (30) dazu prüft, ob das Testobjekt (20) während der gesamten Durchführung der Testprozedur in einem vordefinierten Bereich ist. - Das System (200) nach einem der vorhergehenden Ansprüche, wobei die Identifizierungseinheit zum Identifizieren (202) des Testobjekts umfasst: - die Kamera (31) des Endgeräts (30), eingerichtet zum Erfassen (2011) eines Gesichts (1a) der Person (1); - eine Auswerteeinheit (33) des Endgeräts (30), eingerichtet zum Auswerten des erfassten Gesichts (1a) mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung zum Erhalten von Biometriedaten und zum Vergleichen (2012) der erhaltenen Biometriedaten mit Biometriedaten eines Personendatensatzes (320), wobei der Personendatensatz (320) in einer Speichereinheit (32) des Endgeräts (30) abgelegt ist.
- Das System (2000) nach
Anspruch 6 , wobei die Identifizierungseinheit des Endgeräts (30) weiter eingerichtet ist, das Identifizieren (202) der Person (1) zu einem oder mehreren zufälligen Zeitpunkten während der Durchführung der Testprozedur zu wiederholen. - Das System (2000) nach
Anspruch 6 oder7 , wobei das Endgerät (2) eine Fehlermeldung auf einer Anzeigeeinheit (35) des Endgeräts (2) anzeigt, wenn die Auswerteeinheit (33) des Endgeräts (30) beim Vergleichen (2012) feststellt, dass die erfassten Biometriedaten nicht mit den Biometriedaten des Personendatensatzes (320) übereinstimmen. - Das System (2000) nach einem der vorhergehenden Ansprüche, wobei die Identifizierungseinheit des Endgeräts (30) weiter dazu eingerichtet ist, unmittelbar vor dem Durchführen der Testprozedur durch die Person (1) alle während der Testprozedur zu verwendenden Hilfsmittel (50) durch das Endgerät (30) anhand ihrer Form mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung zu identifizieren.
- Das System (2000) nach
Anspruch 9 , wobei das Hilfsmittel (50): - ein Stäbchen zur Entnahme einer Nasen- oder Speichelprobe bei der Person (1) ist; und/oder - ein Flüssigkeitsbehälter ist. - Das System (2000) nach
Anspruch 9 oder10 , wobei jedes verwendete Hilfsmittel (50) mittels der Kamera (31) des Endgeräts (30) erfasst wird und das erfasste Hilfsmittel (50) mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung durch eine Auswerteeinheit (33) des Endgeräts (30) analysiert wird, um das Hilfsmittel (50) zu identifizieren. - Das System (2000) nach einem der vorhergehenden Ansprüche, wobei der maschinenlesbare Datensatz (210, 220) des Objekts (40) durch Abfragen (2023) eines entsprechenden Objektdatensatzes (420) in einem Hintergrundsystem (40) validierbar ist, wobei nach der Validierung des maschinenlesbaren Datensatzes (210, 220) der Objektdatensatz (420) in der Datenbank (41) des Hintergrundsystems (40) ungültig ist (2024).
- Das System (2000) nach einem der vorhergehenden Ansprüche, wobei die Nachverfolgungseinheit des Endgeräts (30) zudem dazu eingerichtet ist, eine Objekteigenschaft des Objekts (20) mittels der Kamera (31) des Endgeräts (30) zu erfassen (2031), wobei die erfasste Objekteigenschaft des Objekts (20) mittels Methoden computergestützter Gesichts- und/oder Muster- und/oder Bilderkennung durch eine Auswerteeinheit (33) des Endgeräts (30) analysierbar (2032) ist und die analysierte Objekteigenschaft des Objekts (20) mit einer während der Testprozedur zu erwartenden Objekteigenschaft verglichen wird.
- Das System (2000) nach
Anspruch 13 , wobei eine Objekteigenschaft das Applizieren einer Abstrich- Speichel-, oder Spuckprobe der Person (1) auf die Testkassette eines Antigen-Test auf SARS-CoV-2ist. - Das System (2000) nach
Anspruch 13 oder14 , wobei eine Objekteigenschaft das Verfärben eines Teststreifens der Testkassette eines SARS-CoV-2 Tests ist. - Das System (2000) nach
Anspruch 13 bis15 , wobei eine Objekteigenschaft das Erscheinen eines oder mehrerer Teststreifen auf der Testkassette eines SARS-CoV-2 Tests ist. - Das System (2000) nach einem der vorhergehenden Ansprüche, wobei das Endgerät (2) eine Fehlermeldung auf einer Anzeigeeinheit (35) des Endgeräts (2) anzeigt, wenn die Auswerteeinheit (33) des Endgeräts (30) beim Analysieren (2032) feststellt, dass die erfasste Position der Person (1) und/oder die erfasste Bewegung der Person (1) und/oder die erfasste Position des Objekts (1) und/oder die erfasste Bewegung des Objekts (1) außerhalb des vordefinierten Bereich oder des von der Kamera (31a) des Endgeräts (30) erfassbaren Bereichs ist.
- Das System (2000) nach einem der vorhergehenden Ansprüche, wobei zu einem Dokumentieren des Durchführens der Testprozedur das Durchführen der Testprozedur zu einem oder mehreren zufälligen Zeitpunkten während der Durchführung der Testprozedur mittels der Kamera (31) des Endgeräts (30) erfasst und abgespeichert ist.
- Das System (2000) nach einem der vorhergehenden Ansprüche, wobei auf der Anzeige (34) des Endgeräts (30) Anleitungshinweisen angezeigt werden, wobei ein Anleitungshinweis angezeigt wird: - in Abhängigkeit der Durchführung der Testprozedur und/oder - in Abhängigkeit des Nachverfolgens (203) von Positionen und Bewegungen der Person (1) und des Objekts (20) durch das Endgerät (30) während der Durchführung der Testprozedur; - nach Zeitablauf einer in der Testprozedur vorgeschriebenen Wartezeit.
- Ein System (3000) zum computergestützten Validieren einer von einer Person (1) durchgeführten Prozedur, wobei das System (3000) umfasst: - eine Eingabeeinheit (35) eines Endgeräts (30) eingerichtet zum Empfangen einer Personeneingabe zum Anfordern (301) einer Validierung eines Prozedurergebnisses; - eine Steuereinheit (33), eingerichtet zum: - Erzeugen eines Streuwerts über einen, in einer Speichereinheit (32) des Endgeräts (30) abgelegten Personendatensatz (320) - Erzeugen einer Validierungsanfrage umfassend den Streuwert und einen Prozeduridentifizierungsdatensatz (321) des zu validierenden Prozedurergebnisses; - Senden der Validierungsanfrage an ein Hintergrundsystem (40); - Empfangen (304) im Endgerät (30) eines Validierungstoken von dem Hintergrundsystems (40); - einer Anzeigeeinheit (34) des Endgeräts, eingerichtet zum Anzeigen (305) eines maschinenlesbaren Codes mit dem Validierungstoken (440) und dem Prozedurergebnis; - einer Prüfinstanz, eingerichtet zum: - Prüfen (306) des maschinenlesbaren Codes unter Prüfung des Validierungstoken (440); - Anzeigen (307) eines Validierungsergebnisses bezüglich des Prozedurergebnisses zusammen mit dem Prozedurergebnis und dem Streuwert über den Personendatensatz und bevorzugt Prozedurinformationen.
- Das System (3000) nach
Anspruch 20 , wobei der Validierungstoken eine Gültigkeitszeitdauer für das Prozedurergebnis definiert. - Das System (3000) nach einem der vorhergehenden
Ansprüche 20 oder21 , wobei die Prozedurinformationen ein Prozedurdatum und/oder eine Prozedurzeit gemäß Hintergrundsystem (40) ist. - Das System (3000) nach einem der vorhergehenden
Ansprüche 20 bis22 , wobei der Prozeduridentifizierungsdatensatz von dem Endgerät erzeugt wurde. - Das System (3000) nach einem der vorhergehenden
Ansprüche 20 bis23 , wobei der maschinenlesbarer Code, bevorzugt ein QR-Code, angezeigt wird und wobei die Prüfinstanz (2) eine Erfassungseinheit umfasst, um den maschinenlesbaren Code einzulesen. - Das System (3000) nach einem der vorhergehenden
Ansprüche 20 bis24 , wobei das Prozedurergebnis vom Hintergrundsystem abgefragt (308) wird. - Ein System (1000) zum Einrichten eines Personenprofils umfassend ein Endgerät (30) und ein Identifizierungsdokument (10), wobei das System (1000) umfasst: - eine Erfassungseinheit (31) des Endgeräts (30), eingerichtet zum Erfassen (101) von Daten (11, 14, 15) eines Identifizierungsdokuments (10) der Person (1); - eine Auswerteeinheit (33) des Endgeräts (30), eingerichtet zum: - Auswerten (102) der Daten (11, 14, 15) des erfassten Identifizierungsdokuments (10) zum Erhalten eines Personendatensatzes (320) umfassend Biometriedaten und personenbezogene Daten der Person (1); - eine Speichereinheit (32) des Endgeräts (30), eingerichtet zum Abspeichern (103) des erhaltenen Personendatensatzes (320) als Personenprofil.
- Das System (1000) nach
Anspruch 26 , wobei die Auswerteeinheit (31) des Endgeräts (30) weiter eingerichtet ist zum Erzeugen (105) eines Streuwerts (430) des Personendatensatzes (320). - Das System (1000) nach
Anspruch 27 , weiter umfassend ein Hintergrundsystem (40), eingerichtet zum Empfangen und Abspeichern (106) des Streuwerts (430) in einer Datenbank (41). - Das System nach einem der
Ansprüche 27 oder28 , wobei der Streuwert (430) ein Teil eines anonymisierten Benutzerdatensatzes (410) in dem Hintergrundsystem (40) ist, wobei der anonymisierte Benutzerdatensatz (410) bevorzugt eine Personenidentifizierungsnummer und einen Log-Eintrag umfasst. - Das System (1000) nach einem der
Ansprüche 26 bis29 , - wobei die Erfassungseinheit (31) des Endgeräts (30) eine Kamera (31a) ist, wobei die Kamera (31a) eingerichtet ist, ein Lichtbild (14) des Identifizierungsdokuments (10) zu erfassen (101); und - wobei die Auswerteeinheit (33) des Endgeräts (30) ein Gesichtserkennungsmodul (330) umfasst, wobei das Gesichtserkennungsmodul (330) eingerichtet ist, das erfasste Lichtbild (14) mittels Methoden computergestützter Gesichtserkennung zu analysieren, um die Biometriedaten des Personendatensatzes (320) zu erhalten. - Das System (1000) nach einem der
Ansprüche 26 bis30 , - wobei die Erfassungseinheit (31) des Endgeräts (30) eine Kamera (31a) ist, wobei die Kamera (31a) eingerichtet ist, personenbezogene Daten (15) des Identifizierungsdokuments (10) zu erfassen (101); und - wobei die Auswerteeinheit (33) des Endgeräts (30) ein Zeichenerkennungsmodul (331) umfasst, wobei das Zeichenerkennungsmodul (331) eingerichtet ist, die erfassten personenbezogenen Daten (15) mittels Methoden optischer Zeichenerkennung zu analysieren, um die personenbezogenen Daten des Personendatensatzes (320) zu erhalten. - Das System (1000) nach einem der
Ansprüche 26 bis31 , - wobei das Identifizierungsdokument (10) einen elektronischen Datenspeicher (11) umfasst; - wobei die Erfassungseinheit (31) des Endgeräts (30) eine Leseeinheit (31b) ist, wobei die Leseeinheit (31b) eingerichtet ist, elektronische Daten (11) eines Datenspeichers des Identifizierungsdokuments (10) auszulesen; und - wobei die Auswerteeinheit (33) des Endgeräts (30) eingerichtet ist, die ausgelesenen Daten (11) auszuwerten, um den Personendatensatzes (320) zu erhalten. - Das System (1000) nach einem der
Ansprüche 26 bis32 , - wobei die Auswerteeinheit (33) ein Verschlüsselungsmodul (332) umfasst, wobei das Verschlüsselungsmodul (332) eingerichtet ist, den erhaltenen Personendatensatz (320) kryptografisch abzusichern; und - wobei die Speichereinheit (32) des Endgeräts (30) dazu eingerichtet ist, den kryptografisch abgesicherten Personendatensatz (320) abzuspeichern. - Ein Computerprogrammprodukt, umfassend Befehle, die bei der Ausführung des Programms durch einen Computer diesen veranlassen, die Einheiten oder Module des Systems nach einem der vorhergehenden
Ansprüche 1 bis33 auszuführen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202021103224.3U DE202021103224U1 (de) | 2021-06-15 | 2021-06-15 | System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202021103224.3U DE202021103224U1 (de) | 2021-06-15 | 2021-06-15 | System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202021103224U1 true DE202021103224U1 (de) | 2021-07-02 |
Family
ID=76968958
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202021103224.3U Active DE202021103224U1 (de) | 2021-06-15 | 2021-06-15 | System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202021103224U1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887409A (zh) * | 2021-09-30 | 2022-01-04 | 平安银行股份有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014114513A1 (de) | 2013-01-22 | 2014-07-31 | IDnow GmbH | Benutzer-identifikation |
-
2021
- 2021-06-15 DE DE202021103224.3U patent/DE202021103224U1/de active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014114513A1 (de) | 2013-01-22 | 2014-07-31 | IDnow GmbH | Benutzer-identifikation |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887409A (zh) * | 2021-09-30 | 2022-01-04 | 平安银行股份有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
CN113887409B (zh) * | 2021-09-30 | 2024-05-24 | 平安银行股份有限公司 | 活体检测方法、装置、电子设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3373798B1 (de) | Verfahren und system zur klassifizierung des sehnervenkopfes | |
CN109117688A (zh) | 身份认证方法、装置及移动终端 | |
CN108804884A (zh) | 身份认证的方法、装置及计算机存储介质 | |
WO2019047481A1 (zh) | 房产信息查询方法、系统、终端设备及存储介质 | |
DE112013003220T5 (de) | Bereitstellen eines Bluttests mit Identitätsprüfung | |
EP3496968A1 (de) | Vorrichtung, substanzmessgerät, verfahren, computerprogramm, kamera und mobilfunkgerät zur identifikation eines substanzmessgerätes | |
DE202021103224U1 (de) | System zum computergestützten Nachverfolgen einer von einer Person durchzuführenden Prozedur | |
DE202020004275U1 (de) | Ferntesten | |
CN112674723A (zh) | 一种服药依从性监测方法、终端及可读存储介质 | |
EP4105865A1 (de) | Verfahren und system zum computergestützten nachverfolgen einer von einer person durchzuführenden prozedur | |
CN116230213A (zh) | 一种智能伤情识别方法及系统 | |
DE202011002997U1 (de) | Medizinisches Behandlungssystem | |
EP3889807A1 (de) | Authentifizierungssystem auf basis eines telekommunikationsgeräts mit einem hirnaktivitätssensor | |
CH712285B1 (de) | Daten-Netzwerk zur Umwandlung personalisierter persönlicher Daten in de-personalisierte persönliche Daten und Übermittlung der de-personalisierten Daten an einen Server. | |
WO2018133841A1 (zh) | 身份识别的方法和装置 | |
WO2005079660A1 (de) | Verfahren und einrichtung zur überprüfung der einhaltung einer durchführungsvorschrift für eine an einem patienten durchgeführte medizinische massnahme | |
EP3713466B1 (de) | Benutzerassistenzsystem für wiederverwendbare medizinprodukte | |
WO2023122810A1 (de) | Verfahren zur überprüfung der berechtigung einer person | |
DE202021103055U1 (de) | Testgerät und Testsystem zur Durchführung eines Selbsttests und Computerprogrammprodukt dafür | |
CN116884583A (zh) | 基于物联网的医院现场管控方法和系统 | |
EP3889835A2 (de) | Authentifizierungssystem auf basis von fremdbildern und bekanntbildern und entsprechenden hirnaktivitätssignalen | |
DE102023005028A1 (de) | System und Verfahren zur Erkennung des Schläfrigkeitszustands | |
DE102020109284A1 (de) | Authentifizierungssystem auf Basis von Hirnaktivitätssignalen | |
DE102011054449B4 (de) | Selbstlernende personallose biometrische Zutrittskontrolle | |
CN109919004A (zh) | 一种基于神经网络的人脸检测算法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification | ||
R081 | Change of applicant/patentee |
Owner name: PULVIS BETEILIGUNGS GMBH, DE Free format text: FORMER OWNERS: GILL, BERND, 71088 HOLZGERLINGEN, DE; STAUBER, JUERGEN, 85250 ALTOMUENSTER, DE Owner name: GILL BETEILIGUNGS GMBH, DE Free format text: FORMER OWNERS: GILL, BERND, 71088 HOLZGERLINGEN, DE; STAUBER, JUERGEN, 85250 ALTOMUENSTER, DE |