CH713934A2 - Verfahren zur sozialen Interaktion mit einem Roboter. - Google Patents
Verfahren zur sozialen Interaktion mit einem Roboter. Download PDFInfo
- Publication number
- CH713934A2 CH713934A2 CH00776/18A CH7762018A CH713934A2 CH 713934 A2 CH713934 A2 CH 713934A2 CH 00776/18 A CH00776/18 A CH 00776/18A CH 7762018 A CH7762018 A CH 7762018A CH 713934 A2 CH713934 A2 CH 713934A2
- Authority
- CH
- Switzerland
- Prior art keywords
- situation
- robot
- network
- needs
- measures
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 15
- 230000003997 social interaction Effects 0.000 title claims abstract description 7
- 230000009471 action Effects 0.000 claims abstract description 34
- 230000002996 emotional effect Effects 0.000 claims description 33
- 230000001960 triggered effect Effects 0.000 claims description 9
- 238000002360 preparation method Methods 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 6
- 238000001514 detection method Methods 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 12
- 238000013528 artificial neural network Methods 0.000 description 16
- 238000012913 prioritisation Methods 0.000 description 7
- 230000001186 cumulative effect Effects 0.000 description 6
- 238000011161 development Methods 0.000 description 6
- 230000018109 developmental process Effects 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 5
- 238000012423 maintenance Methods 0.000 description 5
- 230000000474 nursing effect Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 3
- 235000003642 hunger Nutrition 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000035922 thirst Effects 0.000 description 3
- 238000010415 tidying Methods 0.000 description 3
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 208000028698 Cognitive impairment Diseases 0.000 description 1
- 206010012289 Dementia Diseases 0.000 description 1
- 206010027374 Mental impairment Diseases 0.000 description 1
- 238000009825 accumulation Methods 0.000 description 1
- 208000010877 cognitive disease Diseases 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0014—Gripping heads and other end effectors having fork, comb or plate shaped means for engaging the lower surface on a object to be transported
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/086—Proximity sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0028—Gripping heads and other end effectors with movable, e.g. pivoting gripping jaw surfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/02—Gripping heads and other end effectors servo-actuated
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
- B25J19/063—Safety devices working only upon contact with an outside object
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0033—Gripping heads and other end effectors with gripping surfaces having special shapes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40411—Robot assists human in non-industrial environment like home or office
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Social Psychology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Manipulator (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur sozialen Interaktion mit einem Roboter, wobei der Roboter einen Situationsmanager, der in ein Situationsnetzwerk zur Ermittlung von Bedürfnissen und in ein Aktionsnetzwerk zur Bestimmung von Massnahmen zur Erfüllung der Bedürfnisse unterteilt ist, einen Planer zur Priorisierung von Massnahmen, die vom Situationsmanager und optional von einem Eingabegerät vorgeschlagen werden, und einen Sensor zur Erfassung eines Ereignisses umfasst. Sowohl das Situationsnetzwerk als auch das Aktionsnetzwerk basieren auf Wahrscheinlichkeitsmodellen. Die Unterteilung des Situationsmanagers in ein Situationsnetzwerk und ein Aktionsnetzwerk bewirkt, dass die Berechnung der geeigneten Massnahme für eine konkrete Situation nicht direkt auf den tatsächlichen Daten basiert, sondern vielmehr auf der Berechnung der Bedürfnisse der konkreten Situation. Die Erfindung betrifft ferner einen Roboter zur Durchführung des Verfahrens.
Description
Beschreibung
Allgemeiner Stand der Technik [0001] Menschliche Aufgaben in der persönlichen Betreuung werden mehr und mehr durch autonome Pflege-Roboter ersetzt, die helfen, die Bedürfnisse des täglichen Lebens im Krankenhaus oder in der häuslichen Pflege zu erfüllen. Dies gilt insbesondere für die Betreuung von Personen mit psychischen oder kognitiven Beeinträchtigungen oder Erkrankungen, z.B. bei Demenz. Pflege-Roboter sind mit Vorrichtungen zum Sammeln von Informationen über die pflegebedürftige Person und das Dienstleistungsumfeld ausgestattet, d.h. Sensoren, Mikrofon, Kamera oder intelligente Vorrichtungen, die sich auf das Internet der Dinge beziehen, und Mittel zum Ausführen von Massnahmen, d.h. Vorrichtungen zum Greifen, Bewegen, Kommunizieren. Die Interaktion des menschlichen Roboters wird durch intelligente Funktionen wie beispielsweise die Spracherkennung oder die Erkennung von Gesichtsmimik oder taktilen Mustern erreicht. Diese Funktionen können auch von einem Roboter in der Betreuungssituation nachgeahmt werden, z.B. durch Sprach- oder Gestengenerierung oder die Erzeugung von emotionalem Feedback.
[0002] Für die robotergestützte Pflege ist es eine Herausforderung, die tatsächlichen Bedürfnisse der pflegebedürftigen Person und des Dienstleistungsumfelds zu ermitteln und die entsprechenden Massnahmen durchzuführen. Bedürfnisse der Person sind beispielsweise Hunger, Durst, der Wunsch nach Ruhe, nach emotionaler Aufmerksamkeit oder sozialer Interaktion. Bedürfnisse des Dienstleistungsumfelds sind beispielsweise die Notwendigkeit den Tisch abzuräumen oder die Küche aufzuräumen oder den Kühlschrank aufzufüllen. Die entsprechenden Massnahmen sind diejenigen, welche die Bedürfnisse erfüllen. Im Allgemeinen können die Bedürfnisse und Massnahmen nicht nur anhand der tatsächlichen Situation ermittelt werden, sondern hängen von der Historie der Bedürfnisse ab.
Zusammenfassung der Erfindung [0003] Die Erfindung betrifft ein Verfahren zur sozialen Interaktion mit einem Roboter, wobei der Roboter einen Situationsmanager, der in ein Situationsnetzwerk zur Ermittlung der Bedürfnisse und ein Aktionsnetzwerk zur Bestimmung der Massnahmen zur Erfüllung der Bedürfnisse unterteilt ist, einen Planer zur Priorisierung von Massnahmen, die vom Situationsmanager und optional von einem Eingabegerät vorgeschlagen werden und einen Sensor zur Erfassung eines Ereignisses umfasst. Sowohl das Situationsnetzwerk als auch das Aktionsnetzwerk basieren auf Wahrscheinlichkeitsmodellen. Die Unterteilung des Situationsmanagers in ein Situationsnetzwerk und ein Aktionsnetzwerk bewirkt, dass die Berechnung der geeigneten Massnahme für eine konkrete Situation nicht direkt auf den tatsächlichen Daten basiert, sondern auf der Berechnung der Bedürfnisse der konkreten Situation.
[0004] Bedürfnisse der pflegebedürftigen Person sind beispielsweise Hunger, Durst, der Wunsch nach Ruhe oder der Wunsch nach emotionaler Aufmerksamkeit. Bedürfnisse des Dienstleistungsumfelds sind beispielsweise das Abräumen des Tisches, das Aufräumen der Küche oder das Nachfüllen des Kühlschranks.
[0005] Massnahmen zur Erfüllung der Bedürfnisse sind beispielsweise ein Objekt zu der Person zu bringen, es von der Person wegzunehmen, emotionales Feedback durch Spracherzeugung oder emotionale Bilddarstellung zu geben, den Tisch abzuräumen oder die Küche aufzuräumen.
[0006] Der Situationsmanager gemäss der vorliegenden Erfindung ist unterteilt in ein Situationsnetzwerk und ein Aktionsnetzwerk. Das Situationsnetzwerk ist als künstliches neurales Netzwerk zur Entscheidungsfindung über die situationsbezogenen Bedürfnisse, also die Bedürfnisse in einer konkreten Situation, konzipiert. Die situationsbezogenen Bedürfnisse stellen die kumulierten Bedürfnisse der pflegebedürftigen Person und des Dienstleistungsumfeldes über die Zeit gemessen dar, d.h. die situationsbezogenen Bedürfnisse basieren auf der Historie der Bedürfnisse.
[0007] Das Aktionsnetzwerk ist ein künstliches neurales Netzwerk, das die geeigneten Massnahmen für die situationsbezogenen Bedürfnisse ableitet. Sowohl das Situationsnetzwerk als auch das Aktionsnetzwerk basieren auf einem Wahrscheinlichkeitsmodell.
[0008] Die Unterteilung des Situationsmanagers in ein Situationsnetzwerk und ein Aktionsnetzwerk bewirkt, dass die Berechnung der geeigneten Massnahmen für eine konkrete Situation nicht direkt auf den tatsächlichen Daten basiert, sondern auf der Berechnung der Bedürfnisse der konkreten Situation.
[0009] Der Situationsmanager erhält Input aus einem Informationspool. Der Informationspool umfasst Signale von Sensoren und dem Internet der Dinge (ΙοΤ-Geräte), eine Benutzer-Datenbank und eine Historie. Sensoren gemäss der vorliegenden Erfindung sind beispielsweise sind ein Mikrofon, z.B. zum Erfassen von Sprachmustern, eine Kamera, z.B. zum Erfassen von Gesichtsmimik-Mustern, oder ein Touchpad mit taktilen Sensoren, z.B. zum Erfassen von taktilen Mustern der Person. Die vom Sensor erfassten Signale können durch Spracherkennung, Gesichtsmimik-Erkennung oder Erkennung von taktilen Mustern analysiert werden.
[0010] Ein ΙοΤ-Gerät ist beispielsweise ein Kühlschrank mit Sensoren zur Kontrolle des Haltbarkeitsdatums seines Inhalts. Die Benutzer-DB ist eine Sammlung von Informationen über die pflegebedürftigen Personen, wie z.B. deren Namen, den aktuellen emotionalen Zustand oder die Position im Raum. Die Historie enthält die historischen Daten der Sensoren und loT-Kanäle, aberauch persönliche Daten, zum Beispiel die Historie des emotionalen Zustands und die Historie der Aktionen
CH 713 934 A2 des Roboters. Darüber hinaus hat der Informationspool Zugang zu den Kommunikationskanälen der Open Platform, um beispielsweise Informationen über den Batteriestatus des Roboters zu erhalten.
[0011] Bevor Informationen aus dem Informationspool vom Situationsmanager genutzt werden können, müssen sie durch die Merkmals-Vorbereitung gehen. Die Merkmals-Vorbereitung bezieht sich auf die Klassifizierung der analysierten Muster, beispielsweise durch den Vergleich der Muster mit personalisierten Mustern in der Benutzer-DB, um den emotionalen Zustand der Person abzuleiten, oder um zeitliche Entwicklungen der Signale von ΙοΤ-Geräten zu erkennen.
[0012] Bei der Priorisierung von Massnahmen berücksichtigt der Planer Entscheidungen des Situationsmanagers und/ oder Daten von Eingabegeräten wie einem Benutzer-Eingabegerät, einem Terminplaner oder einer Notfallsteuerung. Ein Eingabegerät ist ein Gerät, um eine Massnahme direkt durch den Benutzer anzuordnen, beispielsweise eine Taste, um eine bestimmte Pflegeaktion anzuordnen. Der Terminplaner ist ein Zeitplan von Massnahmen, die regelmässig ausgeführt werden müssen, beispielsweise das Essen zu servieren, das Medikament zu bringen. Die Notfallsteuerung ist in der Lage, unerwünschte oder negative Ereignisse zu erkennen, z.B. Anzeichen von Ablehnung oder Widerstand gegen den PflegeRoboter oder einen schwachen Batteriestatus. Die Notfallsteuerung hat Zugriff auf den Informationspool.
[0013] Die Priorisierung durch den Planer hat beispielsweise die Auswirkung, die aktuelle Massnahme zu verfolgen, d.h. ihr weiterhin die höchste Priorität zuzuweisen, die aktuelle Massnahme auszusetzen, d.h. ihr eine niedrigere Priorität zuzuweisen, die aktuelle Massnahme abzubrechen, d.h. sie aus der Massnahmenliste zu löschen, eine neue Massnahme zu starten oder eine zuvor unterbrochene Massnahme wiederaufzunehmen.
[0014] Das Verfahren zur Steuerung der Aktivitäten eines Roboters gemäss der vorliegenden Erfindung umfasst die folgenden Schritte:
[0015] Schritt 1: Erfassen eines Signals mit Hilfe eines Sensors. Durch diesen Schritt wird ein Signal oder ein Muster erfasst, das sich auf den Patienten oder das Dienstleistungsumfeld bezieht. Die Signale oder Signalmuster beziehen sich beispielsweise auf ein Positionssignal, ein Sprachmuster, ein Bildmuster, ein taktiles Muster. Falls sich die Signalmuster auf ein taktiles Muster beziehen, ist der Sensor ein taktiler Sensor, der sich beispielsweise in einem Touchpad des Roboters befindet. Falls mit Hilfe des Sensors ein emotionales Zustandsmuster erkannt wird, ist der Sensor ein Mikrofon zur Erfassung eines Sprachmusters und/oder eine Kamera zur Erfassung eines Gesichtsmimik-Musters.
[0016] Schritt 2: Analysieren des Signals. Durch diesen Schritt wird das erfasste Signal oder Muster interpretiert oder aggregiert ausgewertet, um beispielsweise mittels Zeitreihen Merkmale zu extrahieren. Beziehen sich die Signalmuster auf ein taktiles Muster, so wird durch diesen Schritt das erkannte taktile Muster interpretiert, um beispielsweise mittels Zeitreihen Merkmale zu extrahieren. Wird durch diesen Schritt ein emotionales Zustandsmuster erfasst, wird das erfasste emotionale Zustandsmuster interpretiert, um beispielsweise mittels Zeitreihen Merkmale zu extrahieren.
[0017] Schritt 3: Klassifizieren des Signals. Durch diesen Schritt werden die analysierten Merkmale klassifiziert, beispielsweise durch Vergleich der Muster mit personalisierten Mustern in der Benutzer-DB, um den emotionalen Zustand der Person abzuleiten, oder um zeitliche Entwicklungen von Signalen aus ΙοΤ-Geräten zu erkennen. Falls sich die Signalmuster auf ein taktiles Muster beziehen, wird das taktile Muster mittels personalisierter taktiler Muster klassifiziert. So werden durch diesen Schritt die extrahierten Merkmale klassifiziert, beispielsweise durch Vergleich der taktilen Muster mit den personalisierten taktilen Mustern in der Benutzer-DB. Falls ein emotionales Zustandsmuster erfasst wird, wird das emotionale Zustandsmuster mittels personalisierter emotionaler Zustandsmuster klassifiziert. So werden durch diesen Schritt die extrahierten Merkmale klassifiziert, beispielsweise durch Vergleich der emotionalen Zustandsmuster mit personalisierten emotionalen Zustandsmustern in der Benutzer-DB.
[0018] Schritt 4: Ermitteln der Bedürfnisse der Person und des Dienstleistungsumfelds mit Hilfe des Situationsnetzwerkes. Durch diesen Schritt werden die Bedürfnisse der Situation anhand von Informationen aus dem Informationspool berechnet. Das Situationsnetzwerk ist als künstliches neurales Netzwerk konzipiert, das auf einem Wahrscheinlichkeitsmodell basiert. Die situationsbezogenen Bedürfnisse stellen die kumulierten Bedürfnisse der pflegebedürftigen Person und des Dienstleistungsumfelds über die Zeit gemessen dar. Die Berechnung der situationsbezogenen Bedürfnisse durch das künstliche neurale Netzwerk basiert daher nicht nur auf den tatsächlichen Bedürfnissen, sondern auch auf der Historie der Bedürfnisse.
[0019] Schritt 5: Bestimmung der Massnahmen zur Erfüllung der durch das Situationsnetzwerk ermittelten Bedürfnisse. Durch diesen Schritt werden die geeigneten Massnahmen für die Bedürfnisse der Situation berechnet. Das Aktionsnetzwerk ist als künstliches neurales Netzwerk konzipiert, das auf einem Wahrscheinlichkeitsmodell basiert.
[0020] Schritt 6: Bestimmung von Massnahmen, die von einem Eingabegerät ausgelöst werden. Durch diesen Schritt werden die Massnahmen festgelegt, die von einem Eingabegerät ausgelöst werden. Ein Eingabegerät ist beispielsweise eine Taste, um eine bestimmte Pflegeaktion anzuordnen oder ein Terminplaner zum Auslösen von Massnahmen, die regelmässig ausgeführt werden müssen, oder eine Notfallsteuerung.
[0021] Schritt 7: Priorisieren der Massnahmen durch den Planer. Durch diesen Schritt werden Massnahmen nach einer Dringlichkeitsstufe priorisiert, beispielsweise von der höchsten zur niedrigsten Priorität: (1) Notfallmassnahmen, (2) vom Eingabegerät angeordnete Massnahme, (3) terminierte Massnahme, (4) vom Situationsmanager vorgeschlagene Massnahme.
CH 713 934 A2 [0022] Schritt 8: Ausführen der Massnahme der höchsten Priorität. In diesem Schritt wird die vordringlichste Massnahme ausgeführt.
[0023] Schritt 9: Wiederholen der Schritte (1) bis (9) bis eine Stoppbedingung erreicht ist. Dieser Schritt bewirkt, dass der Roboter immer alles tut, bis er durch einen externen Befehl zum Stoppen angehalten wird.
[0024] Gemäss einer Ausführungsform der Erfindung ist das Eingabegerät ein Benutzer-Eingabegerät und/oder ein Terminplaner und/oder eine Notfallsteuerung.
[0025] Gemäss einer bevorzugten Ausführungsform der Erfindung basiert das Situationsnetzwerk und/oder das Aktionsnetzwerk auf einem Wahrscheinlichkeitsmodell.
[0026] Gemäss einer wichtigen Ausführungsform der Erfindung erhält der Situationsmanager Informationen aus einem Informationspool, wobei der Informationspool auf einen Sensor und/oder auf das Internet der Dinge und/oder auf eine Benutzer-Datenbank und/oder auf eine Historie und/oder auf Kommunikationskanäle der Open Platform zurückgreift.
[0027] Gemäss einer weiteren Ausführungsform der Erfindung werden die Informationen, die der Situationsmanager aus dem Informationspool erhält, durch eine Merkmais-Vorbereitungs-Aufgabe klassifiziert.
[0028] Die Erfindung bezieht sich auch auf einen Roboter zur Durchführung des beschriebenen Verfahrens, wobei der Roboter einen Planer zur Priorisierung von Aufgaben umfasst, die von einem Situationsmanager und optional von einem Eingabegerät empfangen werden. Der Situationsmanager ist in ein Situationsnetzwerk zur Ermittlung von Bedürfnissen und in ein Aktionsnetzwerk zur Bestimmung von Massnahmen zur Erfüllung der Bedürfnisse unterteilt.
[0029] Gemäss einer Ausführungsform ist das Eingabegerät ein Benutzer-Eingabegerät und/oder ein Terminplaner und/ oder eine Notfallsteuerung.
[0030] Gemäss einer bevorzugten Ausführungsform basieren das Situationsnetzwerk und/oder das Aktionsnetzwerk auf einem Wahrscheinlichkeitsmodell.
[0031] Gemäss einer wichtigen Ausführungsform erhält der Situationsmanager Informationen aus einem Informationspool, wobei der Informationspool auf einen Sensor und/oder auf das Internet der Dinge und/oder auf eine Benutzerdatenbank und/oder auf eine Historie und/oder auf Kommunikationskanäle der Open Platform zurückgreift.
[0032] Gemäss einer weiteren Ausführungsform werden die Informationen, die der Situationsmanager aus dem Informationspool erhält, durch eine Merkmais-Vorbereitungs-Aufgabe klassifiziert.
[0033] Gemäss einer sehr wichtigen Ausführungsform hat der Sensor eine Fläche von mindestens 16 mm2. Dadurch kann z.B. das taktile Muster gut vom Sensor erfasst werden.
[0034] Schliesslich kann der Sensor in eine weiche taktile Hülle des Roboters eingebettet werden. Auch hierdurch kann z.B. das taktile Muster gut vom Sensor erfasst werden.
Kurze Beschreibung der Zeichnungen [0035]
Fig. 1 ist ein Diagramm, das den Informationsfluss und den Entscheidungsfluss des Roboters gemäss der vorliegenden Erfindung darstellt.
Fig. 2a ist ein Flussdiagramm, das den Arbeitsablauf des Roboters im Überwachungsmodus zeigt.
Fig. 2b ist ein Flussdiagramm, das den Arbeitsablauf des Roboters im taktilen Interaktionsmodus zeigt.
Fig. 2c ist ein Flussdiagramm, das den Arbeitsablauf des Roboters im sozialen Interaktionsmodus zeigt.
[0036] Fig. 1 zeigt den Informationsfluss und den Entscheidungsfluss des Pflege-Roboters. Die Kernkomponente des
Pflege-Roboters ist ein Planer. Die Aufgabe des Planers ist es, Aktionen zu priorisieren und die Ausführung von Massnahmen in einer konkreten Pflegesituation aufzurufen.
[0037] Massnahmen sind beispielsweise die Position zu verändern, ein Objekt zu bringen oder wegzunehmen oder die Küche aufzuräumen. Bei der Priorisierung von Massnahmen berücksichtigt der Planer Entscheidungen des Situationsmanagers und/oder von Eingabegeräten wie einem Benutzer-Eingabegerät, einem Terminplaner oder einer Notfallsteuerung.
[0038] Die Aufgabe des Situationsmanagers ist es, dem Planer die Massnahmen zur Verfügung zu stellen, welche die Bedürfnisse der Person, beispielsweise Hunger, Durst, Stressreduktion oder Bedürfnisse der Pflege und des Dienstleistungsumfelds in einer konkreten Situation erfüllen. Der Situationsmanager reagiert auf Anfrage des Planers. Der Situationsmanager gemäss der vorliegenden Erfindung ist unterteilt in ein Situationsnetzwerk und ein Aktionsnetzwerk. Das Situationsnetzwerk ist als künstliches neurales Netzwerk zur Entscheidungsfindung über die situationsbezogenen Bedürfnisse, also die Bedürfnisse in einer konkreten Situation, konzipiert. Die situationsbezogenen Bedürfnisse stellen die kumulierten Bedürfnisse der pflegebedürftigen Person und des Dienstleistungsumfelds über die Zeit gemessen dar, d.h. die situationsbezogenen Bedürfnisse basieren auf der Historie der Bedürfnisse.
CH 713 934 A2 [0039] Das Aktionsnetzwerk ist ein künstliches neurales Netzwerk, das die geeigneten Massnahmen für die situationsbezogenen Bedürfnisse ableitet. Sowohl das Situationsnetzwerk als auch das Aktionsnetzwerk basieren auf einem Wahrscheinlichkeitsmodell.
[0040] Die Unterteilung des Situationsmanagers in ein Situationsnetzwerk und ein Aktionsnetzwerk bewirkt, dass die Berechnung der geeigneten Massnahmen für eine konkrete Situation nicht direkt auf den Daten des Informationspools basiert, sie basiert vielmehr auf der getrennten Berechnung der Bedürfnisse für eine konkrete Situation.
[0041] Der Situationsmanager erhält Input aus einem Informationspool. Der Informationspool umfasst Information von Sensoren und loT-Geräten, eine Benutzerdatenbank und eine Historie. Sensoren gemäss der vorliegenden Erfindung sind beispielsweise ein Mikrofon, eine Kamera, ein Touchpad. Ein loT-Gerät ist beispielsweise ein Kühlschrank oder andere intelligente Geräte. Die Benutzerdatenbank ist eine Sammlung von Informationen über die pflegebedürftigen Personen, beispielsweise deren Namen, den aktuellen emotionalen Zustand oder die aktuelle Position im Raum. Die Historie enthält die historischen Daten der Sensoren und loT-Kanäle sowie die Historie von Zuständen der pflegebedürftigen Personen und die Historie der Aktionen des Roboters. Darüber hinaus hat der Informationspool Zugang zu den Kommunikationskanälen der Open Platform, um beispielsweise Informationen über den Batteriestatus des Roboters zu erhalten.
[0042] Bevor Informationen aus dem Informationspool vom Situationsmanager genutzt werden können, müssen sie durch die Merkmals-Vorbereitung gehen. Die Merkmals-Vorbereitung bezieht sich auf die Klassifizierung oder Anhäufung von Informationen, beispielsweise die Klassifizierung von Sprachsignalen über Spracherkennung, die Klassifizierung von Berührungen übertaktile Erkennung, die Klassifizierung von Gefühlszuständen über Gesichtsmimik-Erkennung, die Ansammlung von Informationen aus intelligenten Geräten zur Erkennung von Entwicklungen.
[0043] Ein Eingabegerät kann eine Taste mit zugehöriger Funktion, ein Touchscreen sein. Der Terminplaner ist ein Zeitplan von Massnahmen, die regelmässig ausgeführt werden müssen, z.B. das Essen zu bringen, die Medikamente bereitzustellen. Die Notfallsteuerung ist in der Lage, unerwünschte oder negative Ereignisse zu erkennen, z.B. Anzeichen von Ablehnung oder Widerstand gegen den Pflege-Roboter oder einen schwachen Batteriestatus. Die Notfallsteuerung hat Zugriff auf den Informationspool.
[0044] Die Priorisierung durch den Planer hat beispielsweise die Auswirkung, die aktuelle Massnahme zu verfolgen, d.h. ihr weiterhin die höchste Priorität zuzuweisen, die aktuelle Massnahme auszusetzen, d.h. ihr eine niedrigere Priorität zuzuweisen, die aktuelle Massnahme abzubrechen, d.h. sie aus der Massnahmenliste zu löschen, eine neue Massnahme zu starten oder eine zuvor unterbrochene Massnahme wiederaufzunehmen.
[0045] Fig. 2a zeigt ein Flussdiagramm, das den Arbeitsablauf des Roboters im Überwachungsmodus zeigt. Das Verfahren umfasst die folgenden Schritte:
[0046] Schritt 1: Erfassen eines Signals mit Hilfe eines Sensors. Durch diesen Schritt wird ein Signal oder ein Muster erfasst, das sich auf den Patienten oder das Dienstleistungsumfeld bezieht. Die Signale oder Signalmuster beziehen sich beispielsweise auf ein Positionssignal, ein Sprachmuster, ein Bildmuster, ein taktiles Muster.
[0047] Schritt 2: Analysieren des Signals. Durch diesen Schritt wird das erfasste Signal oder Muster interpretiert oder aggregiert ausgewertet, um beispielsweise mittels Zeitreihen Merkmale zu extrahieren.
[0048] Schritt 3: Klassifizieren des Signals. Durch diesen Schritt werden die analysierten Merkmale klassifiziert, beispielsweise durch Vergleich der Muster mit personalisierten Mustern in der Benutzer-DB, um den emotionalen Zustand der Person abzuleiten, oder um zeitliche Entwicklungen von Signalen aus loT-Geräten zu erkennen.
[0049] Schritt 4: Ermitteln der Bedürfnisse der Person und des Dienstleistungsumfelds mit Hilfe des Situationsnetzwerkes. Durch diesen Schritt werden die Bedürfnisse der Situation anhand von Informationen aus dem Informationspool berechnet. Das Situationsnetzwerk ist als künstliches neurales Netzwerk konzipiert, das auf einem Wahrscheinlichkeitsmodell basiert. Die situationsbezogenen Bedürfnisse stellen die kumulierten Bedürfnisse der pflegebedürftigen Person und des Dienstleistungsumfelds über die Zeit gemessen dar. Die Berechnung der situationsbezogenen Bedürfnisse durch das künstliche neurale Netzwerk basiert daher nicht nur auf den tatsächlichen Bedürfnissen, sondern auch auf der Historie der Bedürfnisse.
[0050] Schritt 5: Bestimmung der Massnahmen zur Erfüllung der durch das Situationsnetzwerk ermittelten Bedürfnisse. Durch diesen Schritt werden die geeigneten Massnahmen für die Bedürfnisse der Situation berechnet. Das Aktionsnetzwerk ist als künstliches neurales Netzwerk konzipiert, das auf einem Wahrscheinlichkeitsmodell basiert.
[0051] Schritt 6: Bestimmung von Massnahmen, die von einem Eingabegerät ausgelöst werden. Durch diesen Schritt werden die Massnahmen festgelegt, die von einem Eingabegerät ausgelöst werden. Ein Eingabegerät ist beispielsweise eine Taste, um eine bestimmte Pflegeaktion anzuordnen oder ein Terminplaner zum Auslösen von Massnahmen, die regelmässig ausgeführt werden müssen, oder eine Notfallsteuerung.
[0052] Schritt 7: Priorisieren der Massnahmen durch den Planer. Durch diesen Schritt werden Massnahmen nach einer Dringlichkeitsstufe priorisiert, z.B. von der höchsten zur niedrigsten Priorität: (1) Notfallmassnahmen, (2) vom Eingabegerät angeordnete Massnahme, (3) terminierte Massnahme, (4) vom Situationsmanager vorgeschlagene Massnahme.
CH 713 934 A2 [0053] Schritt 8: Ausführen der Massnahme der höchsten Priorität. In diesem Schritt wird die vordringlichste Massnahme ausgeführt.
[0054] Schritt 9: Wiederholen der Schritte (1) bis (9) bis eine Stoppbedingung erreicht ist. Dieser Schritt bewirkt, dass der Roboter immer alles tut, bis er durch einen externen Befehl zum Stoppen angehalten wird.
[0055] Fig. 2b zeigt ein Flussdiagramm, das den Arbeitsablauf des Roboters im taktilen Interaktionsmodus zeigt. Das Verfahren umfasst die folgenden Schritte:
[0056] Schritt 1: Erfassen eines taktilen Musters durch einen Sensor. Durch diesen Schritt wird ein auf den Patienten bezogenes taktiles Muster erfasst.
[0057] Schritt 2: Analysieren des taktilen Signals durch eine Analyseeinheit. Durch diesen Schritt wird das erfasste taktile Muster interpretiert oder aggregiert ausgewertet, um beispielsweise mittels Zeitreihen Merkmale zu extrahieren.
[0058] Schritt 3: Klassifizieren des taktilen Signals mit Hilfe von personalisierten taktilen Mustern. Durch diesen Schritt werden die analysierten Merkmale klassifiziert, beispielsweise durch Vergleich der Muster mit personalisierten Mustern in der Benutzer-DB, um den emotionalen Zustand der Person abzuleiten, oder um zeitliche Entwicklungen von Signalen aus loT-Geräten zu erkennen.
[0059] Schritt 4: Ermitteln der Bedürfnisse der Person mit Hilfe des Situationsnetzwerkes. Durch diesen Schritt werden die Bedürfnisse der Situation anhand von Informationen aus dem Informationspool berechnet. Das Situationsnetzwerk ist als künstliches neurales Netzwerk konzipiert, das auf einem Wahrscheinlichkeitsmodell basiert. Die situationsbezogenen Bedürfnisse stellen die kumulierten Bedürfnisse der pflegebedürftigen Person und des Dienstleistungsumfelds über die Zeit gemessen dar. Die Berechnung der situationsbezogenen Bedürfnisse durch das künstliche neurale Netzwerk basiert daher nicht nur auf den tatsächlichen Bedürfnissen, sondern auch auf der Historie der Bedürfnisse.
[0060] Schritt 5: Bestimmung der Massnahmen zur Erfüllung der durch das Situationsnetzwerk ermittelten Bedürfnisse. Durch diesen Schritt werden die geeigneten Massnahmen für die Bedürfnisse der Situation berechnet. Das Aktionsnetzwerk ist als künstliches neurales Netzwerk konzipiert, das auf einem Wahrscheinlichkeitsmodell basiert.
[0061] Schritt 6: Bestimmung von Massnahmen, die von einem Eingabegerät ausgelöst werden. Durch diesen Schritt werden die Massnahmen festgelegt, die von einem Eingabegerät ausgelöst werden. Ein Eingabegerät ist beispielsweise eine Taste, um eine bestimmte Pflegeaktion anzuordnen oder ein Terminplaner zum Auslösen von Massnahmen, die regelmässig ausgeführt werden müssen, oder eine Notfallsteuerung.
[0062] Schritt 7: Priorisieren der Massnahmen durch den Planer. Durch diesen Schritt werden Massnahmen nach einer Dringlichkeitsstufe priorisiert, z.B. von der höchsten zur niedrigsten Priorität: (1) Notfallmassnahmen, (2) vom Eingabegerät angeordnete Massnahme, (3) terminierte Massnahme, (4) vom Situationsmanager vorgeschlagene Massnahme.
[0063] Schritt 8: Ausführen der Massnahme der höchsten Priorität. In diesem Schritt wird die vordringlichste Massnahme ausgeführt.
[0064] Schritt 9: Wiederholen der Schritte (1) bis (9) bis eine Stoppbedingung erreicht ist. Dieser Schritt bewirkt, dass der Roboter immer alles tut, bis er durch einen externen Befehl zum Stoppen angehalten wird.
[0065] Fig. 2c ist ein Flussdiagramm, das den Arbeitsablauf des Roboters im sozialen Interaktionsmodus zeigt. Das Verfahren umfasst die folgenden Schritte:
[0066] Schritt 1: Erfassen eines emotionalen Zustandsmusters durch einen Sensor. Durch diesen Schritt wird ein auf den Patienten bezogenes emotionales Zustandsmuster erfasst.
[0067] Schritt 2: Analysieren des emotionalen Zustandsmusters durch eine Analyseeinheit. Durch diesen Schritt wird das erfasste emotionale Zustandsmuster interpretiert oder aggregiert ausgewertet, um beispielsweise mittels Zeitreihen Merkmale zu extrahieren.
[0068] Schritt 3: Klassifizieren des emotionalen Zustandsmusters mit Hilfe von personalisierten emotionalen Zustandsmustern. Durch diesen Schritt werden die analysierten Merkmale klassifiziert, beispielsweise durch Vergleich der Muster mit personalisierten Mustern in der Benutzer-DB, um den emotionalen Zustand der Person abzuleiten, oder um zeitliche Entwicklungen von Signalen aus loT-Geräten zu erkennen.
[0069] Schritt 4: Ermitteln der Bedürfnisse der Person mit Hilfe des Situationsnetzwerkes. Durch diesen Schritt werden die Bedürfnisse der Situation anhand von Informationen aus dem Informationspool berechnet. Das Situationsnetzwerk ist als künstliches neurales Netzwerk konzipiert, das auf einem Wahrscheinlichkeitsmodell basiert. Die situationsbezogenen Bedürfnisse stellen die kumulierten Bedürfnisse der pflegebedürftigen Person und des Dienstleistungsumfelds über die Zeit gemessen dar. Die Berechnung der situationsbezogenen Bedürfnisse durch das künstliche neurale Netzwerk basiert daher nicht nur auf den tatsächlichen Bedürfnissen, sondern auch auf der Historie der Bedürfnisse.
[0070] Schritt 5: Bestimmung der Massnahmen zur Erfüllung der durch das Situationsnetzwerk ermittelten Bedürfnisse. Durch diesen Schritt werden die geeigneten Massnahmen für die Bedürfnisse der Situation berechnet. Das Aktionsnetzwerk ist als künstliches neurales Netzwerk konzipiert, das auf einem Wahrscheinlichkeitsmodell basiert.
CH 713 934 A2 [0071] Schritt 6: Bestimmung von Massnahmen, die von einem Eingabegerät ausgelöst werden. Durch diesen Schritt werden die Massnahmen festgelegt, die von einem Eingabegerät ausgelöst werden. Ein Eingabegerät ist beispielsweise eine Taste, um eine bestimmte Pflegeaktion anzuordnen oder ein Terminplaner zum Auslösen von Massnahmen, die regelmässig ausgeführt werden müssen, oder eine Notfallsteuerung.
[0072] Schritt 7: Priorisieren der Massnahmen durch den Planer. Durch diesen Schritt werden Massnahmen nach einer Dringlichkeitsstufe priorisiert, z.B. von der höchsten zur niedrigsten Priorität: (1) Notfallmassnahmen, (2) vom Eingabegerät angeordnete Massnahme, (3) terminierte Massnahme, (4) vom Situationsmanager vorgeschlagene Massnahme.
[0073] Schritt 8: Ausführen der Massnahme der höchsten Priorität. In diesem Schritt wird die vordringlichste Massnahme ausgeführt.
[0074] Schritt 9: Wiederholen der Schritte (1) bis (9) bis eine Stoppbedingung erreicht ist. Dieser Schritt bewirkt, dass der Roboter immer alles tut, bis er durch einen externen Befehl zum Stoppen angehalten wird.
Claims (12)
- Patentansprüche1. Verfahren zur sozialen Interaktion mit einem Roboter, wobei der Roboter umfasst- einen Situationsmanager, der in ein Situationsnetzwerk zur Ermittlung von Bedürfnissen und in ein Aktionsnetzwerk zur Bestimmung der Massnahmen zur Erfüllung der Bedürfnisse unterteilt ist,- einen Planer zur Priorisierung von Aufgaben, die vom Situationsmanager und optional von einem Eingabegerät empfangen werden- einen Sensor zur Beobachtung des emotionalen Zustands einer Person umfassend die folgenden Schritte:Schritt 1: Erfassen des emotionalen Zustandsmusters durch den SensorSchritt 2: Analysieren des emotionalen Zustandsmusters mit Hilfe einer AnalyseeinheitSchritt 3: Klassifizieren des emotionalen Zustandsmusters mit Hilfe von personalisierten emotionalen Zustandsmustern, die in einer Benutzer-Datenbank gespeichert sind Schritt 4: Ermitteln der Bedürfnisse mit Hilfe des SituationsnetzwerksSchritt 5: Bestimmung der Massnahmen zur Erfüllung der in Schritt 4 ermittelten Bedürfnisse mit Hilfe des AktionsnetzwerksSchritt 6: Bestimmen von Massnahmen, die von dem Eingabegerät ausgelöst werden Schritt 7: Priorisieren der Massnahmen durch den Planer Schritt 8: Ausführen der Massnahme der höchsten Priorität Schritt 9: Wiederholen von Schritt (1) bis (9)
- 2. Verfahren nach Anspruch 1, wobei das Eingabegerät ein Benutzer-Eingabegerät und/oder ein Terminplaner und/oder eine Notfallsteuerung ist.
- 3. Verfahren nach Anspruch 1 oder 2, wobei das Situationsnetzwerk und/oder das Aktionsnetzwerk auf einem Wahrscheinlichkeitsmodell basieren.
- 4. Verfahren nach Anspruch 1 bis 3, wobei der Situationsmanager Informationen aus einem Informationspool erhält, wobei der Informationspool auf einen Sensor und/oder auf das Internet der Dinge und/oder auf eine Benutzer-Datenbank und/oder auf eine Historie und/oder auf Kommunikationskanäle der Open Platform zurückgreift.
- 5. Verfahren nach Anspruch 4, wobei die Information, die der Situationsmanager aus dem Informationspool erhält, durch eine Merkmais-Vorbereitungs-Aufgabe klassifiziert wird.
- 6. Roboter zum Ausführen des Verfahrens nach Anspruch 1 bis 5, wobei der Roboter einen Planer zur Priorisierung von Aufgaben, die er vom Situationsmanager und optional von einem Eingabegerät erhält, und einen Sensor zum Erfassen eines taktilen Musters umfasst, dadurch gekennzeichnet, dass der Situationsmanager in ein Situationsnetzwerk zur Ermittlung von Bedürfnissen und in ein Aktionsnetzwerk zur Bestimmung der Massnahmen zur Erfüllung der Bedürfnisse unterteilt ist.
- 7. Roboter nach Anspruch 6, wobei das Eingabegerät ein Benutzer-Eingabegerät und/oder ein Terminplaner und/oder eine Notfallsteuerung ist.
- 8. Roboter nach Anspruch 6 oder 7, wobei das Situationsnetzwerk und/oder das Aktionsnetzwerk auf einem Wahrscheinlichkeitsmodell basieren.
- 9. Roboter nach Anspruch 6 bis 8, wobei der Situationsmanager Informationen aus einem Informationspool erhält, wobei der Informationspool auf einen Sensor und/oder auf das Internet der Dinge und/oder auf eine Benutzer-Datenbank und/oder auf eine Historie und/oder auf Kommunikationskanäle der Open Platform zurückgreift.
- 10. Roboter nach Anspruch 9, wobei die Information, die der Situationsmanager aus dem Informationspool erhält, durch eine Merkmais-Vorbereitungs-Aufgabe klassifiziert wird.
- 11. Roboter nach Anspruch 6 bis 10, wobei der Sensor ein Mikrophon und/oder eine Kamera ist.CH 713 934 A2
- 12. Roboter nach Anspruch 6 bis 11, wobei der Roboter des Weiteren eine Sprachgenerierungs-Einheit und/oder eine Bilddarstellungs-Einheit umfasst.CH 713 934 A2Informationsfluss ώÜLCH 713 934 A2CH 713 934 A2 =Q €M iZCH 713 934 A2 υfM .SP
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762521686P | 2017-06-19 | 2017-06-19 | |
PCT/EP2017/075576 WO2018233858A1 (en) | 2017-06-19 | 2017-10-06 | METHOD FOR SOCIAL INTERACTION OF ROBOT |
Publications (2)
Publication Number | Publication Date |
---|---|
CH713934A2 true CH713934A2 (de) | 2018-12-28 |
CH713934B1 CH713934B1 (de) | 2020-05-29 |
Family
ID=60037614
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CH00776/18A CH713934B1 (de) | 2017-06-19 | 2017-10-07 | Verfahren zur sozialen Interaktion mit einem Roboter. |
CH00774/18A CH713932B1 (de) | 2017-06-19 | 2017-10-07 | Verfahren zur Steuerung der Aktivitäten eines Roboters. |
CH00775/18A CH713933B1 (de) | 2017-06-19 | 2017-10-07 | Verfahren zur Erfassung des emotionalen Zustands einer Person durch einen Roboter. |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CH00774/18A CH713932B1 (de) | 2017-06-19 | 2017-10-07 | Verfahren zur Steuerung der Aktivitäten eines Roboters. |
CH00775/18A CH713933B1 (de) | 2017-06-19 | 2017-10-07 | Verfahren zur Erfassung des emotionalen Zustands einer Person durch einen Roboter. |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200139558A1 (de) |
EP (1) | EP3641992A1 (de) |
JP (4) | JP3227655U (de) |
CN (3) | CN109129526A (de) |
CH (3) | CH713934B1 (de) |
TW (4) | TWM581742U (de) |
WO (4) | WO2018233857A1 (de) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3641992A1 (de) * | 2017-06-19 | 2020-04-29 | Zhongrui Funing Robotics (Shenyang) Co. Ltd | Greifersystem für einen roboter |
DE102017210213A1 (de) * | 2017-06-19 | 2018-12-20 | Kuka Deutschland Gmbh | Greifer mit einem Sensor an einem Getriebegliedlager des Greifers |
CN109807903B (zh) * | 2019-04-10 | 2021-04-02 | 博众精工科技股份有限公司 | 一种机器人控制方法、装置、设备和介质 |
JP7258391B2 (ja) * | 2019-05-08 | 2023-04-17 | 国立研究開発法人産業技術総合研究所 | 児童相談所などにおける情報処理方法及び装置 |
JP7362308B2 (ja) * | 2019-06-17 | 2023-10-17 | 株式会社ディスコ | 加工装置 |
US20210346557A1 (en) | 2020-05-08 | 2021-11-11 | Robust AI, Inc. | Robotic social interaction |
CN112720486A (zh) * | 2020-12-21 | 2021-04-30 | 深圳市越疆科技有限公司 | 机械臂末端执行器及其控制方法、机械臂和存储器 |
CN112621795A (zh) * | 2020-12-21 | 2021-04-09 | 深圳市越疆科技有限公司 | 机械臂末端执行器及其控制方法、机械臂和存储器 |
CN115196327B (zh) * | 2021-04-12 | 2023-07-07 | 天津新松机器人自动化有限公司 | 一种智能机器人下料工作站 |
DE102021213649A1 (de) * | 2021-12-01 | 2023-06-01 | Volkswagen Aktiengesellschaft | Entnahmewerkzeug und Entnahmesystem zur Entnahme von mittels 3D-Druckverfahren gefertigter Bauteile aus einem Pulverbett |
GB2622813A (en) * | 2022-09-28 | 2024-04-03 | Dyson Technology Ltd | Finger for a robotic gripper |
CN116690628B (zh) * | 2023-07-31 | 2023-12-01 | 季华顺为(佛山)智能技术有限公司 | 一种导线端子夹取装置 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2753946A1 (de) | 1977-12-03 | 1979-06-13 | Bayer Ag | 1-n-aryl-1,4-dihydropyridine und ihre verwendung als arzneimittel |
JPS6039090A (ja) * | 1983-08-11 | 1985-02-28 | 三菱電機株式会社 | 産業用ロボツトのハンド装置 |
JPS6171302A (ja) * | 1984-09-14 | 1986-04-12 | Toshiba Corp | ロボットハンド用近接センサ装置 |
JPH0319783A (ja) * | 1989-02-16 | 1991-01-28 | Sanyo Electric Co Ltd | ワーク保持機構 |
JPH05381U (ja) * | 1991-06-17 | 1993-01-08 | 株式会社安川電機 | ロボツトハンド |
JPH06206187A (ja) * | 1992-06-10 | 1994-07-26 | Hanshin Sharyo Kk | 被搬送物挟持方法および装置 |
IT1284621B1 (it) * | 1996-04-05 | 1998-05-21 | Az Gomma Ricambi S R L | Testina prensile per movimentazione di contenitori. |
JP3515299B2 (ja) * | 1996-11-26 | 2004-04-05 | 西日本電線株式会社 | 電線把持工具 |
EP0993916B1 (de) | 1998-10-15 | 2004-02-25 | Tecan Trading AG | Robotergreifer |
WO2002086637A1 (de) | 2001-04-22 | 2002-10-31 | Neuronics Ag | Knickarmroboter |
US7443115B2 (en) * | 2002-10-29 | 2008-10-28 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for robot handling control |
JP2005131719A (ja) * | 2003-10-29 | 2005-05-26 | Kawada Kogyo Kk | 歩行型ロボット |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
US8287017B2 (en) * | 2008-09-10 | 2012-10-16 | Harmonic Drive Systems Inc. | Robot hand and method for handling planar article |
JP2010284728A (ja) * | 2009-06-09 | 2010-12-24 | Kawasaki Heavy Ind Ltd | 搬送ロボット及び自動教示方法 |
JP4834767B2 (ja) * | 2009-12-10 | 2011-12-14 | 株式会社アイ.エス.テイ | 把持装置、布地処理ロボットおよび布地処理システム |
CH705297A1 (de) | 2011-07-21 | 2013-01-31 | Tecan Trading Ag | Greiferzange mit austauschbaren Greiferfingern. |
CN103192401B (zh) * | 2012-01-05 | 2015-03-18 | 沈阳新松机器人自动化股份有限公司 | 机械手末端执行器 |
KR101941844B1 (ko) * | 2012-01-10 | 2019-04-11 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
JP2014200861A (ja) * | 2013-04-02 | 2014-10-27 | トヨタ自動車株式会社 | 把持装置及び荷物搬送ロボット |
US9434076B2 (en) * | 2013-08-06 | 2016-09-06 | Taiwan Semiconductor Manufacturing Co., Ltd. | Robot blade design |
JP6335587B2 (ja) * | 2014-03-31 | 2018-05-30 | 株式会社荏原製作所 | 基板保持機構、基板搬送装置、半導体製造装置 |
EP2933065A1 (de) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Humanoider Roboter mit autonomer Lebensfähigkeit |
EP2933064A1 (de) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | System, Verfahren und Computerprogrammprodukt zur Handhabung von humanoider Roboterinteraktion mit Menschen |
JP6593991B2 (ja) * | 2014-12-25 | 2019-10-23 | 三菱重工業株式会社 | 移動ロボット及び先端ツール |
CN106325112B (zh) * | 2015-06-25 | 2020-03-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
EP3641992A1 (de) * | 2017-06-19 | 2020-04-29 | Zhongrui Funing Robotics (Shenyang) Co. Ltd | Greifersystem für einen roboter |
-
2017
- 2017-10-06 EP EP17780742.7A patent/EP3641992A1/de not_active Withdrawn
- 2017-10-06 JP JP2018600097U patent/JP3227655U/ja active Active
- 2017-10-06 JP JP2018600096U patent/JP3226609U/ja active Active
- 2017-10-06 JP JP2018600099U patent/JP3228266U/ja active Active
- 2017-10-06 JP JP2018600098U patent/JP3227656U/ja active Active
- 2017-10-06 WO PCT/EP2017/075575 patent/WO2018233857A1/en active Application Filing
- 2017-10-06 WO PCT/EP2017/075577 patent/WO2018233859A1/en unknown
- 2017-10-06 WO PCT/EP2017/075574 patent/WO2018233856A1/en active Application Filing
- 2017-10-06 WO PCT/EP2017/075576 patent/WO2018233858A1/en active Application Filing
- 2017-10-06 US US16/620,672 patent/US20200139558A1/en not_active Abandoned
- 2017-10-07 CH CH00776/18A patent/CH713934B1/de not_active IP Right Cessation
- 2017-10-07 CH CH00774/18A patent/CH713932B1/de not_active IP Right Cessation
- 2017-10-07 CH CH00775/18A patent/CH713933B1/de not_active IP Right Cessation
-
2018
- 2018-06-15 TW TW107208066U patent/TWM581742U/zh unknown
- 2018-06-15 TW TW107208068U patent/TWM577790U/zh unknown
- 2018-06-15 TW TW107208069U patent/TWM577958U/zh unknown
- 2018-06-15 TW TW107208067U patent/TWM581743U/zh unknown
- 2018-06-19 CN CN201810629273.0A patent/CN109129526A/zh active Pending
- 2018-06-19 CN CN201820942021.9U patent/CN209304585U/zh active Active
- 2018-06-19 CN CN201820941173.7U patent/CN209207531U/zh active Active
Also Published As
Publication number | Publication date |
---|---|
WO2018233857A1 (en) | 2018-12-27 |
WO2018233859A1 (en) | 2018-12-27 |
WO2018233856A1 (en) | 2018-12-27 |
CH713932B1 (de) | 2020-05-29 |
TWM581743U (zh) | 2019-08-01 |
CN209207531U (zh) | 2019-08-06 |
JP3227656U (ja) | 2020-09-10 |
JP3227655U (ja) | 2020-09-10 |
TWM581742U (zh) | 2019-08-01 |
EP3641992A1 (de) | 2020-04-29 |
TWM577790U (zh) | 2019-05-11 |
TWM577958U (zh) | 2019-05-11 |
JP3226609U (ja) | 2020-07-09 |
CH713933B1 (de) | 2020-05-29 |
US20200139558A1 (en) | 2020-05-07 |
WO2018233858A1 (en) | 2018-12-27 |
JP3228266U (ja) | 2020-10-22 |
CH713933A2 (de) | 2018-12-28 |
CH713934B1 (de) | 2020-05-29 |
CN209304585U (zh) | 2019-08-27 |
CN109129526A (zh) | 2019-01-04 |
CH713932A2 (de) | 2018-12-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CH713934A2 (de) | Verfahren zur sozialen Interaktion mit einem Roboter. | |
CA2655189C (en) | Measuring cognitive load | |
WO2009056525A1 (de) | Verfahren zur festlegung eines zielrufes zur benutzung einer aufzugsanlage und eine aufzugsanlage | |
EP2959712B1 (de) | Verfahren und system zur identifizierung von ausnahmen bei menschlichem verhalten | |
JP7291017B2 (ja) | Aiロボットによる対話型管理システム | |
CN116798591B (zh) | 一种医疗任务信息管理系统 | |
CN111275278A (zh) | 智能派岗装置及方法 | |
JP6798353B2 (ja) | 感情推定サーバ及び感情推定方法 | |
JP2021049349A (ja) | 提示装置、提示方法、プログラム及び感情推定システム | |
Bläsing et al. | Cognitive compatibility in modern manual mixed-model assembly systems | |
Pfeiffer et al. | Aircraft in your head: How air traffic controllers mentally organize air traffic | |
DE102021110674A1 (de) | Bewegungsbewertungssystem, bewegungsbewertungsvorrichtung und bewegungsbewertungsverfahren | |
Koldijk | Automatic recognition of context and stress to support knowledge workers | |
EP2697702B1 (de) | Vorrichtung und verfahren zur gestensteuerung eines bildschirms in einer leitwarte | |
Martínez et al. | Emotion elicitation oriented to the development of a human emotion management system for people with intellectual disabilities | |
Koldijk et al. | Unobtrusively measuring stress and workload of knowledge workers | |
WO2023286105A1 (ja) | 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 | |
Farooqi | Methods for the investigation of work and human errors in rail engineering contexts | |
Pimenta et al. | A non-invasive approach to detect and monitor acute mental fatigue | |
Hockey et al. | Implementing adaptive automation using on-line detection of high risk operator functional state | |
DE102018009612A1 (de) | Verfahren zur Erstellung von nutzerspezifisch zugeschnittenen automatischen Wissens- und Lernmodellen und zur Kommunikation dieser mit dem Nutzer | |
AU2006264222B2 (en) | Measuring cognitive load | |
Nordin et al. | Usability study on human machine interface: In Volvo Cars body factory | |
DE202019104596U1 (de) | Nutzung von Personenbeförderungseinrichtungen von vorgegebenen Personenzielgruppen nach automatisierter Authentifizierung | |
JP2022077195A (ja) | うつ状態判別プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
AZW | Rejection (application) | ||
NV | New agent |
Representative=s name: INTELLECTUAL PROPERTY SERVICES GMBH, CH |
|
PL | Patent ceased |