TWM581743U - 偵測人的情緒狀態的機器人 - Google Patents

偵測人的情緒狀態的機器人 Download PDF

Info

Publication number
TWM581743U
TWM581743U TW107208067U TW107208067U TWM581743U TW M581743 U TWM581743 U TW M581743U TW 107208067 U TW107208067 U TW 107208067U TW 107208067 U TW107208067 U TW 107208067U TW M581743 U TWM581743 U TW M581743U
Authority
TW
Taiwan
Prior art keywords
situation
network
behavior
robot
person
Prior art date
Application number
TW107208067U
Other languages
English (en)
Inventor
漢斯 福
多米尼克 庫許
大衛 特魯塞爾
拉斐爾 梅爾
Original Assignee
大陸商中瑞福寧機器人(瀋陽)有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 大陸商中瑞福寧機器人(瀋陽)有限公司 filed Critical 大陸商中瑞福寧機器人(瀋陽)有限公司
Publication of TWM581743U publication Critical patent/TWM581743U/zh

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0014Gripping heads and other end effectors having fork, comb or plate shaped means for engaging the lower surface on a object to be transported
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/086Proximity sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0028Gripping heads and other end effectors with movable, e.g. pivoting gripping jaw surfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/063Safety devices working only upon contact with an outside object
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0033Gripping heads and other end effectors with gripping surfaces having special shapes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40411Robot assists human in non-industrial environment like home or office
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Psychiatry (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Hospice & Palliative Care (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Evolutionary Computation (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Manipulator (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)

Abstract

本案創作是關於一種由機器人偵測人的情緒狀態的方法,其中機器人包括情況管理器,該情況管理器被劃分為用於確定需求的情況網路和用於確定滿足需求的行為的行為網路,用於優先化行為的規劃器是由情況管理器提出並且可選地來自輸入裝置,以及用於偵測事件的感測器。情況網路和行為網路均是基於機率模型。將情況管理器細分為情況網路和行為網路具有以下效果:針對給定情況的適當行為的計算而不直接基於實際資料,而是基於給定情況的需求的計算。

Description

偵測人的情緒狀態的機器人
本案是關於一種偵測人的情緒狀態的機器人。
個人護理中的人工任務越來越多地被自動護理機器人所取代,這些機器人有助於滿足醫院或家庭護理環境中日常生活的需要。這尤其適用於照顧患有精神或認知不足或疾病的人,例如癡呆症患者。護理機器人配備有用於收集關於受照護人員和服務環境的資訊的裝置,即與物聯網(Internet of Things,IoT)相關的感測器、麥克風、相機或智慧裝置,以及用於執行行為的裝置,即用於抓握、移動、通信的裝置。人與機器人互動透過智慧功能實現,例如語音識別或是面部表情或觸覺模式的識別。這些功能也可以由護理情況下的機器人模仿,例如透過語音或手勢產生或產生情緒回饋。
對於機器人輔助護理,確定受照護人員和服務環境的實際需求以及執行適當的行為是具有挑戰性的。例如,人 員的需求是飢餓、口渴、想要休息、情緒關注或社交互動。例如,服務環境的需求是要求清理桌子或整理廚房或重新裝滿冰箱。適當的行為是滿足需要的行為。一般而言,需求和行為不能僅根據實際情況來確定,而是取決於需求的歷史。
本案發明是關於一種由機器人偵測人的情緒狀態的方法,其中機器人包括情況管理器,該情況管理器被劃分為用於確定需求的情況網路和用於確定滿足需求的行為的行為網路,用於優先化行為的規劃器是由情況管理器提出並且可選地來自輸入裝置,以及用於偵測事件的感測器。情況網路和行為網路均是基於機率模型。將情況管理器細分為情況網路和行為網路具有以下效果:針對給定情況的適當行為的計算而不直接基於實際資料,而是基於給定情況的需求的計算。
例如,受照護人員的需求是飢餓、口渴、想要休息或想要情緒關注。例如,服務環境的需求是清理桌子、整理廚房或重新裝滿冰箱。
滿足需求的行為例如是將物品帶給人、將物品帶離人、透過聲音產生或情緒影像顯示給予情緒回饋、清理桌子或整理廚房。
根據本案發明的情況管理器被細分為情況網路和行為網路。情況網路被設計為人工神經網路以用於確定情況需 求,即在給定情況下的需求。情況需求代表了受照護人員和服務環境隨時間的累積需求,這意味著情況需求是基於需求的歷史。
行為網路是一個人工神經網路,可以根據情況需要推導出適當行為。情況網路和行為網路均是基於機率模型。
將情況管理器細分為情況網路和行為網路具有以下效果:針對給定情況的適當行為的計算而不直接基於實際資料,而是基於給定情況的需求的計算。
情況管理器從資訊池獲取輸入。資訊池包括來自感測器和物聯網(IoT裝置)的信號、使用者資料庫(database,DB)和歷史。根據本案發明的感測器例如是麥克風,例如用於偵測語音模式、相機,例如用於偵測面部表情模式,或者是具有觸覺感測器的觸控板,例如用於偵測人的觸覺模式。可以透過語音識別、面部表情識別或觸覺模式識別來分析感測器偵測到的信號。
例如,IoT裝置是具有用於控制其內容的到期日期的感測器的冰箱。使用者DB是關於受照護人員的資訊的儲存庫,例如他/她的姓名,當前情緒狀態或房間中的位置。歷史記錄保存感測器和IoT通道的歷史資料,但也包括個人資料,例如情緒狀態的歷史和機器人的行為歷史。此外,資訊池可以接取開放平台通信通道(Open Platform Communication channels),例如用於獲取有關機器人電池狀態的資訊。
在情況管理器可以使用資訊池中的資訊之前,必須完 成特徵準備。特徵準備考慮分析模式的分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者用於識別來自IoT裝置的時間趨勢的信號。
對於優先化行為,規劃器憑藉情況管理器的決策和/或來自輸入裝置的資料以做決策,例如使用者輸入裝置、排程器或緊急控制器。輸入裝置是用於直接由使用者命令行為的裝置,例如用於命令特定護理行為的按鈕。排程器是必須在規定日期和時間基礎上執行的行為的時間表,例如提供膳食、帶來藥物。緊急控制器能夠識別不期望或不利的事件,例如拒絕或抵抗護理機器人的跡象、或低電池狀態。緊急控制器可以接取資訊池。
規劃器優先化以下的效果,例如:追求當前行為(即進一步賦予其最高優先級),暫停當前行為(即為其分配較低優先級),取消當前行為(即將其從行為列表中刪除),開始新的行為或恢復先前已暫停的行為。
根據本案發明,用於控制機器人的活動的方法包括以下步驟:
步驟1:透過感測器偵測信號。透過該步驟,捕獲與患者或服務環境相關的信號或模式。信號或信號模式例如指的是位置信號、聲音模式、影像模式、觸覺模式。在信號模式指的是觸覺模式的情況下,感測器是觸覺感測器,其例如位於機器人的觸控板中。在藉助於感測器偵測到情緒狀態模式的情況下,感測器是用於偵測語音模式的麥克 風和/或用於偵測面部表情模式的相機。
步驟2:分析信號。透過該步驟,對偵測到的信號或模式進行解釋或綜合分析,以便例如透過時間序列提取特徵。透過該步驟,在信號模式指的是觸覺模式的情況下,解釋偵測到的觸覺模式,以便例如透過時間序列提取特徵。透過該步驟,在偵測到情緒狀態模式的情況下,解釋偵測到的情緒狀態模式,以便例如透過時間序列提取特徵。
步驟3:分類信號。透過該步驟,分析的特徵被分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者識別來自IoT裝置的信號的時間趨勢。在信號模式指的是觸覺模式的情況下,透過個人化觸覺模式對觸覺模式進行分類。因此,透過該步驟,例如透過將觸覺模式與使用者DB中的個人化觸覺模式進行比較來對提取的特徵進行分類。在偵測到情緒狀態模式的情況下,透過個人化情緒狀態模式對情緒狀態模式進行分類。因此,透過該步驟,例如透過將情緒狀態模式與使用者DB中的個人化情緒狀態模式進行比較,對提取的特徵進行分類。
步驟4:透過情況網路確定人員和服務環境的需求。透過該步驟,基於資訊池的資訊計算情況的需求。情況網路被設計為基於機率模型的人工神經網路。情況需求代表受照護人員和服務環境隨時間的累積需求。因此,人工神經網路對情況需求的計算不僅是基於實際需要,還基於需 求的歷史。
步驟5:確定滿足情況網路確定的需求的行為。透過該步驟,計算出適合該情況需要的適當行為。行為網路被設計為基於機率模型的人工神經網路。
步驟6:確定由輸入裝置觸發的行為。透過該步驟,確定由輸入裝置觸發的行為。輸入裝置例如是用於命令特定護理行為的按鈕,或用於觸發必須在規定日期和時間基礎上執行的行為的排程器,或者是緊急控制器。
步驟7:優先化規劃器的行為。透過該步驟,根據緊急措施來確定行為的優先級,例如從最高優先級到最低優先級:(1)緊急行為;(2)輸入裝置提出的行為;(3)排程行為;(4)由情況管理器命令的行為。
步驟8:執行具有最高優先級的操作。透過該步驟,將執行最緊急的行為。
步驟9:重複步驟(1)至(9)直到達到停止條件。此步驟具有以下效果:機器人始終執行任何操作,直到外部命令停止為止。
根據本案發明的一個實施例,輸入裝置是使用者輸入裝置和/或排程器和/或緊急控制器。
根據本案發明的一個優選實施例,情況網路和/或行為網路是基於機率模型。
根據本案發明的一個重要實施例,情況管理器從資訊池接收資訊,由此資訊池指的是感測器和/或物聯網和/或使用者資料庫和/或歷史和/或開放平台通信通道。
根據本案發明的另一實施例,由情況管理器從資訊池接收的資訊由特徵準備任務來分類。
本案發明也是關於一種用於執行所述方法的機器人,其中機器人包括用於對從情況管理器和可選地從輸入裝置接收的任務進行優先級排序的規劃器。情況管理器分為用於確定需求的情況網路和用於確定滿足需求的行為的行為網路。
根據一個實施例,輸入裝置是使用者輸入裝置和/或排程器和/或緊急控制器。
根據一個優選實施例,情況網路和/或行為網路基於機率模型。
根據一個重要的實施例,情況管理器從資訊池接收資訊,其中資訊池指的是感測器和/或物聯網和/或使用者資料庫和/或歷史和/或開放平台通信通道。
根據另一實施例,情況管理器從資訊池接收的資訊可以由特徵準備任務分類。
根據一個非常重要的實施例,感測器具有至少16mm2的面積。透過這種方式,例如感測器可以很好地捕獲觸覺模式。
最後,感測器可以嵌入機器人的柔軟觸感皮膚中。同樣透過這種方式,感測器可以很好地捕獲觸覺模式。
為讓本新型之上述和其他目的、特徵、優點與實施例能更明顯易懂,所附符號之說明如下:
101‧‧‧情況管理器
1011‧‧‧情況網路
1012‧‧‧行為網路
102‧‧‧規劃器
103‧‧‧感測器
104‧‧‧特徵準備模組
105‧‧‧使用者輸入裝置
106‧‧‧排程器
107‧‧‧緊急控制器
圖1是表示根據本案發明的機器人的資訊流和決策流 程的圖表。
圖2a是表示機器人在監督模式的操作流程的流程圖。
圖2b是表示機器人在觸覺互動模式的操作流程的流程圖。
圖2c是表示機器人在社交互動模式的操作流程的流程圖。
圖1表示個人護理機器人的資訊流和決策流程圖表。個人護理機器人的核心部件是規劃器102。規劃器102的任務是優先化行為並在給定的護理情況下調用行為的執行。例如,行為是改變位置、帶給物品或帶離物品、或者整理廚房。對於優先化行為,規劃器102由情況管理器101和/或輸入裝置(例如使用者輸入裝置105,排程器106或緊急控制器107)進行考慮。
情況管理器101的任務是為規劃器102提供滿足人的需求的行為,即在給定情況下的飢餓,口渴、減壓、護理和服務環境。情況管理器101根據規劃器102的要求作出反應。根據本案發明的情況管理器101被細分為情況網路1011和行為網路1012。情況網路1011被設計為人工神經網路,用於確定情況需求,即在給定情況下的需求。情況需求代表了受照護人員和服務環境隨時間的累積需求,這意味著情況需求基於需求的歷史。
行為網路1012是一個人工神經網路,可以根據情況需 要導出適當的行為。情況網路1011和行為網路1012均是基於機率模型。
將情況管理器101細分為情況網路1011和行為網路1012,其結果是針對給定情況的正確行為的計算不直接基於資訊池的資料,而是基於對給定的情況對需求的單獨計算。
情況管理器101從資訊池獲取輸入。資訊池包括來自感測器103和IoT裝置的資訊,使用者DB和歷史記錄。根據本案發明的感測器103例如是麥克風,相機,觸控板。I0T裝置可以是冰箱或其他智慧裝置。使用者DB是關於受照護人員的資訊的儲存庫,例如他/她的姓名,當前情緒狀態或房間中的當前位置。歷史記載了感測器103和IoT通道的資料歷史,以及受照護人員狀態的歷史和機器人行為的歷史。此外,資訊池可以接取開放平台通信通道,例如用於獲取有關機器人電池狀態的資訊。
在情況管理器101可以使用資訊池中的資訊之前,必須完成特徵準備模組104。特徵準備模組104是關於資訊的分類或綜合,例如透過語音識別的語音信號的分類,透過觸覺識別的觸摸的分類,透過面部表情識別的情緒狀態的分類,來自用於識別趨勢的智慧裝置的資訊的綜合。
輸入裝置105可以是具有相關功能的按鈕、觸控螢幕。排程器106是行為的時間表,其必須在規定日期和時間的基礎上執行,例如提供膳食、提供藥物。緊急控制器107能夠識別不期望的或不利的事件,例如拒絕或抵抗護 理機器人的行為,或低電池狀態。緊急控制器107可以接取資訊池。
規劃器102優先化例如追求當前行為的效果,即進一步賦予其最高優先級,暫停當前行為,即為其分配較低優先級,取消當前行為,即將其從行為中刪除列表,開始新操作或恢復先前已暫停的操作。
圖2a示出了表示機器人在監督模式的操作流程的流程圖。該方法包括以下步驟:
步驟S2101:透過感測器103偵測信號。透過該步驟,捕獲與患者或服務環境相關的信號或模式。信號或信號模式例如指的是位置信號、聲音模式、影像模式、觸覺模式。
步驟S2102:分析信號。透過該步驟,對偵測到的信號或模式進行解釋或綜合分析,以便例如透過時間序列提取特徵。
步驟S2103:分類信號。透過該步驟,分析的特徵被分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者識別來自IoT裝置的信號的時間趨勢。
步驟S2104:透過情況網路1011確定人員和服務環境的需求。透過該步驟,基於資訊池的資訊計算情況的需求。情況網路1011被設計為基於機率模型的人工神經網路。情況需求代表受照護人員和服務環境隨時間的累積需求。因此,人工神經網路對情況需求的計算不僅是基於實 際需要,還基於需求的歷史。
步驟S2105:確定滿足情況網路1011確定的需求的行為。透過該步驟,計算出適合該情況需要的適當行為。行為網路1012被設計為基於機率模型的人工神經網路。
步驟S2106:確定由輸入裝置觸發的行為。透過該步驟,確定由輸入裝置觸發的行為。輸入裝置例如是用於命令特定護理行為的按鈕,或用於觸發必須在規定日期和時間基礎上執行的行為的排程器106,或者是緊急控制器107。
步驟S2107:優先化規劃器102的行為。透過該步驟,根據緊急措施來確定行為的優先級,例如從最高優先級到最低優先級:(1)緊急行為;(2)輸入裝置提出的行為;(3)排程行為;(4)由情況管理器101命令的行為。
步驟S2108:執行具有最高優先級的行為。透過該步驟,將執行最緊急的行為。
步驟S2109:重複步驟S2101至S2109直到達到停止條件。此步驟具有以下效果:機器人始終執行任何操作,直到外部命令停止為止。
圖2b示出了表示機器人在觸覺互動模式的操作流程的流程圖。該方法包括以下步驟:
步驟S2201:透過感測器103偵測觸覺模式。透過該步驟,捕獲與患者相關的觸覺模式。
步驟S2202:透過分析單元分析觸覺模式。透過該步驟,對偵測到的觸覺模式進行解釋或綜合分析,以便例如 透過時間序列提取特徵。
步驟S2203:透過個人化的觸覺模式對觸覺模式進行分類。透過該步驟,分析的特徵被分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者識別來自IoT裝置的信號的時間趨勢。
步驟S2204:透過情況網路1011確定人員的需求。透過該步驟,基於資訊池的資訊計算情況的需求。情況網路1011被設計為基於機率模型的人工神經網路。情況需求代表受照護人員和服務環境隨時間的累積需求。因此,人工神經網路對情況需求的計算不僅是基於實際需要,還基於需求的歷史。
步驟S2205:確定滿足情況網路1011確定的需求的行為。透過該步驟,計算出適合該情況需要的適當行為。行為網路1012被設計為基於機率模型的人工神經網路。
步驟S2206:確定由輸入裝置觸發的行為。透過該步驟,確定由輸入裝置觸發的行為。輸入裝置例如是用於命令特定護理行為的按鈕,或用於觸發必須在規定日期和時間基礎上執行的行為的排程器106,或者是緊急控制器107。
步驟S2207:優先化規劃器102的行為。透過該步驟,根據緊急措施來確定行為的優先級,例如從最高優先級到最低優先級:(1)緊急行為;(2)輸入裝置提出的行為;(3)排程行為;(4)由情況管理器命令的行為。
步驟S2208:執行具有最高優先級的行為。透過該步 驟,將執行最緊急的行為。
步驟S2209:重複步驟S2201至S2209直到達到停止條件。此步驟具有以下效果:機器人始終執行任何操作,直到外部命令停止為止。
圖2c示出了表示機器人在社交互動模式的操作流程的流程圖。該方法包括以下步驟:
步驟S2301:透過感測器103偵測情緒狀態模式。透過該步驟,捕獲與患者相關的情緒狀態模式。
步驟S2302:透過分析單元分析情緒狀態模式。透過該步驟,對偵測到的情緒狀態模式進行解釋或綜合分析,以便例如透過時間序列提取特徵。
步驟S2303:透過個人化的情緒狀態模式對情緒狀態模式進行分類。透過該步驟,分析的特徵被分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者識別來自IoT裝置的信號的時間趨勢。
步驟S2304:透過情況網路1011確定人員的需求。透過該步驟,基於資訊池的資訊計算情況的需求。情況網路1011被設計為基於機率模型的人工神經網路。情況需求代表受照護人員和服務環境隨時間的累積需求。因此,人工神經網路對情況需求的計算不僅是基於實際需要,還基於需求的歷史。
步驟S2305:確定滿足情況網路1011確定的需求的行為。透過該步驟,計算出適合該情況需要的適當行為。行 為網路1012被設計為基於機率模型的人工神經網路。
步驟S2306:確定由輸入裝置觸發的行為。透過該步驟,確定由輸入裝置觸發的行為。輸入裝置例如是用於命令特定護理行為的按鈕,或用於觸發必須在規定日期和時間基礎上執行的行為的排程器106,或者是緊急控制器107。
步驟S2307:優先化規劃器102的行為。透過該步驟,根據緊急措施來確定行為的優先級,例如從最高優先級到最低優先級:(1)緊急行為;(2)輸入裝置提出的行為;(3)排程行為;(4)由情況管理器命令的行為。
步驟S2308:執行具有最高優先級的行為。透過該步驟,將執行最緊急的行為。
步驟S2309:重複步驟S2301至S2309直到達到停止條件。此步驟具有以下效果:機器人始終執行任何操作,直到外部命令停止為止。

Claims (4)

  1. 一種經配置以根據人員的情緒狀態而動作的機器人,該機器人包括:情況管理器(101),其被劃分為情況網路(1011)和行為網路(1012),其中該情況網路(1011)是經配置以確定表示該人員隨著時間的累積需求之情況需求的人工神經網路,且其中該行為網路(1012)是經配置以根據機率模型來確定滿足該情況需求之行為的人工神經網路;規劃器(102),其用於優先化由該情況管理器(101)和可選的輸入裝置提出的該等行為;該機器人進一步包括用於偵測觸覺模式的感測器(103);和用於透過將該模式與資料庫中的該人員的個人化模式進行比較來分析和分類該觸覺模式的模組(104),從而產生表示該人員情緒狀態的信號;其中,該情況網路(1011)經配置以根據代表該人員情緒狀態的該信號以確定該情況需求。
  2. 根據請求項1所述的機器人,其中該輸入裝置是使用者輸入裝置(105)和/或排程器(106)和/或緊急控制器(107)。
  3. 根據請求項1或2所述的機器人,其中該感測器(103)具有至少16mm2的面積以偵測該觸覺模式。
  4. 根據請求項1或2所述的機器人,其中該感測器(103)嵌入至該機器人的柔軟觸感皮膚中。
TW107208067U 2017-06-19 2018-06-15 偵測人的情緒狀態的機器人 TWM581743U (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201762521686P 2017-06-19 2017-06-19
US62/521,686 2017-06-19
??PCT/EP2017/075575 2017-10-06
PCT/EP2017/075575 WO2018233857A1 (en) 2017-06-19 2017-10-06 METHOD FOR DETECTING THE EMOTIONAL STATUS OF A PERSON BY A ROBOT

Publications (1)

Publication Number Publication Date
TWM581743U true TWM581743U (zh) 2019-08-01

Family

ID=60037614

Family Applications (4)

Application Number Title Priority Date Filing Date
TW107208069U TWM577958U (zh) 2017-06-19 2018-06-15 經配置用於輔助人員的個人護理的機器人
TW107208068U TWM577790U (zh) 2017-06-19 2018-06-15 用於機器人的夾具系統
TW107208066U TWM581742U (zh) 2017-06-19 2018-06-15 具有社交互動的機器人
TW107208067U TWM581743U (zh) 2017-06-19 2018-06-15 偵測人的情緒狀態的機器人

Family Applications Before (3)

Application Number Title Priority Date Filing Date
TW107208069U TWM577958U (zh) 2017-06-19 2018-06-15 經配置用於輔助人員的個人護理的機器人
TW107208068U TWM577790U (zh) 2017-06-19 2018-06-15 用於機器人的夾具系統
TW107208066U TWM581742U (zh) 2017-06-19 2018-06-15 具有社交互動的機器人

Country Status (7)

Country Link
US (1) US20200139558A1 (zh)
EP (1) EP3641992A1 (zh)
JP (4) JP3228266U (zh)
CN (3) CN209207531U (zh)
CH (3) CH713934B1 (zh)
TW (4) TWM577958U (zh)
WO (4) WO2018233859A1 (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017210213A1 (de) * 2017-06-19 2018-12-20 Kuka Deutschland Gmbh Greifer mit einem Sensor an einem Getriebegliedlager des Greifers
JP3228266U (ja) * 2017-06-19 2020-10-22 ジョンルイ フーニン ロボティクス (シェンヤン) カンパニー リミテッド 人との社会的相互作用のための行為を実施するように構成されたロボット
CN109807903B (zh) * 2019-04-10 2021-04-02 博众精工科技股份有限公司 一种机器人控制方法、装置、设备和介质
JP7258391B2 (ja) * 2019-05-08 2023-04-17 国立研究開発法人産業技術総合研究所 児童相談所などにおける情報処理方法及び装置
JP7362308B2 (ja) * 2019-06-17 2023-10-17 株式会社ディスコ 加工装置
US11717587B2 (en) 2020-05-08 2023-08-08 Robust AI, Inc. Ultraviolet cleaning trajectory modeling
CN115196327B (zh) * 2021-04-12 2023-07-07 天津新松机器人自动化有限公司 一种智能机器人下料工作站
DE102021213649A1 (de) * 2021-12-01 2023-06-01 Volkswagen Aktiengesellschaft Entnahmewerkzeug und Entnahmesystem zur Entnahme von mittels 3D-Druckverfahren gefertigter Bauteile aus einem Pulverbett
GB2622813A (en) * 2022-09-28 2024-04-03 Dyson Technology Ltd Finger for a robotic gripper
CN116690628B (zh) * 2023-07-31 2023-12-01 季华顺为(佛山)智能技术有限公司 一种导线端子夹取装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2753946A1 (de) 1977-12-03 1979-06-13 Bayer Ag 1-n-aryl-1,4-dihydropyridine und ihre verwendung als arzneimittel
JPS6039090A (ja) * 1983-08-11 1985-02-28 三菱電機株式会社 産業用ロボツトのハンド装置
JPS6171302A (ja) * 1984-09-14 1986-04-12 Toshiba Corp ロボットハンド用近接センサ装置
JPH0319783A (ja) * 1989-02-16 1991-01-28 Sanyo Electric Co Ltd ワーク保持機構
JPH05381U (ja) * 1991-06-17 1993-01-08 株式会社安川電機 ロボツトハンド
JPH06206187A (ja) * 1992-06-10 1994-07-26 Hanshin Sharyo Kk 被搬送物挟持方法および装置
IT1284621B1 (it) * 1996-04-05 1998-05-21 Az Gomma Ricambi S R L Testina prensile per movimentazione di contenitori.
JP3515299B2 (ja) * 1996-11-26 2004-04-05 西日本電線株式会社 電線把持工具
EP0993916B1 (de) 1998-10-15 2004-02-25 Tecan Trading AG Robotergreifer
EP1381925B1 (de) 2001-04-22 2005-08-31 Neuronics AG Knickarmroboter
US7443115B2 (en) * 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
JP2005131719A (ja) * 2003-10-29 2005-05-26 Kawada Kogyo Kk 歩行型ロボット
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
DE112008004009B4 (de) * 2008-09-10 2023-10-12 Harmonic Drive Systems Inc. Roboterhand und Verfahren für die Handhabung von flächigen Gegenständen
JP2010284728A (ja) * 2009-06-09 2010-12-24 Kawasaki Heavy Ind Ltd 搬送ロボット及び自動教示方法
JP4834767B2 (ja) * 2009-12-10 2011-12-14 株式会社アイ.エス.テイ 把持装置、布地処理ロボットおよび布地処理システム
CH705297A1 (de) 2011-07-21 2013-01-31 Tecan Trading Ag Greiferzange mit austauschbaren Greiferfingern.
CN103192401B (zh) * 2012-01-05 2015-03-18 沈阳新松机器人自动化股份有限公司 机械手末端执行器
KR101941844B1 (ko) * 2012-01-10 2019-04-11 삼성전자주식회사 로봇 및 그 제어방법
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
JP2014200861A (ja) * 2013-04-02 2014-10-27 トヨタ自動車株式会社 把持装置及び荷物搬送ロボット
US9434076B2 (en) * 2013-08-06 2016-09-06 Taiwan Semiconductor Manufacturing Co., Ltd. Robot blade design
JP6335587B2 (ja) * 2014-03-31 2018-05-30 株式会社荏原製作所 基板保持機構、基板搬送装置、半導体製造装置
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
JP6593991B2 (ja) * 2014-12-25 2019-10-23 三菱重工業株式会社 移動ロボット及び先端ツール
CN106325112B (zh) * 2015-06-25 2020-03-24 联想(北京)有限公司 一种信息处理方法及电子设备
JP3228266U (ja) * 2017-06-19 2020-10-22 ジョンルイ フーニン ロボティクス (シェンヤン) カンパニー リミテッド 人との社会的相互作用のための行為を実施するように構成されたロボット

Also Published As

Publication number Publication date
WO2018233856A1 (en) 2018-12-27
JP3226609U (ja) 2020-07-09
CH713933B1 (de) 2020-05-29
US20200139558A1 (en) 2020-05-07
WO2018233859A1 (en) 2018-12-27
EP3641992A1 (en) 2020-04-29
CH713932A2 (de) 2018-12-28
CH713934B1 (de) 2020-05-29
JP3227656U (ja) 2020-09-10
CN209207531U (zh) 2019-08-06
CH713933A2 (de) 2018-12-28
JP3228266U (ja) 2020-10-22
WO2018233858A1 (en) 2018-12-27
JP3227655U (ja) 2020-09-10
TWM581742U (zh) 2019-08-01
CN209304585U (zh) 2019-08-27
TWM577958U (zh) 2019-05-11
CH713932B1 (de) 2020-05-29
CN109129526A (zh) 2019-01-04
CH713934A2 (de) 2018-12-28
WO2018233857A1 (en) 2018-12-27
TWM577790U (zh) 2019-05-11

Similar Documents

Publication Publication Date Title
TWM581743U (zh) 偵測人的情緒狀態的機器人
US11017643B2 (en) Methods and systems for augmentative and alternative communication
US10726846B2 (en) Virtual health assistant for promotion of well-being and independent living
WO2012095917A1 (ja) 電子機器および電子機器の制御プログラム
Van Berkel et al. Human-AI interaction: intermittent, continuous, and proactive
CN111128157B (zh) 一种智能家电的免唤醒语音识别控制方法、计算机可读存储介质及空调
US11373402B2 (en) Systems, devices, and methods for assisting human-to-human interactions
CN109429416A (zh) 用于多用户场景的照明控制方法、装置及系统
CN109429415A (zh) 照明控制方法、装置及系统
Boateng Towards real-time multimodal emotion recognition among couples
Dugar et al. Tangible intervention: Improving the effectiveness of lighting control systems
Cheng “A wobbly bed still stands on three legs”: On Chinese immigrant women’sexperiences with ethnic community
US11778712B2 (en) System and method for analysis of lighting control events
Loch et al. An adaptive speech interface for assistance in maintenance and changeover procedures
JP2012146216A (ja) 電子機器および電子機器の制御プログラム
EP3193239A1 (en) Methods and systems for augmentative and alternative communication
Mansouri Benssassi et al. Wearable assistive technologies for autism: opportunities and challenges
Ferilli et al. A Layered Architecture for Situation Aware Home Environments
JP2012146208A (ja) 電子機器および電子機器の制御プログラム
呉楚瑶 A Study of Timing Issues for Multimodal Human Machine Interface for Smart Home
Fathy et al. Measuring Thriving Experience in Physical Working Spaces
Velez et al. Robot emotive display systems and the analogous physical features of emotion
Esquivel et al. Voice Assistant Utilization among the Disability Community for Independent Living: A Rapid Review of Recent Evidence
EP3672373A1 (en) Lighting control
TWM648143U (zh) 語音辨識裝置