TWM577958U - 經配置用於輔助人員的個人護理的機器人 - Google Patents
經配置用於輔助人員的個人護理的機器人 Download PDFInfo
- Publication number
- TWM577958U TWM577958U TW107208069U TW107208069U TWM577958U TW M577958 U TWM577958 U TW M577958U TW 107208069 U TW107208069 U TW 107208069U TW 107208069 U TW107208069 U TW 107208069U TW M577958 U TWM577958 U TW M577958U
- Authority
- TW
- Taiwan
- Prior art keywords
- situation
- network
- behavior
- needs
- robot
- Prior art date
Links
- 230000009471 action Effects 0.000 claims abstract description 39
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 230000001186 cumulative effect Effects 0.000 claims description 7
- 230000003542 behavioural effect Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 12
- 238000004364 calculation method Methods 0.000 abstract description 10
- 238000000034 method Methods 0.000 abstract description 7
- 230000006399 behavior Effects 0.000 description 71
- 230000002996 emotional effect Effects 0.000 description 26
- 230000001960 triggered effect Effects 0.000 description 8
- 238000002360 preparation method Methods 0.000 description 6
- 230000008921 facial expression Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 235000003642 hunger Nutrition 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000000474 nursing effect Effects 0.000 description 3
- 230000003997 social interaction Effects 0.000 description 3
- 230000035922 thirst Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000002411 adverse Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 239000003814 drug Substances 0.000 description 2
- 235000012054 meals Nutrition 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
- 206010012289 Dementia Diseases 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 230000007278 cognition impairment Effects 0.000 description 1
- 239000008358 core component Substances 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000006397 emotional response Effects 0.000 description 1
- 238000002483 medication Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0014—Gripping heads and other end effectors having fork, comb or plate shaped means for engaging the lower surface on a object to be transported
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/086—Proximity sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0028—Gripping heads and other end effectors with movable, e.g. pivoting gripping jaw surfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/02—Gripping heads and other end effectors servo-actuated
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
- B25J19/063—Safety devices working only upon contact with an outside object
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0033—Gripping heads and other end effectors with gripping surfaces having special shapes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40411—Robot assists human in non-industrial environment like home or office
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Social Psychology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Manipulator (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
Abstract
本案創作是關於一種用於控制機器人活動的方法,其中機器人包括情況管理器,該情況管理器被劃分為用於確定需求的情況網路和用於確定滿足需求的行為的行為網路,用於優先化行為的規劃器是由情況管理器提出並且可選地來自輸入裝置,以及用於偵測事件的感測器。情況網路和行為網路均是基於機率模型。將情況管理器細分為情況網路和行為網路具有以下效果:針對給定情況的適當行為的計算而不直接基於實際資料,而是基於給定情況的需求的計算。
Description
本案是關於一種用於輔助人員的個人護理的機器人。
個人護理中的人工任務越來越多地被自動護理機器人所取代,這些機器人有助於滿足醫院或家庭護理環境中日常生活的需要。這尤其適用於照顧患有精神或認知不足或疾病的人,例如癡呆症患者。護理機器人配備有用於收集關於受照護人員和服務環境的資訊的裝置,即與物聯網(Internet of Things,IoT)相關的感測器、麥克風、相機或智慧裝置,以及用於執行行為的裝置,即用於抓握、移動、通信的裝置。人與機器人互動透過智慧功能實現,例如語音識別或是面部表情或觸覺模式的識別。這些功能也可以由護理情況下的機器人模仿,例如透過語音或手勢產生或產生情緒回請。
對於機器人輔助護理,確定受照護人員和服務環境的
實際需求以及執行適當的行為是具有挑戰性的。例如,人員的需求是飢餓、口渴、想要休息、情緒關注或社交互動。例如,服務環境的需求是要求清理桌子或整理廚房或重新裝滿冰箱。適當的行為是滿足需要的行為。一般而言,需求和行為不能僅根據實際情況來確定,而是取決於需求的歷史。
本案創作是關於一種用於控制機器人活動的方法,其中機器人包括情況管理器,該情況管理器被劃分為用於確定需求的情況網路和用於確定滿足需求的行為的行為網路,用於優先化行為的規劃器是由情況管理器提出並且可選地來自輸入裝置,以及用於偵測事件的感測器.。情況網路和行為網路均是基於機率模型。將情況管理器細分為情況網路和行為網路具有以下效果:針對給定情況的適當行為的計算而不直接基於實際資料,而是基於給定情況的需求的計算。
例如,受照護人員的需求是飢餓、口渴、想要休息或想要情緒關注。例如,服務環境的需求是清理桌子、整理廚房或重新裝滿冰箱。
滿足需求的行為例如是將物品帶給人、將物品帶離人、透過聲音產生或情緒影像顯示給予情緒回饋、清理桌子或整理廚房。
根據本案創作的情況管理器被細分為情況網路和行為
網路。情況網路被設計為人工神經網路以用於確定情況需求,即在給定情況下的需求。情況需求代表了受照護人員和服務環境隨時間的累積需求,這意味著情況需求是基於需求的歷史。
行為網路是一個人工神經網路,可以根據情況需要推導出適當行為。情況網路和行為網路均是基於機率模型。
將情況管理器細分為情況網路和行為網路具有以下效果:針對給定情況的適當行為的計算而不直接基於實際資料,而是基於給定情況的需求的計算。
情況管理器從資訊池獲取輸入。資訊池包括來自感測器和物聯網(IoT裝置)的信號、使用者資料庫(database,DB)和歷史。根據本案創作的感測器例如是麥克風,例如用於偵測語音模式、相機,例如用於偵測面部表情模式,或者是具有觸覺感測器的觸控板,例如用於偵測人的觸覺模式。可以透過語音識別、面部表情識別或觸覺模式識別來分析感測器偵測到的信號。
例如,IoT裝置是具有用於控制其內容的到期日期的感測器的冰箱。使用者DB是關於受照護人員的資訊的儲存庫,例如他/她的姓名,當前情緒狀態或房間中的位置。歷史記錄保存感測器和IoT通道的歷史資料,但也包括個人資料,例如情緒狀態的歷史和機器人的行為歷史。此外,資訊池可以接取開放平台通信通道(Open Platform Communication channels),例如用於獲取有關機器人電池狀態的資訊。
在情況管理器可以使用資訊池中的資訊之前,必須完成特徵準備。特徵準備考慮分析模式的分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者用於識別來自IoT裝置的時間趨勢的信號。
對於優先化行為,規劃器憑藉情況管理器的決策和/或來自輸入裝置的資料以做決策,例如使用者輸入裝置、排程器或緊急控制器。輸入裝置是用於直接由使用者命令行為的裝置,例如用於命令特定護理行為的按鈕。排程器是必須在規定日期和時間基礎上執行的行為的時間表,例如提供膳食、帶來藥物。緊急控制器能夠識別不期望或不利的事件,例如拒絕或抵抗護理機器人的跡象、或低電池狀態。緊急控制器可以接取資訊池。
規劃器優先化以下的效果,例如:追求當前行為(即進一步賦予其最高優先級),暫停當前行為(即為其分配較低優先級),取消當前行為(即將其從行為列表中刪除),開始新的行為或恢復先前已暫停的行為。
根據本案創作,用於控制機器人的活動的方法包括以下步驟:
步驟1:透過感測器偵測信號。透過該步驟,捕獲與患者或服務環境相關的信號或模式。信號或信號模式例如指的是位置信號、聲音模式、影像模式、觸覺模式。在信號模式指的是觸覺模式的情況下,感測器是觸覺感測器,其例如位於機器人的觸控板中。在藉助於感測器偵測到情
緒狀態模式的情況下,感測器是用於偵測語音模式的麥克風和/或用於偵測面部表情模式的相機。
步驟2:分析信號。透過該步驟,對偵測到的信號或模式進行解釋或綜合分析,以便例如透過時間序列提取特徵。透過該步驟,在信號模式指的是觸覺模式的情況下,解釋偵測到的觸覺模式,以便例如透過時間序列提取特徵。透過該步驟,在偵測到情緒狀態模式的情況下,解釋偵測到的情緒狀態模式,以便例如透過時間序列提取特徵。
步驟3:分類信號。透過該步驟,分析的特徵被分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者識別來自IoT裝置的信號的時間趨勢。在信號模式指的是觸覺模式的情況下,透過個人化觸覺模式對觸覺模式進行分類。因此,透過該步驟,例如透過將觸覺模式與使用者DB中的個人化觸覺模式進行比較來對提取的特徵進行分類。在偵測到情緒狀態模式的情況下,透過個人化情緒狀態模式對情緒狀態模式進行分類。因此,透過該步驟,例如透過將情緒狀態模式與使用者DB中的個人化情緒狀態模式進行比較,對提取的特徵進行分類。
步驟4:透過情況網路確定人員和服務環境的需求。透過該步驟,基於資訊池的資訊計算情況的需求。情況網路被設計為基於機率模型的人工神經網路。情況需求代表受照護人員和服務環境隨時間的累積需求。因此,人工神
經網路對情況需求的計算不僅是基於實際需要,還基於需求的歷史。
步驟5:確定滿足情況網路確定的需求的行為。透過該步驟,計算出適合該情況需要的適當行為。行為網路被設計為基於機率模型的人工神經網路。
步驟6:確定由輸入裝置觸發的行為。透過該步驟,確定由輸入裝置觸發的行為。輸入裝置例如是用於命令特定護理行為的按鈕,或用於觸發必須在規定日期和時間基礎上執行的行為的排程器,或者是緊急控制器。
步驟7;優先化規劃器的行為。透過該步驟,根據緊急措施來確定行為的優先級,例如從最高優先級到最低優先級:(1)緊急行為;(2)輸入裝置提出的行為;(3)排程行為;(4)由情況管理器命令的行為。
步驟8:執行具有最高優先級的操作。透過該步驟,將執行最緊急的行為。
步驟9:重複步驟(1)至(9)直到達到停止條件。此步驟具有以下效果:機器人始終執行任何操作,直到外部命令停止為止。
根據本案創作的一個實施例,輸入裝置是使用者輸入裝置和/或排程器和/或緊急控制器。
根據本案創作的一個優選實施例,情況網路和/或行為網路是基於機率模型。
根據本案創作的一個重要實施例,情況管理器從資訊池接收資訊,由此資訊池指的是感測器和/或物聯網和/或
使用者資料庫和/或歷史和/或開放平台通信通道。
根據本案創作的另一實施例,由情況管理器從資訊池接收的資訊由特徵準備任務來分類。
本案創作也是關於一種用於執行所述方法的機器人,其中機器人包括用於對從情況管理器和可選地從輸入裝置接收的任務進行優先級排序的規劃器。情況管理器分為用於確定需求的情況網路和用於確定滿足需求的行為的行為網路。
根據一個實施例,輸入裝置是使用者輸入裝置和/或排程器和/或緊急控制器。
根據一個優選實施例,情況網路和/或行為網路基於機率模型。
根據一個重要的實施例,情況管理器從資訊池接收資訊,其中資訊池指的是感測器和/或物聯網和/或使用者資料庫和/或歷史和/或開放平台通信通道。
根據另一實施例,情況管理器從資訊池接收的資訊可以由特徵準備任務分類。
根據一個非常重要的實施例,感測器具有至少16mm2的面積。透過這種方式,例如感測器可以很好地捕獲觸覺模式。
最後,感測器可以嵌入機器人的柔軟觸感皮膚中。同樣透過這種方式,感測器可以很好地捕獲觸覺模式。
101‧‧‧情況管理器
1011‧‧‧情況網路
1012‧‧‧行為網路
102‧‧‧規劃器
103‧‧‧感測器
104‧‧‧特徵準備模組
105‧‧‧使用者輸入裝置
106‧‧‧排程器
107‧‧‧緊急控制器
圖1是表示根據本案創作的機器人的資訊流和決策流程的圖表。
圖2a是表示機器人在監督模式的操作流程的流程圖。
圖2b是表示機器人在觸覺互動模式的操作流程的流程圖。
圖2c是表示機器人在社交互動模式的操作流程的流程圖。
圖1表示個人護理機器人的資訊流和決策流程圖表。個人護理機器人的核心部件是規劃器102。規劃器102的任務是優先化行為並在給定的護理情況下調用行為的執行。例如,行為是改變位置、帶給物品或帶離物品、或者整理廚房。對於優先化行為,規劃器102由情況管理器101和/或輸入裝置(例如使用者輸入裝置105,排程器106或緊急控制器107)進行考慮。
情況管理器101的任務是為規劃器102提供滿足人的需求的行為,即在給定情況下的飢餓,口渴、減壓、護理和服務環境。情況管理器101根據規劃器102的要求作出反應。根據本案創作的情況管理器101被細分為情況網路1011和行為網路1012。情況網路1011被設計為人工神經網路,用於確定情況需求,即在給定情況下的需求。情況需求代表了受照護人員和服務環境隨時間的累積需求,這意味著情況需求基於需求的歷史。
行為網路1012是一個人工神經網路,可以根據情況需要導出適當的行為。情況網路1011和行為網路1012均是基於機率模型。
將情況管理器101細分為情況網路1011和行為網路1012,其結果是針對給定情況的正確行為的計算不直接基於資訊池的資料,而是基於對給定的情況對需求的單獨計算。
情況管理器101從資訊池獲取輸入。資訊池包括來自感測器103和IoT裝置的資訊,使用者DB和歷史記錄。根據本案創作的感測器103例如是麥克風,相機,觸控板。IoT裝置可以是冰箱或其他智慧裝置。使用者DB是關於受照護人員的資訊的儲存庫,例如他/她的姓名,當前情緒狀態或房間中的當前位置。歷史記載了感測器103和IoT通道的資料歷史,以及受照護人員狀態的歷史和機器人行為的歷史。此外,資訊池可以接取開放平台通信通道,例如用於獲取有關機器人電池狀態的資訊。
在情況管理器101可以使用資訊池中的資訊之前,必須完成特徵準備模組104。特徵準備模組104是關於資訊的分類或綜合,例如透過語音識別的語音信號的分類,透過觸覺識別的觸摸的分類,透過面部表情識別的情緒狀態的分類,來自用於識別趨勢的智慧裝置的資訊的綜合。
輸入裝置105可以是具有相關功能的按鈕、觸控螢幕。排程器106是行為的時間表,其必須在規定日期和時間的基礎上執行,例如提供膳食、提供藥物。緊急控制器
107能夠識別不期望的或不利的事件,例如拒絕或抵抗護理機器人的行為,或低電池狀態。緊急控制器107可以接取資訊池。
規劃器102優先化例如追求當前行為的效果,即進一步賦予其最高優先級,暫停當前行為,即為其分配較低優先級,取消當前行為,即將其從行為中刪除列表,開始新操作或恢復先前已暫停的操作。
圖2a示出了表示機器人在監督模式的操作流程的流程圖。該方法包括以下步驟:
步驟S2101:透過感測器103偵測信號。透過該步驟,捕獲與患者或服務環境相關的信號或模式。信號或信號模式例如指的是位置信號、聲音模式、影像模式、觸覺模式。
步驟S2102:分析信號。透過該步驟,對偵測到的信號或模式進行解釋或綜合分析,以便例如透過時間序列提取特徵。
步驟S2103:分類信號。透過該步驟,分析的特徵被分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者識別來自IoT裝置的信號的時間趨勢。
步驟S2104:透過情況網路1011確定人員和服務環境的需求。透過該步驟,基於資訊池的資訊計算情況的需求。情況網路1011被設計為基於機率模型的人工神經網路。情況需求代表受照護人員和服務環境隨時間的累積需
求。因此,人工神經網路對情況需求的計算不僅是基於實際需要,還基於需求的歷史。
步驟S2105:確定滿足情況網路1011確定的需求的行為。透過該步驟,計算出適合該情況需要的適當行為。行為網路1012被設計為基於機率模型的人工神經網路。
步驟S2106:確定由輸入裝置觸發的行為。透過該步驟,確定由輸入裝置觸發的行為。輸入裝置例如是用於命令特定護理行為的按鈕,或用於觸發必須在規定日期和時間基礎上執行的行為的排程器106,或者是緊急控制器107。
步驟S2107:優先化規劃器102的行為。透過該步驟,根據緊急措施來確定行為的優先級,例如從最高優先級到最低優先級:(1)緊急行為;(2)輸入裝置提出的行為;(3)排程行為;(4)由情況管理器101命令的行為。
步驟S2108:執行具有最高優先級的行為。透過該步驟,將執行最緊急的行為。
步驟S2109:重複步驟S2101至S2109直到達到停止條件。此步驟具有以下效果:機器人始終執行任何操作,直到外部命令停止為止。
圖2b示出了表示機器人在觸覺互動模式的操作流程的流程圖。該方法包括以下步驟:
步驟S2201:透過感測器103偵測觸覺模式。透過該步驟,捕獲與患者相關的觸覺模式。
步驟S2202:透過分析單元分析觸覺模式。透過該步
驟,對偵測到的觸覺模式進行解釋或綜合分析,以便例如透過時間序列提取特徵。
步驟S2203:透過個人化的觸覺模式對觸覺模式進行分類。透過該步驟,分析的特徵被分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者識別來自IoT裝置的信號的時間趨勢。
步驟S2204:透過情況網路1011確定人員的需求。透過該步驟,基於資訊池的資訊計算情況的需求。情況網路1011被設計為基於機率模型的人工神經網路。情況需求代表受照護人員和服務環境隨時間的累積需求。因此,人工神經網路對情況需求的計算不僅是基於實際需要,還基於需求的歷史。
步驟S2205:確定滿足情況網路1011確定的需求的行為。透過該步驟,計算出適合該情況需要的適當行為。行為網路1012被設計為基於機率模型的人工神經網路。
步驟S2206:確定由輸入裝置觸發的行為。透過該步驟,確定由輸入裝置觸發的行為。輸入裝置例如是用於命令特定護理行為的按鈕,或用於觸發必須在規定日期和時間基礎上執行的行為的排程器106,或者是緊急控制器107。
步驟S2207:優先化規劃器102的行為。透過該步驟,根據緊急措施來確定行為的優先級,例如從最高優先級到最低優先級:(1)緊急行為;(2)輸入裝置提出的行為;(3)排程行為;(4)由情況管理器命令的行為。
步驟S2208:執行具有最高優先級的行為。透過該步驟,將執行最緊急的行為。
步驟S2209:重複步驟S2201至S2209直到達到停止條件。此步驟具有以下效果:機器人始終執行任何操作,直到外部命令停止為止。
圖2c示出了表示機器人在社交互動模式的操作流程的流程圖。該方法包括以下步驟:
步驟S2301:透過感測器103偵測情緒狀態模式。透過該步驟,捕獲與患者相關的情緒狀態模式。
步驟S2302:透過分析單元分析情緒狀態模式。透過該步驟,對偵測到的情緒狀態模式進行解釋或綜合分析,以便例如透過時間序列提取特徵。
步驟S2303:透過個人化的情緒狀態模式對情緒狀態模式進行分類。透過該步驟,分析的特徵被分類,例如透過將模式與使用者DB中的個人化模式進行比較,以便導出人的情緒狀態,或者識別來自IoT裝置的信號的時間趨勢。
步驟S2304:透過情況網路1011確定人員的需求。透過該步驟,基於資訊池的資訊計算情況的需求。情況網路1011被設計為基於機率模型的人工神經網路。情況需求代表受照護人員和服務環境隨時間的累積需求。因此,人工神經網路對情況需求的計算不僅是基於實際需要,還基於需求的歷史。
步驟S2305:確定滿足情況網路1011確定的需求的行
為。透過該步驟,計算出適合該情況需要的適當行為。行為網路1012被設計為基於機率模型的人工神經網路。
步驟S2306:確定由輸入裝置觸發的行為。透過該步驟,確定由輸入裝置觸發的行為。輸入裝置例如是用於命令特定護理行為的按鈕,或用於觸發必須在規定日期和時間基礎上執行的行為的排程器106,或者是緊急控制器107。
步驟S2307:優先化規劃器102的行為。透過該步驟,根據緊急措施來確定行為的優先級,例如從最高優先級到最低優先級:(1)緊急行為;(2)輸入裝置提出的行為;(3)排程行為;(4)由情況管理器命令的行為。
步驟S2308:執行具有最高優先級的行為。透過該步驟,將執行最緊急的行為。
步驟S2309:重複步驟S2301至S2309直到達到停止條件。此步驟具有以下效果:機器人始終執行任何操作,直到外部命令停止為止。
Claims (3)
- 一種經配置用於輔助人員的個人護理的機器人,該機器人包括:情況管理器(101),其被劃分為情況網路(1011)和行為網路(1012),其中該情況網路(1011)是經配置以確定表示該人員隨著時間的累積需求之情況需求的人工神經網路,且其中該行為網路(1012)是經配置以根據機率模型來確定滿足該情況需求之行為的人工神經網路;規劃器(102),其用於優先化由該情況管理器(101)和可選的輸入裝置提出的協助對於該人員的個人護理的該等行為;該機器人進一步包括用於偵測信號的感測器(103);和用於透過將該信號與資料庫中的該人員的個人化信號進行比較來分析和分類該信號的特徵模組(104),從而產生表示該人員所需的個人護理的特徵信號;其中,該情況網路(1011)經配置以根據代表所需的該個人護理的該特徵信號以確定該情況需求。
- 根據請求項1所述的機器人,其中該輸入裝置是使用者輸入裝置(105)和/或排程器(106)和/或緊急控制器(107)。
- 根據請求項1或2所述的機器人,其中該機器人進一步包括歷史資料庫,該歷史資料庫包括該感測器信號的歷史資料,且該特徵信號是基於該歷史資料。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762521686P | 2017-06-19 | 2017-06-19 | |
US62/521,686 | 2017-06-19 | ||
??PCT/EP2017/075574 | 2017-10-06 | ||
PCT/EP2017/075574 WO2018233856A1 (en) | 2017-06-19 | 2017-10-06 | METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT |
Publications (1)
Publication Number | Publication Date |
---|---|
TWM577958U true TWM577958U (zh) | 2019-05-11 |
Family
ID=60037614
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107208067U TWM581743U (zh) | 2017-06-19 | 2018-06-15 | 偵測人的情緒狀態的機器人 |
TW107208068U TWM577790U (zh) | 2017-06-19 | 2018-06-15 | 用於機器人的夾具系統 |
TW107208066U TWM581742U (zh) | 2017-06-19 | 2018-06-15 | 具有社交互動的機器人 |
TW107208069U TWM577958U (zh) | 2017-06-19 | 2018-06-15 | 經配置用於輔助人員的個人護理的機器人 |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
TW107208067U TWM581743U (zh) | 2017-06-19 | 2018-06-15 | 偵測人的情緒狀態的機器人 |
TW107208068U TWM577790U (zh) | 2017-06-19 | 2018-06-15 | 用於機器人的夾具系統 |
TW107208066U TWM581742U (zh) | 2017-06-19 | 2018-06-15 | 具有社交互動的機器人 |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200139558A1 (zh) |
EP (1) | EP3641992A1 (zh) |
JP (4) | JP3227655U (zh) |
CN (3) | CN209304585U (zh) |
CH (3) | CH713933B1 (zh) |
TW (4) | TWM581743U (zh) |
WO (4) | WO2018233856A1 (zh) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017210213A1 (de) * | 2017-06-19 | 2018-12-20 | Kuka Deutschland Gmbh | Greifer mit einem Sensor an einem Getriebegliedlager des Greifers |
WO2018233856A1 (en) * | 2017-06-19 | 2018-12-27 | Zhongrui Funing Robotics (Shenyang) Co. Ltd | METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT |
CN109807903B (zh) * | 2019-04-10 | 2021-04-02 | 博众精工科技股份有限公司 | 一种机器人控制方法、装置、设备和介质 |
JP7258391B2 (ja) * | 2019-05-08 | 2023-04-17 | 国立研究開発法人産業技術総合研究所 | 児童相談所などにおける情報処理方法及び装置 |
JP7362308B2 (ja) * | 2019-06-17 | 2023-10-17 | 株式会社ディスコ | 加工装置 |
US20210349462A1 (en) | 2020-05-08 | 2021-11-11 | Robust Al, Inc. | Ultraviolet end effector |
CN112621795A (zh) * | 2020-12-21 | 2021-04-09 | 深圳市越疆科技有限公司 | 机械臂末端执行器及其控制方法、机械臂和存储器 |
CN112720486A (zh) * | 2020-12-21 | 2021-04-30 | 深圳市越疆科技有限公司 | 机械臂末端执行器及其控制方法、机械臂和存储器 |
CN115196327B (zh) * | 2021-04-12 | 2023-07-07 | 天津新松机器人自动化有限公司 | 一种智能机器人下料工作站 |
DE102021213649A1 (de) * | 2021-12-01 | 2023-06-01 | Volkswagen Aktiengesellschaft | Entnahmewerkzeug und Entnahmesystem zur Entnahme von mittels 3D-Druckverfahren gefertigter Bauteile aus einem Pulverbett |
GB2622813A (en) * | 2022-09-28 | 2024-04-03 | Dyson Technology Ltd | Finger for a robotic gripper |
CN116690628B (zh) * | 2023-07-31 | 2023-12-01 | 季华顺为(佛山)智能技术有限公司 | 一种导线端子夹取装置 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2753946A1 (de) | 1977-12-03 | 1979-06-13 | Bayer Ag | 1-n-aryl-1,4-dihydropyridine und ihre verwendung als arzneimittel |
JPS6039090A (ja) * | 1983-08-11 | 1985-02-28 | 三菱電機株式会社 | 産業用ロボツトのハンド装置 |
JPS6171302A (ja) * | 1984-09-14 | 1986-04-12 | Toshiba Corp | ロボットハンド用近接センサ装置 |
JPH0319783A (ja) * | 1989-02-16 | 1991-01-28 | Sanyo Electric Co Ltd | ワーク保持機構 |
JPH05381U (ja) * | 1991-06-17 | 1993-01-08 | 株式会社安川電機 | ロボツトハンド |
JPH06206187A (ja) * | 1992-06-10 | 1994-07-26 | Hanshin Sharyo Kk | 被搬送物挟持方法および装置 |
IT1284621B1 (it) * | 1996-04-05 | 1998-05-21 | Az Gomma Ricambi S R L | Testina prensile per movimentazione di contenitori. |
JP3515299B2 (ja) * | 1996-11-26 | 2004-04-05 | 西日本電線株式会社 | 電線把持工具 |
EP0993916B1 (de) | 1998-10-15 | 2004-02-25 | Tecan Trading AG | Robotergreifer |
DE50204091D1 (de) | 2001-04-22 | 2005-10-06 | Neuronics Ag Zuerich | Knickarmroboter |
US7443115B2 (en) * | 2002-10-29 | 2008-10-28 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for robot handling control |
JP2005131719A (ja) * | 2003-10-29 | 2005-05-26 | Kawada Kogyo Kk | 歩行型ロボット |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
CN102149520B (zh) * | 2008-09-10 | 2013-09-18 | 谐波传动系统有限公司 | 机械手及板状物品的搬运方法 |
JP2010284728A (ja) * | 2009-06-09 | 2010-12-24 | Kawasaki Heavy Ind Ltd | 搬送ロボット及び自動教示方法 |
JP4834767B2 (ja) * | 2009-12-10 | 2011-12-14 | 株式会社アイ.エス.テイ | 把持装置、布地処理ロボットおよび布地処理システム |
CH705297A1 (de) | 2011-07-21 | 2013-01-31 | Tecan Trading Ag | Greiferzange mit austauschbaren Greiferfingern. |
CN103192401B (zh) * | 2012-01-05 | 2015-03-18 | 沈阳新松机器人自动化股份有限公司 | 机械手末端执行器 |
KR101941844B1 (ko) * | 2012-01-10 | 2019-04-11 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
JP2014200861A (ja) * | 2013-04-02 | 2014-10-27 | トヨタ自動車株式会社 | 把持装置及び荷物搬送ロボット |
US9434076B2 (en) * | 2013-08-06 | 2016-09-06 | Taiwan Semiconductor Manufacturing Co., Ltd. | Robot blade design |
JP6335587B2 (ja) * | 2014-03-31 | 2018-05-30 | 株式会社荏原製作所 | 基板保持機構、基板搬送装置、半導体製造装置 |
EP2933064A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | System, method and computer program product for handling humanoid robot interaction with human |
EP2933065A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Humanoid robot with an autonomous life capability |
JP6593991B2 (ja) * | 2014-12-25 | 2019-10-23 | 三菱重工業株式会社 | 移動ロボット及び先端ツール |
CN106325112B (zh) * | 2015-06-25 | 2020-03-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
WO2018233856A1 (en) * | 2017-06-19 | 2018-12-27 | Zhongrui Funing Robotics (Shenyang) Co. Ltd | METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT |
-
2017
- 2017-10-06 WO PCT/EP2017/075574 patent/WO2018233856A1/en active Application Filing
- 2017-10-06 WO PCT/EP2017/075577 patent/WO2018233859A1/en unknown
- 2017-10-06 WO PCT/EP2017/075575 patent/WO2018233857A1/en active Application Filing
- 2017-10-06 WO PCT/EP2017/075576 patent/WO2018233858A1/en active Application Filing
- 2017-10-06 JP JP2018600097U patent/JP3227655U/ja active Active
- 2017-10-06 JP JP2018600099U patent/JP3228266U/ja active Active
- 2017-10-06 US US16/620,672 patent/US20200139558A1/en not_active Abandoned
- 2017-10-06 EP EP17780742.7A patent/EP3641992A1/en not_active Withdrawn
- 2017-10-06 JP JP2018600096U patent/JP3226609U/ja active Active
- 2017-10-06 JP JP2018600098U patent/JP3227656U/ja active Active
- 2017-10-07 CH CH00775/18A patent/CH713933B1/de not_active IP Right Cessation
- 2017-10-07 CH CH00776/18A patent/CH713934B1/de not_active IP Right Cessation
- 2017-10-07 CH CH00774/18A patent/CH713932B1/de not_active IP Right Cessation
-
2018
- 2018-06-15 TW TW107208067U patent/TWM581743U/zh unknown
- 2018-06-15 TW TW107208068U patent/TWM577790U/zh unknown
- 2018-06-15 TW TW107208066U patent/TWM581742U/zh unknown
- 2018-06-15 TW TW107208069U patent/TWM577958U/zh unknown
- 2018-06-19 CN CN201820942021.9U patent/CN209304585U/zh active Active
- 2018-06-19 CN CN201820941173.7U patent/CN209207531U/zh active Active
- 2018-06-19 CN CN201810629273.0A patent/CN109129526A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2018233857A1 (en) | 2018-12-27 |
CN209304585U (zh) | 2019-08-27 |
CH713932B1 (de) | 2020-05-29 |
WO2018233859A1 (en) | 2018-12-27 |
JP3226609U (ja) | 2020-07-09 |
CN109129526A (zh) | 2019-01-04 |
CH713932A2 (de) | 2018-12-28 |
CH713934A2 (de) | 2018-12-28 |
WO2018233858A1 (en) | 2018-12-27 |
TWM581743U (zh) | 2019-08-01 |
CH713933B1 (de) | 2020-05-29 |
TWM577790U (zh) | 2019-05-11 |
EP3641992A1 (en) | 2020-04-29 |
TWM581742U (zh) | 2019-08-01 |
US20200139558A1 (en) | 2020-05-07 |
CH713933A2 (de) | 2018-12-28 |
JP3228266U (ja) | 2020-10-22 |
CN209207531U (zh) | 2019-08-06 |
JP3227655U (ja) | 2020-09-10 |
JP3227656U (ja) | 2020-09-10 |
WO2018233856A1 (en) | 2018-12-27 |
CH713934B1 (de) | 2020-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWM577958U (zh) | 經配置用於輔助人員的個人護理的機器人 | |
US11017643B2 (en) | Methods and systems for augmentative and alternative communication | |
US10726846B2 (en) | Virtual health assistant for promotion of well-being and independent living | |
Fernández-Caballero et al. | Improvement of the elderly quality of life and care through smart emotion regulation | |
Hornecker et al. | The interactive enactment of care technologies and its implications for human-robot-interaction in care | |
JP7285046B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
JP2019017499A (ja) | 療養支援システム | |
CN118430817B (zh) | 一种基于多模态通道融合的重症监护系统 | |
CN110587621A (zh) | 机器人、基于机器人的病人看护方法和可读存储介质 | |
Contreras-Castañeda et al. | Smart home: Multimodal interaction for control of home devices | |
Arkin | Ameliorating patient-caregiver stigma in early-stage Parkinson's Disease using robot co-mediators | |
EP3193239A1 (en) | Methods and systems for augmentative and alternative communication | |
Beltrán et al. | Detecting disruptive vocalizations for ambient assisted interventions for dementia | |
Mansouri Benssassi et al. | Wearable assistive technologies for autism: opportunities and challenges | |
Qadeer et al. | Knowledge representation for a neuro-symbolic network in home care risk identification | |
CN118732524A (zh) | 一种智能家居监控系统及方法 | |
Fathy et al. | Measuring Thriving Experience in Physical Working Spaces | |
Fernández-Caballero | A grand challenge for vision systems: improving the quality of life and care of aging adults | |
Ball et al. | Linking recorded data with emotive and adaptive computing in an eHealth environment | |
呉楚瑶 | A Study of Timing Issues for Multimodal Human Machine Interface for Smart Home | |
Ferilli et al. | A Layered Architecture for Situation Aware Home Environments | |
CN118143974A (zh) | 基于人工智能的多功能护理机器人系统 | |
Mariam | Information and Communication Technologies in Care of Elderly–Addressing Care Assistants’ Experiences, Demands and Visions. | |
Rudzicz | Supporting Daily Activities Through Speech | |
Yordanova et al. | Automatic Detection of Challenging Behaviour of People with Dementia and Identification of Intervention Strategies-Requirements and Challenges. |