JP3227656U - 人の感情状態に作用するように構成されたロボット - Google Patents
人の感情状態に作用するように構成されたロボット Download PDFInfo
- Publication number
- JP3227656U JP3227656U JP2018600098U JP2018600098U JP3227656U JP 3227656 U JP3227656 U JP 3227656U JP 2018600098 U JP2018600098 U JP 2018600098U JP 2018600098 U JP2018600098 U JP 2018600098U JP 3227656 U JP3227656 U JP 3227656U
- Authority
- JP
- Japan
- Prior art keywords
- needs
- network
- situation
- action
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002996 emotional effect Effects 0.000 title claims abstract description 64
- 230000009471 action Effects 0.000 claims abstract description 171
- 230000003542 behavioural effect Effects 0.000 claims abstract description 24
- 238000000034 method Methods 0.000 claims description 20
- 230000001960 triggered effect Effects 0.000 claims description 17
- 238000002360 preparation method Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims 1
- 238000004364 calculation method Methods 0.000 abstract description 20
- 238000010586 diagram Methods 0.000 abstract 1
- 230000006399 behavior Effects 0.000 description 45
- 238000013528 artificial neural network Methods 0.000 description 32
- 230000000694 effects Effects 0.000 description 20
- 230000008921 facial expression Effects 0.000 description 10
- 230000002123 temporal effect Effects 0.000 description 10
- 238000010415 tidying Methods 0.000 description 10
- 235000003642 hunger Nutrition 0.000 description 6
- 230000003993 interaction Effects 0.000 description 6
- 230000003997 social interaction Effects 0.000 description 6
- 230000035922 thirst Effects 0.000 description 6
- 230000002776 aggregation Effects 0.000 description 4
- 238000004220 aggregation Methods 0.000 description 4
- 239000003814 drug Substances 0.000 description 4
- 230000000977 initiatory effect Effects 0.000 description 4
- 235000012054 meals Nutrition 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000012913 prioritisation Methods 0.000 description 4
- 206010012289 Dementia Diseases 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 208000010877 cognitive disease Diseases 0.000 description 2
- 239000008358 core component Substances 0.000 description 2
- 229940079593 drug Drugs 0.000 description 2
- 230000003340 mental effect Effects 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 208000020016 psychiatric disease Diseases 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000003786 synthesis reaction Methods 0.000 description 2
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0014—Gripping heads and other end effectors having fork, comb or plate shaped means for engaging the lower surface on a object to be transported
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/0003—Home robots, i.e. small robots for domestic use
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/008—Manipulators for service tasks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/082—Grasping-force detectors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/081—Touching devices, e.g. pressure-sensitive
- B25J13/084—Tactile sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/085—Force or torque sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/086—Proximity sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0028—Gripping heads and other end effectors with movable, e.g. pivoting gripping jaw surfaces
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/02—Gripping heads and other end effectors servo-actuated
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
- B25J19/063—Safety devices working only upon contact with an outside object
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1661—Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J15/00—Gripping heads and other end effectors
- B25J15/0033—Gripping heads and other end effectors with gripping surfaces having special shapes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40411—Robot assists human in non-industrial environment like home or office
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/22—Social work or social welfare, e.g. community support activities or counselling services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Social Psychology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Psychology (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Artificial Intelligence (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Manipulator (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
Abstract
【課題】状況マネージャを状況ネットワークと行動ネットワークとに下位区分し、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、所与の状況のニーズの計算に基づいて、人の感情状態を検出するロボットを提供する。
【解決手段】人の感情状態に作用するロボットであって、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、状況マネージャによって、及び随意に入力デバイスから、提案される行動に優先度を付けるためのプランナと、イベントを検出するためのセンサとを備える。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
【選択図】図1
【解決手段】人の感情状態に作用するロボットであって、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、状況マネージャによって、及び随意に入力デバイスから、提案される行動に優先度を付けるためのプランナと、イベントを検出するためのセンサとを備える。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
【選択図】図1
Description
本考案は、ロボットによって人の感情状態を検出するための方法に関する。
パーソナルケアにおける人間の作業は、病院又は在宅ケア境遇における日常生活のニーズを満たすのを支援する自律ケアロボットによって、ますます置き換えられつつある。これは、特に、精神的な又は認知機能の不全又は疾患、たとえば、認知症をもつ人のケアのために有効である。ケアロボットは、ケア対象の人及びサービス環境に関する情報を集めるためのデバイス、すなわち、センサ、マイクロフォン、カメラ又はモノのインターネットに関係するスマートデバイスと、行動を実行するための手段、すなわち、把持、移動、通信のためのデバイスとを装備している。人間とロボットとの相互作用は、インテリジェント機能、たとえば、音声認識又は表情認識又は触覚パターンによって達成される。これらの機能はまた、ケア状況において、ロボットによって、たとえば、話すこと又はジェスチャー生成、或いはその生成の感情的フィードバックによって模倣され得る。
ロボット支援型ケアの場合、ケア対象の人の実際のニーズと、サービス環境の実際のニーズとを判定すること、及び適切な行動を実行することは困難である。人のニーズは、たとえば、空腹感、渇き、休憩の必要、感情的配慮又は社会的相互作用の必要である。サービス環境のニーズは、たとえば、テーブルを片付けること、又はキッチンを整頓すること、又は冷蔵庫を補充することの必要性である。適切な行動は、ニーズを満たす行動である。概して、ニーズ及び行動は、実際の状況のみに基づいて判定され得ず、むしろ、それらはニーズの履歴に依存する。
本考案は、ロボットによって人の感情状態を検出するための方法に関し、ロボットは、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、状況マネージャによって、及び随意に入力デバイスから、提案される行動に優先度を付けるためのプランナと、イベントを検出するためのセンサとを備える。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、むしろ、それが所与の状況のニーズの計算に基づくという効果を有する。
ケア対象の人のニーズは、たとえば、空腹感、渇き、休憩の必要、感情的配慮の必要である。サービス環境のニーズは、たとえば、テーブルを片付けること、キッチンを整頓すること、又は冷蔵庫を補充することである。
ニーズを満たすための行動は、たとえば、人に物をもってくること、人からそれをもって行くこと、音声生成又は感情画像ディスプレイによって感情的フィードバックを与えること、テーブルを片付けること、又はキッチンを整頓することである。
本考案による状況マネージャは、状況ネットワークと行動ネットワークとに下位区分される。状況ネットワークは、状況ニーズ、すなわち、所与の状況におけるニーズに関する意思決定のための人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の蓄積されたニーズを表し、それは、状況ニーズがニーズの履歴に基づくことを意味する。
行動ネットワークは、状況ニーズのための適切な行動を導出する人工ニューラルネットワークである。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、むしろ、それが所与の状況のニーズの計算に基づくという効果を有する。
状況マネージャは情報プールから入力を取得する。情報プールは、センサ及びモノのインターネット(IoT:Internet of Thingsデバイス)からの信号、ユーザデータベース、並びに履歴を備える。本考案によるセンサは、たとえば、音声パターンを検出する場合のマイクロフォン、表情パターンを検出する場合のカメラ、又は、人の触覚パターンを検出する場合の触覚センサをもつタッチパッドである。センサによって検出された信号は、音声認識、表情認識、又は触覚パターンの認識を通して分析され得る。
IoTデバイスは、たとえば、冷蔵庫の中身の消費期限を制御するためのセンサをもつ冷蔵庫である。ユーザDBは、ケア対象の人に関する情報、たとえば、ユーザの名前、現在の感情状態、又は空間中の位置のリポジトリである。履歴は、センサ及びIoTチャネルの履歴データだけでなく、個人データ、たとえば、感情状態の履歴、及びロボットの行動の履歴をも保持する。さらに、情報プールは、たとえば、ロボットのバッテリーステータスに関する情報を得るためのオープンプラットフォーム通信チャネルへのアクセスを有する。
情報プールからの情報が状況マネージャによって使用され得る前に、それは、特徴準備を終えなければならない。特徴準備は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、分析されたパターンをユーザDB中の個人化されたパターンと比較することによって、分析されたパターンの分類を顧慮する。
行動に優先度を付けるために、プランナは、状況マネージャによる決定、及び/或いはユーザ入力デバイスのような入力デバイス、スケジューラ、又は非常時コントローラからのデータを考慮する。入力デバイスは、ユーザによって行動を命令するためのデバイス、たとえば、特定のケア行動を命令するためのボタンである。スケジューラは、規則的な日時ベースで実行されなければならない行動、たとえば、食事をサービスすること、薬をもってくることのタイムテーブルである。非常時コントローラは、望ましくない又は不都合なイベント、たとえば、ケアロボットを拒否するか又はそれに抵抗するサイン、或いは低いバッテリーステータスを認識することが可能である。非常時コントローラは、情報プールへのアクセスを有する。
プランナによる優先度付けは、たとえば、現在の行動を遂行する、すなわち、それにさらに最高優先度を割り当てるか、現在の行動を中断する、すなわち、それにより低い優先度を割り当てるか、現在の行動をキャンセルする、すなわち、それを行動リストから削除するか、新しい行動を開始するか、又は前に中断されていた行動を再開する効果を有する。
本考案によるロボットのアクティビティを制御するための方法は、以下のステップを含む。
ステップ1:センサによって信号を検出する。このステップによって、患者又はサービス環境に関係する信号又はパターンがキャプチャされる。信号又は信号パターンは、たとえば、位置信号、音声パターン、画像パターン、触覚パターンを指す。信号パターンが触覚パターンを指す場合、センサは、たとえば、ロボットのタッチパッド中にある触覚センサである。感情状態パターンがセンサによって検出された場合、センサは、音声パターンを検出するためのマイクロフォン、及び/又は表情パターンを検出するためのカメラである。
ステップ2:信号を分析する。このステップによって、検出された信号又はパターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。信号パターンが触覚パターンを指す場合、このステップによって、検出された触覚パターンは、たとえば時系列によって特徴を抽出するために解釈される。感情状態パターンが検出された場合、このステップによって、検出された感情状態パターンは、たとえば時系列によって特徴を抽出するために、解釈される。
ステップ3:信号を分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。信号パターンが触覚パターンを指す場合、触覚パターンは、個人化された触覚パターンによって分類される。したがって、このステップによって、抽出された特徴は、たとえば、その触覚パターンをユーザDB中の個人化された触覚パターンと比較することによって分類される。感情状態パターンが検出された場合、感情状態パターンは、個人化された感情状態パターンによって分類される。したがって、このステップによって、抽出された特徴は、たとえば、その感情状態パターンをユーザDB中の個人化された感情状態パターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人及びサービス環境のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
本考案の一実施例によれば、入力デバイスはユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである。
本考案の好ましい実施例によれば、状況ネットワーク及び/又は行動ネットワークは確率モデルに基づく。
本考案の重要な実施例によれば、状況マネージャは情報プールから情報を受信し、情報プールは、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す。
本考案のさらなる実施例によれば、情報プールから状況マネージャによって受信された情報は特徴準備タスクによって分類される。
本考案はまた、説明される方法を実施するためのロボットにも当てはまり、ロボットは、状況マネージャから及び随意に入力デバイスから受信されたタスクに優先度を付けるためのプランナを備える。状況マネージャは、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分される。
一実施例によれば、入力デバイスはユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである。
好ましい実施例によれば、状況ネットワーク及び/又は行動ネットワークは確率モデルに基づく。
重要な実施例によれば、状況マネージャは情報プールから情報を受信し、情報プールは、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す。
別の実施例によれば、情報プールから状況マネージャによって受信された情報は特徴準備タスクによって分類され得る。
極めて重要な実施例によれば、センサは、少なくとも16mm2の面積を有する。これによって、たとえば、触覚パターンは、センサによって十分にキャプチャされ得る。
最後に、センサは、ロボットの柔軟な触覚スキンに埋め込まれ得る。また、これによって、たとえば、触覚パターンは、センサによって十分にキャプチャされ得る。
図1は、パーソナルケアロボットの情報フロー及び決定フローを示す。パーソナルケアロボットのコア構成要素は、プランナである。プランナのタスクは、行動に優先度を付けること、及び所与のケア状況において行動の実行を起動することである。行動は、たとえば、位置を変更すること、物をもってくること又はそれをもって行くこと、或いはキッチンを整頓することである。行動に優先度を付けるために、プランナは、状況マネージャによる決定、及び/或いはユーザ入力デバイスのような入力デバイス、スケジューラ、又は非常時コントローラによる決定を考慮する。
状況マネージャのタスクは、ケア対象の人のニーズ、すなわち、空腹感、渇き、ストレス低減、及び、所与の状況におけるサービス環境のニーズを満たす行動をプランナに与えることである。状況マネージャは、プランナによる要求に対して反応する。本考案による状況マネージャは、状況ネットワークと行動ネットワークとに下位区分される。状況ネットワークは、状況ニーズ、すなわち、所与の状況におけるニーズに関する意思決定のための人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の蓄積されたニーズを表し、それは、状況ニーズがニーズの履歴に基づくことを意味する。
行動ネットワークは、状況ニーズのための適切な行動を導出する人工ニューラルネットワークである。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が情報プールのデータに直接基づかず、むしろ、それが所与の状況についてのニーズの別個の計算に基づくという効果を有する。
状況マネージャは情報プールから入力を取得する。情報プールは、センサ及びIoTデバイスからの情報、ユーザDB、並びに履歴を備える。本考案によるセンサは、たとえば、マイクロフォン、カメラ、頑丈なパッドである。IoTデバイスは冷蔵庫又は他のスマートデバイスであり得る。ユーザDBは、ケア対象の人に関する情報、たとえば、ユーザの名前、現在の感情状態、又は空間中の現在の位置のリポジトリである。履歴は、センサ及びIoTチャネルのデータの履歴、並びにケア対象の人の状態の履歴、及びロボットの行動の履歴を保持する。さらに、情報プールは、たとえば、ロボットのバッテリーステータスに関する情報を得るためのオープンプラットフォーム通信チャネルへのアクセスを有する。
情報プールからの情報が状況マネージャによって使用され得る前に、それは、特徴準備を終えなければならない。特徴準備は、情報の分類又はアグリゲーション、たとえば、音声認識を介した音声信号の分類、触覚認識を介した触れることの分類、表情認識を介した感情状態の分類、傾向を認識するためのスマートデバイスからの情報のアグリゲーションを顧慮する。
入力デバイスは、関連する機能をもつボタン、タッチスクリーンであり得る。スケジューラは、規則的な日時ベースで実行されなければならない行動、たとえば、食事をもってくること、薬を与えることのタイムテーブルである。非常時コントローラは、望ましくない又は不都合なイベント、たとえば、ケアロボットを拒否するか又はそれに抵抗する行動、或いは低いバッテリーステータスを認識することが可能である。非常時コントローラは、情報プールへのアクセスを有する。
プランナによる優先度付けは、たとえば、現在の行動を遂行する、すなわち、それにさらに最高優先度を割り当てるか、現在の行動を中断する、すなわち、それにより低い優先度を割り当てるか、現在の行動をキャンセルする、すなわち、それを行動リストから削除するか、新しい行動を開始するか、又は前に中断されていた行動を再開する効果を有する。
図2aは、監視モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって信号を検出する。このステップによって、患者又はサービス環境に関係する信号又はパターンがキャプチャされる。信号又は信号パターンは、たとえば、位置信号、音声パターン、画像パターン、触覚パターンを指す。
ステップ2:信号を分析する。このステップによって、検出された信号又はパターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:信号を分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人及びサービス環境のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
図2bは、触覚相互作用モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって触覚パターンを検出する。このステップによって、患者に関係する触覚パターンがキャプチャされる。
ステップ2:分析ユニットによって触覚パターンを分析する。このステップによって、検出された触覚パターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:個人化された触覚パターンによって触覚パターンを分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
図2cは、社会的相互作用モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって感情状態パターンを検出する。このステップによって、患者に関係する感情状態パターンがキャプチャされる。
ステップ2:分析ユニットによって感情状態パターンを分析する。このステップによって、検出された感情状態パターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:個人化された感情状態パターンによって感情状態パターンを分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
本考案は、人の感情状態に作用するように構成されたロボットに関する。
パーソナルケアにおける人間の作業は、病院又は在宅ケア境遇における日常生活のニーズを満たすのを支援する自律ケアロボットによって、ますます置き換えられつつある。これは、特に、精神的な又は認知機能の不全又は疾患、たとえば、認知症をもつ人のケアのために有効である。ケアロボットは、ケア対象の人及びサービス環境に関する情報を集めるためのデバイス、すなわち、センサ、マイクロフォン、カメラ又はモノのインターネットに関係するスマートデバイスと、行動を実行するための手段、すなわち、把持、移動、通信のためのデバイスとを装備している。人間とロボットとの相互作用は、インテリジェント機能、たとえば、音声認識又は表情認識又は触覚パターンによって達成される。これらの機能はまた、ケア状況において、ロボットによって、たとえば、話すこと又はジェスチャー生成、或いはその生成の感情的フィードバックによって模倣され得る。
ロボット支援型ケアの場合、ケア対象の人の実際のニーズと、サービス環境の実際のニーズとを判定すること、及び適切な行動を実行することは困難である。人のニーズは、たとえば、空腹感、渇き、休憩の必要、感情的配慮又は社会的相互作用の必要である。サービス環境のニーズは、たとえば、テーブルを片付けること、又はキッチンを整頓すること、又は冷蔵庫を補充することの必要性である。適切な行動は、ニーズを満たす行動である。概して、ニーズ及び行動は、実際の状況のみに基づいて判定され得ず、むしろ、それらはニーズの履歴に依存する。
本考案は、人の感情状態に作用するように構成されたロボットに関し、ロボットは、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、状況マネージャによって、及び随意に入力デバイスから、提案される行動に優先度を付けるためのプランナと、イベントを検出するためのセンサとを備える。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、むしろ、それが所与の状況のニーズの計算に基づくという効果を有する。
ケア対象の人のニーズは、たとえば、空腹感、渇き、休憩の必要、感情的配慮の必要である。サービス環境のニーズは、たとえば、テーブルを片付けること、キッチンを整頓すること、又は冷蔵庫を補充することである。
ニーズを満たすための行動は、たとえば、人に物をもってくること、人からそれをもって行くこと、音声生成又は感情画像ディスプレイによって感情的フィードバックを与えること、テーブルを片付けること、又はキッチンを整頓することである。
本考案による状況マネージャは、状況ネットワークと行動ネットワークとに下位区分される。状況ネットワークは、状況ニーズ、すなわち、所与の状況におけるニーズに関する意思決定のための人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の蓄積されたニーズを表し、それは、状況ニーズがニーズの履歴に基づくことを意味する。
行動ネットワークは、状況ニーズのための適切な行動を導出する人工ニューラルネットワークである。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、むしろ、それが所与の状況のニーズの計算に基づくという効果を有する。
状況マネージャは情報プールから入力を取得する。情報プールは、センサ及びモノのインターネット(IoT:Internet of Thingsデバイス)からの信号、ユーザデータベース、並びに履歴を備える。本考案によるセンサは、たとえば、音声パターンを検出する場合のマイクロフォン、表情パターンを検出する場合のカメラ、又は、人の触覚パターンを検出する場合の触覚センサをもつタッチパッドである。センサによって検出された信号は、音声認識、表情認識、又は触覚パターンの認識を通して分析され得る。
IoTデバイスは、たとえば、冷蔵庫の中身の消費期限を制御するためのセンサをもつ冷蔵庫である。ユーザDBは、ケア対象の人に関する情報、たとえば、ユーザの名前、現在の感情状態、又は空間中の位置のリポジトリである。履歴は、センサ及びIoTチャネルの履歴データだけでなく、個人データ、たとえば、感情状態の履歴、及びロボットの行動の履歴をも保持する。さらに、情報プールは、たとえば、ロボットのバッテリーステータスに関する情報を得るためのオープンプラットフォーム通信チャネルへのアクセスを有する。
情報プールからの情報が状況マネージャによって使用され得る前に、それは、特徴準備を終えなければならない。特徴準備は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、分析されたパターンをユーザDB中の個人化されたパターンと比較することによって、分析されたパターンの分類を顧慮する。
行動に優先度を付けるために、プランナは、状況マネージャによる決定、及び/或いはユーザ入力デバイスのような入力デバイス、スケジューラ、又は非常時コントローラからのデータを考慮する。入力デバイスは、ユーザによって行動を命令するためのデバイス、たとえば、特定のケア行動を命令するためのボタンである。スケジューラは、規則的な日時ベースで実行されなければならない行動、たとえば、食事をサービスすること、薬をもってくることのタイムテーブルである。非常時コントローラは、望ましくない又は不都合なイベント、たとえば、ケアロボットを拒否するか又はそれに抵抗するサイン、或いは低いバッテリーステータスを認識することが可能である。非常時コントローラは、情報プールへのアクセスを有する。
プランナによる優先度付けは、たとえば、現在の行動を遂行する、すなわち、それにさらに最高優先度を割り当てるか、現在の行動を中断する、すなわち、それにより低い優先度を割り当てるか、現在の行動をキャンセルする、すなわち、それを行動リストから削除するか、新しい行動を開始するか、又は前に中断されていた行動を再開する効果を有する。
本考案によるロボットのアクティビティを制御するための方法は、以下のステップを含む。
ステップ1:センサによって信号を検出する。このステップによって、患者又はサービス環境に関係する信号又はパターンがキャプチャされる。信号又は信号パターンは、たとえば、位置信号、音声パターン、画像パターン、触覚パターンを指す。信号パターンが触覚パターンを指す場合、センサは、たとえば、ロボットのタッチパッド中にある触覚センサである。感情状態パターンがセンサによって検出された場合、センサは、音声パターンを検出するためのマイクロフォン、及び/又は表情パターンを検出するためのカメラである。
ステップ2:信号を分析する。このステップによって、検出された信号又はパターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。信号パターンが触覚パターンを指す場合、このステップによって、検出された触覚パターンは、たとえば時系列によって特徴を抽出するために解釈される。感情状態パターンが検出された場合、このステップによって、検出された感情状態パターンは、たとえば時系列によって特徴を抽出するために、解釈される。
ステップ3:信号を分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。信号パターンが触覚パターンを指す場合、触覚パターンは、個人化された触覚パターンによって分類される。したがって、このステップによって、抽出された特徴は、たとえば、その触覚パターンをユーザDB中の個人化された触覚パターンと比較することによって分類される。感情状態パターンが検出された場合、感情状態パターンは、個人化された感情状態パターンによって分類される。したがって、このステップによって、抽出された特徴は、たとえば、その感情状態パターンをユーザDB中の個人化された感情状態パターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人及びサービス環境のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
本考案の一実施例によれば、入力デバイスはユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである。
本考案の好ましい実施例によれば、状況ネットワーク及び/又は行動ネットワークは確率モデルに基づく。
本考案の重要な実施例によれば、状況マネージャは情報プールから情報を受信し、情報プールは、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す。
本考案のさらなる実施例によれば、情報プールから状況マネージャによって受信された情報は特徴準備タスクによって分類される。
本考案はまた、説明される方法を実施するためのロボットにも当てはまり、ロボットは、状況マネージャから及び随意に入力デバイスから受信されたタスクに優先度を付けるためのプランナを備える。状況マネージャは、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分される。
一実施例によれば、入力デバイスはユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである。
好ましい実施例によれば、状況ネットワーク及び/又は行動ネットワークは確率モデルに基づく。
重要な実施例によれば、状況マネージャは情報プールから情報を受信し、情報プールは、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す。
別の実施例によれば、情報プールから状況マネージャによって受信された情報は特徴準備タスクによって分類され得る。
極めて重要な実施例によれば、センサは、少なくとも16mm2の面積を有する。これによって、たとえば、触覚パターンは、センサによって十分にキャプチャされ得る。
最後に、センサは、ロボットの柔軟な触覚スキンに埋め込まれ得る。また、これによって、たとえば、触覚パターンは、センサによって十分にキャプチャされ得る。
図1は、パーソナルケアロボットの情報フロー及び決定フローを示す。パーソナルケアロボットのコア構成要素は、プランナである。プランナのタスクは、行動に優先度を付けること、及び所与のケア状況において行動の実行を起動することである。行動は、たとえば、位置を変更すること、物をもってくること又はそれをもって行くこと、或いはキッチンを整頓することである。行動に優先度を付けるために、プランナは、状況マネージャによる決定、及び/或いはユーザ入力デバイスのような入力デバイス、スケジューラ、又は非常時コントローラによる決定を考慮する。
状況マネージャのタスクは、ケア対象の人のニーズ、すなわち、空腹感、渇き、ストレス低減、及び、所与の状況におけるサービス環境のニーズを満たす行動をプランナに与えることである。状況マネージャは、プランナによる要求に対して反応する。本考案による状況マネージャは、状況ネットワークと行動ネットワークとに下位区分される。状況ネットワークは、状況ニーズ、すなわち、所与の状況におけるニーズに関する意思決定のための人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の蓄積されたニーズを表し、それは、状況ニーズがニーズの履歴に基づくことを意味する。
行動ネットワークは、状況ニーズのための適切な行動を導出する人工ニューラルネットワークである。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が情報プールのデータに直接基づかず、むしろ、それが所与の状況についてのニーズの別個の計算に基づくという効果を有する。
状況マネージャは情報プールから入力を取得する。情報プールは、センサ及びIoTデバイスからの情報、ユーザDB、並びに履歴を備える。本考案によるセンサは、たとえば、マイクロフォン、カメラ、頑丈なパッドである。IoTデバイスは冷蔵庫又は他のスマートデバイスであり得る。ユーザDBは、ケア対象の人に関する情報、たとえば、ユーザの名前、現在の感情状態、又は空間中の現在の位置のリポジトリである。履歴は、センサ及びIoTチャネルのデータの履歴、並びにケア対象の人の状態の履歴、及びロボットの行動の履歴を保持する。さらに、情報プールは、たとえば、ロボットのバッテリーステータスに関する情報を得るためのオープンプラットフォーム通信チャネルへのアクセスを有する。
情報プールからの情報が状況マネージャによって使用され得る前に、それは、特徴準備を終えなければならない。特徴準備は、情報の分類又はアグリゲーション、たとえば、音声認識を介した音声信号の分類、触覚認識を介した触れることの分類、表情認識を介した感情状態の分類、傾向を認識するためのスマートデバイスからの情報のアグリゲーションを顧慮する。
入力デバイスは、関連する機能をもつボタン、タッチスクリーンであり得る。スケジューラは、規則的な日時ベースで実行されなければならない行動、たとえば、食事をもってくること、薬を与えることのタイムテーブルである。非常時コントローラは、望ましくない又は不都合なイベント、たとえば、ケアロボットを拒否するか又はそれに抵抗する行動、或いは低いバッテリーステータスを認識することが可能である。非常時コントローラは、情報プールへのアクセスを有する。
プランナによる優先度付けは、たとえば、現在の行動を遂行する、すなわち、それにさらに最高優先度を割り当てるか、現在の行動を中断する、すなわち、それにより低い優先度を割り当てるか、現在の行動をキャンセルする、すなわち、それを行動リストから削除するか、新しい行動を開始するか、又は前に中断されていた行動を再開する効果を有する。
図2aは、監視モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって信号を検出する。このステップによって、患者又はサービス環境に関係する信号又はパターンがキャプチャされる。信号又は信号パターンは、たとえば、位置信号、音声パターン、画像パターン、触覚パターンを指す。
ステップ2:信号を分析する。このステップによって、検出された信号又はパターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:信号を分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人及びサービス環境のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
図2bは、触覚相互作用モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって触覚パターンを検出する。このステップによって、患者に関係する触覚パターンがキャプチャされる。
ステップ2:分析ユニットによって触覚パターンを分析する。このステップによって、検出された触覚パターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:個人化された触覚パターンによって触覚パターンを分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
図2cは、社会的相互作用モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって感情状態パターンを検出する。このステップによって、患者に関係する感情状態パターンがキャプチャされる。
ステップ2:分析ユニットによって感情状態パターンを分析する。このステップによって、検出された感情状態パターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:個人化された感情状態パターンによって感情状態パターンを分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
Claims (12)
- ロボットによって人の感情状態を検出するための方法であって、前記ロボットは、
ニーズを判定するための状況ネットワークと前記ニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、
状況マネージャから、及び随意に入力デバイスから、受信されたタスクに優先度を付けるためのプランナと、
触覚パターンを検出するためのセンサと、
を備え、当該方法は、
ステップ1:前記センサによって触覚パターンを検出するステップと、
ステップ2:分析ユニットによって触覚パターンを分析するステップと、
ステップ3:ユーザデータベースに記憶された個人化された触覚パターンによって触覚パターンを分類するステップと、
ステップ4:前記状況ネットワークによって前記ニーズを判定するステップと、
ステップ5:前記行動ネットワークによってステップ4において判定された前記ニーズを満たすための前記行動を判定するステップと、
ステップ6:前記入力デバイスによってトリガされた前記行動を判定するステップと、
ステップ7:前記プランナによって前記行動に優先度を付けるステップと、
ステップ8:最高優先度をもつ行動を実行するステップと、
ステップ9:ステップ(1)から(9)までを繰り返すステップと、
を含む、方法。 - 前記入力デバイスがユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである、請求項1に記載の方法。
- 前記状況ネットワーク及び/又は前記行動ネットワークが確率モデルに基づく、請求項1又は2に記載の方法。
- 前記状況マネージャが情報プールから情報を受信し、前記情報プールが、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す、請求項1から3までに記載の方法。
- 前記情報プールから前記状況マネージャによって受信された前記情報が特徴準備タスクによって分類される、請求項4に記載の方法。
- 請求項1から5までに記載の方法を実施するためのロボットであって、当該ロボットは、状況マネージャから及び随意に入力デバイスから受信されたタスクに優先度を付けるためのプランナと、触覚パターンを検出するためのセンサと、を備えるロボットにおいて、前記状況マネージャが、ニーズを判定するための状況ネットワークと、前記ニーズを満たすための行動を判定するための行動ネットワークとに区分されることを特徴とする、ロボット。
- 前記入力デバイスがユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである、請求項6に記載のロボット。
- 前記状況ネットワーク及び/又は前記行動ネットワークが確率モデルに基づく、請求項6又は7に記載のロボット。
- 前記状況マネージャが情報プールから情報を受信し、前記情報プールが、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す、請求項6から8までに記載のロボット。
- 前記情報プールから前記状況マネージャによって受信された前記情報が特徴準備タスクによって分類される、請求項9に記載のロボット。
- 前記センサが少なくとも16mm2の面積を有する、請求項6から10までに記載のロボット。
- 前記センサが前記ロボットの柔軟な触覚スキンに埋め込まれている、請求項6から11までに記載のロボット。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762521686P | 2017-06-19 | 2017-06-19 | |
US62/521,686 | 2017-06-19 | ||
PCT/EP2017/075575 WO2018233857A1 (en) | 2017-06-19 | 2017-10-06 | METHOD FOR DETECTING THE EMOTIONAL STATUS OF A PERSON BY A ROBOT |
Publications (1)
Publication Number | Publication Date |
---|---|
JP3227656U true JP3227656U (ja) | 2020-09-10 |
Family
ID=60037614
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018600097U Active JP3227655U (ja) | 2017-06-19 | 2017-10-06 | 人のためのパーソナルケアを支援するために構成されたロボット |
JP2018600099U Active JP3228266U (ja) | 2017-06-19 | 2017-10-06 | 人との社会的相互作用のための行為を実施するように構成されたロボット |
JP2018600096U Active JP3226609U (ja) | 2017-06-19 | 2017-10-06 | ロボット用グリッパシステム |
JP2018600098U Active JP3227656U (ja) | 2017-06-19 | 2017-10-06 | 人の感情状態に作用するように構成されたロボット |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018600097U Active JP3227655U (ja) | 2017-06-19 | 2017-10-06 | 人のためのパーソナルケアを支援するために構成されたロボット |
JP2018600099U Active JP3228266U (ja) | 2017-06-19 | 2017-10-06 | 人との社会的相互作用のための行為を実施するように構成されたロボット |
JP2018600096U Active JP3226609U (ja) | 2017-06-19 | 2017-10-06 | ロボット用グリッパシステム |
Country Status (7)
Country | Link |
---|---|
US (1) | US20200139558A1 (ja) |
EP (1) | EP3641992A1 (ja) |
JP (4) | JP3227655U (ja) |
CN (3) | CN209304585U (ja) |
CH (3) | CH713933B1 (ja) |
TW (4) | TWM581743U (ja) |
WO (4) | WO2018233856A1 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017210213A1 (de) * | 2017-06-19 | 2018-12-20 | Kuka Deutschland Gmbh | Greifer mit einem Sensor an einem Getriebegliedlager des Greifers |
WO2018233856A1 (en) * | 2017-06-19 | 2018-12-27 | Zhongrui Funing Robotics (Shenyang) Co. Ltd | METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT |
CN109807903B (zh) * | 2019-04-10 | 2021-04-02 | 博众精工科技股份有限公司 | 一种机器人控制方法、装置、设备和介质 |
JP7258391B2 (ja) * | 2019-05-08 | 2023-04-17 | 国立研究開発法人産業技術総合研究所 | 児童相談所などにおける情報処理方法及び装置 |
JP7362308B2 (ja) * | 2019-06-17 | 2023-10-17 | 株式会社ディスコ | 加工装置 |
US20210349462A1 (en) | 2020-05-08 | 2021-11-11 | Robust Al, Inc. | Ultraviolet end effector |
CN112621795A (zh) * | 2020-12-21 | 2021-04-09 | 深圳市越疆科技有限公司 | 机械臂末端执行器及其控制方法、机械臂和存储器 |
CN112720486A (zh) * | 2020-12-21 | 2021-04-30 | 深圳市越疆科技有限公司 | 机械臂末端执行器及其控制方法、机械臂和存储器 |
CN115196327B (zh) * | 2021-04-12 | 2023-07-07 | 天津新松机器人自动化有限公司 | 一种智能机器人下料工作站 |
DE102021213649A1 (de) * | 2021-12-01 | 2023-06-01 | Volkswagen Aktiengesellschaft | Entnahmewerkzeug und Entnahmesystem zur Entnahme von mittels 3D-Druckverfahren gefertigter Bauteile aus einem Pulverbett |
GB2622813A (en) * | 2022-09-28 | 2024-04-03 | Dyson Technology Ltd | Finger for a robotic gripper |
CN116690628B (zh) * | 2023-07-31 | 2023-12-01 | 季华顺为(佛山)智能技术有限公司 | 一种导线端子夹取装置 |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2753946A1 (de) | 1977-12-03 | 1979-06-13 | Bayer Ag | 1-n-aryl-1,4-dihydropyridine und ihre verwendung als arzneimittel |
JPS6039090A (ja) * | 1983-08-11 | 1985-02-28 | 三菱電機株式会社 | 産業用ロボツトのハンド装置 |
JPS6171302A (ja) * | 1984-09-14 | 1986-04-12 | Toshiba Corp | ロボットハンド用近接センサ装置 |
JPH0319783A (ja) * | 1989-02-16 | 1991-01-28 | Sanyo Electric Co Ltd | ワーク保持機構 |
JPH05381U (ja) * | 1991-06-17 | 1993-01-08 | 株式会社安川電機 | ロボツトハンド |
JPH06206187A (ja) * | 1992-06-10 | 1994-07-26 | Hanshin Sharyo Kk | 被搬送物挟持方法および装置 |
IT1284621B1 (it) * | 1996-04-05 | 1998-05-21 | Az Gomma Ricambi S R L | Testina prensile per movimentazione di contenitori. |
JP3515299B2 (ja) * | 1996-11-26 | 2004-04-05 | 西日本電線株式会社 | 電線把持工具 |
EP0993916B1 (de) | 1998-10-15 | 2004-02-25 | Tecan Trading AG | Robotergreifer |
DE50204091D1 (de) | 2001-04-22 | 2005-10-06 | Neuronics Ag Zuerich | Knickarmroboter |
US7443115B2 (en) * | 2002-10-29 | 2008-10-28 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for robot handling control |
JP2005131719A (ja) * | 2003-10-29 | 2005-05-26 | Kawada Kogyo Kk | 歩行型ロボット |
US8909370B2 (en) * | 2007-05-08 | 2014-12-09 | Massachusetts Institute Of Technology | Interactive systems employing robotic companions |
CN102149520B (zh) * | 2008-09-10 | 2013-09-18 | 谐波传动系统有限公司 | 机械手及板状物品的搬运方法 |
JP2010284728A (ja) * | 2009-06-09 | 2010-12-24 | Kawasaki Heavy Ind Ltd | 搬送ロボット及び自動教示方法 |
JP4834767B2 (ja) * | 2009-12-10 | 2011-12-14 | 株式会社アイ.エス.テイ | 把持装置、布地処理ロボットおよび布地処理システム |
CH705297A1 (de) | 2011-07-21 | 2013-01-31 | Tecan Trading Ag | Greiferzange mit austauschbaren Greiferfingern. |
CN103192401B (zh) * | 2012-01-05 | 2015-03-18 | 沈阳新松机器人自动化股份有限公司 | 机械手末端执行器 |
KR101941844B1 (ko) * | 2012-01-10 | 2019-04-11 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
US20150314454A1 (en) * | 2013-03-15 | 2015-11-05 | JIBO, Inc. | Apparatus and methods for providing a persistent companion device |
JP2014200861A (ja) * | 2013-04-02 | 2014-10-27 | トヨタ自動車株式会社 | 把持装置及び荷物搬送ロボット |
US9434076B2 (en) * | 2013-08-06 | 2016-09-06 | Taiwan Semiconductor Manufacturing Co., Ltd. | Robot blade design |
JP6335587B2 (ja) * | 2014-03-31 | 2018-05-30 | 株式会社荏原製作所 | 基板保持機構、基板搬送装置、半導体製造装置 |
EP2933064A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | System, method and computer program product for handling humanoid robot interaction with human |
EP2933065A1 (en) * | 2014-04-17 | 2015-10-21 | Aldebaran Robotics | Humanoid robot with an autonomous life capability |
JP6593991B2 (ja) * | 2014-12-25 | 2019-10-23 | 三菱重工業株式会社 | 移動ロボット及び先端ツール |
CN106325112B (zh) * | 2015-06-25 | 2020-03-24 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
WO2018233856A1 (en) * | 2017-06-19 | 2018-12-27 | Zhongrui Funing Robotics (Shenyang) Co. Ltd | METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT |
-
2017
- 2017-10-06 WO PCT/EP2017/075574 patent/WO2018233856A1/en active Application Filing
- 2017-10-06 WO PCT/EP2017/075577 patent/WO2018233859A1/en unknown
- 2017-10-06 WO PCT/EP2017/075575 patent/WO2018233857A1/en active Application Filing
- 2017-10-06 WO PCT/EP2017/075576 patent/WO2018233858A1/en active Application Filing
- 2017-10-06 JP JP2018600097U patent/JP3227655U/ja active Active
- 2017-10-06 JP JP2018600099U patent/JP3228266U/ja active Active
- 2017-10-06 US US16/620,672 patent/US20200139558A1/en not_active Abandoned
- 2017-10-06 EP EP17780742.7A patent/EP3641992A1/en not_active Withdrawn
- 2017-10-06 JP JP2018600096U patent/JP3226609U/ja active Active
- 2017-10-06 JP JP2018600098U patent/JP3227656U/ja active Active
- 2017-10-07 CH CH00775/18A patent/CH713933B1/de not_active IP Right Cessation
- 2017-10-07 CH CH00776/18A patent/CH713934B1/de not_active IP Right Cessation
- 2017-10-07 CH CH00774/18A patent/CH713932B1/de not_active IP Right Cessation
-
2018
- 2018-06-15 TW TW107208067U patent/TWM581743U/zh unknown
- 2018-06-15 TW TW107208068U patent/TWM577790U/zh unknown
- 2018-06-15 TW TW107208066U patent/TWM581742U/zh unknown
- 2018-06-15 TW TW107208069U patent/TWM577958U/zh unknown
- 2018-06-19 CN CN201820942021.9U patent/CN209304585U/zh active Active
- 2018-06-19 CN CN201820941173.7U patent/CN209207531U/zh active Active
- 2018-06-19 CN CN201810629273.0A patent/CN109129526A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2018233857A1 (en) | 2018-12-27 |
CN209304585U (zh) | 2019-08-27 |
CH713932B1 (de) | 2020-05-29 |
WO2018233859A1 (en) | 2018-12-27 |
JP3226609U (ja) | 2020-07-09 |
CN109129526A (zh) | 2019-01-04 |
CH713932A2 (de) | 2018-12-28 |
CH713934A2 (de) | 2018-12-28 |
WO2018233858A1 (en) | 2018-12-27 |
TWM581743U (zh) | 2019-08-01 |
CH713933B1 (de) | 2020-05-29 |
TWM577790U (zh) | 2019-05-11 |
EP3641992A1 (en) | 2020-04-29 |
TWM581742U (zh) | 2019-08-01 |
US20200139558A1 (en) | 2020-05-07 |
CH713933A2 (de) | 2018-12-28 |
JP3228266U (ja) | 2020-10-22 |
CN209207531U (zh) | 2019-08-06 |
TWM577958U (zh) | 2019-05-11 |
JP3227655U (ja) | 2020-09-10 |
WO2018233856A1 (en) | 2018-12-27 |
CH713934B1 (de) | 2020-05-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3227656U (ja) | 人の感情状態に作用するように構成されたロボット | |
US11017643B2 (en) | Methods and systems for augmentative and alternative communication | |
JP6929366B2 (ja) | ドライバ監視及び応答システム | |
JP7559391B2 (ja) | イベントの防止及び予測のためのシステム及び方法、コンピュータ実施方法、プログラム、及びプロセッサ | |
JP2017221991A (ja) | ロボット制御システム | |
CN107000982B (zh) | 与电梯交替交互的系统和方法 | |
US10726846B2 (en) | Virtual health assistant for promotion of well-being and independent living | |
JP2018142295A (ja) | 機械学習に基づくアクセス制御のためのシステムおよび方法、プログラム | |
EP3803733A1 (en) | Personal protective equipment and safety management system having active worker sensing and assessment | |
CN118430817B (zh) | 一种基于多模态通道融合的重症监护系统 | |
JP2007087255A (ja) | 情報処理システム、情報処理方法およびプログラム | |
Modayil et al. | Integrating Sensing and Cueing for More Effective Activity Reminders. | |
WO2023286105A1 (ja) | 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法 | |
Lutze et al. | Model based dialogue control for smartwatches | |
US20210142047A1 (en) | Salient feature extraction using neural networks with temporal modeling for real time incorporation (sentri) autism aide | |
CN108958488A (zh) | 一种人脸指令识别方法 | |
US12011828B2 (en) | Method for controlling a plurality of robot effectors | |
JP2003339796A (ja) | 介護ロボット | |
EP3193239A1 (en) | Methods and systems for augmentative and alternative communication | |
Qadeer et al. | Knowledge representation for a neuro-symbolic network in home care risk identification | |
Arunachalam et al. | Human-Robot Interaction in Geriatric Care: RNN Model for Intelligent Companionship and Adaptive Assistance | |
JP2023032038A (ja) | 制御装置、制御方法、提示装置、提示方法、プログラム及び通信システム | |
Mortazavi et al. | Multimodal User Interface, Enabling of Assistive Robots | |
CN118732524A (zh) | 一种智能家居监控系统及方法 | |
CN118143974A (zh) | 基于人工智能的多功能护理机器人系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180817 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3227656 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |