JP3227656U - 人の感情状態に作用するように構成されたロボット - Google Patents

人の感情状態に作用するように構成されたロボット Download PDF

Info

Publication number
JP3227656U
JP3227656U JP2018600098U JP2018600098U JP3227656U JP 3227656 U JP3227656 U JP 3227656U JP 2018600098 U JP2018600098 U JP 2018600098U JP 2018600098 U JP2018600098 U JP 2018600098U JP 3227656 U JP3227656 U JP 3227656U
Authority
JP
Japan
Prior art keywords
needs
network
situation
action
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018600098U
Other languages
English (en)
Inventor
ルドルフ フリュー ハンス
ルドルフ フリュー ハンス
コイシュ ドミニク
コイシュ ドミニク
トリッセル ダーヴィト
トリッセル ダーヴィト
マイヤー ラファエル
マイヤー ラファエル
Original Assignee
ジョンルイ フーニン ロボティクス (シェンヤン) カンパニー リミテッド
ジョンルイ フーニン ロボティクス (シェンヤン) カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ジョンルイ フーニン ロボティクス (シェンヤン) カンパニー リミテッド, ジョンルイ フーニン ロボティクス (シェンヤン) カンパニー リミテッド filed Critical ジョンルイ フーニン ロボティクス (シェンヤン) カンパニー リミテッド
Application granted granted Critical
Publication of JP3227656U publication Critical patent/JP3227656U/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0014Gripping heads and other end effectors having fork, comb or plate shaped means for engaging the lower surface on a object to be transported
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/082Grasping-force detectors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/086Proximity sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0028Gripping heads and other end effectors with movable, e.g. pivoting gripping jaw surfaces
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/02Gripping heads and other end effectors servo-actuated
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/06Safety devices
    • B25J19/063Safety devices working only upon contact with an outside object
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J15/00Gripping heads and other end effectors
    • B25J15/0033Gripping heads and other end effectors with gripping surfaces having special shapes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40411Robot assists human in non-industrial environment like home or office
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Psychiatry (AREA)
  • Biophysics (AREA)
  • Theoretical Computer Science (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Social Psychology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychology (AREA)
  • General Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Manipulator (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)

Abstract

【課題】状況マネージャを状況ネットワークと行動ネットワークとに下位区分し、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、所与の状況のニーズの計算に基づいて、人の感情状態を検出するロボットを提供する。
【解決手段】人の感情状態に作用するロボットであって、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、状況マネージャによって、及び随意に入力デバイスから、提案される行動に優先度を付けるためのプランナと、イベントを検出するためのセンサとを備える。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
【選択図】図1

Description

本考案は、ロボットによって人の感情状態を検出するための方法に関する。
パーソナルケアにおける人間の作業は、病院又は在宅ケア境遇における日常生活のニーズを満たすのを支援する自律ケアロボットによって、ますます置き換えられつつある。これは、特に、精神的な又は認知機能の不全又は疾患、たとえば、認知症をもつ人のケアのために有効である。ケアロボットは、ケア対象の人及びサービス環境に関する情報を集めるためのデバイス、すなわち、センサ、マイクロフォン、カメラ又はモノのインターネットに関係するスマートデバイスと、行動を実行するための手段、すなわち、把持、移動、通信のためのデバイスとを装備している。人間とロボットとの相互作用は、インテリジェント機能、たとえば、音声認識又は表情認識又は触覚パターンによって達成される。これらの機能はまた、ケア状況において、ロボットによって、たとえば、話すこと又はジェスチャー生成、或いはその生成の感情的フィードバックによって模倣され得る。
ロボット支援型ケアの場合、ケア対象の人の実際のニーズと、サービス環境の実際のニーズとを判定すること、及び適切な行動を実行することは困難である。人のニーズは、たとえば、空腹感、渇き、休憩の必要、感情的配慮又は社会的相互作用の必要である。サービス環境のニーズは、たとえば、テーブルを片付けること、又はキッチンを整頓すること、又は冷蔵庫を補充することの必要性である。適切な行動は、ニーズを満たす行動である。概して、ニーズ及び行動は、実際の状況のみに基づいて判定され得ず、むしろ、それらはニーズの履歴に依存する。
本考案は、ロボットによって人の感情状態を検出するための方法に関し、ロボットは、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、状況マネージャによって、及び随意に入力デバイスから、提案される行動に優先度を付けるためのプランナと、イベントを検出するためのセンサとを備える。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、むしろ、それが所与の状況のニーズの計算に基づくという効果を有する。
ケア対象の人のニーズは、たとえば、空腹感、渇き、休憩の必要、感情的配慮の必要である。サービス環境のニーズは、たとえば、テーブルを片付けること、キッチンを整頓すること、又は冷蔵庫を補充することである。
ニーズを満たすための行動は、たとえば、人に物をもってくること、人からそれをもって行くこと、音声生成又は感情画像ディスプレイによって感情的フィードバックを与えること、テーブルを片付けること、又はキッチンを整頓することである。
本考案による状況マネージャは、状況ネットワークと行動ネットワークとに下位区分される。状況ネットワークは、状況ニーズ、すなわち、所与の状況におけるニーズに関する意思決定のための人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の蓄積されたニーズを表し、それは、状況ニーズがニーズの履歴に基づくことを意味する。
行動ネットワークは、状況ニーズのための適切な行動を導出する人工ニューラルネットワークである。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、むしろ、それが所与の状況のニーズの計算に基づくという効果を有する。
状況マネージャは情報プールから入力を取得する。情報プールは、センサ及びモノのインターネット(IoT:Internet of Thingsデバイス)からの信号、ユーザデータベース、並びに履歴を備える。本考案によるセンサは、たとえば、音声パターンを検出する場合のマイクロフォン、表情パターンを検出する場合のカメラ、又は、人の触覚パターンを検出する場合の触覚センサをもつタッチパッドである。センサによって検出された信号は、音声認識、表情認識、又は触覚パターンの認識を通して分析され得る。
IoTデバイスは、たとえば、冷蔵庫の中身の消費期限を制御するためのセンサをもつ冷蔵庫である。ユーザDBは、ケア対象の人に関する情報、たとえば、ユーザの名前、現在の感情状態、又は空間中の位置のリポジトリである。履歴は、センサ及びIoTチャネルの履歴データだけでなく、個人データ、たとえば、感情状態の履歴、及びロボットの行動の履歴をも保持する。さらに、情報プールは、たとえば、ロボットのバッテリーステータスに関する情報を得るためのオープンプラットフォーム通信チャネルへのアクセスを有する。
情報プールからの情報が状況マネージャによって使用され得る前に、それは、特徴準備を終えなければならない。特徴準備は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、分析されたパターンをユーザDB中の個人化されたパターンと比較することによって、分析されたパターンの分類を顧慮する。
行動に優先度を付けるために、プランナは、状況マネージャによる決定、及び/或いはユーザ入力デバイスのような入力デバイス、スケジューラ、又は非常時コントローラからのデータを考慮する。入力デバイスは、ユーザによって行動を命令するためのデバイス、たとえば、特定のケア行動を命令するためのボタンである。スケジューラは、規則的な日時ベースで実行されなければならない行動、たとえば、食事をサービスすること、薬をもってくることのタイムテーブルである。非常時コントローラは、望ましくない又は不都合なイベント、たとえば、ケアロボットを拒否するか又はそれに抵抗するサイン、或いは低いバッテリーステータスを認識することが可能である。非常時コントローラは、情報プールへのアクセスを有する。
プランナによる優先度付けは、たとえば、現在の行動を遂行する、すなわち、それにさらに最高優先度を割り当てるか、現在の行動を中断する、すなわち、それにより低い優先度を割り当てるか、現在の行動をキャンセルする、すなわち、それを行動リストから削除するか、新しい行動を開始するか、又は前に中断されていた行動を再開する効果を有する。
本考案によるロボットのアクティビティを制御するための方法は、以下のステップを含む。
ステップ1:センサによって信号を検出する。このステップによって、患者又はサービス環境に関係する信号又はパターンがキャプチャされる。信号又は信号パターンは、たとえば、位置信号、音声パターン、画像パターン、触覚パターンを指す。信号パターンが触覚パターンを指す場合、センサは、たとえば、ロボットのタッチパッド中にある触覚センサである。感情状態パターンがセンサによって検出された場合、センサは、音声パターンを検出するためのマイクロフォン、及び/又は表情パターンを検出するためのカメラである。
ステップ2:信号を分析する。このステップによって、検出された信号又はパターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。信号パターンが触覚パターンを指す場合、このステップによって、検出された触覚パターンは、たとえば時系列によって特徴を抽出するために解釈される。感情状態パターンが検出された場合、このステップによって、検出された感情状態パターンは、たとえば時系列によって特徴を抽出するために、解釈される。
ステップ3:信号を分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。信号パターンが触覚パターンを指す場合、触覚パターンは、個人化された触覚パターンによって分類される。したがって、このステップによって、抽出された特徴は、たとえば、その触覚パターンをユーザDB中の個人化された触覚パターンと比較することによって分類される。感情状態パターンが検出された場合、感情状態パターンは、個人化された感情状態パターンによって分類される。したがって、このステップによって、抽出された特徴は、たとえば、その感情状態パターンをユーザDB中の個人化された感情状態パターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人及びサービス環境のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
本考案の一実施例によれば、入力デバイスはユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである。
本考案の好ましい実施例によれば、状況ネットワーク及び/又は行動ネットワークは確率モデルに基づく。
本考案の重要な実施例によれば、状況マネージャは情報プールから情報を受信し、情報プールは、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す。
本考案のさらなる実施例によれば、情報プールから状況マネージャによって受信された情報は特徴準備タスクによって分類される。
本考案はまた、説明される方法を実施するためのロボットにも当てはまり、ロボットは、状況マネージャから及び随意に入力デバイスから受信されたタスクに優先度を付けるためのプランナを備える。状況マネージャは、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分される。
一実施例によれば、入力デバイスはユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである。
好ましい実施例によれば、状況ネットワーク及び/又は行動ネットワークは確率モデルに基づく。
重要な実施例によれば、状況マネージャは情報プールから情報を受信し、情報プールは、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す。
別の実施例によれば、情報プールから状況マネージャによって受信された情報は特徴準備タスクによって分類され得る。
極めて重要な実施例によれば、センサは、少なくとも16mmの面積を有する。これによって、たとえば、触覚パターンは、センサによって十分にキャプチャされ得る。
最後に、センサは、ロボットの柔軟な触覚スキンに埋め込まれ得る。また、これによって、たとえば、触覚パターンは、センサによって十分にキャプチャされ得る。
本考案による、ロボットの情報フロー及び決定フローを示すグラフ図。 監視モードでのロボットの動作のフローを示すフローチャート。 触覚相互作用モードでのロボットの動作のフローを示すフローチャート。 社会的相互作用モードでのロボットの動作のフローを示すフローチャート。
図1は、パーソナルケアロボットの情報フロー及び決定フローを示す。パーソナルケアロボットのコア構成要素は、プランナである。プランナのタスクは、行動に優先度を付けること、及び所与のケア状況において行動の実行を起動することである。行動は、たとえば、位置を変更すること、物をもってくること又はそれをもって行くこと、或いはキッチンを整頓することである。行動に優先度を付けるために、プランナは、状況マネージャによる決定、及び/或いはユーザ入力デバイスのような入力デバイス、スケジューラ、又は非常時コントローラによる決定を考慮する。
状況マネージャのタスクは、ケア対象の人のニーズ、すなわち、空腹感、渇き、ストレス低減、及び、所与の状況におけるサービス環境のニーズを満たす行動をプランナに与えることである。状況マネージャは、プランナによる要求に対して反応する。本考案による状況マネージャは、状況ネットワークと行動ネットワークとに下位区分される。状況ネットワークは、状況ニーズ、すなわち、所与の状況におけるニーズに関する意思決定のための人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の蓄積されたニーズを表し、それは、状況ニーズがニーズの履歴に基づくことを意味する。
行動ネットワークは、状況ニーズのための適切な行動を導出する人工ニューラルネットワークである。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が情報プールのデータに直接基づかず、むしろ、それが所与の状況についてのニーズの別個の計算に基づくという効果を有する。
状況マネージャは情報プールから入力を取得する。情報プールは、センサ及びIoTデバイスからの情報、ユーザDB、並びに履歴を備える。本考案によるセンサは、たとえば、マイクロフォン、カメラ、頑丈なパッドである。IoTデバイスは冷蔵庫又は他のスマートデバイスであり得る。ユーザDBは、ケア対象の人に関する情報、たとえば、ユーザの名前、現在の感情状態、又は空間中の現在の位置のリポジトリである。履歴は、センサ及びIoTチャネルのデータの履歴、並びにケア対象の人の状態の履歴、及びロボットの行動の履歴を保持する。さらに、情報プールは、たとえば、ロボットのバッテリーステータスに関する情報を得るためのオープンプラットフォーム通信チャネルへのアクセスを有する。
情報プールからの情報が状況マネージャによって使用され得る前に、それは、特徴準備を終えなければならない。特徴準備は、情報の分類又はアグリゲーション、たとえば、音声認識を介した音声信号の分類、触覚認識を介した触れることの分類、表情認識を介した感情状態の分類、傾向を認識するためのスマートデバイスからの情報のアグリゲーションを顧慮する。
入力デバイスは、関連する機能をもつボタン、タッチスクリーンであり得る。スケジューラは、規則的な日時ベースで実行されなければならない行動、たとえば、食事をもってくること、薬を与えることのタイムテーブルである。非常時コントローラは、望ましくない又は不都合なイベント、たとえば、ケアロボットを拒否するか又はそれに抵抗する行動、或いは低いバッテリーステータスを認識することが可能である。非常時コントローラは、情報プールへのアクセスを有する。
プランナによる優先度付けは、たとえば、現在の行動を遂行する、すなわち、それにさらに最高優先度を割り当てるか、現在の行動を中断する、すなわち、それにより低い優先度を割り当てるか、現在の行動をキャンセルする、すなわち、それを行動リストから削除するか、新しい行動を開始するか、又は前に中断されていた行動を再開する効果を有する。
図2aは、監視モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって信号を検出する。このステップによって、患者又はサービス環境に関係する信号又はパターンがキャプチャされる。信号又は信号パターンは、たとえば、位置信号、音声パターン、画像パターン、触覚パターンを指す。
ステップ2:信号を分析する。このステップによって、検出された信号又はパターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:信号を分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人及びサービス環境のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
図2bは、触覚相互作用モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって触覚パターンを検出する。このステップによって、患者に関係する触覚パターンがキャプチャされる。
ステップ2:分析ユニットによって触覚パターンを分析する。このステップによって、検出された触覚パターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:個人化された触覚パターンによって触覚パターンを分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
図2cは、社会的相互作用モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって感情状態パターンを検出する。このステップによって、患者に関係する感情状態パターンがキャプチャされる。
ステップ2:分析ユニットによって感情状態パターンを分析する。このステップによって、検出された感情状態パターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:個人化された感情状態パターンによって感情状態パターンを分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
本考案は、人の感情状態に作用するように構成されたロボットに関する。
パーソナルケアにおける人間の作業は、病院又は在宅ケア境遇における日常生活のニーズを満たすのを支援する自律ケアロボットによって、ますます置き換えられつつある。これは、特に、精神的な又は認知機能の不全又は疾患、たとえば、認知症をもつ人のケアのために有効である。ケアロボットは、ケア対象の人及びサービス環境に関する情報を集めるためのデバイス、すなわち、センサ、マイクロフォン、カメラ又はモノのインターネットに関係するスマートデバイスと、行動を実行するための手段、すなわち、把持、移動、通信のためのデバイスとを装備している。人間とロボットとの相互作用は、インテリジェント機能、たとえば、音声認識又は表情認識又は触覚パターンによって達成される。これらの機能はまた、ケア状況において、ロボットによって、たとえば、話すこと又はジェスチャー生成、或いはその生成の感情的フィードバックによって模倣され得る。
ロボット支援型ケアの場合、ケア対象の人の実際のニーズと、サービス環境の実際のニーズとを判定すること、及び適切な行動を実行することは困難である。人のニーズは、たとえば、空腹感、渇き、休憩の必要、感情的配慮又は社会的相互作用の必要である。サービス環境のニーズは、たとえば、テーブルを片付けること、又はキッチンを整頓すること、又は冷蔵庫を補充することの必要性である。適切な行動は、ニーズを満たす行動である。概して、ニーズ及び行動は、実際の状況のみに基づいて判定され得ず、むしろ、それらはニーズの履歴に依存する。
本考案は、人の感情状態に作用するように構成されたロボットに関し、ロボットは、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、状況マネージャによって、及び随意に入力デバイスから、提案される行動に優先度を付けるためのプランナと、イベントを検出するためのセンサとを備える。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、むしろ、それが所与の状況のニーズの計算に基づくという効果を有する。
ケア対象の人のニーズは、たとえば、空腹感、渇き、休憩の必要、感情的配慮の必要である。サービス環境のニーズは、たとえば、テーブルを片付けること、キッチンを整頓すること、又は冷蔵庫を補充することである。
ニーズを満たすための行動は、たとえば、人に物をもってくること、人からそれをもって行くこと、音声生成又は感情画像ディスプレイによって感情的フィードバックを与えること、テーブルを片付けること、又はキッチンを整頓することである。
本考案による状況マネージャは、状況ネットワークと行動ネットワークとに下位区分される。状況ネットワークは、状況ニーズ、すなわち、所与の状況におけるニーズに関する意思決定のための人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の蓄積されたニーズを表し、それは、状況ニーズがニーズの履歴に基づくことを意味する。
行動ネットワークは、状況ニーズのための適切な行動を導出する人工ニューラルネットワークである。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が実際のデータに直接基づかず、むしろ、それが所与の状況のニーズの計算に基づくという効果を有する。
状況マネージャは情報プールから入力を取得する。情報プールは、センサ及びモノのインターネット(IoT:Internet of Thingsデバイス)からの信号、ユーザデータベース、並びに履歴を備える。本考案によるセンサは、たとえば、音声パターンを検出する場合のマイクロフォン、表情パターンを検出する場合のカメラ、又は、人の触覚パターンを検出する場合の触覚センサをもつタッチパッドである。センサによって検出された信号は、音声認識、表情認識、又は触覚パターンの認識を通して分析され得る。
IoTデバイスは、たとえば、冷蔵庫の中身の消費期限を制御するためのセンサをもつ冷蔵庫である。ユーザDBは、ケア対象の人に関する情報、たとえば、ユーザの名前、現在の感情状態、又は空間中の位置のリポジトリである。履歴は、センサ及びIoTチャネルの履歴データだけでなく、個人データ、たとえば、感情状態の履歴、及びロボットの行動の履歴をも保持する。さらに、情報プールは、たとえば、ロボットのバッテリーステータスに関する情報を得るためのオープンプラットフォーム通信チャネルへのアクセスを有する。
情報プールからの情報が状況マネージャによって使用され得る前に、それは、特徴準備を終えなければならない。特徴準備は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、分析されたパターンをユーザDB中の個人化されたパターンと比較することによって、分析されたパターンの分類を顧慮する。
行動に優先度を付けるために、プランナは、状況マネージャによる決定、及び/或いはユーザ入力デバイスのような入力デバイス、スケジューラ、又は非常時コントローラからのデータを考慮する。入力デバイスは、ユーザによって行動を命令するためのデバイス、たとえば、特定のケア行動を命令するためのボタンである。スケジューラは、規則的な日時ベースで実行されなければならない行動、たとえば、食事をサービスすること、薬をもってくることのタイムテーブルである。非常時コントローラは、望ましくない又は不都合なイベント、たとえば、ケアロボットを拒否するか又はそれに抵抗するサイン、或いは低いバッテリーステータスを認識することが可能である。非常時コントローラは、情報プールへのアクセスを有する。
プランナによる優先度付けは、たとえば、現在の行動を遂行する、すなわち、それにさらに最高優先度を割り当てるか、現在の行動を中断する、すなわち、それにより低い優先度を割り当てるか、現在の行動をキャンセルする、すなわち、それを行動リストから削除するか、新しい行動を開始するか、又は前に中断されていた行動を再開する効果を有する。
本考案によるロボットのアクティビティを制御するための方法は、以下のステップを含む。
ステップ1:センサによって信号を検出する。このステップによって、患者又はサービス環境に関係する信号又はパターンがキャプチャされる。信号又は信号パターンは、たとえば、位置信号、音声パターン、画像パターン、触覚パターンを指す。信号パターンが触覚パターンを指す場合、センサは、たとえば、ロボットのタッチパッド中にある触覚センサである。感情状態パターンがセンサによって検出された場合、センサは、音声パターンを検出するためのマイクロフォン、及び/又は表情パターンを検出するためのカメラである。
ステップ2:信号を分析する。このステップによって、検出された信号又はパターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。信号パターンが触覚パターンを指す場合、このステップによって、検出された触覚パターンは、たとえば時系列によって特徴を抽出するために解釈される。感情状態パターンが検出された場合、このステップによって、検出された感情状態パターンは、たとえば時系列によって特徴を抽出するために、解釈される。
ステップ3:信号を分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。信号パターンが触覚パターンを指す場合、触覚パターンは、個人化された触覚パターンによって分類される。したがって、このステップによって、抽出された特徴は、たとえば、その触覚パターンをユーザDB中の個人化された触覚パターンと比較することによって分類される。感情状態パターンが検出された場合、感情状態パターンは、個人化された感情状態パターンによって分類される。したがって、このステップによって、抽出された特徴は、たとえば、その感情状態パターンをユーザDB中の個人化された感情状態パターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人及びサービス環境のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
本考案の一実施例によれば、入力デバイスはユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである。
本考案の好ましい実施例によれば、状況ネットワーク及び/又は行動ネットワークは確率モデルに基づく。
本考案の重要な実施例によれば、状況マネージャは情報プールから情報を受信し、情報プールは、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す。
本考案のさらなる実施例によれば、情報プールから状況マネージャによって受信された情報は特徴準備タスクによって分類される。
本考案はまた、説明される方法を実施するためのロボットにも当てはまり、ロボットは、状況マネージャから及び随意に入力デバイスから受信されたタスクに優先度を付けるためのプランナを備える。状況マネージャは、ニーズを判定するための状況ネットワークとニーズを満たすための行動を判定するための行動ネットワークとに区分される。
一実施例によれば、入力デバイスはユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである。
好ましい実施例によれば、状況ネットワーク及び/又は行動ネットワークは確率モデルに基づく。
重要な実施例によれば、状況マネージャは情報プールから情報を受信し、情報プールは、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す。
別の実施例によれば、情報プールから状況マネージャによって受信された情報は特徴準備タスクによって分類され得る。
極めて重要な実施例によれば、センサは、少なくとも16mmの面積を有する。これによって、たとえば、触覚パターンは、センサによって十分にキャプチャされ得る。
最後に、センサは、ロボットの柔軟な触覚スキンに埋め込まれ得る。また、これによって、たとえば、触覚パターンは、センサによって十分にキャプチャされ得る。
本考案による、ロボットの情報フロー及び決定フローを示すグラフ図。 監視モードでのロボットの動作のフローを示すフローチャート。 触覚相互作用モードでのロボットの動作のフローを示すフローチャート。 社会的相互作用モードでのロボットの動作のフローを示すフローチャート。
図1は、パーソナルケアロボットの情報フロー及び決定フローを示す。パーソナルケアロボットのコア構成要素は、プランナである。プランナのタスクは、行動に優先度を付けること、及び所与のケア状況において行動の実行を起動することである。行動は、たとえば、位置を変更すること、物をもってくること又はそれをもって行くこと、或いはキッチンを整頓することである。行動に優先度を付けるために、プランナは、状況マネージャによる決定、及び/或いはユーザ入力デバイスのような入力デバイス、スケジューラ、又は非常時コントローラによる決定を考慮する。
状況マネージャのタスクは、ケア対象の人のニーズ、すなわち、空腹感、渇き、ストレス低減、及び、所与の状況におけるサービス環境のニーズを満たす行動をプランナに与えることである。状況マネージャは、プランナによる要求に対して反応する。本考案による状況マネージャは、状況ネットワークと行動ネットワークとに下位区分される。状況ネットワークは、状況ニーズ、すなわち、所与の状況におけるニーズに関する意思決定のための人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の蓄積されたニーズを表し、それは、状況ニーズがニーズの履歴に基づくことを意味する。
行動ネットワークは、状況ニーズのための適切な行動を導出する人工ニューラルネットワークである。状況ネットワークと行動ネットワークの両方は確率モデルに基づく。
状況マネージャを状況ネットワークと行動ネットワークとに下位区分することは、所与の状況のための適切な行動の計算が情報プールのデータに直接基づかず、むしろ、それが所与の状況についてのニーズの別個の計算に基づくという効果を有する。
状況マネージャは情報プールから入力を取得する。情報プールは、センサ及びIoTデバイスからの情報、ユーザDB、並びに履歴を備える。本考案によるセンサは、たとえば、マイクロフォン、カメラ、頑丈なパッドである。IoTデバイスは冷蔵庫又は他のスマートデバイスであり得る。ユーザDBは、ケア対象の人に関する情報、たとえば、ユーザの名前、現在の感情状態、又は空間中の現在の位置のリポジトリである。履歴は、センサ及びIoTチャネルのデータの履歴、並びにケア対象の人の状態の履歴、及びロボットの行動の履歴を保持する。さらに、情報プールは、たとえば、ロボットのバッテリーステータスに関する情報を得るためのオープンプラットフォーム通信チャネルへのアクセスを有する。
情報プールからの情報が状況マネージャによって使用され得る前に、それは、特徴準備を終えなければならない。特徴準備は、情報の分類又はアグリゲーション、たとえば、音声認識を介した音声信号の分類、触覚認識を介した触れることの分類、表情認識を介した感情状態の分類、傾向を認識するためのスマートデバイスからの情報のアグリゲーションを顧慮する。
入力デバイスは、関連する機能をもつボタン、タッチスクリーンであり得る。スケジューラは、規則的な日時ベースで実行されなければならない行動、たとえば、食事をもってくること、薬を与えることのタイムテーブルである。非常時コントローラは、望ましくない又は不都合なイベント、たとえば、ケアロボットを拒否するか又はそれに抵抗する行動、或いは低いバッテリーステータスを認識することが可能である。非常時コントローラは、情報プールへのアクセスを有する。
プランナによる優先度付けは、たとえば、現在の行動を遂行する、すなわち、それにさらに最高優先度を割り当てるか、現在の行動を中断する、すなわち、それにより低い優先度を割り当てるか、現在の行動をキャンセルする、すなわち、それを行動リストから削除するか、新しい行動を開始するか、又は前に中断されていた行動を再開する効果を有する。
図2aは、監視モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって信号を検出する。このステップによって、患者又はサービス環境に関係する信号又はパターンがキャプチャされる。信号又は信号パターンは、たとえば、位置信号、音声パターン、画像パターン、触覚パターンを指す。
ステップ2:信号を分析する。このステップによって、検出された信号又はパターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:信号を分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人及びサービス環境のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
図2bは、触覚相互作用モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって触覚パターンを検出する。このステップによって、患者に関係する触覚パターンがキャプチャされる。
ステップ2:分析ユニットによって触覚パターンを分析する。このステップによって、検出された触覚パターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:個人化された触覚パターンによって触覚パターンを分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。
図2cは、社会的相互作用モードでのロボットの動作のフローを示すフローチャートを示す。本方法は、以下のステップを含む。
ステップ1:センサによって感情状態パターンを検出する。このステップによって、患者に関係する感情状態パターンがキャプチャされる。
ステップ2:分析ユニットによって感情状態パターンを分析する。このステップによって、検出された感情状態パターンは、たとえば時系列によって特徴を抽出するために、解釈され又は分析にまとめられる。
ステップ3:個人化された感情状態パターンによって感情状態パターンを分類する。このステップによって、分析された特徴は、たとえば、人の感情状態を導出するために、又はIoTデバイスからの信号の時間的傾向を認識するために、そのパターンをユーザDB中の個人化されたパターンと比較することによって分類される。
ステップ4:状況ネットワークによって、人のニーズを判定する。このステップによって、状況のニーズが、情報プールの情報に基づいて計算される。状況ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。状況ニーズは、経時的な、ケア対象の人の、及びサービス環境の、蓄積されたニーズを表す。したがって、人工ニューラルネットワークによる状況ニーズの計算は、実際のニーズに基づくだけでなく、ニーズの履歴にも基づく。
ステップ5:状況ネットワークによって判定されたニーズを満たすための行動を判定する。このステップによって、状況のニーズのための適切な行動が計算される。行動ネットワークは、確率モデルに基づく人工ニューラルネットワークとして設計される。
ステップ6:入力デバイスによってトリガされる行動を判定する。このステップによって、入力デバイスによってトリガされる行動が判定される。入力デバイスは、たとえば、特定のケア行動を命令するためのボタン、又は規則的な日時ベースで実行されなければならない行動をトリガするためのスケジューラ、又は非常時コントローラである。
ステップ7:プランナによって行動に優先度を付ける。このステップによって、行動は、たとえば、最高優先度から最低優先度まで、(1)非常時行動、(2)入力デバイスによって命令される行動、(3)スケジュールされた行動、(4)状況マネージャによって提案される行動、の緊急度測度に従って、優先度を付けられる。
ステップ8:最高優先度をもつ行動を実行する。このステップによって、最も緊急の行動が実行されることになる。
ステップ9:停止条件に達するまで、ステップ(1)から(9)までを繰り返す。このステップは、それが停止のための外部コマンドによって停止されるまで、ロボットが常に何かを行うという効果を有する。

Claims (12)

  1. ロボットによって人の感情状態を検出するための方法であって、前記ロボットは、
    ニーズを判定するための状況ネットワークと前記ニーズを満たすための行動を判定するための行動ネットワークとに区分された状況マネージャと、
    状況マネージャから、及び随意に入力デバイスから、受信されたタスクに優先度を付けるためのプランナと、
    触覚パターンを検出するためのセンサと、
    を備え、当該方法は、
    ステップ1:前記センサによって触覚パターンを検出するステップと、
    ステップ2:分析ユニットによって触覚パターンを分析するステップと、
    ステップ3:ユーザデータベースに記憶された個人化された触覚パターンによって触覚パターンを分類するステップと、
    ステップ4:前記状況ネットワークによって前記ニーズを判定するステップと、
    ステップ5:前記行動ネットワークによってステップ4において判定された前記ニーズを満たすための前記行動を判定するステップと、
    ステップ6:前記入力デバイスによってトリガされた前記行動を判定するステップと、
    ステップ7:前記プランナによって前記行動に優先度を付けるステップと、
    ステップ8:最高優先度をもつ行動を実行するステップと、
    ステップ9:ステップ(1)から(9)までを繰り返すステップと、
    を含む、方法。
  2. 前記入力デバイスがユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである、請求項1に記載の方法。
  3. 前記状況ネットワーク及び/又は前記行動ネットワークが確率モデルに基づく、請求項1又は2に記載の方法。
  4. 前記状況マネージャが情報プールから情報を受信し、前記情報プールが、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す、請求項1から3までに記載の方法。
  5. 前記情報プールから前記状況マネージャによって受信された前記情報が特徴準備タスクによって分類される、請求項4に記載の方法。
  6. 請求項1から5までに記載の方法を実施するためのロボットであって、当該ロボットは、状況マネージャから及び随意に入力デバイスから受信されたタスクに優先度を付けるためのプランナと、触覚パターンを検出するためのセンサと、を備えるロボットにおいて、前記状況マネージャが、ニーズを判定するための状況ネットワークと、前記ニーズを満たすための行動を判定するための行動ネットワークとに区分されることを特徴とする、ロボット。
  7. 前記入力デバイスがユーザ入力デバイス及び/又はスケジューラ及び/又は非常時コントローラである、請求項6に記載のロボット。
  8. 前記状況ネットワーク及び/又は前記行動ネットワークが確率モデルに基づく、請求項6又は7に記載のロボット。
  9. 前記状況マネージャが情報プールから情報を受信し、前記情報プールが、センサ及び/又はモノのインターネット、並びに/或いはユーザデータベース、並びに/或いは履歴及び/又はオープンプラットフォーム通信チャネルを指す、請求項6から8までに記載のロボット。
  10. 前記情報プールから前記状況マネージャによって受信された前記情報が特徴準備タスクによって分類される、請求項9に記載のロボット。
  11. 前記センサが少なくとも16mmの面積を有する、請求項6から10までに記載のロボット。
  12. 前記センサが前記ロボットの柔軟な触覚スキンに埋め込まれている、請求項6から11までに記載のロボット。
JP2018600098U 2017-06-19 2017-10-06 人の感情状態に作用するように構成されたロボット Active JP3227656U (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762521686P 2017-06-19 2017-06-19
US62/521,686 2017-06-19
PCT/EP2017/075575 WO2018233857A1 (en) 2017-06-19 2017-10-06 METHOD FOR DETECTING THE EMOTIONAL STATUS OF A PERSON BY A ROBOT

Publications (1)

Publication Number Publication Date
JP3227656U true JP3227656U (ja) 2020-09-10

Family

ID=60037614

Family Applications (4)

Application Number Title Priority Date Filing Date
JP2018600097U Active JP3227655U (ja) 2017-06-19 2017-10-06 人のためのパーソナルケアを支援するために構成されたロボット
JP2018600099U Active JP3228266U (ja) 2017-06-19 2017-10-06 人との社会的相互作用のための行為を実施するように構成されたロボット
JP2018600096U Active JP3226609U (ja) 2017-06-19 2017-10-06 ロボット用グリッパシステム
JP2018600098U Active JP3227656U (ja) 2017-06-19 2017-10-06 人の感情状態に作用するように構成されたロボット

Family Applications Before (3)

Application Number Title Priority Date Filing Date
JP2018600097U Active JP3227655U (ja) 2017-06-19 2017-10-06 人のためのパーソナルケアを支援するために構成されたロボット
JP2018600099U Active JP3228266U (ja) 2017-06-19 2017-10-06 人との社会的相互作用のための行為を実施するように構成されたロボット
JP2018600096U Active JP3226609U (ja) 2017-06-19 2017-10-06 ロボット用グリッパシステム

Country Status (7)

Country Link
US (1) US20200139558A1 (ja)
EP (1) EP3641992A1 (ja)
JP (4) JP3227655U (ja)
CN (3) CN209304585U (ja)
CH (3) CH713933B1 (ja)
TW (4) TWM581743U (ja)
WO (4) WO2018233856A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017210213A1 (de) * 2017-06-19 2018-12-20 Kuka Deutschland Gmbh Greifer mit einem Sensor an einem Getriebegliedlager des Greifers
WO2018233856A1 (en) * 2017-06-19 2018-12-27 Zhongrui Funing Robotics (Shenyang) Co. Ltd METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT
CN109807903B (zh) * 2019-04-10 2021-04-02 博众精工科技股份有限公司 一种机器人控制方法、装置、设备和介质
JP7258391B2 (ja) * 2019-05-08 2023-04-17 国立研究開発法人産業技術総合研究所 児童相談所などにおける情報処理方法及び装置
JP7362308B2 (ja) * 2019-06-17 2023-10-17 株式会社ディスコ 加工装置
US20210349462A1 (en) 2020-05-08 2021-11-11 Robust Al, Inc. Ultraviolet end effector
CN112621795A (zh) * 2020-12-21 2021-04-09 深圳市越疆科技有限公司 机械臂末端执行器及其控制方法、机械臂和存储器
CN112720486A (zh) * 2020-12-21 2021-04-30 深圳市越疆科技有限公司 机械臂末端执行器及其控制方法、机械臂和存储器
CN115196327B (zh) * 2021-04-12 2023-07-07 天津新松机器人自动化有限公司 一种智能机器人下料工作站
DE102021213649A1 (de) * 2021-12-01 2023-06-01 Volkswagen Aktiengesellschaft Entnahmewerkzeug und Entnahmesystem zur Entnahme von mittels 3D-Druckverfahren gefertigter Bauteile aus einem Pulverbett
GB2622813A (en) * 2022-09-28 2024-04-03 Dyson Technology Ltd Finger for a robotic gripper
CN116690628B (zh) * 2023-07-31 2023-12-01 季华顺为(佛山)智能技术有限公司 一种导线端子夹取装置

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2753946A1 (de) 1977-12-03 1979-06-13 Bayer Ag 1-n-aryl-1,4-dihydropyridine und ihre verwendung als arzneimittel
JPS6039090A (ja) * 1983-08-11 1985-02-28 三菱電機株式会社 産業用ロボツトのハンド装置
JPS6171302A (ja) * 1984-09-14 1986-04-12 Toshiba Corp ロボットハンド用近接センサ装置
JPH0319783A (ja) * 1989-02-16 1991-01-28 Sanyo Electric Co Ltd ワーク保持機構
JPH05381U (ja) * 1991-06-17 1993-01-08 株式会社安川電機 ロボツトハンド
JPH06206187A (ja) * 1992-06-10 1994-07-26 Hanshin Sharyo Kk 被搬送物挟持方法および装置
IT1284621B1 (it) * 1996-04-05 1998-05-21 Az Gomma Ricambi S R L Testina prensile per movimentazione di contenitori.
JP3515299B2 (ja) * 1996-11-26 2004-04-05 西日本電線株式会社 電線把持工具
EP0993916B1 (de) 1998-10-15 2004-02-25 Tecan Trading AG Robotergreifer
DE50204091D1 (de) 2001-04-22 2005-10-06 Neuronics Ag Zuerich Knickarmroboter
US7443115B2 (en) * 2002-10-29 2008-10-28 Matsushita Electric Industrial Co., Ltd. Apparatus and method for robot handling control
JP2005131719A (ja) * 2003-10-29 2005-05-26 Kawada Kogyo Kk 歩行型ロボット
US8909370B2 (en) * 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
CN102149520B (zh) * 2008-09-10 2013-09-18 谐波传动系统有限公司 机械手及板状物品的搬运方法
JP2010284728A (ja) * 2009-06-09 2010-12-24 Kawasaki Heavy Ind Ltd 搬送ロボット及び自動教示方法
JP4834767B2 (ja) * 2009-12-10 2011-12-14 株式会社アイ.エス.テイ 把持装置、布地処理ロボットおよび布地処理システム
CH705297A1 (de) 2011-07-21 2013-01-31 Tecan Trading Ag Greiferzange mit austauschbaren Greiferfingern.
CN103192401B (zh) * 2012-01-05 2015-03-18 沈阳新松机器人自动化股份有限公司 机械手末端执行器
KR101941844B1 (ko) * 2012-01-10 2019-04-11 삼성전자주식회사 로봇 및 그 제어방법
US20150314454A1 (en) * 2013-03-15 2015-11-05 JIBO, Inc. Apparatus and methods for providing a persistent companion device
JP2014200861A (ja) * 2013-04-02 2014-10-27 トヨタ自動車株式会社 把持装置及び荷物搬送ロボット
US9434076B2 (en) * 2013-08-06 2016-09-06 Taiwan Semiconductor Manufacturing Co., Ltd. Robot blade design
JP6335587B2 (ja) * 2014-03-31 2018-05-30 株式会社荏原製作所 基板保持機構、基板搬送装置、半導体製造装置
EP2933064A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics System, method and computer program product for handling humanoid robot interaction with human
EP2933065A1 (en) * 2014-04-17 2015-10-21 Aldebaran Robotics Humanoid robot with an autonomous life capability
JP6593991B2 (ja) * 2014-12-25 2019-10-23 三菱重工業株式会社 移動ロボット及び先端ツール
CN106325112B (zh) * 2015-06-25 2020-03-24 联想(北京)有限公司 一种信息处理方法及电子设备
WO2018233856A1 (en) * 2017-06-19 2018-12-27 Zhongrui Funing Robotics (Shenyang) Co. Ltd METHOD FOR CONTROLLING ACTIVITIES OF A ROBOT

Also Published As

Publication number Publication date
WO2018233857A1 (en) 2018-12-27
CN209304585U (zh) 2019-08-27
CH713932B1 (de) 2020-05-29
WO2018233859A1 (en) 2018-12-27
JP3226609U (ja) 2020-07-09
CN109129526A (zh) 2019-01-04
CH713932A2 (de) 2018-12-28
CH713934A2 (de) 2018-12-28
WO2018233858A1 (en) 2018-12-27
TWM581743U (zh) 2019-08-01
CH713933B1 (de) 2020-05-29
TWM577790U (zh) 2019-05-11
EP3641992A1 (en) 2020-04-29
TWM581742U (zh) 2019-08-01
US20200139558A1 (en) 2020-05-07
CH713933A2 (de) 2018-12-28
JP3228266U (ja) 2020-10-22
CN209207531U (zh) 2019-08-06
TWM577958U (zh) 2019-05-11
JP3227655U (ja) 2020-09-10
WO2018233856A1 (en) 2018-12-27
CH713934B1 (de) 2020-05-29

Similar Documents

Publication Publication Date Title
JP3227656U (ja) 人の感情状態に作用するように構成されたロボット
US11017643B2 (en) Methods and systems for augmentative and alternative communication
JP6929366B2 (ja) ドライバ監視及び応答システム
JP7559391B2 (ja) イベントの防止及び予測のためのシステム及び方法、コンピュータ実施方法、プログラム、及びプロセッサ
JP2017221991A (ja) ロボット制御システム
CN107000982B (zh) 与电梯交替交互的系统和方法
US10726846B2 (en) Virtual health assistant for promotion of well-being and independent living
JP2018142295A (ja) 機械学習に基づくアクセス制御のためのシステムおよび方法、プログラム
EP3803733A1 (en) Personal protective equipment and safety management system having active worker sensing and assessment
CN118430817B (zh) 一种基于多模态通道融合的重症监护系统
JP2007087255A (ja) 情報処理システム、情報処理方法およびプログラム
Modayil et al. Integrating Sensing and Cueing for More Effective Activity Reminders.
WO2023286105A1 (ja) 情報処理装置、情報処理システム、情報処理プログラム、及び情報処理方法
Lutze et al. Model based dialogue control for smartwatches
US20210142047A1 (en) Salient feature extraction using neural networks with temporal modeling for real time incorporation (sentri) autism aide
CN108958488A (zh) 一种人脸指令识别方法
US12011828B2 (en) Method for controlling a plurality of robot effectors
JP2003339796A (ja) 介護ロボット
EP3193239A1 (en) Methods and systems for augmentative and alternative communication
Qadeer et al. Knowledge representation for a neuro-symbolic network in home care risk identification
Arunachalam et al. Human-Robot Interaction in Geriatric Care: RNN Model for Intelligent Companionship and Adaptive Assistance
JP2023032038A (ja) 制御装置、制御方法、提示装置、提示方法、プログラム及び通信システム
Mortazavi et al. Multimodal User Interface, Enabling of Assistive Robots
CN118732524A (zh) 一种智能家居监控系统及方法
CN118143974A (zh) 基于人工智能的多功能护理机器人系统

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180817

R150 Certificate of patent or registration of utility model

Ref document number: 3227656

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250