JP2021525421A - 観察可能な健康状態の兆候のためのロボット対話 - Google Patents

観察可能な健康状態の兆候のためのロボット対話 Download PDF

Info

Publication number
JP2021525421A
JP2021525421A JP2020565775A JP2020565775A JP2021525421A JP 2021525421 A JP2021525421 A JP 2021525421A JP 2020565775 A JP2020565775 A JP 2020565775A JP 2020565775 A JP2020565775 A JP 2020565775A JP 2021525421 A JP2021525421 A JP 2021525421A
Authority
JP
Japan
Prior art keywords
individual
series
robot device
health
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020565775A
Other languages
English (en)
Other versions
JP7299245B2 (ja
Inventor
スワウォミール ウォジェハウスキー,
スワウォミール ウォジェハウスキー,
グレッグ ポドナー,
グレッグ ポドナー,
ウィリアム, ティー. メイザー,
ウィリアム, ティー. メイザー,
セオドア エンス,
セオドア エンス,
ダニエル オブリンガー,
ダニエル オブリンガー,
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aeolus Robotics Inc
Original Assignee
Aeolus Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aeolus Robotics Inc filed Critical Aeolus Robotics Inc
Publication of JP2021525421A publication Critical patent/JP2021525421A/ja
Priority to JP2022185610A priority Critical patent/JP2023026707A/ja
Application granted granted Critical
Publication of JP7299245B2 publication Critical patent/JP7299245B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1113Local tracking of patients, e.g. in a hospital or private home
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1116Determining posture transitions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
    • A61B5/1126Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
    • A61B5/1128Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/746Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0003Home robots, i.e. small robots for domestic use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1661Programme controls characterised by programming, planning systems for manipulators characterised by task planning, object-oriented languages
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • G06V10/811Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data the classifiers operating on different input data, e.g. multi-modal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/35Categorising the entire scene, e.g. birthday party or wedding scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/28Recognition of hand or arm movements, e.g. recognition of deaf sign language
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/07Home care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • A61B2560/0247Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value
    • A61B2560/0252Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value using ambient temperature
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • A61B2560/0247Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value
    • A61B2560/0257Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value using atmospheric pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/02Operational features
    • A61B2560/0242Operational features adapted to measure environmental factors, e.g. temperature, pollution
    • A61B2560/0247Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value
    • A61B2560/0261Operational features adapted to measure environmental factors, e.g. temperature, pollution for compensation or correction of the measured physiological value using hydrostatic pressure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0204Acoustic sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0247Pressure sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0271Thermal or temperature sensors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7465Arrangements for interactive communication between patient and care services, e.g. by using a telephone network
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Robotics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Psychiatry (AREA)
  • Physiology (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Social Psychology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)

Abstract

健康状態の兆候、健康を脅かす危険及び/又は健康上の懸念がある状態の兆候を家庭又は職場で観察する支援ロボットを記載する。支援ロボットが、危険な状況を回避する措置を取り、健康上の問題を診断し、援助の要請に応え、人の医学的状態を定期的に処理又は分析してもよい。支援ロボットが、ユーザの習慣を学習するか、その環境内の人間に関する知識を提供されてもよい。支援ロボットが、人の行動及び必要のスケジュール及びコンテキストを理解してもよい。支援ロボットが、支援の提供の前、間又は後に、人々と対話し、人々を理解し、人々とコミュニケーションを取ってもよい。ロボットが、ジェスチャ、衣服、感情、時刻、姿勢認識、動作認識及びその他の観察データを組み合わせて、人々の医学的状態、現在の活動及び今後意図される活動及び意思を理解してもよい。

Description

関連出願の相互参照
本出願は、「System and Method for Robotic Interactions for Observable Signs of Core Health」と題する2018年5月23日出願の米国仮特許出願第62/675,729号及び、「System and Method for Robotic Interactions for Observable Signs of Intent」と題する2018年5月23日出願の米国仮特許出願第62/675,730号の権利を主張し、これらは双方共に、その開示全体が参照により本明細書中に組み込まれる。
発明の背景
本開示は、概略的にはロボットに関し、詳細には支援ロボットに関する。
人とのつながりは、誰にとっても身体及び精神の健康のために必要である。必要を満たし、支援を提供し、家事を手伝い、人々と対話し、その他の多くの社会的機能を遂行する、信頼でき責任を果たせる同伴者は、費用が高額であり、見つけるのが困難である。技術分野の急激な進歩により、ホームアシスタントが普及しつつある。しかし、従来のホームアシスタントの能力は限定されている。例えば、スマートスピーカは質問や命令に答えるだけであり、ロボット掃除機は床を掃除できるだけである。
発明の概要
本明細書に、家庭、職場、ヘルスケア施設又はその他の施設で、健康状態の兆候、健康を脅かす危険及び/又は健康上の懸念がある状態の兆候を観察する支援ロボットを記載する。支援ロボットが、危険な状況を回避する措置を取り、健康上の問題を診断し、援助の要請に応え、人の医学的状態を定期的に処理又は分析してもよい。本明細書に、一人以上の人(又は動物)の必要を予測する支援ロボットを記載する。支援ロボットが、現在の活動、人の日課に関する知識及びコンテキスト情報を認識してもよい。支援ロボットが、適切なロボット支援の提供又は提供の申し出を行ってもよい。
支援ロボットが、ユーザの習慣を学習するか、その環境内の人間に関する知識を提供されてもよい。支援ロボットが、人の行動及び必要のスケジュール及びコンテキストを理解してもよい。支援ロボットが、支援の提供の前、間又は後に、人々と対話し、人々を理解し、人々とコミュニケーションを取ってもよい。観察認識の例に、ボディランゲージ、認識した物体との人との対話、経時的な日課及び人間の動作が含まれてもよい。ロボットが、ジェスチャ、衣服、感情、時刻、姿勢認識、動作認識及びその他の観察データを組み合わせて、人々の医学的状態、現在の活動及び今後意図される活動及び意思を理解してもよい。
一実施形態に基づく、支援ロボットを管理するためのシステム環境の図である。 一実施形態に基づく、支援ロボットの図である。 一実施形態に基づく、ユーザの健康状態を判定する制御システムを説明するフロー図である。 一実施形態に基づく、訓練データを説明する表である。 一実施形態に基づく、ユーザの意思を判定する制御システムを説明するフロー図である。 一実施形態に基づく、訓練データを説明する表である。
図面は、本発明の実施形態を説明のみを目的として描写したものである。本明細書で説明する構造及び方法の代替的な実施形態を、本明細書に記載の発明の原理から逸脱することなく採用可能であることが、以下の記載から当業者に容易に理解されよう。
発明の詳細な説明
図1は、一実施形態に基づく、支援ロボットを管理するためのシステム環境の図である。システム環境は、支援プラットフォーム120、クライアント装置110、支援ロボット102、装置106を含み、これら全てがネットワーク140を介して接続されている。別の複数の実施形態では、異なる、及び/又は更なる実体がシステムアーキテクチャ内に含まれてもよい。環境が、住環境、ヘルスケア環境又は職場環境であってもよい。
クライアント装置110は、ネットワーク140を介してユーザ入力を受信すると共にデータを送信及び/又は受信することの可能な演算装置である。クライアント装置は、スマートフォン、携帯情報端末(personal digital assistant:PDA)、移動電話、タブレット、ラップトップコンピュータ、デスクトップコンピュータ、ウェアラブルコンピュータ(スマートウォッチ、リストバンド、アームバンド、チェストバンドなど)、又はその他の好適な装置などの、コンピュータ機能を有する装置である。一実施形態では、クライアント装置は、クライアント装置110のユーザが支援ロボット102及び/又は支援プラットフォーム120と対話することを可能にするアプリケーションを実行する。例えば、クライアント装置110は、ネットワーク140を介したクライアント装置110と支援プラットフォーム120との対話を可能にするブラウザアプリケーションを実行する。個人が、クライアント装置110を介して支援ロボット102の物理的な移動性及び操作を制御してもよい。個人が支援ロボット12から離隔していてもよく、別の個人を支援するように支援ロボット102を制御することが可能であってもよい。例えば、介護者、緊急連絡先又は医師が、支援ロボット102と対話してユーザを支援してもよい。別の一実施形態では、クライアント装置110は、IOS(登録商標)又はANDROID(登録商標)などのクライアント装置のネイティブのオペレーティングシステム上でランするアプリケーション・プログラミング・インターフェース(application programming interface:API)を介して支援プラットフォーム120と対話する。
支援ロボット120(以下に図2を参照して詳述する)は、ユーザの健康の監視及び判定、ユーザの意思の監視及び判定、ユーザの健康及び/又は意思に基づいて動作を実行することによるユーザの世話などの支援を提供する。支援ロボット102は移動可能であり、例えば家などの空間内を動き回ることができる。支援ロボット102が、人及び動物と対話してもよい。例えば、支援ロボット102が、数多くの動作の中でも特に、物品をユーザに持って来るか、ユーザに情報を提供するか、又は連絡先に警告を送信してもよい。支援ロボット102は、ユーザの身体的外見、行動、精神状態及び動作などのユーザに関する情報並びに、時刻、場所及び温度などの環境に関するデータを記録する。例えば、支援ロボット102は、ユーザ及び環境に関するデータを収集するための様々なセンサを含む。支援ロボット102は、データを分析して、ユーザの健康状態及び/又はユーザの意思を判定する。支援ロボット102が動いてもよく、また、例えば音声、接触などを介してユーザと対話してもよい。
支援プラットフォーム120は、支援ロボット102やユーザに関する情報、健康に関する情報、人間行動に関する情報を記憶する1つ以上のデータベースを含むコンピュータサーバである。支援ロボット102に関する情報が、モデル、構成、性能などを含んでもよい。ユーザに関する情報が、ユーザの統計的情報、地理的な位置、連絡先情報、病歴などを含んでもよい。健康に関する情報が、疾患及び関連する症状を記述する情報、人間行動及び関連する医学的状態を記述する情報、負傷及び関連する人間行動を記述する情報、精神病及び身体的発現を記述する情報などを含んでもよい。人間行動情報が、人間行動及び関連する仕事を記述する情報、人間行動及び関連する目的を記述する情報、環境及びその環境における関連する共通の人間の反応を記述する情報、コンテキスト及びそのコンテキストにおける関連する共通の人間の反応を記述する情報などを含んでもよい。
装置106は、環境内のユーザが利用可能な装置である。環境が、住環境、職場環境又はヘルスケア環境であってもよい。装置106が、宅内装置、作業装置、ヘルスケア装置又は運搬機器であってもよい。装置の例に、家庭用電気製品(例えば、エアコン、ヒータ、換気装置、冷蔵庫、オーブン、コーヒーマシン、照明、ドアロック、電動ブラインド及びシェード、スタンディングデスク、リクライニングチェア、階段昇降機、音楽プレーヤ、テレビ、ホームシアタ、オーディオプレーヤ、浴室内用電気機器、掃除機など)、オフィス機器(例えば、プリンタ、コピー機、スキャナなど)、運搬機器(例えば、スクータ、自転車、自動車、車椅子など)、ヘルスケア監視装置(例えば血圧モニタ、血糖値測定器、脈拍測定器など)が含まれる。装置106が、ここに列挙されていない他の種類の装置を含んでもよい。支援ロボット102又は離隔しているユーザが装置106と対話できるように、装置106がインターフェースを含んでもよい。
ネットワーク140は、支援ロボット102、クライアント装置110、装置106及び支援プラットフォーム120間の通信インフラストラクチャを提供する。ネットワーク140は、ローカル・エリア・ネットワーク(Local Area Network:LAN)、広域ネットワーク(Wide Area Network:WAN)、移動有線又は無線ネットワーク、プライベートネットワーク、仮想プライベートネットワーク、又はこれらの何らかの組み合わせを非限定的に含むいかなるネットワークであってもよい。ネットワーク140内のエンティティは、様々な通信プロトコルに基づく有線又は無線データリンクを使用してデータを送受信する。
図2は、一実施形態に基づく支援ロボット102の図である。支援ロボット102を、以降ロボット102としても言及する。ロボット102は、ユーザインターフェース102、センサシステム210、制御システム220及び動作システム250を含む。他の実施形態では、支援ロボット102が、明瞭化の目的で図示されていない様々な用途のための更なる、より少ない、又は異なる構成要素を含んでもよい。例えば、支援ロボット102は、ネットワーク140とインターフェースするインターフェースを含む。支援ロボット102が通信モジュールを含み、これを介して、支援ロボット102から離隔していてもよい別のユーザとユーザ201とが支援ロボット102を監視及び制御してもよい。他方のユーザが、支援ロボット102の動作、操作及びその他の物理的な動作を制御してもよい。他方のユーザが、支援ロボット102を通じ、映像、音声及びその他の通信モダリティを介してユーザ201と通信を行ってもよい。他方のユーザが、支援ロボット102を制御して、宅内装置及び健康器具などの他の装置にアクセスしてもよい。
ユーザインターフェース202は、ユーザ201とインターフェースする。ユーザインターフェース202は、ユーザ命令を受信して、更なる質問、応答、推奨される動作などの情報を提示する。いくつかの実施形態では、ユーザインターフェース202は、ユーザ201が支援ロボット102と言語対話することを可能にする音声ユーザインターフェースを含む。ユーザインターフェース202は、センサシステム210(音声センサ216など)から音声入力を受信し、音声入力を処理して、音声入力に含まれる命令又は要求を認識する。ユーザインターフェース202は、情報を発話へと合成し、発話をユーザ201に向けて出力する。ユーザインターフェース202はまた、入出力装置(キーボード、マウス、タッチパッドなど)又はクライアント装置110から入力を受信して、明瞭に表現されたグラフィカル出力をディスプレイ上に表示するグラフィック・ユーザ・インターフェースを含んでもよい。ユーザインターフェース202はまた、センサシステム210(画像センサ212など)からジェスチャ入力を受信し、ジェスチャ入力を処理して、ジェスチャ入力に含まれる命令又は要求を認識する、ジェスチャ・ユーザ・インターフェースを含んでもよい。ユーザインターフェース202がその他の種類のユーザインターフェースを含んでもよい。
センサシステム210は、ユーザ、ロボット210の周囲環境及びロボット102に関するデータを集合的に生成するセンサを含む。センサシステム210は、ユーザ201の画像をキャプチャする画像センサ212を含む。画像が二次元(2D)画像であっても、三次元(3D)画像であってもよい。画像が単色であっても多色であってもよい。画像を、波長400〜700nmの範囲内の可視光によって生成しても、波長400〜700nmの範囲外の非可視光によって生成してもよい。センサシステム210は、ロボット210の位置及び/又は動作を測定する位置センサ214を含む。位置センサ214の例に、並進動作(前/後、上/下、左/右)を測定する加速度計、回転動作(ピッチ、ヨー、ロールなど)を測定するジャイロスコープ、ロボット102の位置における地磁気を測定する磁力計、ロボット120の位置を測定する地理的位置センサ又はその他の適切な種類の動作を検出するセンサが含まれる。位置センサ214が、力、角速度及びロボット102の周囲環境のうちの1つ以上を測定する慣性測定ユニット(inertial measurement unit:IMU)の一部であってもよい。IMUは、位置センサ214によって生成された測定結果及び/又は深度センサ216によって生成された深度情報に基づいて、ロボット102の位置データを算出する。
センサシステム210は、周囲環境内のユーザ201などの物体の深度情報を測定する深度センサ216を含む。深度情報は、距離及び相対的な位置を含む。深度センサ216が、超音波画像をキャプチャする超音波センサ、飛行時間(time−of−flight:ToF)カメラ又はライダであってもよい。センサシステム210は、周囲環境内の音波をキャプチャするマイクロフォン217を含む。
センサシステム210が、その他のセンサ218を含んでもよい。その他のセンサ218が、ロボット102によって加えられる圧力の量を感知する圧力センサ、ロボット102と、ユーザ201などの別の物体との間の接触を検出する接触センサ、周囲環境内の音声及び音源方向をキャプチャするアレイマイクロフォン、周囲環境内の気圧をキャプチャする気圧計及び、周囲環境の周囲温度又はユーザ201などの別の物体の温度を測定する温度計を含んでもよい。その他のセンサ218が、周囲環境内の湿度を測定する湿度計及び、周囲環境内のガス濃度を測定するガス検出器を更に含んでもよい。その他のセンサ218が、筋肉データとしても言及される筋電図(electromyography:EMG)信号、心拍データとしても言及される心電図(electrocardiograph)信号、脳波計(electroencephalograph:EEG)信号、脳磁計(magnetoencephalograph:MEG)信号及びその他の種類の信号などのユーザ201の生理学的データを測定する電極を含んでもよい。その他のセンサ216がその他の種類のセンサを含んでもよい。
センサシステム210の複数のセンサが、ロボット102の構成要素を封入するハウジング内に集積化されていてもよく、又はロボット102の物理的本体から離隔していてもよい。例えば、センサがユーザ201に取り付けられていても、環境内に配置されていてもよい。センサシステム210は、キャプチャされた情報を、更なる処理のためにユーザインターフェース202又は制御システム220に提供する。
制御システム220は、ロボット102を制御する。例えば、制御システム220は、ロボット102が実行する動作を決定する。動作の例に、ユーザ201に追従すること、ユーザ201の動作を監視すること、ユーザ201の命令を認識して、認識した命令に応答すること、ユーザ201の健康状態を判定して、判定した健康状態に応答すること、ユーザ201の意思を判定して、判定した意思に応答することが含まれる。制御システム220は、センサシステム210によって生成されたセンサデータを使用して、ユーザ201の健康状態を判定する。制御システム220は、センサシステム210によって生成されたセンサデータを使用して、ユーザ201の意思を判定する。様々な実施形態において、制御システム220は、センサからセンサデータを収集して分析する。
図示するように、制御システム220は、データ処理モジュール221、健康モジュール222、意思モジュール224、応答判定モジュール226、動作制御装置228、センサデータストア229、ユーザデータストア230、健康データストア231、意思データストア232及びモデルデータストア233を含む。制御システム220のいくつかの実施形態は、本明細書に記載のモジュールとは異なるモジュールを有する。同様に、上述とは異なる方法で、機能をこれらのモジュールに分散させてもよい。
データ処理モジュール221は、センサデータストア229に記憶された生のセンサデータを処理する。例えば、データ処理モジュール222は、画像を処理して、動作(例えば、歩く、座る、物をつかむ、ドアを開ける、犬を可愛がる、物を取るなど)、ジェスチャ(例えば、右手を振る、左手を振る、うなずく、腕をひねるなど)、身体部分(例えば、顔、手、腕など)、顔の表情(例えば、笑う、しかめる、泣く、驚く、怒るなど)、体位(例えば、両足で立つ、左足で立つ、右足で立つ、仰臥、伏臥、右側横臥、左側横臥など)、身体的外見(例えば、発疹などの皮膚の状態、たるんだ顔、衣服など)、物体(例えば、茶碗、犬、猫、スーツケース、鍵など)を認識してもよい。健康モジュール222は、音声信号を処理して、発話の内容(例えば、単語、フレーズ、要求など)、発話の特徴(例えば、高さ、音量、速度など)などを認識してもよい。別の一例として、健康モジュール222は、動作、ジェスチャ、顔、顔の表情、発話の内容(例えば、単語、フレーズ、要求など)、発話の特徴(例えば、高さ、音量、速度など)などの時間的情報(例えば、開始時刻、終了時刻、時間の長さなど)及び/又は位置情報(例えば、地理的位置、(居間、寝室、台所、トイレ、地下室、階段、事務所などの)建物内の区域、物体に対する相対的な位置など)を判定してもよい。更なる例として、健康モジュール222は、特定の動作、ジェスチャ、顔の表情、発話の内容などの時間的特性(例えば、ある時間間隔内の速度、時間の長さなど)を判定する。時間間隔及び時間の長さを、推奨されるガイドラインに従って、ユーザ201又は管理者が構成してもよい。時間間隔及び時間の長さが変化してもよい。
データ処理モジュール221が、ユーザ201の典型的な就寝時間やその他の習慣、ユーザ201の居場所の日常的な時間分布などの、ユーザ201の日課を判定してもよい。データ処理モジュール221が、モデルデータストア237内に記憶された1つ以上のデータ処理アルゴリズム、分類器、人工知能モデル、機械学習モデルを使用して、センサデータを上述のように処理してもよい。
健康モジュール222は、ユーザ201の健康状態を判定する。健康状態は、ユーザ201が健康である、不健康である、負傷している、又は健康を脅かされている可能性を含む。健康モジュール222は更に、医学的状態の種類を診断してもよい。医学的状態の例に、発熱、息切れ、消化不良、脱水、発作などが含まれる。健康モジュール222は、センサシステム210によって生成された生のセンサデータ及び/又はデータ処理モジュール221によって出力された処理済みのデータを使用して、健康状態を判定する。健康状態が、ユーザデータストア230内に記憶されているユーザデータによって更に判定されてもよい。
健康モジュール222は、ユーザ201が変則的に行動していることを示すセンサデータに基づいて、即ち、ユーザ201の行動が通常の行動から逸脱している場合に、ユーザ201が健康上の問題を有する可能性があることを検出してもよい。通常の行動は、一般集団に関するデータから判定される一般的な通常の行動であってもよく、又はユーザ201の行動履歴に関するデータから判定される固有の通常の行動であってもよい。健康モジュール222は、ユーザ201の行動とカテゴリ化された既知の状態とを比較することによって、ユーザ201の固有の健康状態を更に診断してもよい。例えば、ユーザが新たな通常ではない場所(例えば玄関など)で眠っている(又は意識を失っている)ことをセンサデータが示しており、かつユーザ201は通常は一箇所(例えば寝室など)で就寝する場合、健康モジュール222は、ユーザが卒倒した可能性があると判定する。ユーザが窓を開ける頻度が高すぎることをセンサデータが示している場合、健康モジュール222は、ユーザ201が息切れしている可能性があると判定する。ユーザがトイレに行く頻度が高すぎることをセンサデータが示している場合、健康モジュール222は、ユーザが消化不良を起こしているか、腎臓疾患にかかっている可能性があると判定する。ユーザ201が通常よりも長く眠っている(又は意識を失っている)ことをセンサデータが示している場合、健康モジュール222は、ユーザ201が発熱、炎症、貧血、甲状腺機能不全又は心臓疾患を起こしている可能性があると判定する。ユーザ201の体温が通常よりも高いことをセンサデータが示している場合、健康モジュール222は、ユーザ201が発熱しているか、炎症を起こしている可能性があると判定する。ユーザ201が咳をしていることをセンサデータが示している場合、健康モジュール222は、ユーザ201が風邪を引いている可能性があると判定する。ユーザ201が夜間に就寝時間の間に徘徊していることをセンサデータが示している場合、健康モジュール222は、ユーザが夢遊病にかかっている可能性があると判定する。ユーザ201がエアコンの温度をいつもの正常な温度よりも高く設定していることをセンサデータが示している場合、健康モジュール222は、ユーザ201が血管系の問題を起こしている可能性があると判定する。ユーザ201がいつも実施する活動を失念していることをセンサデータが示している場合、健康モジュール222は、ユーザ201が認知症を発症している可能性があると判定する。ユーザ201が鼻をかんでいることをセンサデータが示している場合、健康モジュール222は、ユーザ201が風邪を引いているか、アレルギーを発症している可能性があると判定する。
健康モジュール222は、ユーザ201が予期しない行動を取っていることを示すセンサデータに基づき、ユーザ201が負傷している可能性があると判定してもよい。健康モジュール222は、ユーザ201の行動とカテゴリ化された既知の状態とを比較することにより、ユーザ201の固有の健康状態を更に診断してもよい。ユーザ201が悲鳴を上げて倒れたことをセンサデータが示している場合、健康モジュール222は、ユーザ201が足首をねんざしたか、頭部に怪我を負った可能性があると判定する。ユーザ201が息切れを起こして卒倒したことをセンサデータが示している場合、健康モジュール222は、ユーザ201が心調律障害を起こしている可能性があると判定する。ユーザ201の発話の癖の変化又は顔面の非対称性が見られる場合、健康モジュール222は、ユーザ201が脳卒中を起こしている可能性があると判定する。ユーザ201に黄疸が生じていることをセンサデータが示している場合、健康モジュール222は、ユーザ201が腎臓疾患又は肝炎を起こしている可能性があると判定する。
健康モジュール222は、環境が安全ではないことをセンサデータが示していることに基づいて、ユーザ201の健康が脅かされていることを検出してもよい。一酸化炭素濃度が上昇しているか、あるいは腐敗物又は黴が存在することをセンサデータが示している場合、健康モジュール222は、環境がユーザ201にとって安全ではないと判定する。
健康モジュール222は、健康状態を判定するために、センサデータを1つ以上の機械学習モデルに提供する。機械学習モデルには、1つ以上の人工知能モデル、分類器(例えば、ロジスティック分類器、サポートベクターマシン及びマルチクラス分類など)、決定木、ニューラルネットワーク、ディープラーニングモデル、又はこれらの任意の組み合わせが含まれる。機械学習モデルは、健康状態とセンサデータとの間の相関を含む。センサデータは、身体状態特徴、精神状態特徴、行動特徴、環境特徴などを含む。いくつかの実施形態では、機械学習モデルは、センサデータに含まれる1つ以上の特徴と健康状態との間の相関を含む。例えば、ロジスティック分類器のモデルパラメータは、センサデータに含まれる異なる特徴に対応するロジスティック関数の係数を含む。
別の一例として、機械学習モデルは、節はセンサデータに含まれる特徴の条件付き検定に対応し、葉は分類結果(即ち、1つ以上の特徴の有無)に対応する有向非周期グラフである決定木モデルを含む。例示的な決定木のパラメータには、(1)決定木の節と葉との間の接続を記述する隣接行列、(2)節ごとの比較対象の特徴、比較閾値及び比較の種類(例えば、より大きい、等しい、より小さいなど)及び/又は(3)どの健康状態が決定木のどの葉に対応するのかを示す葉パラメータが含まれる。
健康モジュール222は、訓練データを使用して、(例えばモデルパラメータを決定するなど)機械学習モデルを生成する。訓練データは、特徴でラベル付けされた一連の生の又は分析されたセンサデータを含む。例えば、訓練データは、特徴が(例えば健康モジュール222により、ユーザ201により、管理者により、専門家により、又はこれらの組み合わせにより)既に特定されているセンサデータである。健康モジュール222は、センサデータに関連する健康状態を予測するモデルパラメータを決定する。例えば、健康モジュール222は、判定した健康状態と訓練データに示される健康状態との一致率を示す目的関数を求める。健康モジュール222は、目的関数を最大化するようにパラメータを変更することにより、予測される健康状態と実際の健康状態との差を小さくする。
ラベル付けされた訓練データの一例を図4に示す。データは、各行がデータのレコード及び関連するラベルである表形式で整理されている。列402〜列408は、異なるデータタイプであり、列409はラベルである。ラベルは、一般的に入手可能な情報に従って作成されてもよく、又は個人的な情報に従って作成されてもよい。一般的に入手可能な検索結果の例には、年齢、民族及び性別などの統計的情報が類似している複数の個人の正常な体温範囲、正常な心拍範囲、正常な血圧範囲、正常な体重範囲が含まれる。個人的な情報の例には、通常の就寝時間、体重履歴などのユーザの習慣又はスケジュールが含まれる。例えば通常の就寝時間及びその他の習慣などの一部の訓練データは、ロボット102がユーザ201と対話する最初の数日間で構築され、継続的/定期的に更新されてもよい。ロボット102が、ユーザ201の正常な活動場所の日常的な時間分布を作成してもよい。例えば、ユーザ201は、平日午前6〜8時及び午後6〜8時の間は台所で、平日午後8〜10時の間は居間で、平日午後10時〜午前6時の間は寝室で過ごす。
健康モジュール222は更に、例えばユーザインターフェース202及び/又はセンサシステム210を介して受信した情報を使用して、機械学習モデル(例えば、機械学習モデルのモデルパラメータなど)を更新する。例えば、ロボット102がセンサデータに基づいて健康状態を判定した後に、ロボット102は、ユーザ201に健康状態を確認する。ユーザ201の肯定的なフィードバック(例えば確認など)は、機械学習モデルが正確であることを示し、否定的なフィードバック(例えば不承認など)は、機械学習モデルを改善する必要があることを示す。
意思モジュール224は、ユーザの意思を判定する。本明細書に記載の意思には、仕事を完了しようとするユーザの意思又は計画、仕事を完了する必要性又は、いつも行っている完了すべき仕事が含まれる。意思モジュール224は、センサシステム210によって生成された生のセンサデータ及び/又はデータ処理モジュール221によって出力された処理済みのデータを使用して、意思を判定する。意思が、ユーザデータストア230に記憶されたユーザデータを更に使用すること及び/又はインターネットを検索することによって判定されてもよい。
意思モジュール224は、ユーザ201が現在行っている活動、ユーザ201の日課及びコンテキスト情報を認識することによって、ユーザの意思を判定してもよい。一例として、意思モジュール224は、ユーザ201がある物体を指差している場合、ユーザ201が物体に対する動作(例えば、水差しを取る、箱を持ち上げる、皿を運ぶなど)を実行することを意図していると判定する。意思モジュール224は、ユーザ201が朝に起床している場合、ユーザがコーヒーを飲み、シャワーを浴びる可能性があると判定する。意思モジュール224は、ユーザ201が夜に歯磨きを始めた場合、ユーザ201が眠くなっており、ドアを施錠しようとするであろうと判定する。意思モジュール224は、ユーザ201が朝食を済ませて仕事着に着替えている場合、ユーザ201が出勤しようとしており、ラップトップを必要とする可能性があると判定する。意思モジュール224は、時刻がユーザのいつもの在宅時間に近づいている場合、ユーザが間もなく帰宅し、エアコンをオンにする可能性があると判定する。
意思モジュール224は、ユーザ201が仕事後に冷蔵庫から食材を取り出している場合、ユーザ201が夕食を調理し始めており、レシピを必要とする可能性があると判定する。意思モジュール224は、ユーザ201がコンピュータの前であくびをしている場合、ユーザ201が仕事中であり、コーヒーを必要とする可能性があると判定する。意思モジュール224は、ユーザ201がテレビをオンにした場合、ユーザ201がテレビを観ようとしており、番組推薦又は軽食を必要とする可能性があると判定する。意思モジュール224は、ユーザ201が最後に外出する人物である場合、家が無人となり、ユーザ201が家電製品をオフにすることを必要とする可能性があると判定する。意思モジュール224は、ユーザ201がある部屋で靴を履き、別の部屋で鍵を手にした場合、ユーザ201が外出しようとしていると判定する。意思モジュール224は、雨が降ることをセンサデータが示している場合、ユーザ201が傘を必要とする可能性があると判定する。意思モジュール224は、ある特定の食品又は日用品の備蓄が少ないことをセンサデータが示している場合、ユーザ201がその食品又は日用品を補充する可能性があると判定する。意思モジュール224は、ユーザ201がいつも注文する商品に関する宣伝が存在する場合、ユーザ201がその宣伝を知ることに興味を持つ可能性があると判定する。
加えて、意思モジュール224は、ペットのいつもの給餌スケジュールが忘れられている場合、ペットが空腹であり、給餌を必要としていると判定する。意思モジュール224は、ユーザ201がある植物に毎週水やりをする場合、ユーザ201がその植物に水やりをする可能性があると判定する。意思モジュール224は、衣類が家/アパートメント中に散乱していることをセンサデータが示している場合、ユーザ201が家の掃除をする必要がある可能性があると判定する。意思モジュール224は、洗濯かごが一杯であることをセンサデータが示している場合、ユーザ201が洗濯をする必要がある可能性があると判定する。意思モジュール224は、食器洗い機が一杯であるか、もうすぐ一杯になりそうである場合、ユーザ201が食器を洗う必要がある可能性があると判定する。意思モジュール224は、人物が汗をかいているか、又は背中を丸めて手をこすり合わせている場合、エアコンを調節する必要があると判定する。意思モジュール224は、ある特定の食品がアレルゲンを含むことをセンサデータが示している場合、その食品がユーザ201のアレルギーを引き起こす可能性があると判定する。
意思モジュール222は、意思を判定するために、センサデータを1つ以上の機械学習モデルに提供してもよい。機械学習モデルには、1つ以上の人工知能モデル、分類器(例えば、ロジスティック分類器、サポートベクターマシン及びマルチクラス分類など)、決定木、ニューラルネットワーク、ディープラーニングモデル、又はこれらの任意の組み合わせが含まれる。機械学習モデルは、意思とセンサデータとの間の相関を含む。センサデータは、活動特徴、スケジュール特徴、行動特徴、環境特徴などを含む。いくつかの実施形態では、機械学習モデルは、センサデータに含まれる1つ以上の特徴と意思との間の相関を含む。例えば、ロジスティック分類器のモデルパラメータは、センサデータに含まれる異なる特徴に対応するロジスティック関数の係数を含む。
別の一例として、機械学習モデルは、節はセンサデータに含まれる特徴の条件付き検定に対応し、葉は分類結果(即ち、1つ以上の特徴の有無)に対応する有向非周期グラフである決定木モデルを含む。例示的な決定木のパラメータには、(1)決定木の節と葉との間の接続を記述する隣接行列、(2)節ごとの比較対象の特徴、比較閾値及び比較の種類(例えば、より大きい、等しい、より小さいなど)及び/又は(3)どの意思が決定木のどの葉に対応するのかを示す葉パラメータが含まれる。
意思モジュール224は、訓練データを使用して、(例えばモデルパラメータを決定するなど)機械学習モデルを生成する。訓練データは、特徴でラベル付けされた一連の生の又は分析されたセンサデータを含む。例えば、訓練データは、特徴が(例えば健康モジュール224により、ユーザ201により、管理者により、専門家により、又はこれらの組み合わせにより)既に特定されているセンサデータである。意思モジュール224は、センサデータに関連する意思を予測するモデルパラメータを決定する。例えば、意思モジュール222は、判定した意思と訓練データに示される意思との一致率を示す目的関数を求める。健康モジュール222は、目的関数を最大化するようにパラメータを変更することにより、予測される意思と実際の意思との差を小さくする。
ラベル付けされた訓練データの一例を図6に示す。データは、各行がデータのレコード及び関連するラベルである表形式で整理されている。列602〜列608は、異なるデータタイプであり、列608はラベルである。ラベルは、一般的に入手可能な情報に従って作成されてもよく、又は個人的な情報に従って作成されてもよい。一般的に入手可能な検索結果の例には、ある状況における人間の典型的な行動が含まれる。個人的な情報の例には、通常の就寝時間、勤務時間、場所のスケジュールなどのユーザの習慣又はスケジュールが含まれる。例えば通常の就寝時間及びその他の習慣などの一部の訓練データは、ロボット102がユーザ201と対話する最初の数日間で構築され、継続的/定期的に更新されてもよい。ロボット102が、ユーザ201の正常な活動場所の日常的な時間分布を作成してもよい。例えば、ユーザ201は、平日午前6〜8時及び午後6〜8時の間は台所で、平日午後8〜10時の間は居間で、平日午後10時〜午前6時の間は寝室で過ごす。
意思モジュール224は更に、例えばユーザインターフェース202を介して受信した情報を使用して、機械学習モデル(例えば、機械学習モデルのモデルパラメータなど)を更新する。例えば、ロボット102がセンサデータに基づいて意思を判定した後に、ロボット102は、ユーザ201に意思を確認する。ユーザ201の肯定的なフィードバック(例えば確認など)は、機械学習モデルが正確であることを示し、否定的なフィードバック(例えば不承認など)は、機械学習モデルを改善する必要があることを示す。
応答決定モジュール226は、ロボット102の応答を、ユーザの健康状態に基づいて、又はユーザの意思に基づいて決定する。例えば、ユーザ201が健康上の問題を有する可能性があると健康モジュール222が判定した場合、応答決定モジュール226は、ユーザ201に対し、ユーザ201が支援を必要としているか否かを確認すること又は支援を申し出ることを決定する。ユーザ201が肯定した場合、応答決定モジュール226は、第三者(例えば、医師、緊急連絡先、最寄りの別のユーザなど)に連絡すること及び/又は支援を提供することを決定する。例えば、応答決定モジュール226は、ユーザ201に対して更なる入力を求め、それにより、ユーザ201を診断し、及び/又は、薬、水、ティッシュ又はその他の用品を取ってくることを決定する。応答決定モジュール226は、最寄りの別の個人に接近してコミュニケーションを取り、及び/又は、電話かテキストを使用して別の個人を呼ぶ。ユーザ201が負傷していると健康モジュール222が判定した場合、応答決定モジュール226は、ユーザ201に対して救急車を呼ぶべきか否かを確認すること及び/又は、各所に救急通報を行うことを決定する。ユーザ201が健康上の危険に直面していると健康モジュール222が判定した場合、応答決定モジュール226は、ユーザ201に対して健康上の危険(例えば、一酸化炭素、黴など)について警告し、更なる指示を求める。
応答決定モジュール226は、ユーザ201の確認、指示及び診断などの情報をセンサデータと更に関連付け、情報をユーザデータストア230及び健康データストア232に格納してもよい。制御システム220が、ロボット又は医療専門家による後の分析のために、健康状態の毎日の観察結果を記録してもよい。
応答決定モジュール226は、仕事を完了させて、判定された意思を更に進捗させること及び/又はユーザに確認を行って更なる指示を受け取ることを決定してもよい。例えば、ユーザ201が物体に対する動作(例えば、水筒を取る、箱を持ち上げる、皿を運ぶなど)を実行することを意図していると意思モジュール224が判定した場合、応答決定モジュール226は、その動作を実行することを決定する。ユーザが日課(例えば、起床する、就寝する、出勤する、帰宅する、夕食を作る、テレビを観る、仕事をするなど)を行っていると意思モジュール224が判定した場合、応答決定モジュール226は、支援(例えば、コーヒーを淹れる、全てのドアを施錠する、家庭用機器をオン又はオフにする、ラップトップを持ってくる、レシピを提供する、テレビ番組を推薦する、軽食を持ってくるなど)を申し出ること又は支援を提供することを決定する。スケジュール(例えば、給餌スケジュール、水やりスケジュール、発注スケジュール、洗濯スケジュールなど)が入っている時刻であると意思モジュール224が判定した場合、応答決定モジュール226は、支援(例えば、ペットに給餌する、植物に水やりをする、食品ストック又は日用品を発注するなど)を申し出ること又は支援を提供することを決定する。ユーザがある特定の物品(例えば、傘、宣伝、ニューリリースなど)を必要とするか、又はある仕事(例えば、洗濯をする、食器を洗う、エアコンを調節するなど)を行うことを必要とする可能性があると意思モジュールが判定した場合、応答決定モジュール226は、支援(例えば、傘を持ってくる、宣伝を知らせる、ニューリリースを知らせる、洗濯かご又は洗濯機に衣服を入れる、食洗機の電源を入れる、食洗機に食器を入れる、食洗機をスタートさせる、食洗機から食器を出すなど)を申し出ること又は支援を提供することを決定する。
制御システム220は、応答決定モジュール226によって決定された応答に基づいて反応するようにロボット102を制御する。動作制御装置226は、制御システム220によって決定された応答に基づいて動作システム250が実行する一連の動作を決定する。例えば、ある特定の場所に行くことを応答決定モジュール226が決定した場合、動作制御装置228は、移動システム254(例えば、車輪、脚、トレッドなど)をユーザ201の場所へと駆動する命令を生成する。ある動作を実行することを応答決定モジュール226が決定した場合、動作制御装置は、ロボットアーム252を駆動してその動作を実行させる命令を生成する。制御システム220はまた、装置をオン又はオフにする、クライアント装置110を介してユーザ201に警告を送信する、又は第三者に警告を送信するために、装置106又はクライアント装置110と通信を行ってもよい。
ユーザデータストア230は、ユーザ201に関するデータを記憶する。ユーザデータには、例えば、ユーザの個人的な情報(例えば、年齢、身長、体重、性別、顔など)、健康情報(例えば、病歴、健康記録、アレルギーなど)、行動情報(例えば、歩く速さ、話す速さ、姿勢、日課、習慣、位置など)、連絡先情報(例えば、電話番号、電子メールアドレス、住所など)、嗜好(例えば、食べ物、本、趣味など)、所有する衣服(例えば、普段着、作業着、仕事着、特別な場合用など)が含まれる。
健康データストア231は、疾患及び関連する症状を記述する情報、人間行動及び関連する医学的状態を記述する情報、負傷及び関連する人間行動を記述する情報、精神病及び関連する身体的発現を記述する情報などの健康状態データを記憶する。意思データストア232は、人間行動及び関連する仕事を記述する情報、人間行動及び関連する目的を記述する情報、環境及びその環境における関連する共通の人間の反応を記述する情報、コンテキスト及びそのコンテキストにおける関連する共通の人間の反応を記述する情報などの意思データを記憶する。モデルデータストア233は、ロボット102によって使用される機械学習モデルを記憶する。機械学習モデル102が、ロボット102によって訓練されてもよい。機械学習モデル102が、支援プラットフォーム120によって更に訓練され、ロボット102に配備されてもよい。
動作システム250は、動作を実行する物理的な構成要素を含む。例えば、ロボットアーム252が、物体又は人間に向けて動作を実行してもよい。動作の例に、接触する、つかむ、持つ、動かす、離す、揺り動かす、振る、持ち上げる、落とす、置く、回す、ひねるなどが含まれる。ロボットアーム252が多様な動作を行ってもよい。移動システム254が動作を実行することにより、ロボットアシスタント102を目的の場所まで移動させてもよい。動作システム250が、アクチュエータやモータなどのその他の構成要素を含んでもよい。
図3は、一実施例に基づく、ユーザの健康状態を判定する制御システム220を説明するフロー図である。プロセス300は、制御システム220が訓練済みの機械学習モデルを使用する動作フェーズ301と、制御システム220が機械学習モデルを訓練する訓練フェーズ350とを含む。制御システム220は、センサデータをセンサシステム210から受信する(302)。制御システム220は、センサデータを1つ以上の機械学習モデル306に提供する(304)。制御システムが、センサデータを機械学習モデルに提供する前にセンサデータを処理してもよい。制御システムが、センサデータの一部のみを機械学習モデルに提供してもよい。制御システム220は、1つ以上の機械学習モデル306の出力を使用して、ユーザ健康状態を判定する(308)。制御システム220は、健康状態が認識された健康状態であるか否かを判定する(310)。健康状態が、認識された健康状態のうちの1つである場合には、制御システム220は動作を実行する(312)。健康状態が、認識された健康状態のうちの1つではない場合には、制御システム220は、インターネットを検索するか、ユーザに更なる情報を求める確認を行うか、医療専門家に連絡する。
訓練側において、制御システム220は、ラベル付けされたデータを含む1つ以上の訓練セットを受信する(352)。制御システム220は、機械学習モデルによるセンサデータと健康状態との間の相関の判定のために、訓練セットを1つ以上の機械学習モデルに提供する(354)。制御システム220は、機械学習モデルを使用する前に、訓練済みの機械学習モデルを検証する。例えば、制御システム220は、訓練済みの機械学習モデルの出力が正確になるまで、訓練済みの機械学習モデルの検証データセットを提供する。制御システム220が、機械学習モデルを動作させながら機械学習モデルを訓練してもよい。
図5は、一実施形態に基づく、ユーザの意思を判定する制御システム220を説明するフロー図である。プロセス500は、制御システム220が訓練済みの機械学習モデルを使用する動作フェーズ501と、制御システム220が機械学習モデルを訓練する訓練フェーズ550とを含む。制御システム220は、センサデータをセンサシステム210から受信する(502)。制御システム220は、センサデータを1つ以上の機械学習モデル506に提供する(504)。制御システムが、センサデータを機械学習モデルに提供する前に、センサデータを処理してもよい。制御システムが、センサデータの一部のみを機械学習モデルに提供してもよい。制御システム220は、1つ以上の機械学習モデル506の出力を使用して、ユーザの意思を判定する(508)。制御システム220は、意思に従って動作を実行する(312)。
訓練側において、制御システム220は、ラベル付けされたデータを含む1つ以上の訓練セットを受信する(552)。制御システム220は、機械学習モデルによるセンサデータと意思との間の相関の判定のために、訓練セットを1つ以上の機械学習モデルに提供する(554)。制御システム220は、機械学習モデルを使用する前に、訓練済みの機械学習モデルを検証する(556)。例えば、制御システム220は、訓練済みの機械学習モデルの出力が正確になるまで、訓練済みの機械学習モデルの検証データセットを提供する。制御システム220が、機械学習モデルを動作させながら機械学習モデルを訓練してもよい。
本発明の実施形態の以上の記載は、説明を目的としてなされたものであり、全てを網羅している訳ではなく、また、開示されるそのままの形態に本発明を限定するものでもない。様々な修正及び変形を加えることも上記の開示の観点から可能であることは、当業者に理解されよう。
本明細書の一部では、本発明の実施形態を情報処理アルゴリズム及び記号的表現で説明している。これらのアルゴリズムによる説明及び表現は、データ処理分野における当業者がその作業内容を他の当業者に効率的に伝達するために、通常に使用されているものである。これらの処理は、関数、演算又は論理の形で記載されているが、コンピュータプログラム又は同等の電気回路、マイクロコードなどによって実装されるものとして理解される。更に、場合によっては、これらの処理装置を、一般性を失うことなくモジュールとして言及することが適切であることも証明されている。記載の処理及び関連するモジュールは、ソフトウェア、ファームウェア、ハードウェア又は任意のこれらの組み合わせの形で具現化されてもよい。
本明細書に記載の任意の工程、動作又は処理を、1つ以上のハードウェア又はソフトウェアモジュールを単独で又は他の装置と組み合わせて使用して実行又は実施してもよい。一実施形態では、ソフトウェアモジュールは、本明細補に記載の任意の又は全ての工程、動作又は処理を実行するためにコンピュータプロセッサによって実行可能なコンピュータプログラムコードを含むコンピュータ可読非一時的媒体を有するコンピュータプログラム製品を使用して実装される。
本発明の実施形態は、本明細書に記載の演算処理によって製造される製品に関連してもよい。そのような製品は、演算処理から求められ、非一時的な有形のコンピュータ可読記憶媒体に記憶されている情報を含んでもよく、また、本明細書に記載のコンピュータプログラム製品又はその他のデータの組み合わせの任意の実施形態を含んでもよい。
最後に、本明細書で使用する用語は、発明の主題を限定又は制限するためではなく、分かりやすく教示することを主たる目的として選択されている。従って、本発明の範囲は、本明細書の詳細な説明によってではなく、本出願の任意の請求項によってのみ限定されることを意図されている。このように、本発明の実施形態の開示は、以下の請求項に記載の発明の範囲を限定的ではなく説明するものであることを意図されている。

Claims (40)

  1. ロボット装置であって、
    複数のセンサであって、
    個人の一連の1つ以上の画像をキャプチャし、
    前記個人の音声信号を記録し、
    前記個人の周囲環境の環境データを生成する、
    ように構成された複数のセンサと、
    プロセッサと、
    メモリであって、前記プロセッサに、
    前記個人によって実行された一連の動作を、前記個人の前記一連の1つ以上の画像から認識することと、
    前記個人からの言語的内容を前記音声信号から認識することと、
    前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することにより、健康状態を判定することと、
    前記健康状態が所定の一連の健康状態に含まれると判定することに応答して、前記ロボット装置が実行する一連の動作を、前記健康状態に基づいて決定することと、
    を実行させるように構成された命令を記憶しているメモリと、
    を備える、ロボット装置。
  2. 前記健康状態を判定することは、前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを機械学習モデルに提供することを含み、前記機械学習モデルは前記健康状態を認識するように訓練される、請求項1に記載のロボット装置。
  3. 前記機械学習モデルは、参照健康状態を記述するラベルを含む訓練データを使用することによって訓練される、請求項2に記載のロボット装置。
  4. 前記健康状態を判定することは、前記一連の動作が複数の所定の動作に含まれるか否かを判定することを含み、所定の動作は所定の健康状態に対応する、請求項1に記載のロボット装置。
  5. 前記健康状態を判定することは、前記言語的内容が複数の言語的内容に含まれるか否かを判定することを含み、所定の言語的内容は所定の医学的状態に対応する、請求項1に記載のロボット装置。
  6. 前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することは、前記一連の動作のそれぞれの時間的特性を判定することを含み、前記健康状態は、少なくとも前記時間的特性に基づいて判定される、請求項1に記載のロボット装置。
  7. 前記環境データは、周囲温度、時刻、場所、物体、前記個人に対する前記物体の位置及びガス濃度のうちの少なくとも1つを含む、請求項1に記載のロボット装置。
  8. 前記命令は、前記プロセッサに、
    前記個人を支援するためのユーザコマンドをクライアント装置から受信することと、
    前記ロボット装置によって実行された複数の動作のうちの第2の動作を、前記ユーザコマンドに従って決定することと、
    を実行させるように更に構成されている、請求項1に記載のロボット装置。
  9. 前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することは、
    コンテキストを判定することと、
    前記一連の動作が前記コンテキストに対応する行動ルーチンから逸脱していると判定することに応答して、前記健康状態を、前記個人が潜在的な健康上の問題を有する可能性があるとして判定することと、
    を含む、請求項1に記載のロボット装置。
  10. 前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することは、
    前記ユーザが予期しない行動を取っていることを示す前記一連の動作又は前記言語的内容を判定することに応答して、前記個人が負傷している可能性があると判定することを更に含む、
    請求項1に記載のロボット装置。
  11. 前記一連の動作は、前記個人に追従すること、前記個人に警告すること、前記個人を監視すること、前記個人を支援すること及び警告を別のユーザに送信することのうちの少なくとも1つを含む、請求項1に記載のロボット装置。
  12. 前記一連の動作は、
    前記健康状態を前記個人に提供することと、
    前記個人から確認を受け取ることと、
    前記確認、前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することによって、更新された健康状態を判定することと、
    を含む、請求項1に記載のロボット装置。
  13. 前記一連の動作は、
    前記健康状態を前記個人に提供することと、
    前記個人から確認を受け取ることと、
    前記個人からの前記確認に基づいて、前記機械学習モデルを更新することと、
    を含む、請求項2に記載のロボット装置。
  14. 少なくともロボットアーム及び移動システムを更に備える、請求項11に記載のロボット装置。
  15. 前記複数のセンサは、カメラ、マイクロフォン、位置センサ、深度センサ、圧力センサ、接触センサ、気圧計、温度計、湿度計及びガス検出器のうちの少なくとも1つを含む、請求項11に記載のロボット装置。
  16. 方法であって、
    ロボット装置により、個人の一連の1つ以上の画像をキャプチャすることと、
    前記ロボット装置により、前記個人の音声信号を記録することと、
    前記ロボット装置により、前記個人の周囲環境の環境データを生成することと、
    前記ロボット装置により、前記個人によって実行された一連の動作を、前記個人の前記一連の1つ以上の画像から認識することと、
    前記ロボット装置により、前記個人からの言語的内容を前記音声信号から認識することと、
    前記ロボット装置により、前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することによって、健康状態を判定することと、
    前記健康状態が一連の所定の健康状態に含まれると判定することに応答して、前記ロボット装置により、前記健康状態に基づく一連の動作を実行することと、
    を含む方法。
  17. 前記健康状態を判定することは、前記個人によって実行された前記一連の動作、前記言語的内容及び前記環境データを機械学習モデルに提供することを含み、前記機械学習モデルは前記健康状態を認識するように訓練されている、請求項16に記載の方法。
  18. 参照健康状態を記述するラベルを含む訓練データを使用することによって前記機械学習モデルを訓練することを更に含む、請求項17に記載の方法。
  19. 前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することは、前記一連の動作のそれぞれの時間的特性を判定することを含み、前記健康状態は、少なくとも前記時間的特性に基づいて判定される、請求項16に記載の方法。
  20. 前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することは、
    コンテキストを判定することと、
    前記一連の動作が前記コンテキストに対応する行動ルーチンから逸脱していると判定することに応答して、前記健康状態を、前記個人が潜在的な健康上の問題を有する可能性があるとして判定することと、
    を含む、請求項16に記載の方法。
  21. ロボット装置であって、
    複数のセンサであって、
    個人の一連の1つ以上の画像をキャプチャし、
    前記個人の音声信号を記録し、
    前記個人の周囲環境の環境データを生成する、
    ように構成された複数のセンサと、
    プロセッサと、
    メモリであって、前記プロセッサに、
    前記個人によって実行された一連の動作を、前記個人の前記一連の1つ以上の画像から認識することと、
    前記個人からの言語的内容を前記音声信号から認識することと、
    前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することにより、前記個人の意思を判定することと、
    前記個人の意思に対応する1つ以上の仕事を特定することと、
    前記ロボット装置が実行する一連の動作を、前記1つ以上の仕事に基づいて決定することと、
    を実行させるように構成された命令を記憶しているメモリと、
    を備える、ロボット装置。
  22. 前記個人の意思を判定することは、前記個人によって実行された前記一連の動作、前記言語的内容及び前記環境データを機械学習モデルに提供することを含み、前記機械学習モデルは前記個人の意思を認識するように訓練される、請求項21に記載のロボット装置。
  23. 前記機械学習モデルは、参照意思を記述するラベルを含む訓練データを使用することによって訓練される、請求項22に記載のロボット装置。
  24. 前記意思を判定することは、前記一連の動作が複数の所定の動作に含まれるか否かを判定することを含み、所定の動作は所定の意思に対応する、請求項21に記載のロボット装置。
  25. 前記意思を判定することは、前記言語的内容が複数の所定の言語的内容に含まれるか否かを判定することを含み、所定の言語的内容は所定の意思に対応する、請求項21に記載のロボット装置。
  26. 前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することは、前記一連の動作のそれぞれの時間的特性を判定することを含み、前記意思は少なくとも前記時間的特性に基づいて判定される、請求項21に記載のロボット装置。
  27. 前記環境データは、周囲温度、時刻、場所、物体及び、前記個人に対する前記物体の位置のうちの少なくとも1つを含む、請求項21に記載のロボット装置。
  28. 前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することは、
    前記一連の動作が前記コンテキストに対応する行動スケジュールに類似していると判定することに応答して、前記意思を前記行動ルーチンに基づいて判定することを含む、
    請求項21に記載のロボット装置。
  29. 前記行動スケジュールを、前記個人の動作履歴、前記個人の言語的内容及び環境データから決定することを更に含む、請求項28に記載のロボット装置。
  30. 前記一連の動作は、前記個人に追従すること、前記個人に警告すること、前記個人を監視すること、前記個人を支援すること及び警告を別のユーザに送信することのうちの少なくとも1つを含む、請求項21に記載のロボット装置。
  31. 前記1つ以上の仕事は、物体を取ってくること、装置をオンにすること、装置をオフにすること、インターネットを検索すること及び、情報を提供することのうちの少なくとも1つを含む、請求項21に記載のロボット装置。
  32. 前記一連の動作は、
    前記1つ以上の仕事を前記個人に提供することと、
    前記個人から確認を受け取ることと、
    前記個人からの前記確認に基づいて、前記機械学習モデルを更新することと、
    を含む、請求項22に記載のロボット装置。
  33. 少なくともロボットアーム及び移動システムを更に備える、請求項31に記載のロボット装置。
  34. 前記複数のセンサは、カメラ、マイクロフォン、位置センサ、深度センサ、圧力センサ、接触センサ、気圧計、温度計、湿度計及びガス検出器のうちの少なくとも1つを含む、請求項31に記載のロボット装置。
  35. 方法であって、
    ロボット装置により、個人の一連の1つ以上の画像をキャプチャすることと、
    前記ロボット装置により、前記個人の音声信号を記録することと、
    前記ロボット装置により、前記個人の周囲環境の環境データを生成することと、
    前記ロボット装置により、前記個人によって実行された一連の動作を、前記個人の前記一連の1つ以上の画像から認識することと、
    前記ロボット装置により、前記個人からの言語的内容を前記音声信号から認識することと、
    前記ロボット装置により、前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することによって、前記個人の意思を判定することと、
    前記ロボット装置により、前記個人の意思に対応する1つ以上の仕事を特定することと、
    前記ロボット装置により、前記ロボット装置が実行する一連の動作を、前記1つ以上の仕事に基づいて決定することと、
    を含む方法。
  36. 前記個人の意思を判定することは、前記個人によって実行された前記一連の動作、前記言語的内容及び前記環境データを機械学習モデルに提供することを含み、前記機械学習モデルは、前記個人の意思を認識するように訓練される、請求項35に記載の方法。
  37. 参照意思を記述するラベルを含む訓練データを使用することによって前記機械学習モデルを訓練することを更に含む、請求項36に記載の方法。
  38. 前記意思を判定することは、前記言語的内容が複数の所定の言語的内容に含まれるか否かを判定することを含み、所定の言語的内容は所定の意思に対応する、請求項21に記載の方法。
  39. 前記個人によって実行された前記一連の動作、前記個人からの前記言語的内容及び前記環境データを分析することは、
    前記一連の動作が前記コンテキストに対応する行動スケジュールに類似していると判定することに応答して、前記意思を前記行動ルーチンに基づいて判定することを含む、
    請求項35に記載の方法。
  40. 前記行動スケジュールを、前記個人の動作履歴、前記個人の言語的内容及び環境データから決定することを更に含む、請求項39に記載の方法。
JP2020565775A 2018-05-23 2019-05-23 観察可能な健康状態の兆候のためのロボット対話 Active JP7299245B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022185610A JP2023026707A (ja) 2018-05-23 2022-11-21 観察可能な健康状態の兆候のためのロボット対話

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201862675729P 2018-05-23 2018-05-23
US201862675730P 2018-05-23 2018-05-23
US62/675,730 2018-05-23
US62/675,729 2018-05-23
PCT/US2019/033842 WO2019226948A1 (en) 2018-05-23 2019-05-23 Robotic interactions for observable signs of core health

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022185610A Division JP2023026707A (ja) 2018-05-23 2022-11-21 観察可能な健康状態の兆候のためのロボット対話

Publications (2)

Publication Number Publication Date
JP2021525421A true JP2021525421A (ja) 2021-09-24
JP7299245B2 JP7299245B2 (ja) 2023-06-27

Family

ID=68613823

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020565775A Active JP7299245B2 (ja) 2018-05-23 2019-05-23 観察可能な健康状態の兆候のためのロボット対話
JP2022185610A Pending JP2023026707A (ja) 2018-05-23 2022-11-21 観察可能な健康状態の兆候のためのロボット対話

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022185610A Pending JP2023026707A (ja) 2018-05-23 2022-11-21 観察可能な健康状態の兆候のためのロボット対話

Country Status (3)

Country Link
US (3) US11701041B2 (ja)
JP (2) JP7299245B2 (ja)
WO (1) WO2019226948A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020074577A1 (en) * 2018-10-09 2020-04-16 Valotec Digital companion for healthcare
JP7375770B2 (ja) * 2018-12-07 2023-11-08 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US20210162593A1 (en) * 2019-12-03 2021-06-03 Samsung Electronics Co., Ltd. Robot and method for controlling thereof
CN113021362A (zh) * 2019-12-09 2021-06-25 詹丽燕 一种集健康行为干预与随访的养生ai识别机器人
US10896598B1 (en) * 2020-01-03 2021-01-19 International Business Machines Corporation Ambient situational abnormality detection and response
CN111365832A (zh) * 2020-03-13 2020-07-03 北京云迹科技有限公司 一种机器人及信息处理方法
DE102020204083A1 (de) 2020-03-30 2021-09-30 BSH Hausgeräte GmbH Computerprogrammprodukt für einen Roboter zum Betreiben einer Haushalts-Geschirrspülmaschine und System mit einer Haushalts-Geschirrspülmaschine und einem Computerprogrammprodukt für einen Roboter
US11205314B2 (en) 2020-05-13 2021-12-21 Motorola Solutions, Inc. Systems and methods for personalized intent prediction
AU2021292112A1 (en) * 2020-06-17 2023-03-02 Sicong TAN Integrated robot and platform for ultrasound image data acquisition, analysis, and recognition
CN112001248B (zh) 2020-07-20 2024-03-01 北京百度网讯科技有限公司 主动交互的方法、装置、电子设备和可读存储介质
US20220203545A1 (en) * 2020-12-31 2022-06-30 Sarcos Corp. Smart Control System for a Robotic Device
CA3157774A1 (en) * 2021-05-05 2022-11-05 Sanctuary Cognitive Systems Corporation Robots, tele-operation systems, and methods of operating the same
CN113855250A (zh) * 2021-08-27 2021-12-31 谈斯聪 一种医疗用机器人装置、系统及方法
CN113843813A (zh) * 2021-10-27 2021-12-28 北京小乔机器人科技发展有限公司 一种具有问诊、日常诊断和建档功能的机器人
US20220111528A1 (en) * 2021-12-22 2022-04-14 Intel Corporation Unintended human action detection in an amr environment

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230555A (ja) * 2001-02-01 2002-08-16 Noa Syst:Kk 動きを検知する検知装置及び方法
JP2003225228A (ja) * 2002-01-31 2003-08-12 Sanyo Electric Co Ltd 健康管理端末装置,コンピュータプログラム及び記録媒体
JP2004337556A (ja) * 2003-05-13 2004-12-02 Yasuo Fujii 生体情報取得手段を具備し健康管理機能を備えたロボット
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
JP2010140119A (ja) * 2008-12-09 2010-06-24 Tokyo Metropolitan Univ ユーザ健康維持活性化支援及び見守りシステム
US20160193732A1 (en) * 2013-03-15 2016-07-07 JIBO, Inc. Engaging in human-based social interaction with members of a group using a persistent companion device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9814425B2 (en) * 2006-05-12 2017-11-14 Koninklijke Philips N.V. Health monitoring appliance
US8909370B2 (en) 2007-05-08 2014-12-09 Massachusetts Institute Of Technology Interactive systems employing robotic companions
US20110263946A1 (en) 2010-04-22 2011-10-27 Mit Media Lab Method and system for real-time and offline analysis, inference, tagging of and responding to person(s) experiences
US9582080B1 (en) * 2014-06-25 2017-02-28 Rithmio, Inc. Methods and apparatus for learning sensor data patterns for gesture-based input
US10775314B2 (en) 2017-11-10 2020-09-15 General Electric Company Systems and method for human-assisted robotic industrial inspection
US20190184569A1 (en) 2017-12-18 2019-06-20 Bot3, Inc. Robot based on artificial intelligence, and control method thereof
US20230058605A1 (en) * 2019-10-03 2023-02-23 Rom Technologies, Inc. Method and system for using sensor data to detect joint misalignment of a user using a treatment device to perform a treatment plan

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002230555A (ja) * 2001-02-01 2002-08-16 Noa Syst:Kk 動きを検知する検知装置及び方法
JP2003225228A (ja) * 2002-01-31 2003-08-12 Sanyo Electric Co Ltd 健康管理端末装置,コンピュータプログラム及び記録媒体
JP2004337556A (ja) * 2003-05-13 2004-12-02 Yasuo Fujii 生体情報取得手段を具備し健康管理機能を備えたロボット
JP2005237668A (ja) * 2004-02-26 2005-09-08 Kazuya Mera コンピュータネットワークにおける感情を考慮した対話装置
JP2010140119A (ja) * 2008-12-09 2010-06-24 Tokyo Metropolitan Univ ユーザ健康維持活性化支援及び見守りシステム
US20160193732A1 (en) * 2013-03-15 2016-07-07 JIBO, Inc. Engaging in human-based social interaction with members of a group using a persistent companion device

Also Published As

Publication number Publication date
US20190358820A1 (en) 2019-11-28
US20190358822A1 (en) 2019-11-28
US20240115174A1 (en) 2024-04-11
JP7299245B2 (ja) 2023-06-27
US11717203B2 (en) 2023-08-08
WO2019226948A1 (en) 2019-11-28
JP2023026707A (ja) 2023-02-27
US11701041B2 (en) 2023-07-18

Similar Documents

Publication Publication Date Title
JP7299245B2 (ja) 観察可能な健康状態の兆候のためのロボット対話
Pham et al. Delivering home healthcare through a cloud-based smart home environment (CoSHE)
Martinez-Martin et al. Personal robot assistants for elderly care: an overview
JP6495486B2 (ja) 自律行動型ロボット及びコンピュータプログラム
Rashidi et al. A survey on ambient-assisted living tools for older adults
Li et al. Cognitive assisted living ambient system: A survey
Li Smart home technology for telemedicine and emergency management
Pham et al. Cloud-based smart home environment (CoSHE) for home healthcare
CN107658016B (zh) 用于老年保健陪伴的Nounou智能监护系统
JP2022501697A (ja) 文脈依存性ユーザインタフェースを備えた筋電位(emg)支援通信デバイス
JP7234572B2 (ja) ケアシステム、その管理方法、およびプログラム
Velik A brain-inspired multimodal data mining approach for human activity recognition in elderly homes
JP2022095619A (ja) 療養支援システム
Bock et al. Ambient Integrated Robotics: Automation and Robotic Technologies for Maintenance, Assistance, and Service
Tekemetieu et al. Context modelling in ambient assisted living: Trends and lessons
WO2020075675A1 (ja) ケアシステムの管理方法および管理装置、ならびにプログラム
CN116945156A (zh) 一种基于计算机视觉技术的老年人智能陪护系统
Ktistakis et al. Applications of ai in healthcare and assistive technologies
Purnomo et al. Limitless possibilities of pervasive biomedical engineering: Directing the implementation of affective computing on automatic health monitoring system
JP2022189528A (ja) 情報処理装置及び情報処理方法
Tamilselvi et al. Digital companion for elders in tracking health and intelligent recommendation support using deep learning
US20240197420A1 (en) Healthcare assistive robot apparatus
Borghese et al. Heterogeneous Non Obtrusive Platform to Monitor, Assist and Provide Recommendations to Elders at Home: The MoveCare Platform
JP7435965B2 (ja) 情報処理装置、情報処理方法、学習モデルの生成方法、及びプログラム
Makhlouf et al. Services of Ambient Assistance for Elderly and/or Disabled Person in Health Intelligent Habitat.

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220111

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220408

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220630

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221121

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20221121

C11 Written invitation by the commissioner to file amendments

Free format text: JAPANESE INTERMEDIATE CODE: C11

Effective date: 20221206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20221222

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230117

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230615

R150 Certificate of patent or registration of utility model

Ref document number: 7299245

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150