JP7083922B2 - 介助システム - Google Patents

介助システム Download PDF

Info

Publication number
JP7083922B2
JP7083922B2 JP2020563963A JP2020563963A JP7083922B2 JP 7083922 B2 JP7083922 B2 JP 7083922B2 JP 2020563963 A JP2020563963 A JP 2020563963A JP 2020563963 A JP2020563963 A JP 2020563963A JP 7083922 B2 JP7083922 B2 JP 7083922B2
Authority
JP
Japan
Prior art keywords
person
caregiving
assisted
analysis unit
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020563963A
Other languages
English (en)
Other versions
JP2021524964A (ja
Inventor
丈二 五十棲
聡志 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2021524964A publication Critical patent/JP2021524964A/ja
Application granted granted Critical
Publication of JP7083922B2 publication Critical patent/JP7083922B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/0005Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G7/00Beds specially adapted for nursing; Devices for lifting patients or disabled persons
    • A61G7/10Devices for lifting patients or disabled persons, e.g. special adaptations of hoists thereto
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/48Other medical applications
    • A61B5/4803Speech analysis specially adapted for diagnostic purposes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7405Details of notification to user or communication with user or patient ; user input means using sound
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • B25J11/008Manipulators for service tasks
    • B25J11/009Nursing, e.g. carrying sick persons, pushing wheelchairs, distributing drugs
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/70Means for positioning the patient in relation to the detecting, measuring or recording means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7203Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal
    • A61B5/7207Signal processing specially adapted for physiological signals or for diagnostic purposes for noise prevention, reduction or removal of noise induced by motion artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/7475User input or interface means, e.g. keyboard, pointing device, joystick
    • A61B5/749Voice-controlled interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G2203/00General characteristics of devices
    • A61G2203/10General characteristics of devices characterised by specific control means, e.g. for adjustment or steering
    • A61G2203/18General characteristics of devices characterised by specific control means, e.g. for adjustment or steering by patient's head, eyes, facial muscles or voice

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Nursing (AREA)
  • Physics & Mathematics (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本発明は、介助システムに関するものである。
介助施設などにおいて、被介助者に対する種々の介助が行われる。特許文献1には、被介助者の移乗動作を補助する介助装置が開示されている。この介助装置は、移乗動作の補助において、座位姿勢の被介助者の臀部を座面から上昇させる起立動作が終了した後に方向転換を行い、被介助者の臀部を下降させて着座させる着座動作を行う。これにより、被介助者は、例えばベッドから車椅子へと移乗される。
特開2008-073501号公報
介助施設などの現場においては、より適切な介助の提供などを目的として、被介助者が受けた介助動作の内容を把握することが求められる。しかしながら、介助施設などにカメラを設置することは、被介助者などのプライバシー保護の観点から好適でない。
本明細書は、被介助者および介助者のプライバシーを保護しつつ被介助者に対する介助動作を把握可能とし、より適切な介助の提供を支援する介助システムを提供することを目的とする。
本明細書は、被介助者の移動を介助する介助装置と、前記介助装置に設けられたマイクと、前記マイクによって取得された音データに含まれる介助者または前記被介助者の少なくとも一方の音声を解析して行動に関する情報を取得する音声解析部と、前記音データに含まれる反響音を解析して場所に関する情報を取得する反響音解析部と、前記行動に関する情報および前記場所に関する情報に基づいて前記介助者または前記被介助者の少なくとも一方の行動履歴情報を生成する行動履歴情報生成部と、を備える介助システムを開示する。
このような介助システムの構成によると、被介助者に対する介助の際の映像が残らないので、被介助者および介助者のプライバシーを保護することができる。また、被介助者および介助者の少なくとも一方の行動履歴が記録されるので、被介助者に対する介助動作を把握可能とし、より適切な介助の提供を支援することができる。
実施形態における介助システムを示す模式図である。 座位姿勢の被介助者を支持する介助装置を示す側面図である。 介助支援処理を示すフローチャートである。 音声認識処理を示すフローチャートである。 反響音解析処理を示すフローチャートである。 ログデータ解析処理を示すフローチャートである。 各種の解析処理の結果と介助レポートを示す図である。 変形態様における声紋解析処理を示すフローチャートである。 各種の解析処理の結果と介助レポートを示す図である。
1.介助システム1の概要
介助システム1は、図1に示すように、介助装置10、管理サーバ81、および端末装置82により構成される。複数の介助装置10は、管理サーバ81に対してインターネットを介して通信可能に接続される。
2.介助装置10の構成
介助装置10は、被介助者H(図2を参照)に対して座位姿勢から立位姿勢への起立動作の補助、および立位姿勢から座位姿勢への着座動作の補助を行う。介助装置10が立位姿勢における被介助者Hの上半身を支持することで、一人の介助者が介助装置10を牽引等して、例えば介助施設における移動目標に移動させることができる。介助装置10は、図1および図2に示すように、基台20、駆動装置30、支持部材40、操作装置50、検出センサ61、マイク62、および制御装置70を備える。
基台20は、フレーム21に固定される支柱22を有する。支柱22には、被介助者Hが介助装置10に搭乗した状態において両足を乗せる足載置台23が設けられる。また、支柱22には、所定姿勢にある被介助者Hの下腿が接触する下腿当て部24が設けられる。さらに、フレーム21の下側には、左右に3個ずつの車輪25-27が設けられる。これにより、介助装置10は、前後方向および左右歩行の移動、および超信地旋回(その場旋回)が可能に構成される。
駆動装置30は、被介助者Hの上半身を支持する支持部材40を基台20の上下方向および前後方向に移動可能に支持する。駆動装置30は、昇降部31の上下動および揺動部32の旋回動を協調させることにより、支持部材40を所定の移動軌跡に沿って移動させることができる。昇降部31は、直動装置(図示しない)の駆動によって昇降する。昇降部31の内部には、揺動部32を旋回させるモータ(図示しない)が収容される。昇降部31の揺動支持部311は、揺動部32を中心軸A周りに回転可能に支持する。
揺動部32は、中心軸A周りに旋回して支持部材40を揺動させる。揺動部32は、支持部材40を着脱される取り付け部である揺動本体321を有する。揺動本体321は、モータの駆動によって中心軸Aを中心に回転するアーム322の先端側に設けられる。介助装置10が起立動作の補助を行う場合には、アーム322は、後方に延びた状態から主として前旋回する。一方で、介助装置10が着座動作の補助を行う場合には、アーム322は、後方に延びる状態となるように主として後旋回する。揺動部32は、中心軸A周りにアーム322が旋回することにより、揺動本体321に取り付けられた支持部材40を揺動させる。
支持部材40は、揺動本体321に取り付けられ、被介助者Hの上半身を支持する部材である。支持部材40は、被介助者Hの胴体形状に近い面状に形成された胴体支持部41を有する。胴体支持部41の支持面は、柔軟な変形が可能に形成され、被介助者Hの上半身のうち胴体の前面に面接触して胴体を支持する。支持部材40は、被介助者Hの脇を支持する一対の脇支持部42を有する。一対の脇支持部42の表面は、柔軟な変形が可能な材料により覆われている。
操作装置50は、介助装置10が補助する各種動作に対応した複数の操作ボタンを有する。具体的には、操作装置50は、起立動作、着座動作、上昇動作、および下降動作の順に対応する起立ボタン51、着座ボタン52、上昇ボタン53、および下降ボタン54を有する。操作装置50は、何れかのボタンが押下された場合に、ボタンの種別に応じた信号をボタンが押下されている間、制御装置70に送出する。上記の「上昇動作」とは、被介助者Hの上半身の角度を維持しつつ上昇させる動作である。また、上記の「下降動作」とは、被介助者Hの上半身の角度を維持しつつ下降させる動作である。
検出センサ61は、介助装置10の状態の検出に用いられる。上記の「介助装置の状態」には、介助装置10の可動部(昇降部31、揺動部32)の状態、または駆動装置30における動作機構(直動装置、モータなど)の状態が含まれ得る。このとき、検出センサ61は、例えば昇降部31を昇降させる直動装置に設けられたリニアスケール、アーム322を回転させるモータに設けられたエンコーダなどである。
また、上記の「介助装置の状態」には、被介助者Hを支持する支持部材40の状態が含まれ得る。このとき、検出センサ61は、例えば揺動本体321と胴体支持部41との間に設けられ、支持部材40が被介助者Hから受ける荷重を検出するロードセル、揺動部32を回転させるモータに供給された電流値を測定する電流計などである。
マイク62は、介助者および被介助者Hの少なくとも一方が発する音声を録音する。マイク62の録音により取得された音データM1は、制御装置70の記憶部(図示しない)に記憶される。マイク62は、介助装置10に設けられる。これにより、マイク62は、介助装置10が居室や浴室などの複数の位置を移動されても、各位置および移動中においても被介助者Hおよび介助者が発した音声を録音可能に構成される。
制御装置70は、操作装置50に対する操作に基づいて、駆動装置30の昇降部31および揺動部32の動作を制御する。本実施形態において、制御装置70は、起立動作および着座動作を実行する場合には、昇降部31の上下動および揺動部32の旋回動を協調させて支持部材40の移動を制御する。また、本実施形態において、制御装置70には、介助システム1を構成する音声解析部71を含む解析部等が組み込まれる。介助システム1の解析部等の詳細は、後述する。
3.介助装置10による移乗動作の補助
上記のような構成からなる介助装置10は、被介助者Hの移乗動作を補助する。上記の「移乗動作」とは、起立動作および着座動作の順で実行されたサイクル動作である。但し、移乗動作には、サイクル動作のうち、例えば可動部(昇降部31、揺動部32)の動作を確認するための試運転など被介助者Hの動作補助とは無関係の動作を含まない。
介助装置10は、移乗動作において、被介助者Hの身体の一部(例えば、被介助者Hの上半身)を支持して、座位姿勢にある被介助者Hの起立動作を補助した後に方向転換を行い、別の位置に再び着座するように着座動作を補助する。移乗動作は、例えば居室内においてベッドと車椅子との間の移乗や、居室のベッドからトイレ室の便器との間の移乗などを目的として実行される。
ここで、胴体支持部41のうち胴体に接触する部位の上端を基準位置Psとする。図2の太線は、被介助者Hの移乗動作のうち起立動作および着座動作の実行中における基準位置Psの移動軌跡Tdを示す。つまり、制御装置70は、基準位置Psが図2に示す移動軌跡Tdに沿って移動するように、昇降部31の上下動および揺動部32の旋回動を協調させて支持部材40の移動を制御する。
ここで、介助装置10の制御装置70は、介助装置10の動作をトレース可能とするログデータM2を記録する。上記の「ログデータM2」には、図7に示すように、起立動作および着座動作を含む各種動作の動作履歴が含まれる。本実施形態において、ログデータM2には、時刻、動作履歴、および介助装置の状態が含まれる。
上記の「動作履歴」は、操作装置50に対する各種操作に応じて実際に制御装置70が制御した駆動装置30の動作の開始時刻、および終了時刻が含まれる。ログデータM2に含まれる「介助装置の状態」は、可動部(昇降部31、揺動部32)の状態、または駆動装置30における動作機構(直動装置、モータなど)の状態が含まれる。
可動部の状態は、例えば昇降部31の上下方向の位置、揺動部32の角度が含まれる。これらは、例えば昇降部31を昇降させる直動装置に設けられたリニアスケール、アーム322を回転させるモータに設けられたエンコーダなどの検出センサ61による検出結果に基づいて割り出される。動作機構の状態は、例えば上記の直動装置やモータに給電された電流値が含まれる。上記の電流値は、各種動作の実行中の負荷に応じて変動する。
また、ログデータM2に含まれる「介助装置の状態」は、被介助者Hを支持する支持部材40が被介助者Hから受ける荷重としてもよい。支持部材40が被介助者Hから受ける荷重は、被介助者Hの体重や脚力、被介助者Hの姿勢などに応じて変動する。支持部材40が被介助者Hから受ける荷重は、例えば揺動本体321と胴体支持部41との間に設けられたロードセルなどの検出センサ61による検出結果、または揺動部32を回転させるモータに供給された電流値に基づいて割り出される。
4.介助システム1の詳細構成
介助システム1は、介助施設などの介助の現場において、被介助者が実際に受けた種々の介助の内容を行動履歴情報Rhとして記録する。介助システム1により記録された行動履歴情報Rhは、例えば介助レポートとして介助施設の管理者や介助者、被介助者の家族などに配信され、提供される介助の改善や質の向上に利用され得る。本実施形態において、介助システム1の一部は、介助装置10に組み込まれ、所定の介助支援処理を実行する。
ここで、被介助者が受けた介助の内容を正確に把握する観点からは、介助施設にカメラを設置することが考えられる。しかしながら、カメラにより撮像を行うと、介助レポートの記録に不要な動作や音声が映像とともに記録されることから、プライバシー保護の観点から好適でない。そこで、本実施形態の介助システム1は、映像によらず介助動作を把握可能とすべく、音声データを用いて実際に行われた介助動作の把握を可能とする構成を採用する。
具体的には、介助システム1は、図1に示すように、音声解析部71と、反響音解析部72と、ログデータ解析部73と、行動履歴情報生成部74と、レポート生成部75と、レポート送信部76とを備える。音声解析部71は、マイク62によって取得された音データM1に含まれる介助者または被介助者Hの少なくとも一方の音声を解析して行動に関する情報(以下、「行動情報Ra」と称する)を取得する。上記の行動情報Raは、介助動作(例えば、入浴やリハビリ)や移動などの行動が録音時刻に関連付けられた情報である。また、行動情報Raには、行動に関する被介助者Hおよび介助者の名前が含まれ得る。
本実施形態において、音声解析部71は、音データM1に対する音声認識処理の結果に基づいて、被介助者Hおよび介助者の少なくとも一方を特定するとともに、被介助者Hに対する介助動作を特定することにより行動情報Raを取得する。上記の音声認識処理は、一般的な音声認識の技術が適用され、音データM1に含まれる音声波形をテキストに変換する処理である。音声解析部71は、テキストへの変換精度を向上させるために、多数の音声サンプルや、管理者等による変換後のテキストに対する正誤判断の結果を用いた学習を行うようにしてもよい。
また、本実施形態において、音声解析部71は、音声認識処理の結果に含まれる所定のキーワードを検出することにより、被介助者Hおよび介助者の少なくとも一方を特定するとともに、介助動作を特定する。なお、音声解析部71は、上記の音声認識処理において、介助動作などが行われた場所(例えば、浴室やリハビリ室)を併せて特定しても良い。この場合には、音声解析部71は、後述する場所情報Rpを併せて取得する。
上記の音声認識処理において、音声解析部71は、検出ワード情報F1に基づいて、音声認識処理の結果に含まれるキーワードを検出する。上記の検出ワード情報F1には、被介助者Hの名前、介助者の名前、介助動作に関する物品の名称、および介助動作において被介助者Hが行う動作の名称または動詞の少なくとも一つがキーワードとして登録される。これにより、音声解析部71は、音声認識処理の結果に含まれる文字列がキーワードと一致または一定程度に近似した場合に、キーワードが検出されたものとする。
ここで、上記のように音データM1を用いた介助支援処理によると、介助の現場にカメラを設置した構成と比較して被介助者等のプライバシーが保護されやすい。一方で、音データM1には、カメラを設置した場合と同様に、行動履歴情報や介助レポートの記録に不要な音声が記録され得る。そこで、プライバシー保護の強化の観点から、本実施形態の音声解析部71は、一定条件下で名前などの特定を規制する。具体的には、音声解析部71は、音声認識処理の結果に所定の規制ワードに含まれるか否かを検査する。
そして、音声解析部71は、事前に登録された規制ワード情報F2に含まれる規制ワードを音声認識処理の結果から検出した場合に、規制ワードを含む一連の会話を対象としたキーワードの検出結果に基づく被介助者Hおよび介助者の少なくとも一方の特定、または介助動作の特定を規制する。上記の規制ワードは、介助者や管理者により任意に設定可能であり、例えば通常では発せられないような単語であって介助者が一連の会話を解析対象から意識的に除外するためのトリガーとなる単語としてもよい。
また、上記の「一連の会話」とは、音データM1における被介助者Hおよび介助者が一連で行った会話であって、例えば音声の空白期間が一定以下であるやりとりをまとめたものである。なお、上記の「会話」には、例えば介助者が被介助者Hに対して一方的に呼びかけたものが含まれる。音声解析部71は、規制ワードを音声認識処理の結果から検出した場合に、一連の会話にキーワードが含まれても被介助者H等の特定を行わないか、一定の制限のもとで被介助者H等の特定を行う。
また、音声解析部71は、規制ワードによっては、一連の会話のうち規制ワードより後の部分、または前の部分を被介助者H等の特定から部分的に除外するようにしてもよい。上記のような構成によると、音データM1を用いた介助支援において、規制ワードに基づく被介助者H等の特定が規制されるので、より確実に被介助者H等のプライバシーを保護することができる。
反響音解析部72は、音データM1に含まれる反響音を解析して場所に関する情報(以下、「場所情報Rp」と称する)を取得する。上記の場所情報Rpは、介助動作などが行われた場所(例えば居室や浴室、リハビリ室、トイレ室)が録音時刻に関連付けられた情報である。本実施形態において、反響音解析部72は、音データM1における所定の反復音の周波数または残響時間(反復音が所定の振幅に減衰するまでの時間)に基づいて、マイク62が音声を録音した際の部屋を特定する。
具体的には、反響音解析部72は、反復音の周波数や残響時間に基づいて部屋の広さを算出し、当該算出の結果から音声が録音された部屋を特定する。本実施形態において、反響音解析部72は、反響音の周波数または残響時間と介助施設における場所(部屋や通路など)の関係を示す反響音情報F3を用いて、マイク62が録音を行った場所を特定する。なお、反響音解析部72は、上記のように特定した部屋(例えば、浴室やリハビリ室)に基づいて介助動作(例えば、入浴やリハビリ)を特定してもよい。
ログデータ解析部73は、介助装置10により記録されたログデータM2に基づいて、被介助者Hに対する介助動作を特定することにより行動情報Raを取得する。本実施形態において、ログデータ解析部73は、ログデータM2において被介助者Hを移乗させるように起立動作および着座動作の順で実行された移乗動作、または異なる部屋の間での移動を検出し、当該検出の結果に基づいて介助動作を特定する。ログデータ解析処理の詳細については後述する。
行動履歴情報生成部74は、行動情報Raおよび場所情報Rpに基づいて介助者または被介助者Hの少なくとも一方の行動履歴情報Rhを生成する。上記の行動履歴情報Rhは、音データM1から各種の解析処理により生成された行動情報Raおよび場所情報Rpを結合して、録音時間に特定された介助者、被介助者H、介助動作等の行動、および場所が関連付けられた情報である。ここで、行動情報Raおよび場所情報Rpには、行動や場所を一意に特定できない場合に、複数の候補が記録されることがある。このような場合に、行動履歴情報生成部74は、行動情報Raおよび場所情報Rpに含まれる特定事項に基づいて、上記の候補から適宜選択することにより互いの情報を補間するように結合する。
レポート生成部75は、行動履歴情報生成部74により生成された行動履歴情報Rhに基づいて、被介助者Hが受けた介助動作の内容を含む介助レポートRsを生成する。本実施形態において、レポート生成部75は、複数の被介助者Hごとに介助レポートRsを生成する。ある被介助者Hの介助レポートRsには、図7に示すように、日時、介助者、介助動作、および場所が記録される。なお、介助レポートRsには、音データMに対する各種の解析により特定できなかった項目については、空欄または複数の候補が記録される。
レポート送信部76は、被介助者Hの関係者が所有する端末装置82に被介助者Hに係る介助レポートRsを送信する。本実施形態において、レポート送信部76は、後述する管理サーバ81を介して介助レポートRsを送信する。具体的には、レポート送信部76は、レポート生成部75により生成された介助レポートRsを管理サーバ81にアップロードする。これにより、管理サーバ81には、所定の被介助者Hに関連付けられた介助レポートRsが蓄積される。管理サーバ81は、各種の端末装置からの要求に応じて、対応する被介助者Hに関する介助レポートRsを端末装置82に送信する。
なお、レポート生成部75により生成される介助レポートRsは、上記のように複数の被介助者Hごとに生成する他に、介助者、介助装置10、介助動作、または場所ごとに生成されるものとしてもよい。このような場合に、レポート送信部76は、例えば介助施設の管理者の要求に応じて、介助者や介助装置10などについて生成された介助レポートRsを送信する。これにより、介助施設の管理者は、介助者の能力を適正に評価し、また介助装置10の有効利用化などを図ることが可能となる。
5.管理サーバ81の構成
管理サーバ81は、クラウドサーバであり、図1に示すように、複数のクライアント(例えば、複数の介助装置10や複数の端末装置82)とインターネットを介して通信可能に接続される。管理サーバ81は、複数の介助装置10からアップロードされる介助レポートRs(図1、図7を参照)を記憶する。本実施形態において、介助レポートRsは、複数の被介助者Hごとに生成される。管理サーバ81は、レポート送信部76と連携して介助レポートRsを端末装置82などに送信する。
6.介助システム1による介助支援処理
介助システム1による介助支援処理について、図3-図7を参照して説明する。ここで、介助支援処理は、例えば介助システム1の管理者の任意で、または定期的な処理として実行され得る。なお、介助装置10の制御装置70の記憶部には、所定期間に亘ってマイク62により録音された音データM1、および制御装置70により記録されたログデータM2が記憶されているものとする。
音声解析部71は、図3に示すように、音データM1に対する音声解析処理を実行する(S11)。本実施形態において、音声解析部71は、音声解析処理として音声認識処理を実行し行動情報Raを取得する。詳細には、音声解析部71は、音声認識処理において、図4に示すように、先ず音データM1の先頭から順に、検出ワード情報F1に含まれる検出ワードの検索処理を実行する(S21)。検出ワードが検出された場合に(S22:Yes)、音声解析部71は、その検出ワードを含む一連の会話において規制ワード情報F2に含まれる1以上の規制ワードの検索処理を実行する(S23)。
一連の会話から何れの規制ワードも検出されない場合には(S24:No)、音声解析部71は、一連の会話に含まれる全ての検出ワードを検索する(S25)。音声解析部71は、検出された検出ワードに基づいて、被介助者Hの名前や介助者の名前、介助動作、介助動作の場所などを特定する(S26)。音声解析部71は、S26で特定した事項を時刻に関連付けて行動情報Raまたは場所情報Rpを生成または編集する(S27)。
また、一連の会話から何れか一つの規制ワードが検出された場合には(S24:Yes)、音声解析部71は、一連の会話を対象とした検出ワードの検索および検出結果に基づく被介助者Hの名前等の特定等の処理(S25-S27)を省略する。音声解析部71は、音データM1の末尾までキーワードの検索を行って(S21)、キーワードが検出されない場合には(S22:No)、音声認識処理を終了する。
次に、反響音解析部72は、図3に示すように、音データM1に対する反響音解析処理を実行し(S12)、場所情報Rpを取得する。詳細には、反響音解析部72は、反響音解析処理において、図5に示すように、先ず音データM1の先頭から順に、反響音情報F3に含まれる反復音の検索処理を実行する(S31)。検索処理により所定の反復音が検出された場合には(S32:Yes)、反響音解析部72は、所定の反復音の周波数および反響音情報F3に基づいて、マイク62が音声を録音した際の部屋を特定する(S33)。
なお、反響音解析部72は、反響音解析部72に残響時間と場所との関係が設定されている場合には、音データM1から所定の残響時間の検索処理を実行するとともに、その残響時間および反響音情報F3に基づいてマイク62が音声を録音した際の場所を特定してもよい。なお、反響音情報F3に、反復音の周波数および反響時間の両方と部屋の関係が設定されている場合には、反響音解析部72は、反復音の周波数および反響時間に基づいて、場所を特定してもよい。
続いて、反響音解析部72は、S33で特定した場所に基づいて、被介助者Hに対する介助動作を特定する(S34)。但し、特定した場所が被介助者Hの居室であるなど、介助動作を一意に特定できない場合には、介助動作の特定を省略してもよいし、または幾つかの候補を挙げるに留めてもよい。反響音解析部72は、S33、S34で特定した事項を時刻に関連付けて場所情報Rpを生成または編集する(S35)。反響音解析部72は、音データM1の末尾まで反復音の検索を行って(S31)、反復音が検出されない場合に(S32:No)、反響音解析処理を終了する。
続いて、ログデータ解析部73は、図3に示すように、ログデータM2に対するログデータ解析処理を実行し(S13)、行動情報Raを取得する。詳細には、ログデータ解析部73は、ログデータ解析処理において、図6に示すように、先ずログデータM2において被介助者Hを移乗させるように起立動作および着座動作の順で実行された移乗動作、または異なる部屋の間での移動の検索処理を実行する(S41)。ここで、ログデータM2に記録されている動作履歴には、実際に被介助者Hが搭乗した移乗動作の他に、被介助者Hが搭乗していない状態での試運転などに係る動作や操作も含まれる。そこで、ログデータ解析部73は、移乗動作の検索処理を実行する。
具体的には、ログデータ解析部73は、先ずログデータM2において起立動作および着座動作の順で実行されたサイクル動作を検索する。このとき、サイクル動作には、起立動作および着座動作の少なくとも一方に関連して一連で実行された調整動作を含めてもよい。上記の調整動作には、例えば起立動作に際して実行された支持部材40の昇降動作、被介助者Hの乗降に際して実行された支持部材40の旋回動作などが含まれ得る。
そして、ログデータ解析部73は、検出されたサイクル動作が被介助者Hを移乗させた移乗動作であるか否かを判定する。本実施形態において、ログデータ解析部73は、サイクル動作における起立動作と着座動作の間隔、詳細には起立動作の終了時刻から着座動作の開始時刻までの時間(以下、「中間時間」と称する)を算出する。次に、ログデータ解析部73は、中間時間が規定期間内である場合にサイクル動作が移乗動作であると判定する。上記の他に、ログデータ解析部73は、検出センサ61の検出結果に基づいて行うようにしてもよい。
ここで、介助装置10が試運転ではなく、介助装置10に被介助者Hが搭乗し何らかの目的で移乗動作が実行された場合には、起立動作が終了してから方向転換や移動、被介助者Hの脱衣など移乗動作の目的に応じた処理がなされる。結果として、上記処理の所要時間だけ中間時間が発生する。一方で、中間時間が過剰に長い場合(中間時間が規定期間を超える場合)には、例えば介助装置10が保管状態とされていたと判断できる。そこで、ログデータ解析部73は、上記のように中間時間の長さに基づいてサイクル動作が移乗動作であるか否かを判定する。
ログデータ解析部73は、上記のような移乗動作の検索に加えて、介助装置10による異なる部屋の間での移動を検索する。具体的には、ログデータ解析部73は、ログデータM2に含まれる検出センサ61の検出結果に基づいて、介助装置10の走行による移動を認識する。上記の検出センサ61は、介助装置10に設けられた加速度センサなどである。これにより、ログデータ解析部73は、異なる部屋の間での移動を検索する。
次に、ログデータM2から移乗動作または部屋間の移動が検出された場合には(S42:Yes)、ログデータ解析部73は、検出の結果に基づいて、マイク62が音声を録音した際の場所および介助動作を特定する(S43)。但し、部屋または介助動作を一意に特定できない場合には、部屋または介助動作について幾つかの候補を挙げるに留めてもよい。ログデータ解析部73は、S43で特定した事項を時刻に関連付けて行動情報Raまたは場所情報Rpを生成または編集する(S44)。
ログデータ解析部73は、ログデータM2の末尾まで移乗動作等の検索処理(S41)を実行し、S42-S44を繰り返す。これにより、検出された移乗動作等に応じて特定された事項が行動情報Raまたは場所情報Rpに記録される。ログデータ解析部73は、ログデータM2の末尾まで移乗動作等の検索処理(S41)が終了し、移乗動作等が検出されなかった場合に(S42:No)、ログデータ解析処理を終了する。
行動履歴情報生成部74は、各種の解析処理(音声認識処理、反響音解析処理、およびログデータ解析処理)にて生成および編集された行動情報Raおよび場所情報Rpを結合して、図7に示すように、行動履歴情報Rhを生成する(S14)。続いて、レポート生成部75は、行動履歴情報Rhに基づいて、複数の被介助者Hごとに介助レポートRsを生成する(S15)。生成された介助レポートRsは、例えば管理サーバ81にアップロードされる。
レポート送信部76は、各種の端末装置からの要求に応じて、対応する被介助者Hに関する介助レポートRsを端末装置82に管理サーバ81を介して送信する(S16)。また、介助システム1は、上記のような介助支援処理において各種の解析処理に用いられた音データM1について廃棄処理を行う(S17)。これにより、各種データに含まれ得る個人情報を廃棄して、被介助者Hおよび介助者のプライバシーをより確実に保護することができる。
7.実施形態の構成による効果
実施形態において、介助システム1は、被介助者Hの移動を介助する介助装置10と、介助装置10に設けられたマイク62と、マイク62によって取得された音データM1に含まれる介助者または被介助者Hの少なくとも一方の音声を解析して行動に関する情報Raを取得する音声解析部71と、音データM1に含まれる反響音を解析して場所に関する情報Rpを取得する反響音解析部72と、行動に関する情報Raおよび場所に関する情報Rpに基づいて介助者または被介助者Hの少なくとも一方の行動履歴情報Rhを生成する行動履歴情報生成部74と、を備える。
このような構成によると、被介助者Hに対する介助の際の映像が残らないので、被介助者Hおよび介助者のプライバシーを保護することができる。また、被介助者Hおよび介助者の少なくとも一方の行動履歴が記録されるので、被介助者Hに対する介助動作を把握可能とし、より適切な介助の提供を支援することができる。また、介助装置10が用いられる介助動作においては、介助装置10に設けられたマイク62によって確実に音声が記録される。よって、被介助者Hなどの特定を確実に行うことができる。
8.実施形態の変形態様
8-1.音声解析について
実施形態において、音声解析部71は、音声解析処理(S11)として音声認識処理(図4を参照)実行する構成とした。これに対して、音声解析部71は、音声認識処理に換えてまたは加えて、音声解析処理として声紋解析処理を実行し、行動情報Raを取得してもよい。このような構成において、音声解析部71は、音データM1から抽出された声紋と、介助者の声紋および被介助者Hの声紋を示す声紋情報F4(図9を参照)とに基づいて、被介助者Hおよび介助者の少なくとも一方を特定することにより行動に関する情報Raを取得する。上記の声紋情報F4は、マイク62により音声を録音され得る介助者等の声紋を予め登録したものである。
詳細には、音声解析部71は、声紋認識処理において、図8に示すように、先ず音データM1の先頭から順に、声紋情報F4に含まれる何れかの声紋と一致または一定程度に近似しているかにより登録された声紋の検索処理を実行する(S51)。次に、音データM1から登録された所定の声紋が検出された場合には(S52:Yes)、音声解析部71は、検出された所定の声紋および声紋情報F4に基づいて、マイク62が音声を録音した際に音声を発した人(介助者または被介助者H)を特定する(S53)。
音声解析部71は、S53で特定した事項(介助者等の名前)を時刻に関連付けて行動情報Raを生成または編集する(S54)。音声解析部71は、音データM1の末尾まで登録された声紋の検索処理(S51)を実行し、S52-S54を繰り返す。これにより、検出された声紋に応じて特定された介助者等の名前が行動情報Raに記録される。音声解析部71は、音データM1の末尾まで登録された声紋の検索処理(S51)が終了し、登録された声紋が検出されなかった場合に(S52:No)、声紋解析処理を終了する。
行動履歴情報生成部74は、声紋解析処理を含む各種の解析処理にて生成および編集された行動情報Raおよび場所情報Rpを結合して、図9に示すように、行動履歴情報Rhを生成する(S14)。このような構成によると、検出された声紋および声紋情報F4に基づいて、被介助者Hまたは介助者を特定することができる。これにより、音声を発した被介助者Hまたは介助者の特定精度を向上できる。
8-2.音データM1の記録について
実施形態において、介助システム1のマイク62は、介助装置10に設けられるものとした。これに対して、介助システム1は、介助装置10以外にマイク62が設けられる構成としてもよい。具体的には、マイク62は、被介助者Hや介助者に設けられる構成としてもよい。また、介助システム1は、介助動作が行われる介助施設における部屋(被介助者Hの居室やリハビリ室)または通路に設置される固定マイク63(図9を参照)をさらに備える構成としてもよい。
このような構成において、音声解析部71および反響音解析部72は、固定マイク63によって取得された音データM1を解析対象とする。このような構成によると、音声解析部71および反響音解析部72は、介助装置10に設けられたマイク62に加えて、複数の固定マイク63のそれぞれで録音された音データM1に基づいて、各種の事項を特定でき、より正確な行動情報Raおよび場所情報Rpを取得できる。
8-3.介助システム1の構成について
実施形態において、介助システム1の解析部等(音声解析部71、反響音解析部72、ログデータ解析部73、行動履歴情報生成部74、レポート生成部75、レポート送信部76)は、介助装置10の制御装置70に組み込まれるものとした。これに対して、介助システム1の解析部等の少なくとも一部は、マイク62や固定マイク63が記録した音データM1を取得可能であれば、種々の装置に設けられる構成を採用し得る。例えば、解析部等は、介助施設の管理室に設けられた管理コンピュータ、ネットワーク上の管理サーバ81、被介助者Hの家族が所有する端末装置82の何れかに設けられる構成としてもよい。
ここで、音データM1やログデータM2は、行動履歴情報生成部74により生成される行動履歴情報Rhやレポート生成部75により生成される介助レポートRsと比較してデータ容量が大きく、通信に要する時間が長くなる。そのため、音声解析部71、反響音解析部72、ログデータ解析部73は、マイク62や固定マイク63に比較的近い介助施設内に設けられることが好適である。
また、管理サーバ81は、インターネットを介して接続されるクラウドサーバの他に、例えば介助施設において複数の介助装置10のみを管理対象としてもよい。さらに、介助システム1は、例えば管理サーバ81を有しない構成としてもよい。例えば、介助システム1は、介助装置10と通信可能な端末装置82とにより構成されてもよい。
8-3.介助装置10について
実施形態において、介助者が被介助者Hの介助に用いる介助装置10の基台20は、被介助者Hの両足が載置される足載置台23を備える。このような介助装置10は、支持部材40により被介助者Hの上半身を支持した状態において、被介助者Hの体重の一部を足載置台23が受ける。これにより、介助装置10は、起立動作や歩行に必要な脚力を有しない被介助者Hの移乗を可能にする。これに対して、介助装置は、例えば足載置台23がなく、被介助者Hが自身の足を使って移動する際に被介助者Hの体重の一部を支持し、被介助者Hの歩行動作を補助するものであってもよい。
1:介助システム、 10:介助装置、 62:マイク、 63:固定マイク、 70:制御装置、 71:音声解析部、 72:反響音解析部、 73:ログデータ解析部、 74:行動履歴情報生成部、 75:レポート生成部、 76:レポート送信部、 81:管理サーバ、 82:端末装置、 H:被介助者、 M1:音データ、 M2:ログデータ、 F1:検出ワード情報、 F2:規制ワード情報、 F3:反響音情報、 F4:声紋情報、 Ra:行動情報(行動に関する情報)、 Rp:場所情報(場所に関する情報)、 Rh:行動履歴情報、 Rs:介助レポート

Claims (12)

  1. 被介助者の移動を介助する介助装置と、
    前記介助装置に設けられたマイクと、
    前記マイクによって取得された音データに含まれる介助者または前記被介助者の少なくとも一方の音声を解析して行動に関する情報を取得する音声解析部と、
    前記音データに含まれる反響音を解析して場所に関する情報を取得する反響音解析部と、
    前記音声解析部によって取得された前記行動に関する情報および前記反響音解析部によって取得された前記場所に関する情報に基づいて前記介助者または前記被介助者の少なくとも一方の行動履歴情報を生成する行動履歴情報生成部と、
    を備える介助システム。
  2. 前記音声解析部は、前記音データに対する音声認識処理の結果に基づいて、前記被介助者および前記介助者の少なくとも一方を特定するとともに、前記被介助者に対する介助動作を特定することにより前記行動に関する情報を取得する、請求項1に記載の介助システム。
  3. 前記音声解析部は、前記音声認識処理の結果に含まれる所定のキーワードを検出することにより、前記被介助者および前記介助者の少なくとも一方を特定するとともに、前記介助動作を特定する、請求項2に記載の介助システム。
  4. 前記音声解析部は、前記被介助者の名前、前記介助者の名前、前記介助動作に関する物品の名称、および前記介助動作において前記被介助者が行う動作の名称または動詞の少なくとも一つが前記キーワードとして登録された検出ワード情報に基づいて、前記音声認識処理の結果に含まれる前記キーワードを検出する、請求項3に記載の介助システム。
  5. 前記音声解析部は、事前に登録された規制ワード情報に含まれる規制ワードを前記音声認識処理の結果から検出した場合に、前記規制ワードを含む一連の会話を対象とした前記キーワードの検出結果に基づく前記被介助者および前記介助者の少なくとも一方の特定、または前記介助動作の特定を規制する、請求項3または4に記載の介助システム。
  6. 前記音声解析部は、前記音データから抽出した声紋と、前記介助者の声紋および前記被介助者の声紋を示す声紋情報とに基づいて、前記被介助者および前記介助者の少なくとも一方を特定することにより前記行動に関する情報を取得する、請求項1-5の何れか一項に記載の介助システム。
  7. 前記反響音解析部は、前記音データにおける所定の反復音の周波数または残響時間に基づいて、前記マイクが音声を録音した際の部屋を特定することにより前記場所に関する情報を取得する、請求項1-6の何れか一項に記載の介助システム。
  8. 前記介助装置は、前記被介助者の起立動作および着座動作を含む各種動作を介助するとともに、動作履歴をログデータに記録し、
    前記介助システムは、前記ログデータに基づいて、前記被介助者に対する介助動作を特定することにより前記行動に関する情報を取得するログデータ解析部をさらに備える、請求項1-7の何れか一項に記載の介助システム。
  9. 前記ログデータ解析部は、前記ログデータにおいて前記被介助者を移乗させるように前記起立動作および前記着座動作の順で実行された移乗動作、または異なる部屋の間での移動を検出し、当該検出の結果に基づいて前記介助動作を特定する、請求項8に記載の介助システム。
  10. 前記介助システムは、前記介助動作が行われる介助施設における部屋または通路に設置される固定マイクをさらに備え、
    前記音声解析部および前記反響音解析部は、前記固定マイクによって取得された音データを解析対象とする、請求項1-9の何れか一項に記載の介助システム。
  11. 前記介助システムは、前記行動履歴情報生成部により生成された前記行動履歴情報に基づいて、被介助者が受けた介助動作の内容を含む介助レポートを生成するレポート生成部をさらに備える、請求項1-10の何れか一項に記載の介助システム。
  12. 前記レポート生成部は、複数の前記被介助者ごとに前記介助レポートを生成し、
    前記介助システムは、前記被介助者の関係者が所有する端末装置に前記被介助者に係る前記介助レポートを送信するレポート送信部をさらに備える、請求項11に記載の介助システム。
JP2020563963A 2018-08-01 2018-08-01 介助システム Active JP7083922B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2018/044846 WO2020027833A1 (en) 2018-08-01 2018-08-01 Assistance system

Publications (2)

Publication Number Publication Date
JP2021524964A JP2021524964A (ja) 2021-09-16
JP7083922B2 true JP7083922B2 (ja) 2022-06-13

Family

ID=69230864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020563963A Active JP7083922B2 (ja) 2018-08-01 2018-08-01 介助システム

Country Status (3)

Country Link
US (1) US20210330528A1 (ja)
JP (1) JP7083922B2 (ja)
WO (1) WO2020027833A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11806288B2 (en) * 2019-10-28 2023-11-07 Ambulatus Robotics LLC Autonomous robotic mobile support system for the mobility-impaired
JP7552081B2 (ja) 2020-06-11 2024-09-18 コニカミノルタ株式会社 介助度合い推定方法、プログラム、および情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134403A (ja) 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International シナリオ構築装置
JP2015165879A (ja) 2014-03-04 2015-09-24 トヨタ自動車株式会社 介護システム
WO2018047326A1 (ja) 2016-09-12 2018-03-15 富士機械製造株式会社 介助装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3437617B2 (ja) * 1993-06-03 2003-08-18 株式会社東芝 時系列データ記録再生装置
ATE403928T1 (de) * 2006-12-14 2008-08-15 Harman Becker Automotive Sys Sprachdialogkontrolle basierend auf signalvorverarbeitung
US8255225B2 (en) * 2008-08-07 2012-08-28 Vocollect Healthcare Systems, Inc. Voice assistant system
WO2010088575A2 (en) * 2009-01-30 2010-08-05 Altorr Corporation Patient-lifting-device controls
US8174931B2 (en) * 2010-10-08 2012-05-08 HJ Laboratories, LLC Apparatus and method for providing indoor location, position, or tracking of a mobile computer using building information
US8924218B2 (en) * 2010-11-29 2014-12-30 Greg L. Corpier Automated personal assistance system
KR20150041281A (ko) * 2013-10-08 2015-04-16 에스케이플래닛 주식회사 음성 분석을 이용한 건강 진단 서비스 제공 방법, 이를 위한 시스템 및 장치
US9396632B2 (en) * 2014-12-05 2016-07-19 Elwha Llc Detection and classification of abnormal sounds
US9839735B2 (en) * 2015-09-08 2017-12-12 Fresenius Medical Care Holdings, Inc. Voice interface for a dialysis machine
KR20170051994A (ko) * 2015-11-03 2017-05-12 주식회사 엘지유플러스 음성인식 디바이스 및 이의 동작 방법
US10905609B2 (en) * 2015-11-20 2021-02-02 Stryker Corporation Patient support systems and methods for assisting caregivers with patient care
JP6586474B2 (ja) * 2016-02-15 2019-10-02 株式会社Fuji 介助ロボット
US10893988B2 (en) * 2016-05-26 2021-01-19 Stryker Corporation Patient support systems and methods for docking, transporting, sterilizing, and storing patient support decks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134403A (ja) 2007-11-29 2009-06-18 Advanced Telecommunication Research Institute International シナリオ構築装置
JP2015165879A (ja) 2014-03-04 2015-09-24 トヨタ自動車株式会社 介護システム
WO2018047326A1 (ja) 2016-09-12 2018-03-15 富士機械製造株式会社 介助装置

Also Published As

Publication number Publication date
US20210330528A1 (en) 2021-10-28
WO2020027833A1 (en) 2020-02-06
JP2021524964A (ja) 2021-09-16

Similar Documents

Publication Publication Date Title
JP7083922B2 (ja) 介助システム
JP6788016B2 (ja) 介助装置
JP2003255991A (ja) 対話制御システム、対話制御方法及びロボット装置
Kulkarni et al. Robotic assistance in indoor navigation for people who are blind
JP3930389B2 (ja) ロボット発話中の動作プログラム生成装置及びロボット
JP2007156688A (ja) ユーザ認証装置およびその方法
JP2007155986A (ja) 音声認識装置および音声認識装置を備えたロボット
JP4178846B2 (ja) 自律駆動式支援装置およびプログラム
JP6868049B2 (ja) 情報処理装置、見守りシステム、見守り方法、及び見守りプログラム
WO2016031405A1 (ja) 脳機能障害者生活支援装置
JP6989701B2 (ja) 介助装置の管理装置
CN114585340B (zh) 护理用床系统及护理用床姿势变更装置
JP6934569B2 (ja) 介助装置の管理装置および管理方法
JP2016032500A (ja) 看護・介護支援装置および看護・介護支援方法
JP6974610B2 (ja) 介助装置の管理装置
JP6745400B2 (ja) 介助装置のデータ取得装置
JP2016077360A (ja) 介助装置
JP6934571B2 (ja) 介助装置の適合判定装置
JP2020156607A (ja) 制御装置、ロボット、制御方法およびプログラム
JP2004045591A (ja) 音声認識方法及び特定話者音響辞書の提供方法
JP7133733B1 (ja) ロボットシステム、ロボット操作方法、及びロボット操作プログラム
US20220172832A1 (en) Assistance system
JP3907443B2 (ja) 排紙位置ナビゲーション機能付き印刷システム
JP6886689B2 (ja) 対話装置及びこれを用いた対話システム
JP2023043742A (ja) 出力装置、マッサージ装置、出力システム、コンピュータプログラム、処理用データ、及び、出力方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201119

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220105

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220601

R150 Certificate of patent or registration of utility model

Ref document number: 7083922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150