JP7140523B2 - 介護行為推定システム - Google Patents

介護行為推定システム Download PDF

Info

Publication number
JP7140523B2
JP7140523B2 JP2018061454A JP2018061454A JP7140523B2 JP 7140523 B2 JP7140523 B2 JP 7140523B2 JP 2018061454 A JP2018061454 A JP 2018061454A JP 2018061454 A JP2018061454 A JP 2018061454A JP 7140523 B2 JP7140523 B2 JP 7140523B2
Authority
JP
Japan
Prior art keywords
action
keyword
caregiving
estimation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018061454A
Other languages
English (en)
Other versions
JP2019175052A (ja
Inventor
博之 井上
昌子 吉村
昭啓 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2018061454A priority Critical patent/JP7140523B2/ja
Publication of JP2019175052A publication Critical patent/JP2019175052A/ja
Application granted granted Critical
Publication of JP7140523B2 publication Critical patent/JP7140523B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、介護行為を推定する介護行為推定システムの技術に関する。
従来、介護支援システムの技術は公知となっている。例えば、特許文献1に記載の如くである。
特許文献1には、介護士が持つ携帯電話機と、前記携帯電話機から入力された音声を音声認識機能によってテキストデータに変換し、当該テキストデータを前記携帯電話機に送信するサーバーと、携帯電話機の送受信内容を出力する携帯プリンタとを具備する介護支援システムが記載されている。当該介護支援システムにおいて、介護士は、介護サービス実施後、前記携帯電話機より介護実施内容(介護行為)を音声にて入力して前記サーバーに送信するとともに、前記携帯プリンタより実施済みの介護サービス内容を出力することができる。これにより、手書きしなくても、後から或いは第三者が介護実施内容を把握することができる。
しかしながら、特許文献1に記載の技術においては、介護実施内容を手書きで記録する必要はないものの、依然として、わざわざ介護サービス実施後に介護実施内容を入力する必要があるという点で手間であった。
特開2012-73739号公報
本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、実施された介護行為を入力する手間を低減することができる介護行為推定システムを提供することである。
本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。
即ち、請求項1においては、音声を取得する音声取得部と、取得された前記音声を文字情報として認識する音声認識部と、介護行為の種類を示す第一のキーワードを記憶する記憶部と、前記音声認識部によって認識された前記文字情報と前記第一のキーワードとを照合することにより、実施された介護行為の推定を行う推定部と、部屋からの人の退出を検出する検出部と、を具備し、前記記憶部は、前記第一のキーワードのうち、部屋からの人の退出を必要とする介護行為の種類を示すキーワードを第三のキーワードとして分類して記憶し、前記推定部は、前記音声認識部によって認識された前記文字情報に前記第三のキーワードが含まれており、かつ、前記検出部により部屋からの人の退出が検出された場合、前記第三のキーワードに対応する介護行為の実施を確定するものである。
請求項2においては、取得された前記音声を発した個人を識別する個人識別部を具備し、前記推定部は、前記個人識別部の識別結果に基づいて抽出された、特定の個人が発した音声を用いて、前記推定を行うものである。
請求項3においては、前記記憶部は、前記第一のキーワードに対応する介護行為の実行を示す第二のキーワードを記憶し、前記推定部は、前記音声認識部によって認識された前記文字情報に前記第一のキーワードが含まれており、かつ、前記第二のキーワードが含まれている場合、前記第一のキーワードに対応する介護行為の実施を確定するものである。
請求項4においては、前記推定部による前記推定の結果を通知する通知部を具備するものである。
本発明の効果として、以下に示すような効果を奏する。
請求項1においては、実施された介護行為を入力する手間を低減することができる。また、部屋からの人の退出を必要とする介護行為(トイレの介助等)が実際に行われたかの推定の精度を向上させることができる。
請求項2においては、介護行為の推定に重要な人物(介護者)の音声を用いて当該推定を行うことができるため、推定の精度を向上させることができる。
請求項3においては、介護行為が実際に行われたかの推定の精度を向上させることができる。
請求項4においては、実施された介護行為を容易に把握することができる。
本発明の一実施形態に係る介護行為推定システムの構成を示す図。 本発明の一実施形態に係る介護行為推定システムのキーワードリストを示す図。 本発明の一実施形態に係る介護行為推定システムの推定制御を示すフローチャート。 本発明の第二実施形態に係る介護行為推定システムのキーワードリストを示す図。 本発明の第二実施形態に係る介護行為推定システムの推定制御を示すフローチャート。 トイレ介助行為の推定の態様を示す図。 トイレ介助行為の推定の態様を示す図。 本発明の第三実施形態に係る介護行為推定システムの構成を示す図。
まず、図1を用いて、本発明の一実施形態に係る介護行為推定システム1の構成の概要について説明する。
介護行為推定システム1は、介護の現場で実施された介護行為を推定するためのシステムである。介護行為推定システム1の利用者(介護者等)は、推定結果を用いて、介護サービス後であっても、介護サービス中に実施した介護行為を確認することができる。なお、本明細書において「介護サービス」とは、事業者による公的サービスだけでなく、家庭での介護も含む。介護行為推定システム1は、主に家、病院、老人ホーム等で使用される。介護行為推定システム1は、音取得装置10、人検知装置20、制御装置30及びデータ出力装置40を具備する。
音取得装置10は、音声等の音を取得するものである。音取得装置10としては、例えばマイクロフォンが使用される。音取得装置10は、介護が行われる部屋(以下、単に「部屋」ということもある)内に設けられ、当該部屋内にいる介護者(介護スタッフ等)や被介護者等が発する音声や、当該部屋内で生じる音を取得する。
人検知装置20は、部屋内の人の存在を検知するものである。人検知装置20としては、例えば、赤外線、マイクロ波等を用いた人感センサが使用される。人検知装置20は、介護が行われる部屋内に設けられ、当該部屋内の人の存在を検知する。
制御装置30は、データの格納や分析等を行うものである。制御装置30は、RAMやROM等の記憶部や、CPU等の演算処理部等により構成される。制御装置30は、音声を文字情報として認識する音声認識機能を有しており、当該機能により、音取得装置10によって取得された音声を文字情報に変換したもの(以下、「音声テキスト」という)を作成することができる。制御装置30は、音声テキストを時間情報と紐付けて(音声が発せられた時刻がわかるように)記憶部に記憶する。
また、制御装置30は、音取得装置10によって取得された音声が誰の音声であるか(音声を発した個人)を識別する話者認識機能を有している。制御装置30は、音取得装置10によって取得された音声と、予め記憶部に記憶した介護者等の音声データとを比較して、音声を発した個人を識別する。
また、制御装置30は、前記記憶部に、実施された介護行為を推定するための判断基準となるキーワードをリスト化して記憶する(図2参照)。図2に示すリストには、介護行為の種類を示す第一のキーワード(例えば、「トイレ」、「風呂」、「入浴」、「食事」、「リハビリ」、「着替え」、「バイタル」、「シーツ交換」等)、介護行為の実行を示す第二のキーワード、具体的には、介護行為の開始を示すキーワード(例えば、「します」、「しましょう」、「始めます」、「開始します」、「行きましょう」等)、及び介護行為の完了を示すキーワード(例えば、「できました」、「できた」、「終わります」、「終わりました」、「終了します」、「終了しました」等)が含まれており、当該第一のキーワード及び第二のキーワードが分類されて記憶されている。
制御装置30は、音声テキスト、及び図2に示すリストに記憶されたキーワード等により、介護行為の推定を行う。具体的には、制御装置30は、抽出した音声テキストに、図2に示すリストに記憶されたキーワードが含まれているかを判断し、含まれているキーワードに基づいて、実施された介護行為の内容を推定する。
データ出力装置40は、種々のデータを出力するものである。データ出力装置40としては、例えばプリンタが使用される。データ出力装置40は、制御装置30と電気的に接続され、制御装置30による介護行為の推定結果を出力することができる。
以下、図3を参照して、介護行為の推定に係る制御(推定制御)について説明する。
ステップS10において、制御装置30は、音取得装置10によって音が取得されているか否かの判定を行う。
制御装置30は、音取得装置10によって音が取得されていると判定した場合(ステップS10で「YES」)、ステップS12に移行する。一方、制御装置30は、音取得装置10によって音が取得されていないと判定した場合(ステップS10で「NO」)、図3に示す推定制御を終了する。
ステップS12において、制御装置30は、音声認識機能により、音取得装置10によって取得された音声を文字情報に変換して音声テキストを作成する。制御装置30は、当該ステップS12の処理を行った後、ステップS14に移行する。
ステップS14において、制御装置30は、話者識別機能により、音取得装置10によって取得された音声を発した人物(話者)を識別(特定)する。話者が複数人いる場合、制御装置30は、話者識別機能により特定した人物(話者)ごとにタグを設定し、設定したタグごとに音声テキストを分類する。制御装置30は、当該ステップS14の処理を行った後、ステップS16に移行する。
ステップS16において、制御装置30は、取得した音の中に、介護者の音声があるか否かを判定する。このステップにおいて、制御装置30は、ステップS14で行った分類に基づいて、この判定を行う。その際、制御装置30は、介護者以外の音声テキストは消去してもよい。
制御装置30は、介護者の音声があると判定した場合(ステップS16で「YES」)、ステップS18に移行する。一方、制御装置30は、介護者の音声がないと判定した場合(ステップS16で「NO」)、図3に示す推定制御を終了する。
ステップS18において、制御装置30は、介護者の音声テキストが、介護行為の種類を示す第一のキーワードを含んでいるか否かを判定する。このステップにおいて、制御装置30は、抽出した介護者の音声テキストに、図2に示す第一のキーワード(「トイレ」、「着替え」等の介護行為の種類を示すキーワード)が含まれているか否かを判定する。
制御装置30は、抽出した音声テキストが第一のキーワードを含んでいると判定した場合(ステップS18で「YES」)、ステップS20に移行する。一方、制御装置30は、抽出した音声テキストが第一のキーワードを含んでいないと判定した場合(ステップS18で「NO」)、図3に示す推定制御を終了する。
ステップS20において、制御装置30は、介護行為の種類を推定する。このステップにおいて、制御装置30は、抽出した音声テキストに含まれていた第一のキーワード(介護行為の種類を示すキーワード)に基づいて、介護行為の種類を推定する。
例えば、介護者が発した「お着替えしましょうね」との音声が音取得装置10によって取得されていたとする。この場合、制御装置30は、介護者の音声テキストに「着替え」との第一のキーワードが含まれているため、実施された介護行為の種類を「着替えの介助」と推定する。
制御装置30は、当該ステップS20の処理を行った後、ステップS26に移行する。
ステップS26において、制御装置30は、抽出した音声テキストが介護行為の実行を示す第二のキーワードを含むか否かを判定する。具体的には、制御装置30は、抽出した介護者の音声テキストに、図2に示す介護行為の開始を示すキーワード(「します」、「しましょう」、「始めます」、「開始します」等)、又は介護行為の完了を示すキーワード(「できました」、「できた」、「終わります」、「終わりました」、「終了します」、「終了しました」等)が含まれているか否かを判定する。
制御装置30は、抽出した音声テキストが第二のキーワードを含んでいると判定した場合(ステップS26で「YES」)、ステップS28に移行する。一方、制御装置30は、抽出した音声テキストが第二のキーワードを含んでいないと判定した場合(ステップS26で「NO」)、図3に示す推定制御を終了する。
ステップS28において、制御装置30は、介護行為が実施されたと推定する。このステップにおいて、制御装置30は、抽出した音声テキストに含まれていた第一のキーワードに基づいて推定された介護行為(着替えの介助)が(ステップS20参照)、実際に行われたと推定する(介護行為の実施を確定する)。
例えば、制御装置30は、介護者の音声テキスト「お着替えしましょうね」に「しましょう」との第二のキーワード(介護行為の開始を示すキーワード)が含まれているため、ステップS20で推定された介護行為である「着替えの介助」が開始されたと推定する。
さらに、「お着替えしましょうね」の後に、介護者が発した「着替えを終わりますね」との音声が音取得装置10によって取得されていたとする。この場合、制御装置30は、介護者の音声テキストに「終わります」との第二のキーワード(介護行為の完了を示すキーワード)が含まれているため、ステップS20で推定された介護行為である「着替えの介助」が完了したと推定する。
これにより、制御装置30は、ステップS20で推定された介護行為である「着替えの介助」が実行されたと推定する。また、制御装置30は、音声テキストに紐付けられた時間情報に基づいて、介護行為の開始を示す第二のキーワード「しましょう」が発せされた時刻と、介護行為の完了を示す第二のキーワード「終わります」が発せされた時刻とを抽出し、これにより第一のキーワードに基づく介護行為「着替えの介助」の開始時刻と完了時刻とを算出する。
制御装置30は、当該ステップS28の処理を行った後、ステップS30に移行する。
ステップS30において、制御装置30は、介護行為データを保存する。制御装置30は、推定した介護行為の種類(ステップS20参照)や、その介護行為が実際に行われたこと及びその介護行為の開始時刻及び完了時刻(ステップS28参照)等を、介護行為データとして記憶部に記憶(記録)する。制御装置30は、利用者(介護者等)の求めに応じて、当該介護行為データを、データ出力装置40を介して利用者に通知することができる。
制御装置30は、当該ステップS30の処理を行った後、図3に示す推定制御を終了する。
なお、図3に示す推定制御は、ステップS30の処理を行った後、無音状態が所定期間継続した場合(音取得装置10に音の入力が所定期間ない場合)、音取得装置10に制御の終了に関するキーワードが入力された場合、又は在室人数が減少して元の人数(被介護者のみ)になったことを人検知装置20により検知した場合に、終了するものとしてもよい。
このように介護行為推定システム1においては、介護サービス中の会話(介護者が発する音声)を取得し、取得した会話に基づいて、介護行為の実施内容を推定することができる。よって、介護報酬の申請等のために、介護サービス中に実施した介護行為の内容をわざわざ介護サービス後に入力する手間を低減することができる。また、介護者が介護サービス中に作業を止めることなく、介護行為の推定結果を自動で記録することができる。また、推定結果をデータ出力装置40を介して出力することができるため、介護者等は、実施された介護行為を、介護サービス後でも容易に確認することができる。
また、介護行為の種類を示す第一のキーワードだけでなく、介護行為の実行を示す第二のキーワードに基づく推定も行うため(ステップS26、S28参照)、介護行為が実際に行われたかの推定の精度を向上させることができる。また、介護行為が行われた時間も把握することができる。
また、様々な音が飛び交う環境でも介護者の声を特定できるため(ステップS14、S16参照)、介護行為の推定に必要な情報を絞ることができる。このため、推定の精度を向上させることができる。
また、様々なIoTデバイスとの連携を可能とすることで、機能の追加、記録精度向上を図ることができる。
以上の如く、本実施形態に係る介護行為推定システム1は、音声を取得する音取得装置10(音声取得部)と、取得された前記音声を文字情報として認識する制御装置30(音声認識部)と、介護行為の種類を示す第一のキーワードを記憶する制御装置30(記憶部)と、前記制御装置30(音声認識部)によって認識された前記文字情報と前記第一のキーワードとを照合することにより、実施された介護行為の推定を行う制御装置30(推定部)と、を具備するものである。
このように構成することにより、実施された介護行為を入力する手間を低減することができる。
また、本実施形態に係る介護行為推定システム1は、取得された前記音声を発した個人を識別する制御装置30(個人識別部)を具備し、前記制御装置30(推定部)は、前記制御装置30(個人識別部)の識別結果に基づいて抽出された、特定の個人が発した音声を用いて、前記推定を行うものである。
このように構成することにより、介護行為の推定に重要な人物(介護者)の音声を用いて当該推定を行うことができるため、推定の精度を向上させることができる。
また、前記制御装置30(記憶部)は、前記第一のキーワードに対応する介護行為の実行を示す第二のキーワードを記憶し、前記制御装置30(推定部)は、前記制御装置30(音声認識部)によって認識された前記文字情報に前記第一のキーワードが含まれており、かつ、前記第二のキーワードが含まれている場合、前記第一のキーワードに対応する介護行為の実施を確定するものである。
このように構成することにより、介護行為が実際に行われたかの推定の精度を向上させることができる。
また、本実施形態に係る介護行為推定システム1は、前記制御装置30(推定部)による前記推定の結果を通知するデータ出力装置40(通知部)を具備するものである。
このように構成することにより、実施された介護行為を容易に把握することができる。
なお、本実施形態に係る音取得装置10は、音声取得部の実施の一形態である。
また、本実施形態に係る人検知装置20は、検出部の実施の一形態である。
また、本実施形態に係る制御装置30は、音声認識部、記憶部、推定部及び個人識別部の実施の一形態である。
また、本実施形態に係るデータ出力装置40は、通知部の実施の一形態である。
以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。
例えば、本実施形態においては、第一のキーワードに基づく判定だけでなく(ステップS18参照)、第二のキーワードに基づく判定も行うものとしたが(ステップS26参照)、第一のキーワードに基づく判定(ステップS18参照)のみを行うことで、実施された介護行為を推定するものとしてもよい。
また、本実施形態においては、介護者の音声を識別し、介護者の音声(テキスト)に基づいて推定を行うものとしたが、全ての音声に基づいて推定を行うものとしてもよく、又は介護者以外の者(被介護者等)の音声に基づいて推定を行うものとしてもよい。
また、本実施形態においては、第二のキーワードとして、介護行為の開始を示すキーワード及び介護行為の完了を示すキーワードの両方が音声テキストに含まれる場合を例に挙げて説明したが、制御装置30は、介護行為の開始を示すキーワード又は介護行為の完了を示すキーワードのいずれかが音声テキストに含まれていれば、ステップS26及びS28において、介護行為の実施を推定し(ステップS28)、介護行為データを保存することができる(ステップS30)。
また、本実施形態においては、音声テキストが第二のキーワードを含んでいない場合(ステップS26で「NO」)、介護行為の実施を推定しない(介護行為データを保存しない)ものとしたが、制御装置30は、ステップS26で「NO」の場合であっても、介護行為の実施を推定する(介護行為データを保存する)ものとしてもよい。その際、制御装置30は、ステップS26で「YES」の場合と「NO」の場合とで、実施の可能性のレベルを変えて介護行為データを記憶するものとしてもよい。具体的には、制御装置30は、ステップS26で「YES」の場合に、ステップS26で「NO」の場合と比べて、介護行為が実際に行われた可能性が高いことがわかるように、介護行為データを記憶するものとしてもよい。
また、本実施形態においては、介護行為の開始を示すキーワード(例えば、「します」、「しましょう」、「始めます」、「開始します」、「行きましょう」等)は、第二のキーワードに含まれるものとしたが、第一のキーワードに含まれるものとしてもよい。すなわち、介護行為の種類及び介護行為の開始を示すキーワード(例えば、「トイレをする」、「トイレしましょう」、「トイレへ行きましょう」等)を、第一のキーワードとしてもよい。そして、介護行為の完了を示すキーワード(例えば、「できました」、「できた」、「終わります」、「終わりました」、「終了します」、「終了しました」等)を第二のキーワードとしてもよい。
また、本実施形態においては、図3に示す推定制御は常に実行されているものとしたが、決まった時間に、例えば一日の最後に実行されるものとし、蓄積した一日分の音声を分析して、介護行為の推定を行うものとしてもよい。
次に、図4から図6を用いて、本発明の第二実施形態に係る介護行為推定システム1について説明する。
第二実施形態に係る介護行為推定システム1は、第一実施形態とは、制御装置30の記憶部に記憶されているリストが異なっている。具体的には、図4に示すように、第二実施形態に係るリストは、介護行為の種類を示す第一のキーワードが、部屋からの退出が必要な行為(例えば、「トイレ」、「風呂」、「入浴」、「食事」、「リハビリ」等)と、部屋からの退出が不要な行為(例えば、「着替え」、「バイタル」、「シーツ交換」等)とに分類されて記憶されている。
また、図5に示す第二実施形態に係る推定制御が、図3に示す第一実施形態に係る推定制御と異なる主な点は、さらにステップS22及びステップS24の処理を行う点である。よって以下では、図5に示す推定制御のうち図3に示す推定制御と同一のステップについては、同一の符号を付して説明を省略する。
制御装置30は、ステップS20の処理(介護行為の種類の推定)を行った後、ステップS22に移行する。
ステップS22において、制御装置30は、介護行為の種類を示す第一のキーワードに基づいて推定された介護行為が、部屋からの人の退出が必要な行為であるか否かを判定する。制御装置30は、図4に示すリストの分類に基づいて、この判定を行う。
制御装置30は、第一のキーワードに基づいて推定された介護行為が、部屋からの人の退出が必要な行為であると判定した場合(ステップS22で「YES」)、ステップS24に移行する。
ステップS24において、制御装置30は、部屋からの人の退出があったか否かの判定を行う。制御装置30は、人検知装置20の検知結果に基づいて、部屋内の人数が減ったと判断した場合に、部屋からの人の退出があったと判定する。
制御装置30は、部屋からの人の退出があったと判定した場合(ステップS24で「YES」)、ステップS28に移行する。一方、制御装置30は、部屋からの人の退出がなかったと判定した場合(ステップS24で「NO」)、図5に示す推定制御を終了する。
一方、制御装置30は、第一のキーワードに基づいて推定された介護行為が、部屋からの人の退出が必要な行為でないと判定した場合(ステップS22で「NO」)、ステップS26に移行する。ステップS26において、制御装置30は、第一実施形態と同様に、抽出した音声テキストが介護行為の実行を示す第二のキーワードを含むか否かを判定する。制御装置30は、抽出した音声テキストが第二のキーワードを含んでいると判定した場合(ステップS26で「YES」)、ステップS28に移行する。一方、制御装置30は、抽出した音声テキストが第二のキーワードを含んでいないと判定した場合(ステップS26で「NO」)、図5に示す推定制御を終了する。その後の処理は、第一実施形態と同様である。
以下、具体例を挙げて説明する。図6に示すように、例えば、介護者が発した「それではトイレに行きましょうか」との音声が音取得装置10によって取得されていたとする。この場合、制御装置30は、ステップS20において、介護者の音声テキストに「トイレ」との第一のキーワードが含まれているため、実施された介護行為の種類を「トイレの介助」と推定する。
そして、制御装置30は、ステップS22において、図4に示すリストに基づいて、第一のキーワード「トイレ」に基づいて推定された介護行為(トイレの介助)が、部屋からの人の退出が必要な行為であると判定する(ステップS22で「YES」)。
その後、制御装置30は、人検知装置20の検知結果に基づいて、部屋内の人数が減ったと判断した場合、部屋からの人(例えば、介護者A及び被介護者B)の退出があったと判定する(ステップS24で「YES」)。そうすると、制御装置30は、介護行為(トイレの介助)が実際に行われたと推定する(ステップS28参照)。
このようにして、部屋の外で介護行為が行われる場合に、介護行為の実施をより精度良く推定することができる。
以上の如く、第二実施形態に係る介護行為推定システム1は、部屋からの人の退出を検出する人検知装置20(検出部)を具備し、前記制御装置30(記憶部)は、前記第一のキーワードのうち、部屋からの人の退出を必要とする介護行為の種類を示すキーワードを第三のキーワードとして分類して記憶し、前記制御装置30(推定部)は、前記制御装置30(音声認識部)によって認識された前記文字情報に前記第三のキーワードが含まれており、かつ、前記人検知装置20により部屋からの人の退出が検出された場合、前記第三のキーワードに対応する介護行為の実施を確定するものである。
このように構成することにより、部屋からの人の退出を必要とする介護行為(トイレの介助等)が実際に行われたかの推定の精度を向上させることができる。
以上、本発明の第二実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。
例えば、第二実施形態においては、人感センサにより部屋からの人の退出を検知するものとしたが(ステップS24参照)、ICカード、GPS、カメラ等によって検知してもよく、音取得装置10によって取得される扉の開閉音に基づいて検知するものであってもよい。
また、第二実施形態においては、制御装置30は、取得した音声テキストが、介護行為の種類を示す第一のキーワードを含んでいた場合(ステップS18参照)、及び部屋からの人の退出があった場合(ステップS24参照)に、介護行為が実際に行われたと推定(実施を確定)するものとしたが、さらに、取得した音声テキストが、介護行為の実行を示す第二のキーワード(「行きましょう」等)を含んでいる場合に、介護行為が実際に行われたと推定するものとしてもよい。
また、第二実施形態においては、制御装置30は、部屋からの人の退出がなかったと判定した場合(ステップS24で「NO」)、図5に示す推定制御を終了するものとしたが、制御装置30は、ステップS24で「NO」の場合であっても、介護行為の実施を推定する(介護行為データを保存する)ものとしてもよい。その際、制御装置30は、ステップS24で「YES」の場合と「NO」の場合とで、実施の可能性のレベルを変えて介護行為データを記憶するものとしてもよい。具体的には、制御装置30は、ステップS24で「YES」の場合に、ステップS24で「NO」の場合と比べて、介護行為が実際に行われた可能性が高いことがわかるように、介護行為データを記憶するものとしてもよい。
また、図7に示すように、介護行為推定システム1は、元の部屋だけでなく、移動先(トイレ)でも介護行為のキーワード(「トイレ」、「します」等)を取得し、かつ、人(介護者A及び被介護者B)の元の部屋からの退出だけでなく、トイレへの入室を検知した場合に、介護行為(トイレの介助)が実際に行われたと推定するものとしてもよい。
また、図8に示す第三実施形態に係る介護行為推定システム2のように、介護行為の推定の精度を向上させるために、さらに画像取得装置(カメラ)50や、室内環境センサ60、バイタルセンサ70及び三軸加速度センサ80等の種々のセンサ類を具備し、制御装置30によってこれら装置のデータを活用するようにしてもよい。画像取得装置(カメラ)50を具備することにより、介護行為の推定の補助とすることができ、推定の精度を向上させることができる。室内環境センサ60として例えば温度計を具備することにより、在室の有無の検知判断の補助とすることができる。室内環境センサ60として例えば匂いセンサを具備することにより、介護行為「おむつ交換」の推定の補助とすることができる。バイタルセンサ70(例えば脈拍計)を具備することにより、バイタルサインの変化を把握することができ、これに基づいて介護行為の実施判断の補助とすることができる。三軸加速度センサ80を具備することにより、部屋からの人の移動(退出及び入室)の有無の判断の補助とすることができる。
1 介護行為推定システム
10 音取得装置
20 人検知装置
30 制御装置
40 データ出力装置

Claims (4)

  1. 音声を取得する音声取得部と、
    取得された前記音声を文字情報として認識する音声認識部と、
    介護行為の種類を示す第一のキーワードを記憶する記憶部と、
    前記音声認識部によって認識された前記文字情報と前記第一のキーワードとを照合することにより、実施された介護行為の推定を行う推定部と、
    部屋からの人の退出を検出する検出部と、
    を具備し、
    前記記憶部は、
    前記第一のキーワードのうち、部屋からの人の退出を必要とする介護行為の種類を示すキーワードを第三のキーワードとして分類して記憶し、
    前記推定部は、
    前記音声認識部によって認識された前記文字情報に前記第三のキーワードが含まれており、かつ、前記検出部により部屋からの人の退出が検出された場合、前記第三のキーワードに対応する介護行為の実施を確定する、
    介護行為推定システム。
  2. 取得された前記音声を発した個人を識別する個人識別部を具備し、
    前記推定部は、
    前記個人識別部の識別結果に基づいて抽出された、特定の個人が発した音声を用いて、前記推定を行う、
    請求項1に記載の介護行為推定システム。
  3. 前記記憶部は、
    前記第一のキーワードに対応する介護行為の実行を示す第二のキーワードを記憶し、
    前記推定部は、
    前記音声認識部によって認識された前記文字情報に前記第一のキーワードが含まれており、かつ、前記第二のキーワードが含まれている場合、前記第一のキーワードに対応する介護行為の実施を確定する、
    請求項1又は請求項2に記載の介護行為推定システム。
  4. 前記推定部による前記推定の結果を通知する通知部を具備する、
    請求項1から請求項3までのいずれか一項に記載の介護行為推定システム。
JP2018061454A 2018-03-28 2018-03-28 介護行為推定システム Active JP7140523B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018061454A JP7140523B2 (ja) 2018-03-28 2018-03-28 介護行為推定システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018061454A JP7140523B2 (ja) 2018-03-28 2018-03-28 介護行為推定システム

Publications (2)

Publication Number Publication Date
JP2019175052A JP2019175052A (ja) 2019-10-10
JP7140523B2 true JP7140523B2 (ja) 2022-09-21

Family

ID=68170329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018061454A Active JP7140523B2 (ja) 2018-03-28 2018-03-28 介護行為推定システム

Country Status (1)

Country Link
JP (1) JP7140523B2 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021144931A1 (ja) * 2020-01-16 2021-07-22 エヌ・デーソフトウェア株式会社 データ入力支援装置
WO2021144933A1 (ja) * 2020-01-16 2021-07-22 エヌ・デーソフトウェア株式会社 データ入力支援装置
CN113357772A (zh) * 2021-05-28 2021-09-07 青岛海尔空调器有限总公司 用于空调关怀推送的方法、装置、平台设备及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325363A (ja) 2000-05-15 2001-11-22 Hitachi Plant Eng & Constr Co Ltd 介護業務支援装置及び携帯通信端末
JP2002325147A (ja) 2001-04-25 2002-11-08 Animo:Kk コンピュータ・システム及び情報処理方法
JP2014232258A (ja) 2013-05-30 2014-12-11 株式会社東芝 連携業務支援装置、方法およびプログラム
JP2015219719A (ja) 2014-05-16 2015-12-07 株式会社東芝 医療情報システム
US20170193180A1 (en) 2015-12-31 2017-07-06 Cerner Innovation, Inc. Methods and systems for audio call detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325363A (ja) 2000-05-15 2001-11-22 Hitachi Plant Eng & Constr Co Ltd 介護業務支援装置及び携帯通信端末
JP2002325147A (ja) 2001-04-25 2002-11-08 Animo:Kk コンピュータ・システム及び情報処理方法
JP2014232258A (ja) 2013-05-30 2014-12-11 株式会社東芝 連携業務支援装置、方法およびプログラム
JP2015219719A (ja) 2014-05-16 2015-12-07 株式会社東芝 医療情報システム
US20170193180A1 (en) 2015-12-31 2017-07-06 Cerner Innovation, Inc. Methods and systems for audio call detection

Also Published As

Publication number Publication date
JP2019175052A (ja) 2019-10-10

Similar Documents

Publication Publication Date Title
CN110741433B (zh) 使用多个计算设备的对讲式通信
CN113470641B (zh) 数字助理的语音触发器
JP7140523B2 (ja) 介護行為推定システム
US9858924B2 (en) Voice processing apparatus and voice processing method
Alonso-Martín et al. Integration of a voice recognition system in a social robot
KR20180042376A (ko) 응답을 제공하기 위한 디바이스 선택
JP2018072876A (ja) 感情推定システム、感情推定モデル生成システム
US9848166B2 (en) Communication unit
WO2014120291A1 (en) System and method for improving voice communication over a network
JP2008242318A (ja) 対話を検出する装置、方法およびプログラム
US11302338B2 (en) Responding to requests for information and other verbal utterances in a healthcare facility
JP2016131020A (ja) ホスト・ユーザに自動受付を提供するための方法、コンピュータ、およびコンピュータ・プログラム
US20140358543A1 (en) Linked-work assistance apparatus, method and program
JPWO2011111221A1 (ja) エレベータの音声呼び登録装置
FI128000B (en) Speech recognition method and device based on a wake up word
JP7135896B2 (ja) 対話装置、対話方法及びプログラム
US20200066402A1 (en) Managing patient requests for assistance in a healthcare facility
JP2010078763A (ja) 音声処理装置、音声処理プログラム、およびインターホンシステム
JP6934831B2 (ja) 対話装置及びプログラム
KR20210057367A (ko) 층간소음 분쟁을 예방하기 위한 인공지능 기반의 이웃간 데이터 처리 장치 및 이를 이용한 데이터 처리 방법
JP2018055155A (ja) 音声対話装置および音声対話方法
JP2023113525A (ja) 情報処理方法、情報処理装置及びプログラム
Sun et al. An Auxiliary Notification System for Amnesiac Patients Based on Face Recognition and Voice Synthesis Using Cloud Computing
US9122312B2 (en) System and method for interacting with a computing device
WO2020189340A1 (ja) 情報処理装置および情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150