JP2019175052A - Caring behavior estimation system - Google Patents

Caring behavior estimation system Download PDF

Info

Publication number
JP2019175052A
JP2019175052A JP2018061454A JP2018061454A JP2019175052A JP 2019175052 A JP2019175052 A JP 2019175052A JP 2018061454 A JP2018061454 A JP 2018061454A JP 2018061454 A JP2018061454 A JP 2018061454A JP 2019175052 A JP2019175052 A JP 2019175052A
Authority
JP
Japan
Prior art keywords
keyword
care
estimation
control device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018061454A
Other languages
Japanese (ja)
Other versions
JP7140523B2 (en
Inventor
井上 博之
Hiroyuki Inoue
博之 井上
昌子 吉村
Masako Yoshimura
昌子 吉村
昭啓 小池
Akihiro Koike
昭啓 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to JP2018061454A priority Critical patent/JP7140523B2/en
Publication of JP2019175052A publication Critical patent/JP2019175052A/en
Application granted granted Critical
Publication of JP7140523B2 publication Critical patent/JP7140523B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a caring behavior estimation system capable of reducing labor of inputting executed caring behavior.SOLUTION: A caring behavior estimation system includes: a voice acquisition device 10 for acquiring voice; a control device 30 (a voice recognition part) for recognizing the acquired voice as character information; the control device 30 (a storage part) for storing a first keyword showing the type of caring behavior; and the control device 30 (an estimation part) for estimating an executed caring behavior by collating the character information recognized by the control device 30 (the voice recognition part) with the first keyword.SELECTED DRAWING: Figure 3

Description

本発明は、介護行為を推定する介護行為推定システムの技術に関する。   The present invention relates to a technique of a nursing care action estimation system that estimates a nursing care action.

従来、介護支援システムの技術は公知となっている。例えば、特許文献1に記載の如くである。   Conventionally, the technology of a care support system has been publicly known. For example, as described in Patent Document 1.

特許文献1には、介護士が持つ携帯電話機と、前記携帯電話機から入力された音声を音声認識機能によってテキストデータに変換し、当該テキストデータを前記携帯電話機に送信するサーバーと、携帯電話機の送受信内容を出力する携帯プリンタとを具備する介護支援システムが記載されている。当該介護支援システムにおいて、介護士は、介護サービス実施後、前記携帯電話機より介護実施内容(介護行為)を音声にて入力して前記サーバーに送信するとともに、前記携帯プリンタより実施済みの介護サービス内容を出力することができる。これにより、手書きしなくても、後から或いは第三者が介護実施内容を把握することができる。   In Patent Document 1, a mobile phone held by a caregiver, a server that converts voice input from the mobile phone into text data by a voice recognition function, and transmits the text data to the mobile phone, and transmission / reception of the mobile phone A care support system including a portable printer that outputs content is described. In the care support system, after the care service is performed, the caregiver inputs the care content (care action) from the mobile phone by voice and transmits it to the server, and the care service content that has been performed from the mobile printer. Can be output. Thereby, even if it does not write by hand, the third party can grasp | ascertain the content of care implementation later.

しかしながら、特許文献1に記載の技術においては、介護実施内容を手書きで記録する必要はないものの、依然として、わざわざ介護サービス実施後に介護実施内容を入力する必要があるという点で手間であった。   However, the technique described in Patent Document 1 is troublesome in that it is not necessary to manually record the contents of the nursing care, but it is still necessary to input the contents of the nursing care after the care service is implemented.

特開2012−73739号公報JP 2012-73739 A

本発明は以上の如き状況に鑑みてなされたものであり、その解決しようとする課題は、実施された介護行為を入力する手間を低減することができる介護行為推定システムを提供することである。   This invention is made | formed in view of the above situations, The subject which it is going to solve is providing the nursing care action estimation system which can reduce the effort which inputs the nursing care practice implemented.

本発明の解決しようとする課題は以上の如くであり、次にこの課題を解決するための手段を説明する。   The problem to be solved by the present invention is as described above. Next, means for solving the problem will be described.

即ち、請求項1においては、音声を取得する音声取得部と、取得された前記音声を文字情報として認識する音声認識部と、介護行為の種類を示す第一のキーワードを記憶する記憶部と、前記音声認識部によって認識された前記文字情報と前記第一のキーワードとを照合することにより、実施された介護行為の推定を行う推定部と、を具備するものである。   That is, in claim 1, a voice acquisition unit that acquires voice, a voice recognition unit that recognizes the acquired voice as character information, a storage unit that stores a first keyword indicating the type of care action, An estimation unit that estimates the care action performed by comparing the character information recognized by the voice recognition unit with the first keyword.

請求項2においては、取得された前記音声を発した個人を識別する個人識別部を具備し、前記推定部は、前記個人識別部の識別結果に基づいて抽出された、特定の個人が発した音声を用いて、前記推定を行うものである。   In Claim 2, the personal identification part which identifies the individual who uttered the acquired said sound was provided, and the said estimation part originated from the specific individual extracted based on the identification result of the said personal identification part The estimation is performed using speech.

請求項3においては、前記記憶部は、前記第一のキーワードに対応する介護行為の実行を示す第二のキーワードを記憶し、前記推定部は、前記音声認識部によって認識された前記文字情報に前記第一のキーワードが含まれており、かつ、前記第二のキーワードが含まれている場合、前記第一のキーワードに対応する介護行為の実施を確定するものである。   In Claim 3, The said memory | storage part memorize | stores the 2nd keyword which shows execution of the care act corresponding to a said 1st keyword, The said estimation part is in the said character information recognized by the said voice recognition part. When the first keyword is included and the second keyword is included, the implementation of the nursing care action corresponding to the first keyword is confirmed.

請求項4においては、部屋からの人の退出を検出する検出部を具備し、前記記憶部は、前記第一のキーワードのうち、部屋からの人の退出を必要とする介護行為の種類を示すキーワードを第三のキーワードとして分類して記憶し、前記推定部は、前記音声認識部によって認識された前記文字情報に前記第三のキーワードが含まれており、かつ、前記検出部により部屋からの人の退出が検出された場合、前記第三のキーワードに対応する介護行為の実施を確定するものである。   According to a fourth aspect of the present invention, a detection unit that detects a person leaving the room is provided, and the storage unit indicates a type of care action that requires the person to leave the room among the first keywords. The keyword is classified and stored as a third keyword, and the estimation unit includes the third keyword in the character information recognized by the voice recognition unit, and is detected from the room by the detection unit. When the exit of a person is detected, the execution of the care action corresponding to the third keyword is confirmed.

請求項5においては、前記推定部による前記推定の結果を通知する通知部を具備するものである。   According to a fifth aspect of the present invention, the information processing apparatus includes a notification unit that notifies the estimation result obtained by the estimation unit.

本発明の効果として、以下に示すような効果を奏する。   As effects of the present invention, the following effects can be obtained.

請求項1においては、実施された介護行為を入力する手間を低減することができる。   In Claim 1, the effort which inputs the implemented care act can be reduced.

請求項2においては、介護行為の推定に重要な人物(介護者)の音声を用いて当該推定を行うことができるため、推定の精度を向上させることができる。   In Claim 2, since the said estimation can be performed using the voice of the person (caregiver) important for estimation of a care act, the precision of estimation can be improved.

請求項3においては、介護行為が実際に行われたかの推定の精度を向上させることができる。   In Claim 3, the precision of estimation whether the care act was actually performed can be improved.

請求項4においては、部屋からの人の退出を必要とする介護行為(トイレの介助等)が実際に行われたかの推定の精度を向上させることができる。   According to the fourth aspect of the present invention, it is possible to improve the accuracy of estimation as to whether or not a nursing care action (toilet assistance, etc.) requiring a person leaving the room has actually been performed.

請求項5においては、実施された介護行為を容易に把握することができる。   In Claim 5, the implemented care act can be grasped | ascertained easily.

本発明の一実施形態に係る介護行為推定システムの構成を示す図。The figure which shows the structure of the care act estimation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る介護行為推定システムのキーワードリストを示す図。The figure which shows the keyword list of the care act estimation system which concerns on one Embodiment of this invention. 本発明の一実施形態に係る介護行為推定システムの推定制御を示すフローチャート。The flowchart which shows the estimation control of the care act estimation system which concerns on one Embodiment of this invention. 本発明の第二実施形態に係る介護行為推定システムのキーワードリストを示す図。The figure which shows the keyword list of the care act estimation system which concerns on 2nd embodiment of this invention. 本発明の第二実施形態に係る介護行為推定システムの推定制御を示すフローチャート。The flowchart which shows the estimation control of the care action estimation system which concerns on 2nd embodiment of this invention. トイレ介助行為の推定の態様を示す図。The figure which shows the aspect of the estimation of a toilet assistance act. トイレ介助行為の推定の態様を示す図。The figure which shows the aspect of the estimation of a toilet assistance act. 本発明の第三実施形態に係る介護行為推定システムの構成を示す図。The figure which shows the structure of the care act estimation system which concerns on 3rd embodiment of this invention.

まず、図1を用いて、本発明の一実施形態に係る介護行為推定システム1の構成の概要について説明する。   First, the outline | summary of a structure of the nursing care action estimation system 1 which concerns on one Embodiment of this invention is demonstrated using FIG.

介護行為推定システム1は、介護の現場で実施された介護行為を推定するためのシステムである。介護行為推定システム1の利用者(介護者等)は、推定結果を用いて、介護サービス後であっても、介護サービス中に実施した介護行為を確認することができる。なお、本明細書において「介護サービス」とは、事業者による公的サービスだけでなく、家庭での介護も含む。介護行為推定システム1は、主に家、病院、老人ホーム等で使用される。介護行為推定システム1は、音取得装置10、人検知装置20、制御装置30及びデータ出力装置40を具備する。   The care action estimation system 1 is a system for estimating a care action carried out at a care site. A user (caregiver or the like) of the nursing care activity estimation system 1 can confirm the nursing care activity performed during the nursing service using the estimation result even after the nursing service. In the present specification, the “care service” includes not only public services by business operators but also home care. The care action estimation system 1 is mainly used in a home, a hospital, a nursing home, and the like. The care action estimation system 1 includes a sound acquisition device 10, a human detection device 20, a control device 30, and a data output device 40.

音取得装置10は、音声等の音を取得するものである。音取得装置10としては、例えばマイクロフォンが使用される。音取得装置10は、介護が行われる部屋(以下、単に「部屋」ということもある)内に設けられ、当該部屋内にいる介護者(介護スタッフ等)や被介護者等が発する音声や、当該部屋内で生じる音を取得する。   The sound acquisition device 10 acquires sound such as voice. For example, a microphone is used as the sound acquisition device 10. The sound acquisition device 10 is provided in a room in which care is performed (hereinafter sometimes simply referred to as “room”), and voices generated by caregivers (care staff, etc.) or care recipients in the room, Acquire sound that occurs in the room.

人検知装置20は、部屋内の人の存在を検知するものである。人検知装置20としては、例えば、赤外線、マイクロ波等を用いた人感センサが使用される。人検知装置20は、介護が行われる部屋内に設けられ、当該部屋内の人の存在を検知する。   The human detection device 20 detects the presence of a person in the room. As the human detection device 20, for example, a human sensor using infrared rays, microwaves, or the like is used. The person detection device 20 is provided in a room where care is performed, and detects the presence of a person in the room.

制御装置30は、データの格納や分析等を行うものである。制御装置30は、RAMやROM等の記憶部や、CPU等の演算処理部等により構成される。制御装置30は、音声を文字情報として認識する音声認識機能を有しており、当該機能により、音取得装置10によって取得された音声を文字情報に変換したもの(以下、「音声テキスト」という)を作成することができる。制御装置30は、音声テキストを時間情報と紐付けて(音声が発せられた時刻がわかるように)記憶部に記憶する。   The control device 30 performs data storage and analysis. The control device 30 includes a storage unit such as a RAM and a ROM, an arithmetic processing unit such as a CPU, and the like. The control device 30 has a voice recognition function for recognizing voice as character information, and the voice obtained by the sound acquisition device 10 is converted into character information by the function (hereinafter referred to as “voice text”). Can be created. The control device 30 associates the voice text with the time information and stores the voice text in the storage unit (so that the time when the voice is uttered can be known).

また、制御装置30は、音取得装置10によって取得された音声が誰の音声であるか(音声を発した個人)を識別する話者認識機能を有している。制御装置30は、音取得装置10によって取得された音声と、予め記憶部に記憶した介護者等の音声データとを比較して、音声を発した個人を識別する。   In addition, the control device 30 has a speaker recognition function for identifying who the voice acquired by the sound acquisition device 10 is (the individual who emitted the voice). The control device 30 compares the voice acquired by the sound acquisition device 10 with the voice data of a caregiver or the like stored in advance in the storage unit, and identifies the individual who emitted the voice.

また、制御装置30は、前記記憶部に、実施された介護行為を推定するための判断基準となるキーワードをリスト化して記憶する(図2参照)。図2に示すリストには、介護行為の種類を示す第一のキーワード(例えば、「トイレ」、「風呂」、「入浴」、「食事」、「リハビリ」、「着替え」、「バイタル」、「シーツ交換」等)、介護行為の実行を示す第二のキーワード、具体的には、介護行為の開始を示すキーワード(例えば、「します」、「しましょう」、「始めます」、「開始します」、「行きましょう」等)、及び介護行為の完了を示すキーワード(例えば、「できました」、「できた」、「終わります」、「終わりました」、「終了します」、「終了しました」等)が含まれており、当該第一のキーワード及び第二のキーワードが分類されて記憶されている。   In addition, the control device 30 stores a list of keywords that serve as determination criteria for estimating the performed care action in the storage unit (see FIG. 2). The list shown in FIG. 2 includes a first keyword indicating the type of care action (for example, “toilet”, “bath”, “bathing”, “meal”, “rehabilitation”, “change of clothes”, “vital”, “ Exchange sheets, etc.), the second keyword indicating the execution of the nursing care action, specifically, the keyword indicating the start of the nursing care action (for example, “do”, “do”, “start”, “start” ”,“ Let ’s go ”, etc.), and keywords that indicate the completion of care (for example,“ Done ”,“ Done ”,“ End ”,“ End ”,“ End ”, "Completed") is included, and the first keyword and the second keyword are classified and stored.

制御装置30は、音声テキスト、及び図2に示すリストに記憶されたキーワード等により、介護行為の推定を行う。具体的には、制御装置30は、抽出した音声テキストに、図2に示すリストに記憶されたキーワードが含まれているかを判断し、含まれているキーワードに基づいて、実施された介護行為の内容を推定する。   The control device 30 estimates the nursing action based on the voice text and the keywords stored in the list shown in FIG. Specifically, the control device 30 determines whether or not the extracted speech text includes a keyword stored in the list shown in FIG. 2, and based on the included keyword, Estimate the contents.

データ出力装置40は、種々のデータを出力するものである。データ出力装置40としては、例えばプリンタが使用される。データ出力装置40は、制御装置30と電気的に接続され、制御装置30による介護行為の推定結果を出力することができる。   The data output device 40 outputs various data. As the data output device 40, for example, a printer is used. The data output device 40 is electrically connected to the control device 30 and can output an estimation result of the care action by the control device 30.

以下、図3を参照して、介護行為の推定に係る制御(推定制御)について説明する。   Hereinafter, with reference to FIG. 3, the control (estimation control) related to the estimation of the nursing care action will be described.

ステップS10において、制御装置30は、音取得装置10によって音が取得されているか否かの判定を行う。   In step S <b> 10, the control device 30 determines whether or not sound is acquired by the sound acquisition device 10.

制御装置30は、音取得装置10によって音が取得されていると判定した場合(ステップS10で「YES」)、ステップS12に移行する。一方、制御装置30は、音取得装置10によって音が取得されていないと判定した場合(ステップS10で「NO」)、図3に示す推定制御を終了する。   When it is determined that the sound is acquired by the sound acquisition device 10 (“YES” in step S10), the control device 30 proceeds to step S12. On the other hand, when it is determined that no sound has been acquired by the sound acquisition device 10 (“NO” in step S10), the control device 30 ends the estimation control illustrated in FIG.

ステップS12において、制御装置30は、音声認識機能により、音取得装置10によって取得された音声を文字情報に変換して音声テキストを作成する。制御装置30は、当該ステップS12の処理を行った後、ステップS14に移行する。   In step S12, the control device 30 converts the voice acquired by the sound acquisition device 10 into character information by the voice recognition function to create a voice text. After performing the process of step S12, the control device 30 proceeds to step S14.

ステップS14において、制御装置30は、話者識別機能により、音取得装置10によって取得された音声を発した人物(話者)を識別(特定)する。話者が複数人いる場合、制御装置30は、話者識別機能により特定した人物(話者)ごとにタグを設定し、設定したタグごとに音声テキストを分類する。制御装置30は、当該ステップS14の処理を行った後、ステップS16に移行する。   In step S <b> 14, the control device 30 identifies (specifies) the person (speaker) who has uttered the sound acquired by the sound acquisition device 10 by the speaker identification function. When there are a plurality of speakers, the control device 30 sets a tag for each person (speaker) specified by the speaker identification function, and classifies the speech text for each set tag. After performing the process of step S14, the control device 30 proceeds to step S16.

ステップS16において、制御装置30は、取得した音の中に、介護者の音声があるか否かを判定する。このステップにおいて、制御装置30は、ステップS14で行った分類に基づいて、この判定を行う。その際、制御装置30は、介護者以外の音声テキストは消去してもよい。   In step S <b> 16, the control device 30 determines whether there is a caregiver's voice in the acquired sound. In this step, the control device 30 makes this determination based on the classification performed in step S14. At that time, the control device 30 may delete the voice text other than the caregiver.

制御装置30は、介護者の音声があると判定した場合(ステップS16で「YES」)、ステップS18に移行する。一方、制御装置30は、介護者の音声がないと判定した場合(ステップS16で「NO」)、図3に示す推定制御を終了する。   When it is determined that there is a caregiver's voice (“YES” in step S16), the control device 30 proceeds to step S18. On the other hand, when it is determined that there is no caregiver's voice (“NO” in step S16), the control device 30 ends the estimation control shown in FIG.

ステップS18において、制御装置30は、介護者の音声テキストが、介護行為の種類を示す第一のキーワードを含んでいるか否かを判定する。このステップにおいて、制御装置30は、抽出した介護者の音声テキストに、図2に示す第一のキーワード(「トイレ」、「着替え」等の介護行為の種類を示すキーワード)が含まれているか否かを判定する。   In step S <b> 18, the control device 30 determines whether or not the caregiver's voice text includes a first keyword indicating the type of care action. In this step, the control device 30 determines whether or not the extracted voice text of the caregiver includes the first keyword shown in FIG. 2 (keyword indicating the type of care action such as “toilet” and “change of clothes”). Determine whether.

制御装置30は、抽出した音声テキストが第一のキーワードを含んでいると判定した場合(ステップS18で「YES」)、ステップS20に移行する。一方、制御装置30は、抽出した音声テキストが第一のキーワードを含んでいないと判定した場合(ステップS18で「NO」)、図3に示す推定制御を終了する。   When it is determined that the extracted speech text includes the first keyword (“YES” in step S18), the control device 30 proceeds to step S20. On the other hand, when it is determined that the extracted speech text does not include the first keyword (“NO” in step S18), the control device 30 ends the estimation control illustrated in FIG.

ステップS20において、制御装置30は、介護行為の種類を推定する。このステップにおいて、制御装置30は、抽出した音声テキストに含まれていた第一のキーワード(介護行為の種類を示すキーワード)に基づいて、介護行為の種類を推定する。   In step S20, the control device 30 estimates the type of care action. In this step, the control device 30 estimates the type of care action based on the first keyword (keyword indicating the type of care action) included in the extracted speech text.

例えば、介護者が発した「お着替えしましょうね」との音声が音取得装置10によって取得されていたとする。この場合、制御装置30は、介護者の音声テキストに「着替え」との第一のキーワードが含まれているため、実施された介護行為の種類を「着替えの介助」と推定する。   For example, it is assumed that the sound acquisition device 10 has acquired the voice “Let's change your clothes” issued by a caregiver. In this case, since the first keyword “change of clothes” is included in the voice text of the caregiver, the control device 30 estimates that the type of care action performed is “help of change of clothes”.

制御装置30は、当該ステップS20の処理を行った後、ステップS26に移行する。   After performing the process of step S20, the control device 30 proceeds to step S26.

ステップS26において、制御装置30は、抽出した音声テキストが介護行為の実行を示す第二のキーワードを含むか否かを判定する。具体的には、制御装置30は、抽出した介護者の音声テキストに、図2に示す介護行為の開始を示すキーワード(「します」、「しましょう」、「始めます」、「開始します」等)、又は介護行為の完了を示すキーワード(「できました」、「できた」、「終わります」、「終わりました」、「終了します」、「終了しました」等)が含まれているか否かを判定する。   In step S <b> 26, the control device 30 determines whether or not the extracted voice text includes a second keyword indicating execution of a care act. Specifically, the control device 30 adds keywords (“Shi”, “Saisho”, “Start”), “Start” to the start of the nursing care action shown in FIG. )), Or keywords that indicate the completion of nursing care (such as “Done”, “Done”, “End”, “Ended”, “Ended”, “Ended”, etc.) It is determined whether or not.

制御装置30は、抽出した音声テキストが第二のキーワードを含んでいると判定した場合(ステップS26で「YES」)、ステップS28に移行する。一方、制御装置30は、抽出した音声テキストが第二のキーワードを含んでいないと判定した場合(ステップS26で「NO」)、図3に示す推定制御を終了する。   When it is determined that the extracted speech text includes the second keyword (“YES” in step S26), the control device 30 proceeds to step S28. On the other hand, when it is determined that the extracted speech text does not include the second keyword (“NO” in step S26), the control device 30 ends the estimation control illustrated in FIG.

ステップS28において、制御装置30は、介護行為が実施されたと推定する。このステップにおいて、制御装置30は、抽出した音声テキストに含まれていた第一のキーワードに基づいて推定された介護行為(着替えの介助)が(ステップS20参照)、実際に行われたと推定する(介護行為の実施を確定する)。   In step S <b> 28, the control device 30 estimates that a care act has been performed. In this step, the control device 30 estimates that the nursing care action (help for changing clothes) estimated based on the first keyword included in the extracted speech text (see step S20) was actually performed (see step S20). Confirm the implementation of nursing care).

例えば、制御装置30は、介護者の音声テキスト「お着替えしましょうね」に「しましょう」との第二のキーワード(介護行為の開始を示すキーワード)が含まれているため、ステップS20で推定された介護行為である「着替えの介助」が開始されたと推定する。   For example, the control device 30 includes the second keyword (keyword indicating the start of the care action) of “let's change” in the caregiver's voice text “Let's change clothes”, and thus the estimation is made in step S20. It is presumed that “Assistance for changing clothes”, which is an act of nursing care, has started.

さらに、「お着替えしましょうね」の後に、介護者が発した「着替えを終わりますね」との音声が音取得装置10によって取得されていたとする。この場合、制御装置30は、介護者の音声テキストに「終わります」との第二のキーワード(介護行為の完了を示すキーワード)が含まれているため、ステップS20で推定された介護行為である「着替えの介助」が完了したと推定する。   Furthermore, it is assumed that after the “Let's change your clothes”, the sound acquisition device 10 has acquired the voice “Now you ’ll finish changing your clothes” issued by the caregiver. In this case, the control device 30 includes the second keyword (keyword indicating the completion of the nursing care action) of “finishing” in the voice text of the caregiver, and thus is the nursing care action estimated in step S20. It is presumed that “Assistance for changing clothes” has been completed.

これにより、制御装置30は、ステップS20で推定された介護行為である「着替えの介助」が実行されたと推定する。また、制御装置30は、音声テキストに紐付けられた時間情報に基づいて、介護行為の開始を示す第二のキーワード「しましょう」が発せされた時刻と、介護行為の完了を示す第二のキーワード「終わります」が発せされた時刻とを抽出し、これにより第一のキーワードに基づく介護行為「着替えの介助」の開始時刻と完了時刻とを算出する。   As a result, the control device 30 estimates that “assistance for change of clothes”, which is the care action estimated in step S20, has been executed. In addition, the control device 30 determines the time when the second keyword “Let's start” indicating the start of the nursing care action is issued based on the time information associated with the voice text, and the second time indicating the completion of the nursing care action. The time when the keyword “End” is issued is extracted, and thereby the start time and completion time of the care act “Assistance for changing clothes” based on the first keyword are calculated.

制御装置30は、当該ステップS28の処理を行った後、ステップS30に移行する。   After performing the process of step S28, the control device 30 proceeds to step S30.

ステップS30において、制御装置30は、介護行為データを保存する。制御装置30は、推定した介護行為の種類(ステップS20参照)や、その介護行為が実際に行われたこと及びその介護行為の開始時刻及び完了時刻(ステップS28参照)等を、介護行為データとして記憶部に記憶(記録)する。制御装置30は、利用者(介護者等)の求めに応じて、当該介護行為データを、データ出力装置40を介して利用者に通知することができる。   In step S30, the control device 30 stores the care action data. The control device 30 uses the estimated type of care action (see step S20), the fact that the care action was actually performed, the start time and completion time of the care action (see step S28), etc. as care action data. Store (record) in the storage unit. The control device 30 can notify the user of the care action data via the data output device 40 in response to a request from the user (caregiver or the like).

制御装置30は、当該ステップS30の処理を行った後、図3に示す推定制御を終了する。   The control apparatus 30 complete | finishes the estimation control shown in FIG. 3, after performing the process of the said step S30.

なお、図3に示す推定制御は、ステップS30の処理を行った後、無音状態が所定期間継続した場合(音取得装置10に音の入力が所定期間ない場合)、音取得装置10に制御の終了に関するキーワードが入力された場合、又は在室人数が減少して元の人数(被介護者のみ)になったことを人検知装置20により検知した場合に、終了するものとしてもよい。   Note that the estimation control shown in FIG. 3 is performed when the silent state continues for a predetermined period after the process of step S30 (when no sound is input to the sound acquisition apparatus 10 for a predetermined period). The process may be ended when a keyword related to the end is input, or when the person detecting device 20 detects that the number of people in the room has decreased to the original number of people (care recipients only).

このように介護行為推定システム1においては、介護サービス中の会話(介護者が発する音声)を取得し、取得した会話に基づいて、介護行為の実施内容を推定することができる。よって、介護報酬の申請等のために、介護サービス中に実施した介護行為の内容をわざわざ介護サービス後に入力する手間を低減することができる。また、介護者が介護サービス中に作業を止めることなく、介護行為の推定結果を自動で記録することができる。また、推定結果をデータ出力装置40を介して出力することができるため、介護者等は、実施された介護行為を、介護サービス後でも容易に確認することができる。   As described above, in the nursing care action estimation system 1, it is possible to acquire a conversation during a nursing service (speech uttered by a caregiver) and to estimate the implementation contents of the nursing action based on the acquired conversation. Therefore, it is possible to reduce the trouble of inputting the content of the nursing care action performed during the nursing care service after the nursing care service for the application of the nursing care reward. Moreover, the estimated result of the care act can be automatically recorded without the caregiver stopping the work during the care service. In addition, since the estimation result can be output via the data output device 40, a caregiver or the like can easily confirm the performed care action even after the care service.

また、介護行為の種類を示す第一のキーワードだけでなく、介護行為の実行を示す第二のキーワードに基づく推定も行うため(ステップS26、S28参照)、介護行為が実際に行われたかの推定の精度を向上させることができる。また、介護行為が行われた時間も把握することができる。   In addition, since the estimation is based on the second keyword indicating the execution of the care act as well as the first keyword indicating the type of the care act (see Steps S26 and S28), the estimation of whether the care act is actually performed is performed. Accuracy can be improved. It is also possible to grasp the time when the care act was performed.

また、様々な音が飛び交う環境でも介護者の声を特定できるため(ステップS14、S16参照)、介護行為の推定に必要な情報を絞ることができる。このため、推定の精度を向上させることができる。   In addition, since the caregiver's voice can be specified even in an environment where various sounds fly (see steps S14 and S16), information necessary for estimating the care action can be narrowed down. For this reason, the accuracy of estimation can be improved.

また、様々なIoTデバイスとの連携を可能とすることで、機能の追加、記録精度向上を図ることができる。   In addition, by enabling cooperation with various IoT devices, it is possible to add functions and improve recording accuracy.

以上の如く、本実施形態に係る介護行為推定システム1は、音声を取得する音取得装置10(音声取得部)と、取得された前記音声を文字情報として認識する制御装置30(音声認識部)と、介護行為の種類を示す第一のキーワードを記憶する制御装置30(記憶部)と、前記制御装置30(音声認識部)によって認識された前記文字情報と前記第一のキーワードとを照合することにより、実施された介護行為の推定を行う制御装置30(推定部)と、を具備するものである。
このように構成することにより、実施された介護行為を入力する手間を低減することができる。
As described above, the nursing care activity estimation system 1 according to the present embodiment includes a sound acquisition device 10 (voice acquisition unit) that acquires voice, and a control device 30 (voice recognition unit) that recognizes the acquired voice as character information. And the control device 30 (storage unit) that stores a first keyword indicating the type of care action, and the character information recognized by the control device 30 (voice recognition unit) is compared with the first keyword. The control apparatus 30 (estimation part) which estimates the implemented nursing action by this is comprised.
By comprising in this way, the effort which inputs the implemented nursing care act can be reduced.

また、本実施形態に係る介護行為推定システム1は、取得された前記音声を発した個人を識別する制御装置30(個人識別部)を具備し、前記制御装置30(推定部)は、前記制御装置30(個人識別部)の識別結果に基づいて抽出された、特定の個人が発した音声を用いて、前記推定を行うものである。
このように構成することにより、介護行為の推定に重要な人物(介護者)の音声を用いて当該推定を行うことができるため、推定の精度を向上させることができる。
Moreover, the nursing care activity estimation system 1 according to the present embodiment includes a control device 30 (personal identification unit) that identifies the individual who has uttered the acquired voice, and the control device 30 (estimation unit) The estimation is performed using a voice uttered by a specific individual extracted based on the identification result of the device 30 (personal identification unit).
By comprising in this way, since the said estimation can be performed using the audio | voice of a person (caregiver) important for estimation of a care act, the precision of estimation can be improved.

また、前記制御装置30(記憶部)は、前記第一のキーワードに対応する介護行為の実行を示す第二のキーワードを記憶し、前記制御装置30(推定部)は、前記制御装置30(音声認識部)によって認識された前記文字情報に前記第一のキーワードが含まれており、かつ、前記第二のキーワードが含まれている場合、前記第一のキーワードに対応する介護行為の実施を確定するものである。
このように構成することにより、介護行為が実際に行われたかの推定の精度を向上させることができる。
In addition, the control device 30 (storage unit) stores a second keyword indicating execution of the care action corresponding to the first keyword, and the control device 30 (estimation unit) stores the control device 30 (voice). If the first keyword is included in the character information recognized by the recognizing unit) and the second keyword is included, the implementation of the care action corresponding to the first keyword is confirmed. To do.
By configuring in this way, it is possible to improve the accuracy of estimation of whether or not the care act has actually been performed.

また、本実施形態に係る介護行為推定システム1は、前記制御装置30(推定部)による前記推定の結果を通知するデータ出力装置40(通知部)を具備するものである。
このように構成することにより、実施された介護行為を容易に把握することができる。
Moreover, the nursing care activity estimation system 1 according to the present embodiment includes a data output device 40 (notification unit) that notifies the estimation result by the control device 30 (estimation unit).
By comprising in this way, the implemented care act can be grasped | ascertained easily.

なお、本実施形態に係る音取得装置10は、音声取得部の実施の一形態である。
また、本実施形態に係る人検知装置20は、検出部の実施の一形態である。
また、本実施形態に係る制御装置30は、音声認識部、記憶部、推定部及び個人識別部の実施の一形態である。
また、本実施形態に係るデータ出力装置40は、通知部の実施の一形態である。
Note that the sound acquisition device 10 according to the present embodiment is an embodiment of a sound acquisition unit.
In addition, the human detection device 20 according to the present embodiment is an embodiment of a detection unit.
In addition, the control device 30 according to the present embodiment is an embodiment of a voice recognition unit, a storage unit, an estimation unit, and a personal identification unit.
The data output device 40 according to the present embodiment is an embodiment of a notification unit.

以上、本発明の一実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。   As mentioned above, although one Embodiment of this invention was described, this invention is not limited to the said structure, A various change is possible within the range of the invention described in the claim.

例えば、本実施形態においては、第一のキーワードに基づく判定だけでなく(ステップS18参照)、第二のキーワードに基づく判定も行うものとしたが(ステップS26参照)、第一のキーワードに基づく判定(ステップS18参照)のみを行うことで、実施された介護行為を推定するものとしてもよい。   For example, in this embodiment, not only the determination based on the first keyword (see step S18) but also the determination based on the second keyword (see step S26) is performed, but the determination based on the first keyword is performed. It is good also as what estimates the implemented care act by performing only (refer step S18).

また、本実施形態においては、介護者の音声を識別し、介護者の音声(テキスト)に基づいて推定を行うものとしたが、全ての音声に基づいて推定を行うものとしてもよく、又は介護者以外の者(被介護者等)の音声に基づいて推定を行うものとしてもよい。   In the present embodiment, the caregiver's voice is identified and the estimation is performed based on the caregiver's voice (text). However, the estimation may be performed based on all the voices or the caregiver. It is good also as what estimates based on the audio | voice of persons other than a person (caregivers etc.).

また、本実施形態においては、第二のキーワードとして、介護行為の開始を示すキーワード及び介護行為の完了を示すキーワードの両方が音声テキストに含まれる場合を例に挙げて説明したが、制御装置30は、介護行為の開始を示すキーワード又は介護行為の完了を示すキーワードのいずれかが音声テキストに含まれていれば、ステップS26及びS28において、介護行為の実施を推定し(ステップS28)、介護行為データを保存することができる(ステップS30)。   Moreover, in this embodiment, although the case where both the keyword which shows the start of a nursing care act, and the keyword which shows completion of a nursing care action was included as a 2nd keyword was demonstrated as an example, the control apparatus 30 was demonstrated. If the voice text contains either a keyword indicating the start of a care act or a keyword indicating the completion of a care action, the execution of the care action is estimated in steps S26 and S28 (step S28). Data can be stored (step S30).

また、本実施形態においては、音声テキストが第二のキーワードを含んでいない場合(ステップS26で「NO」)、介護行為の実施を推定しない(介護行為データを保存しない)ものとしたが、制御装置30は、ステップS26で「NO」の場合であっても、介護行為の実施を推定する(介護行為データを保存する)ものとしてもよい。その際、制御装置30は、ステップS26で「YES」の場合と「NO」の場合とで、実施の可能性のレベルを変えて介護行為データを記憶するものとしてもよい。具体的には、制御装置30は、ステップS26で「YES」の場合に、ステップS26で「NO」の場合と比べて、介護行為が実際に行われた可能性が高いことがわかるように、介護行為データを記憶するものとしてもよい。   In the present embodiment, when the voice text does not include the second keyword (“NO” in step S26), it is assumed that the implementation of the care action is not estimated (the care action data is not stored). Even if “NO” is determined in step S <b> 26, the device 30 may estimate the execution of the nursing care action (store the nursing care action data). At this time, the control device 30 may store the nursing care action data by changing the level of the possibility of implementation between “YES” and “NO” in step S26. Specifically, in the case of “YES” in step S26, the control device 30 shows that there is a high possibility that the nursing action is actually performed, compared to the case of “NO” in step S26. The care activity data may be stored.

また、本実施形態においては、介護行為の開始を示すキーワード(例えば、「します」、「しましょう」、「始めます」、「開始します」、「行きましょう」等)は、第二のキーワードに含まれるものとしたが、第一のキーワードに含まれるものとしてもよい。すなわち、介護行為の種類及び介護行為の開始を示すキーワード(例えば、「トイレをする」、「トイレしましょう」、「トイレへ行きましょう」等)を、第一のキーワードとしてもよい。そして、介護行為の完了を示すキーワード(例えば、「できました」、「できた」、「終わります」、「終わりました」、「終了します」、「終了しました」等)を第二のキーワードとしてもよい。   In the present embodiment, the keyword indicating the start of the nursing care action (for example, “I will do”, “I will do”, “I will start”, “I will start”, “Let's go”, etc.) is the second. However, it may be included in the first keyword. That is, the first keyword may be a keyword indicating the type of care action and the start of the care action (for example, “toilet”, “let's take a toilet”, “let's go to the toilet”, etc.). Secondly, keywords that indicate the completion of nursing care (for example, “Done”, “Done”, “End”, “Ended”, “Ended”, “Ended”, etc.) It is good also as a keyword.

また、本実施形態においては、図3に示す推定制御は常に実行されているものとしたが、決まった時間に、例えば一日の最後に実行されるものとし、蓄積した一日分の音声を分析して、介護行為の推定を行うものとしてもよい。   In this embodiment, the estimation control shown in FIG. 3 is always executed. However, it is assumed that the estimation control shown in FIG. 3 is executed at a fixed time, for example, at the end of the day. It is good also as what analyzes and estimates a care act.

次に、図4から図6を用いて、本発明の第二実施形態に係る介護行為推定システム1について説明する。   Next, the nursing care action estimation system 1 according to the second embodiment of the present invention will be described with reference to FIGS. 4 to 6.

第二実施形態に係る介護行為推定システム1は、第一実施形態とは、制御装置30の記憶部に記憶されているリストが異なっている。具体的には、図4に示すように、第二実施形態に係るリストは、介護行為の種類を示す第一のキーワードが、部屋からの退出が必要な行為(例えば、「トイレ」、「風呂」、「入浴」、「食事」、「リハビリ」等)と、部屋からの退出が不要な行為(例えば、「着替え」、「バイタル」、「シーツ交換」等)とに分類されて記憶されている。   The care action estimation system 1 according to the second embodiment is different from the first embodiment in the list stored in the storage unit of the control device 30. Specifically, as shown in FIG. 4, in the list according to the second embodiment, the first keyword indicating the type of care action is an action that requires leaving the room (for example, “toilet”, “bath” ”,“ Bathing ”,“ meal ”,“ rehabilitation ”, etc.) and actions that do not require leaving the room (for example,“ changing clothes ”,“ vital ”,“ sheet changing ”, etc.) Yes.

また、図5に示す第二実施形態に係る推定制御が、図3に示す第一実施形態に係る推定制御と異なる主な点は、さらにステップS22及びステップS24の処理を行う点である。よって以下では、図5に示す推定制御のうち図3に示す推定制御と同一のステップについては、同一の符号を付して説明を省略する。   Further, the main difference between the estimation control according to the second embodiment shown in FIG. 5 and the estimation control according to the first embodiment shown in FIG. 3 is that the processes of step S22 and step S24 are further performed. Therefore, in the following, the same steps as the estimation control shown in FIG. 3 in the estimation control shown in FIG.

制御装置30は、ステップS20の処理(介護行為の種類の推定)を行った後、ステップS22に移行する。   The control device 30 proceeds to step S22 after performing the process of step S20 (estimation of the type of care action).

ステップS22において、制御装置30は、介護行為の種類を示す第一のキーワードに基づいて推定された介護行為が、部屋からの人の退出が必要な行為であるか否かを判定する。制御装置30は、図4に示すリストの分類に基づいて、この判定を行う。   In step S22, the control device 30 determines whether or not the care action estimated based on the first keyword indicating the type of care action is an action that requires the person to leave the room. The control device 30 makes this determination based on the classification of the list shown in FIG.

制御装置30は、第一のキーワードに基づいて推定された介護行為が、部屋からの人の退出が必要な行為であると判定した場合(ステップS22で「YES」)、ステップS24に移行する。   When it is determined that the care action estimated based on the first keyword is an action that requires the person to leave the room (“YES” in step S22), the control device 30 proceeds to step S24.

ステップS24において、制御装置30は、部屋からの人の退出があったか否かの判定を行う。制御装置30は、人検知装置20の検知結果に基づいて、部屋内の人数が減ったと判断した場合に、部屋からの人の退出があったと判定する。   In step S24, the control device 30 determines whether or not a person has left the room. When it is determined that the number of people in the room has decreased based on the detection result of the human detection device 20, the control device 30 determines that a person has left the room.

制御装置30は、部屋からの人の退出があったと判定した場合(ステップS24で「YES」)、ステップS28に移行する。一方、制御装置30は、部屋からの人の退出がなかったと判定した場合(ステップS24で「NO」)、図5に示す推定制御を終了する。   When it is determined that a person has left the room (“YES” in step S24), the control device 30 proceeds to step S28. On the other hand, when it is determined that no person has left the room (“NO” in step S24), the control device 30 ends the estimation control shown in FIG.

一方、制御装置30は、第一のキーワードに基づいて推定された介護行為が、部屋からの人の退出が必要な行為でないと判定した場合(ステップS22で「NO」)、ステップS26に移行する。ステップS26において、制御装置30は、第一実施形態と同様に、抽出した音声テキストが介護行為の実行を示す第二のキーワードを含むか否かを判定する。制御装置30は、抽出した音声テキストが第二のキーワードを含んでいると判定した場合(ステップS26で「YES」)、ステップS28に移行する。一方、制御装置30は、抽出した音声テキストが第二のキーワードを含んでいないと判定した場合(ステップS26で「NO」)、図5に示す推定制御を終了する。その後の処理は、第一実施形態と同様である。   On the other hand, when it is determined that the care action estimated based on the first keyword is not an action that requires the person to leave the room ("NO" in step S22), the control device 30 proceeds to step S26. . In step S <b> 26, the control device 30 determines whether or not the extracted voice text includes a second keyword indicating execution of a care act, as in the first embodiment. When it is determined that the extracted speech text includes the second keyword (“YES” in step S26), the control device 30 proceeds to step S28. On the other hand, when it is determined that the extracted speech text does not include the second keyword (“NO” in step S26), the control device 30 ends the estimation control illustrated in FIG. Subsequent processing is the same as in the first embodiment.

以下、具体例を挙げて説明する。図6に示すように、例えば、介護者が発した「それではトイレに行きましょうか」との音声が音取得装置10によって取得されていたとする。この場合、制御装置30は、ステップS20において、介護者の音声テキストに「トイレ」との第一のキーワードが含まれているため、実施された介護行為の種類を「トイレの介助」と推定する。   Hereinafter, a specific example will be described. As shown in FIG. 6, for example, it is assumed that the sound acquisition device 10 has acquired the voice “Let's go to the toilet” issued by the caregiver. In this case, since the first keyword “toilet” is included in the voice text of the caregiver in step S <b> 20, the control device 30 estimates that the type of the care action performed is “toilet assistance”. .

そして、制御装置30は、ステップS22において、図4に示すリストに基づいて、第一のキーワード「トイレ」に基づいて推定された介護行為(トイレの介助)が、部屋からの人の退出が必要な行為であると判定する(ステップS22で「YES」)。   Then, in step S22, the control device 30 needs the person to leave the room for the care action (toilet assistance) estimated based on the first keyword “toilet” based on the list shown in FIG. It is determined that the action is an act ("YES" in step S22).

その後、制御装置30は、人検知装置20の検知結果に基づいて、部屋内の人数が減ったと判断した場合、部屋からの人(例えば、介護者A及び被介護者B)の退出があったと判定する(ステップS24で「YES」)。そうすると、制御装置30は、介護行為(トイレの介助)が実際に行われたと推定する(ステップS28参照)。   Thereafter, when the control device 30 determines that the number of people in the room has decreased based on the detection result of the human detection device 20, the person (for example, the caregiver A and the care receiver B) has left the room. Determination is made (“YES” in step S24). If it does so, the control apparatus 30 will estimate that the care act (help of a toilet) was actually performed (refer step S28).

このようにして、部屋の外で介護行為が行われる場合に、介護行為の実施をより精度良く推定することができる。   In this way, when a nursing action is performed outside the room, it is possible to estimate the implementation of the nursing action more accurately.

以上の如く、第二実施形態に係る介護行為推定システム1は、部屋からの人の退出を検出する人検知装置20(検出部)を具備し、前記制御装置30(記憶部)は、前記第一のキーワードのうち、部屋からの人の退出を必要とする介護行為の種類を示すキーワードを第三のキーワードとして分類して記憶し、前記制御装置30(推定部)は、前記制御装置30(音声認識部)によって認識された前記文字情報に前記第三のキーワードが含まれており、かつ、前記人検知装置20により部屋からの人の退出が検出された場合、前記第三のキーワードに対応する介護行為の実施を確定するものである。
このように構成することにより、部屋からの人の退出を必要とする介護行為(トイレの介助等)が実際に行われたかの推定の精度を向上させることができる。
As described above, the nursing care activity estimation system 1 according to the second embodiment includes the human detection device 20 (detection unit) that detects the exit of a person from the room, and the control device 30 (storage unit) Of the one keyword, a keyword indicating the type of care action that requires the person to leave the room is classified and stored as a third keyword, and the control device 30 (estimating unit) When the third keyword is included in the character information recognized by the voice recognition unit) and the person detection device 20 detects a person leaving the room, it corresponds to the third keyword. This is to confirm the implementation of nursing care activities.
By configuring in this way, it is possible to improve the accuracy of estimation of whether or not a nursing care action (such as toilet assistance) that requires the person to leave the room has actually been performed.

以上、本発明の第二実施形態を説明したが、本発明は上記構成に限定されるものではなく、特許請求の範囲に記載された発明の範囲内で種々の変更が可能である。   The second embodiment of the present invention has been described above, but the present invention is not limited to the above-described configuration, and various modifications can be made within the scope of the invention described in the claims.

例えば、第二実施形態においては、人感センサにより部屋からの人の退出を検知するものとしたが(ステップS24参照)、ICカード、GPS、カメラ等によって検知してもよく、音取得装置10によって取得される扉の開閉音に基づいて検知するものであってもよい。   For example, in the second embodiment, a person's exit from a room is detected by a human sensor (see step S24), but may be detected by an IC card, a GPS, a camera, or the like. It may be detected based on the opening / closing sound of the door acquired by.

また、第二実施形態においては、制御装置30は、取得した音声テキストが、介護行為の種類を示す第一のキーワードを含んでいた場合(ステップS18参照)、及び部屋からの人の退出があった場合(ステップS24参照)に、介護行為が実際に行われたと推定(実施を確定)するものとしたが、さらに、取得した音声テキストが、介護行為の実行を示す第二のキーワード(「行きましょう」等)を含んでいる場合に、介護行為が実際に行われたと推定するものとしてもよい。   In the second embodiment, the control device 30 determines that the acquired voice text includes the first keyword indicating the type of care action (see step S18) and that the person has left the room. (See step S24), it is assumed that the care act was actually performed (confirmed implementation), but the acquired voice text further includes a second keyword ("going to" It may be estimated that the nursing care action was actually performed.

また、第二実施形態においては、制御装置30は、部屋からの人の退出がなかったと判定した場合(ステップS24で「NO」)、図5に示す推定制御を終了するものとしたが、制御装置30は、ステップS24で「NO」の場合であっても、介護行為の実施を推定する(介護行為データを保存する)ものとしてもよい。その際、制御装置30は、ステップS24で「YES」の場合と「NO」の場合とで、実施の可能性のレベルを変えて介護行為データを記憶するものとしてもよい。具体的には、制御装置30は、ステップS24で「YES」の場合に、ステップS24で「NO」の場合と比べて、介護行為が実際に行われた可能性が高いことがわかるように、介護行為データを記憶するものとしてもよい。   In the second embodiment, when it is determined that there is no person leaving the room (“NO” in step S24), the control device 30 ends the estimation control shown in FIG. Even if “NO” in step S <b> 24, the device 30 may estimate the implementation of the nursing care action (store the nursing care action data). At that time, the control device 30 may store the nursing care action data by changing the level of the possibility of implementation between “YES” and “NO” in step S24. Specifically, in the case of “YES” in step S24, the control device 30 understands that there is a high possibility that the nursing action is actually performed, compared to the case of “NO” in step S24. The care activity data may be stored.

また、図7に示すように、介護行為推定システム1は、元の部屋だけでなく、移動先(トイレ)でも介護行為のキーワード(「トイレ」、「します」等)を取得し、かつ、人(介護者A及び被介護者B)の元の部屋からの退出だけでなく、トイレへの入室を検知した場合に、介護行為(トイレの介助)が実際に行われたと推定するものとしてもよい。   In addition, as shown in FIG. 7, the nursing care activity estimation system 1 acquires the nursing care keywords (“toilet”, “suru”, etc.) in the destination (toilet) as well as the original room, and Assuming that a person (caregiver A and cared person B) not only exits the room but also enters the toilet, it is assumed that a care act (toilet assistance) was actually performed. Good.

また、図8に示す第三実施形態に係る介護行為推定システム2のように、介護行為の推定の精度を向上させるために、さらに画像取得装置(カメラ)50や、室内環境センサ60、バイタルセンサ70及び三軸加速度センサ80等の種々のセンサ類を具備し、制御装置30によってこれら装置のデータを活用するようにしてもよい。画像取得装置(カメラ)50を具備することにより、介護行為の推定の補助とすることができ、推定の精度を向上させることができる。室内環境センサ60として例えば温度計を具備することにより、在室の有無の検知判断の補助とすることができる。室内環境センサ60として例えば匂いセンサを具備することにより、介護行為「おむつ交換」の推定の補助とすることができる。バイタルセンサ70(例えば脈拍計)を具備することにより、バイタルサインの変化を把握することができ、これに基づいて介護行為の実施判断の補助とすることができる。三軸加速度センサ80を具備することにより、部屋からの人の移動(退出及び入室)の有無の判断の補助とすることができる。   Moreover, in order to improve the accuracy of the estimation of the nursing care action as in the nursing care action estimation system 2 according to the third embodiment shown in FIG. 8, the image acquisition device (camera) 50, the indoor environment sensor 60, the vital sensor Various sensors such as 70 and the triaxial acceleration sensor 80 may be provided, and the data of these devices may be utilized by the control device 30. By providing the image acquisition device (camera) 50, it is possible to assist the estimation of the nursing care action, and the accuracy of the estimation can be improved. By providing, for example, a thermometer as the indoor environment sensor 60, it is possible to assist in detecting the presence / absence of a room. By providing, for example, an odor sensor as the indoor environment sensor 60, it is possible to assist in estimating the nursing action “diaper exchange”. By providing the vital sensor 70 (for example, a pulse meter), it is possible to grasp a change in vital signs, and based on this, it is possible to assist in determining whether to perform a nursing action. By providing the triaxial acceleration sensor 80, it is possible to assist in determining whether or not a person has moved out of the room (withdrawal and entry).

1 介護行為推定システム
10 音取得装置
20 人検知装置
30 制御装置
40 データ出力装置
DESCRIPTION OF SYMBOLS 1 Nursing care estimation system 10 Sound acquisition device 20 Human detection device 30 Control device 40 Data output device

Claims (5)

音声を取得する音声取得部と、
取得された前記音声を文字情報として認識する音声認識部と、
介護行為の種類を示す第一のキーワードを記憶する記憶部と、
前記音声認識部によって認識された前記文字情報と前記第一のキーワードとを照合することにより、実施された介護行為の推定を行う推定部と、
を具備する、
介護行為推定システム。
An audio acquisition unit for acquiring audio;
A voice recognition unit that recognizes the acquired voice as character information;
A storage unit for storing a first keyword indicating a type of care action;
An estimation unit that estimates an implemented care action by comparing the character information recognized by the voice recognition unit with the first keyword;
Comprising
Nursing care estimation system.
取得された前記音声を発した個人を識別する個人識別部を具備し、
前記推定部は、
前記個人識別部の識別結果に基づいて抽出された、特定の個人が発した音声を用いて、前記推定を行う、
請求項1に記載の介護行為推定システム。
Comprising a personal identification unit for identifying the individual who uttered the acquired voice;
The estimation unit includes
Extracting based on the identification result of the personal identification unit, using the voice uttered by a specific individual, to perform the estimation,
The nursing care activity estimation system according to claim 1.
前記記憶部は、
前記第一のキーワードに対応する介護行為の実行を示す第二のキーワードを記憶し、
前記推定部は、
前記音声認識部によって認識された前記文字情報に前記第一のキーワードが含まれており、かつ、前記第二のキーワードが含まれている場合、前記第一のキーワードに対応する介護行為の実施を確定する、
請求項1又は請求項2に記載の介護行為推定システム。
The storage unit
Storing a second keyword indicating execution of a care act corresponding to the first keyword;
The estimation unit includes
When the first keyword is included in the character information recognized by the voice recognition unit and the second keyword is included, the care action corresponding to the first keyword is performed. Determine,
The nursing care action estimation system according to claim 1 or 2.
部屋からの人の退出を検出する検出部を具備し、
前記記憶部は、
前記第一のキーワードのうち、部屋からの人の退出を必要とする介護行為の種類を示すキーワードを第三のキーワードとして分類して記憶し、
前記推定部は、
前記音声認識部によって認識された前記文字情報に前記第三のキーワードが含まれており、かつ、前記検出部により部屋からの人の退出が検出された場合、前記第三のキーワードに対応する介護行為の実施を確定する、
請求項1から請求項3までのいずれか一項に記載の介護行為推定システム。
It has a detection unit that detects the exit of a person from the room,
The storage unit
Among the first keywords, a keyword indicating a type of care action that requires a person to leave the room is classified and stored as a third keyword,
The estimation unit includes
When the third keyword is included in the character information recognized by the voice recognition unit, and a person leaving the room is detected by the detection unit, the care corresponding to the third keyword Confirm the conduct of the action,
The care act estimation system according to any one of claims 1 to 3.
前記推定部による前記推定の結果を通知する通知部を具備する、
請求項1から請求項4までのいずれか一項に記載の介護行為推定システム。
A notification unit for notifying the result of the estimation by the estimation unit;
The care act estimation system according to any one of claims 1 to 4.
JP2018061454A 2018-03-28 2018-03-28 Nursing care act estimation system Active JP7140523B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018061454A JP7140523B2 (en) 2018-03-28 2018-03-28 Nursing care act estimation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018061454A JP7140523B2 (en) 2018-03-28 2018-03-28 Nursing care act estimation system

Publications (2)

Publication Number Publication Date
JP2019175052A true JP2019175052A (en) 2019-10-10
JP7140523B2 JP7140523B2 (en) 2022-09-21

Family

ID=68170329

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018061454A Active JP7140523B2 (en) 2018-03-28 2018-03-28 Nursing care act estimation system

Country Status (1)

Country Link
JP (1) JP7140523B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021144933A1 (en) * 2020-01-16 2021-07-22 エヌ・デーソフトウェア株式会社 Data input support device
WO2021144931A1 (en) * 2020-01-16 2021-07-22 エヌ・デーソフトウェア株式会社 Data input assisting device
CN113357772A (en) * 2021-05-28 2021-09-07 青岛海尔空调器有限总公司 Method, device, platform equipment and system for pushing air conditioner care

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325363A (en) * 2000-05-15 2001-11-22 Hitachi Plant Eng & Constr Co Ltd Care operation support device and portable communication terminal
JP2002325147A (en) * 2001-04-25 2002-11-08 Animo:Kk Computer system and information processing method
JP2014232258A (en) * 2013-05-30 2014-12-11 株式会社東芝 Coordination business supporting device, method and program
JP2015219719A (en) * 2014-05-16 2015-12-07 株式会社東芝 Medical information system
US20170193180A1 (en) * 2015-12-31 2017-07-06 Cerner Innovation, Inc. Methods and systems for audio call detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325363A (en) * 2000-05-15 2001-11-22 Hitachi Plant Eng & Constr Co Ltd Care operation support device and portable communication terminal
JP2002325147A (en) * 2001-04-25 2002-11-08 Animo:Kk Computer system and information processing method
JP2014232258A (en) * 2013-05-30 2014-12-11 株式会社東芝 Coordination business supporting device, method and program
JP2015219719A (en) * 2014-05-16 2015-12-07 株式会社東芝 Medical information system
US20170193180A1 (en) * 2015-12-31 2017-07-06 Cerner Innovation, Inc. Methods and systems for audio call detection

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021144933A1 (en) * 2020-01-16 2021-07-22 エヌ・デーソフトウェア株式会社 Data input support device
WO2021144931A1 (en) * 2020-01-16 2021-07-22 エヌ・デーソフトウェア株式会社 Data input assisting device
CN113357772A (en) * 2021-05-28 2021-09-07 青岛海尔空调器有限总公司 Method, device, platform equipment and system for pushing air conditioner care

Also Published As

Publication number Publication date
JP7140523B2 (en) 2022-09-21

Similar Documents

Publication Publication Date Title
CN110741433B (en) Intercom communication using multiple computing devices
US9858924B2 (en) Voice processing apparatus and voice processing method
WO2016136062A1 (en) Information processing device, information processing method, and program
JP6497372B2 (en) Voice dialogue apparatus and voice dialogue method
BR112015018905B1 (en) Voice activation feature operation method, computer readable storage media and electronic device
JP2019175052A (en) Caring behavior estimation system
JP6820664B2 (en) Reception system and reception method
CN108665895A (en) Methods, devices and systems for handling information
US11955129B2 (en) Responding to requests for information and other verbal utterances in a healthcare facility
US20140358543A1 (en) Linked-work assistance apparatus, method and program
ES2950974T3 (en) Electronic device for performing a task that includes a call in response to a user&#39;s utterance and operating procedure thereof
JP2015184597A (en) Communication Support robot system
FI128000B (en) Speech recognition method and apparatus based on a wake-up word
JP2021110895A (en) Hearing impairment determination device, hearing impairment determination system, computer program and cognitive function level correction method
JP2010078763A (en) Voice processing device, voice processing program, and intercom system
JPWO2020003785A1 (en) Audio processing device, audio processing method and recording medium
Beltrán et al. Recognition of audible disruptive behavior from people with dementia
US20200202738A1 (en) Robot and method of controlling the same
JP2021064284A (en) Cognitive function evaluation system, cognitive function evaluation method, and program
JP7472727B2 (en) Dialogue system, dialogue robot, program, and information processing method
KR102260466B1 (en) Lifelog device and method using audio recognition
JP2018055155A (en) Voice interactive device and voice interactive method
JP6534171B2 (en) Call support system
JP2021124567A (en) Estimation system and estimation method
JP2021018664A (en) Information processing system, information processing method and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210301

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220908

R150 Certificate of patent or registration of utility model

Ref document number: 7140523

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150