JP7377910B2 - Information processing system, information processing device, information processing method and program - Google Patents

Information processing system, information processing device, information processing method and program Download PDF

Info

Publication number
JP7377910B2
JP7377910B2 JP2022068690A JP2022068690A JP7377910B2 JP 7377910 B2 JP7377910 B2 JP 7377910B2 JP 2022068690 A JP2022068690 A JP 2022068690A JP 2022068690 A JP2022068690 A JP 2022068690A JP 7377910 B2 JP7377910 B2 JP 7377910B2
Authority
JP
Japan
Prior art keywords
subject
evaluation
unit
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022068690A
Other languages
Japanese (ja)
Other versions
JP2023158734A (en
Inventor
万希子 川邊
剛一郎 魚住
知己 松下
顕是 齋藤
嘉文 大島
圭太 岡田
健 福田
靖英 丹羽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Research Institute Inc
Original Assignee
Mitsubishi Research Institute Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Research Institute Inc filed Critical Mitsubishi Research Institute Inc
Priority to JP2022068690A priority Critical patent/JP7377910B2/en
Publication of JP2023158734A publication Critical patent/JP2023158734A/en
Application granted granted Critical
Publication of JP7377910B2 publication Critical patent/JP7377910B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

特許法第30条第2項適用 ▲1▼公開日 :2022年1月31日 公開場所:株式会社日本ケアサプライ(東京都港区芝大門1丁目1番30号 芝NBFタワー9階) ▲2▼公開日 :2022年3月4日 公開場所:綜合警備保障株式会社(東京都港区元赤坂1丁目6番6号) ▲3▼公開日 :2022年3月31日 公開場所:エヌ・デーソフトウェア株式会社(山形県南陽市和田3369) ▲4▼公開日 :2022年4月15日 公開場所:綜合警備保障株式会社(東京都港区元赤坂1丁目6番6号)Article 30, Paragraph 2 of the Patent Act applies ▲1▼Publication date: January 31, 2022Publication location: Nippon Care Supply Co., Ltd. (9th floor, Shiba NBF Tower, 1-1-30 Shiba Daimon, Minato-ku, Tokyo) ▲2▼ Publication date: March 4, 2022 Publication location: Sogo Security Security Co., Ltd. (1-6-6 Motoakasaka, Minato-ku, Tokyo) ▲3▼Publication date: March 31, 2022 Publication location: N.D. Software Co., Ltd. (3369 Wada, Nanyo City, Yamagata Prefecture) ▲4▼Publication date: April 15, 2022 Publication location: Sogo Security Security Co., Ltd. (1-6-6 Motoakasaka, Minato-ku, Tokyo)

本発明は、介護に関連した情報処理システム、情報処理装置、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing device, an information processing method, and a program related to nursing care.

高齢化社会が進むにつれて、介護対象者の情報を効率よく管理することが望まれるようになってきている。昨今では、科学的介護情報システムであるLIFEが導入され、介護対象者の情報の電子化は益々進む傾向にある。 As the aging of society progresses, it has become desirable to efficiently manage information on care recipients. Recently, LIFE, a scientific nursing care information system, has been introduced, and the digitization of information on care recipients is increasingly progressing.

介護対象者の介護に関する情報を自動で評価するという観点からは、例えば特許文献1では排泄に特化した介護支援装置が提案されており、第1センサの検出値を用いて被介護者による排泄を検知する検知処理と、第2センサの検出値を用いて被介護者の睡眠状態を特定する特定処理と、被介護者の排泄を検知し、かつ、被介護者の睡眠状態が深い状態でないと特定した場合、排泄が行われた旨を示す出力情報を出力する出力処理と、を実行することが提案されている。 From the perspective of automatically evaluating information related to care for a care recipient, for example, Patent Document 1 proposes a care support device specialized for excretion, which uses the detected value of a first sensor to evaluate the care recipient's excretion. a detection process that detects the cared person's sleep state using the detection value of the second sensor; and a identification process that uses the detected value of the second sensor to identify the cared person's sleeping state; It has been proposed to perform an output process of outputting output information indicating that excretion has occurred.

特開2021-124961号公報JP2021-124961A

科学的介護情報システムであるLIFEが導入され、介護対象者の介護状況に関する情報を評価する機会が増えたことに伴い、本発明は、介護対象者に対する介護の必要性又は心身の状態に関する評価を自動で行う情報処理システム、情報処理装置、情報処理方法及びプログラムを提供する。 With the introduction of LIFE, a scientific care information system, and with the increase in opportunities to evaluate information regarding the care status of care recipients, the present invention aims to evaluate the need for care or the mental and physical condition of care recipients. Provides automatic information processing systems, information processing devices, information processing methods, and programs.

[概念1]
本発明による情報処理システムは、
対象者に関する情報を取得する取得部と、
取得部によって取得された対象者に関する情報を評価モデルに適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行う評価部と、
評価部での評価結果を出力する出力部と、
を備えてもよい。
[Concept 1]
The information processing system according to the present invention includes:
an acquisition unit that acquires information about the target person;
an evaluation unit that evaluates the need for nursing care or the mental and physical condition of the target person by applying the information regarding the target person acquired by the acquisition unit to the evaluation model;
an output unit that outputs the evaluation results from the evaluation unit;
may be provided.

[概念2]
概念1に記載の情報処理システムにおいて、
取得部は対象者を入力によって特定できる端末を有し、
評価部は、前記端末によって撮影される動画又は静止画を評価モデルに適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行い、
評価部での評価結果と前記端末によって特定される対象者とを関連付けて記憶する記憶部が設けられてもよい。
[Concept 2]
In the information processing system described in concept 1,
The acquisition unit has a terminal that can identify the target person by input,
The evaluation unit evaluates the need for nursing care or the mental and physical condition of the subject by applying a video or still image captured by the terminal to an evaluation model,
A storage unit may be provided that stores the evaluation result by the evaluation unit and the target person specified by the terminal in association with each other.

[概念3]
概念1又は2に記載の情報処理システムにおいて、
取得部は対象者の動作を動画で取得する撮像部を有し、
評価部は対象者の動作に関する情報を評価モデルに適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行ってもよい。
[Concept 3]
In the information processing system according to concept 1 or 2,
The acquisition unit includes an imaging unit that acquires a moving image of the subject's movements,
The evaluation unit may perform an evaluation regarding the need for nursing care or the mental and physical condition of the target person by applying information regarding the target person's movements to the evaluation model.

[概念4]
概念1乃至3のいずれか1つに記載の情報処理システムにおいて、
取得部は、対象者が食べた食事の量を重量によって取得する計量部、又は対象者が食べた食事の量を静止画もしくは動画で取得する撮像部を有し、
評価部は対象者の食べた食事に関する情報を評価モデルに適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行ってもよい。
[Concept 4]
In the information processing system according to any one of Concepts 1 to 3,
The acquisition unit has a measuring unit that acquires the amount of food eaten by the subject based on weight, or an imaging unit that acquires the amount of food eaten by the subject in a still image or video,
The evaluation unit may evaluate the need for nursing care or the mental and physical condition of the subject by applying information regarding the meals eaten by the subject to the evaluation model.

[概念5]
概念1乃至4のいずれか1つに記載の情報処理システムにおいて、
対象者が所持する又は対象者に取り付けられた位置特定部材から対象者の位置情報を特定することで、取得部による取得された情報の対象者を特定する特定部を備え、
評価部は、特定部で特定された対象者に関して取得部によって取得された情報を評価モデルに適用することで当該対象者に対する介護の必要性又は心身の状態に関する評価を行ってもよい。
[Concept 5]
In the information processing system according to any one of Concepts 1 to 4,
comprising an identifying unit that identifies the target person of the information acquired by the acquisition unit by identifying the target person's location information from a position specifying member owned by the target person or attached to the target person,
The evaluation unit may evaluate the need for nursing care or the physical and mental state of the subject identified by the identification unit by applying the information acquired by the acquisition unit regarding the subject to the evaluation model.

[概念6]
概念5に記載の情報処理システムにおいて、
特定部による特定結果を担当者が承認することで対象者の特定が正式に行われてもよい。
[Concept 6]
In the information processing system described in Concept 5,
The target person may be formally identified by the person in charge approving the identification result by the identifying section.

[概念7]
概念1乃至6のいずれか1つに記載の情報処理システムにおいて、
対象者が所持する又は対象者に取り付けられた位置特定部材から対象者の位置情報を特定することで、取得部による取得された情報の対象者を特定する特定部を備え、
評価部は、特定部によって得られる対象者の位置情報、移動距離又は歩行速度を評価モデルに適用することで当該対象者に対する介護の必要性又は心身の状態に関する評価を行ってもよい。
[Concept 7]
In the information processing system according to any one of Concepts 1 to 6,
comprising an identifying unit that identifies the target person of the information acquired by the acquisition unit by identifying the target person's location information from a position specifying member owned by the target person or attached to the target person,
The evaluation unit may evaluate the need for nursing care or the mental and physical condition of the subject by applying the position information, travel distance, or walking speed of the subject obtained by the identification unit to the evaluation model.

[概念8]
概念1乃至7のいずれか1つに記載の情報処理システムにおいて、
取得部は、対象者の体重を測定する重量計又は対象者の身長を測定する身長計を有し、
評価部は対象者の体重又は身長に関する情報を評価モデルに適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行ってもよい。
[Concept 8]
In the information processing system according to any one of Concepts 1 to 7,
The acquisition unit has a scale for measuring the weight of the subject or a height scale for measuring the height of the subject,
The evaluation unit may evaluate the need for nursing care or the mental and physical condition of the subject by applying information regarding the weight or height of the subject to the evaluation model.

[概念9]
概念1乃至8のいずれか1つに記載の情報処理システムにおいて、
センサから得られた数字情報又は手入力された情報を評価モデルに適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行ってもよい。
[Concept 9]
In the information processing system according to any one of Concepts 1 to 8,
By applying numerical information obtained from a sensor or manually inputted information to an evaluation model, an evaluation regarding the need for nursing care or the mental and physical condition of the subject may be performed.

[概念10]
概念1乃至9のいずれか1つに記載の情報処理システムにおいて、
出力部は、評価部による評価結果を用いてLIFEのデータベースに自動で登録してもよい。
[Concept 10]
In the information processing system according to any one of Concepts 1 to 9,
The output unit may automatically register the results of the evaluation by the evaluation unit in the LIFE database.

[概念11]
本発明による情報処理方法は、
取得部によって、対象者に関する情報を取得する工程と、
取得部によって取得された対象者に関する情報を、評価部が評価モデルに適用することで対象者に対する介護の必要性又は心身の状態に関する評価を行う工程と、
出力部が評価部による評価結果を出力する工程と、
を備えてもよい。
[Concept 11]
The information processing method according to the present invention includes:
a step of acquiring information about the target person by the acquisition unit;
a step in which the evaluation unit applies the information regarding the target person acquired by the acquisition unit to an evaluation model to evaluate the need for nursing care or the mental and physical condition of the target person;
a step in which the output unit outputs the evaluation result by the evaluation unit;
may be provided.

[概念12]
本発明によるプログラムは、
情報処理装置にインストールされるプログラムであって、
前記プログラムがインストールされた情報処理装置に、
取得部によって取得された対象者に関する情報を、評価モデルに適用することで対象者に対する介護の必要性又は心身の状態に関する評価を行う評価機能と、
評価機能による評価結果を出力する出力機能と、
を実現させてもよい。
[Concept 12]
The program according to the present invention is
A program installed on an information processing device,
The information processing device in which the program is installed,
an evaluation function that performs an evaluation regarding the need for nursing care or the mental and physical condition of the target person by applying the information regarding the target person acquired by the acquisition unit to an evaluation model;
an output function that outputs the evaluation results by the evaluation function;
may be realized.

本発明によれば、介護対象者に対する介護の必要性又は心身の状態に関する評価を自動で行う情報処理装置等を提供することができる。 According to the present invention, it is possible to provide an information processing device and the like that automatically evaluates the need for care or the mental and physical condition of a care recipient.

本発明の実施の形態による情報処理装置の概略ブロック図。1 is a schematic block diagram of an information processing device according to an embodiment of the present invention. 撮像部の一例であるスマートフォン等の端末によって、介護対象者の食事の量の減り具合を取得する態様を説明した図。FIG. 3 is a diagram illustrating a mode in which a terminal such as a smartphone, which is an example of an imaging unit, acquires the degree of decrease in the amount of food consumed by a person to be cared for. トレーに乗せられた食前の食事の重量と食後の重量を、取得部を構成する計量部によって計量する態様を説明した図。FIG. 3 is a diagram illustrating a mode in which the weight of a pre-meal meal and the weight of a post-meal meal placed on a tray are measured by a measuring unit that constitutes an acquisition unit. 介護対象者の体重がベッドのマットに組み込まれた重量計によって取得される態様を説明した図。FIG. 2 is a diagram illustrating a mode in which the weight of a person to be cared for is acquired by a scale built into a bed mat. 身長計による測定結果を静止画や動画によって撮像部が取得する態様を説明した図。FIG. 3 is a diagram illustrating a mode in which an imaging unit acquires measurement results by a height meter using still images and videos. 評価部での評価結果を、介護ソフトを用いてLIFEのデータベースに自動で登録する態様を説明した図。The figure explaining the aspect which automatically registers the evaluation result in an evaluation part in the database of LIFE using nursing care software.

実施の形態
本実施の形態の情処理システム及び情報処理装置の各々は、一つの装置から構成されてもよいし複数の装置から構成されてもよい。本実施の形態では、本実施の形態の情報処理装置を用いた情報処理方法、情報処理装置を生成するためにインストールされるプログラムや、当該プログラムを記憶したUSB、DVD等からなる記憶媒体も提供される。また、本願の「又は」は「及び」を含む概念であり、「A又はB」という用語は、「A」、「B」、並びに「A及びB」の両方を含む概念である。情報処理装置は典型的にはサーバであり、クラウド環境に置かれてもよい。情報処理装置では事業者毎に管理が行われており、事業者が識別情報及びパスワード等を用いてログインすることで、事象者識別情報に紐づいた当該事象者に関連する情報が読み出されて、端末200で確認できるようにしてもよい。
Embodiment Each of the information processing system and information processing device of this embodiment may be composed of one device or a plurality of devices. This embodiment also provides an information processing method using the information processing device of this embodiment, a program installed to generate the information processing device, and a storage medium such as a USB or DVD that stores the program. be done. Further, in the present application, "or" is a concept that includes "and," and the term "A or B" is a concept that includes both "A,""B," and "A and B." The information processing device is typically a server, and may be placed in a cloud environment. The information processing equipment is managed by each business operator, and when the business operator logs in using identification information and password, etc., information related to the event person linked to the event person identification information is read out. It may also be possible to check the information on the terminal 200.

図1に示すように、情報処理装置は、複数の対象者の情報を取得する1又は複数の取得部300と、取得部300によって取得された対象者に関する情報を、評価モデルに適用することで対象者の介護に関する所定の項目についての評価を行う評価部10と、評価部10での評価結果を出力する出力部70と、を有する。対象者に関する情報とは、後述するように、対象者の動作状況、対象者の身長・体重、対象者のバイタル情報、対象者の食事量等である。評価部10が対象者の介護に関する所定の項目及び/又は心身の状態に関する所定の項目についての評価を行うことで、個々の対象者に対する介護の必要性及び/又は心身の状態に関する評価が可能となる。 As shown in FIG. 1, the information processing device includes one or more acquisition units 300 that acquire information on a plurality of subjects, and by applying information about the subjects acquired by the acquisition unit 300 to an evaluation model. It has an evaluation section 10 that performs evaluation on predetermined items related to nursing care of a subject, and an output section 70 that outputs the evaluation results of the evaluation section 10. As described later, the information regarding the subject includes the subject's movement status, the subject's height/weight, the subject's vital information, the subject's dietary intake, and the like. The evaluation unit 10 evaluates predetermined items related to nursing care and/or predetermined items related to the mental and physical condition of the target person, thereby making it possible to evaluate the need for nursing care and/or the mental and physical condition of each target person. Become.

評価部10は人工知能機能を有しており、評価モデルを生成してもよい。人工知能機能の一例として、機械学習の手法を用いた分類器を用いてもよい。分類器は、例えば機械学習技術によって、利用する採用変数(要素)と、その係数(重み)を定めてもよい。人工知能機能は、回帰分析、決定木分析等を行ってもよい。機械学習技術に関しては、様々なモデルを採用することができ、例えば、ロジスティクス回帰モデル、ランダムフォレストモデル、ツリーモデル等を採用することができる。 The evaluation unit 10 has an artificial intelligence function and may generate an evaluation model. As an example of the artificial intelligence function, a classifier using a machine learning method may be used. The classifier may determine adopted variables (elements) to be used and their coefficients (weights) by, for example, machine learning technology. The artificial intelligence function may perform regression analysis, decision tree analysis, etc. Regarding machine learning techniques, various models can be employed, such as a logistics regression model, a random forest model, a tree model, etc.

評価部10は、介護対象者の状況について取得部300から情報を取得し、当該介護対象者に対する看護職員、介護職員、リハビリテーション専門職員等の担当者による実際の評価結果を学習データとして機械学習するようにしてもよい。取得部300から取得された介護対象者の状況についての情報と、当該介護対象者に対する担当者による実際の評価結果を、学習データとテストデータに分けて、機械学習を行わせてもよい。一例としては、複数の介護対象者に関して取得部300で取得された情報と、当該複数の介護対象者に対する看護職員、介護職員、リハビリテーション専門職員等の担当者による介護に関する項目又は心身の状態に関する項目についての評価結果を学習データとして、評価部10が機械学習を行うようにしてもよい。そして、当該機械学習によって生成された評価モデルに対して、別の複数の介護対象者に関して取得部300で取得された情報と、当該複数の介護対象者に対する看護職員、介護職員、リハビリテーション専門職員等の担当者による介護に関する項目又は心身の状態に関する項目についての評価結果をテストデータとして用いて、検証するようにしてもよい。そして、ある程度の確からしさを持ったモデルを評価モデルとして利用し、以降は、毎月又は3か月に一回といった適宜なタイミングで評価モデルを更新するようにしてもよい。 The evaluation unit 10 acquires information about the situation of the care recipient from the acquisition unit 300, and performs machine learning using actual evaluation results of the nursing staff, care staff, rehabilitation specialist staff, etc. for the care recipient as learning data. You can do it like this. Machine learning may be performed by dividing the information about the situation of the care recipient acquired from the acquisition unit 300 and the actual evaluation results of the care recipient by the person in charge into learning data and test data. As an example, the information acquired by the acquisition unit 300 regarding a plurality of care recipients, and items related to the care provided by persons in charge such as nursing staff, care staff, rehabilitation specialist staff, etc., or items regarding mental and physical conditions for the plurality of care recipients are included. The evaluation unit 10 may perform machine learning using the evaluation results as learning data. Then, for the evaluation model generated by the machine learning, information acquired by the acquisition unit 300 regarding another plurality of care recipients, nursing staff, care staff, rehabilitation specialist staff, etc. for the plurality of care recipients, etc. Evaluation results of items related to nursing care or items related to mental and physical condition by the person in charge may be used as test data for verification. Then, a model with a certain degree of certainty may be used as an evaluation model, and thereafter, the evaluation model may be updated at an appropriate timing, such as once every month or every three months.

評価モデルは、評価部10で生成される必要はなく、予め準備されて記憶部60で記憶されてもよいし、1週間、毎月又は3か月に一回といった適宜なタイミングで更新されたモデルが記憶部60で評価モデルとして記憶されるようにしてもよい。 The evaluation model does not need to be generated by the evaluation unit 10, and may be prepared in advance and stored in the storage unit 60, or a model updated at an appropriate timing such as once a week, every month, or every three months. may be stored as an evaluation model in the storage unit 60.

本実施の形態によれば、評価部10が客観的に判断することで、現状のような主観的な判断と比較して信頼性の高い情報によって、全自立、部分自立、大部分介助、全介助等(図6参照)の介護対象者に対する介護の必要性や、認知機能の状態等の心身の状態に関する評価を行うことができるようになる。 According to the present embodiment, the evaluation unit 10 makes an objective judgment and uses information that is more reliable than the current subjective judgment to determine whether the evaluation unit is completely independent, partially independent, mostly assisted, or completely independent. It becomes possible to evaluate the need for nursing care such as assistance (see FIG. 6) for the person receiving care, and the mental and physical condition such as the state of cognitive function.

評価部10での評価結果は出力部70から出力されて、端末200の表示画面等の表示部210で表示されてもよい。そして、担当者が承認をすることで、評価部10での評価結果が記憶部60で記憶されるようにしてもよい。このような態様を採用することで、担当者による確認も経た上で情報が記録されることから、情報の正確性を高めることができる。端末200は、スマートフォン、タブレット、パソコン等からなり、表示部210及び入力部220を有してもよい。スマートフォン及びタブレットでは、タッチパネルとなっており、表示部210及び入力部220の機能をタッチパネルが果たすこととなる。 The evaluation results from the evaluation section 10 may be output from the output section 70 and displayed on the display section 210 such as the display screen of the terminal 200. Then, the evaluation result by the evaluation section 10 may be stored in the storage section 60 upon approval by the person in charge. By adopting such an aspect, the accuracy of the information can be improved because the information is recorded after being confirmed by the person in charge. The terminal 200 may include a smartphone, a tablet, a personal computer, etc., and may include a display section 210 and an input section 220. Smartphones and tablets have touch panels, and the touch panels perform the functions of the display section 210 and the input section 220.

評価部10での評価には一例としてバーセルインデックスを用いてもよい。この場合には、一例として、食事、移乗、整容、トイレ、入浴、歩行(移動)、階段昇降、更衣、排便及び排尿の10項目が介護に関する項目となり、評価部10がこれらの項目についての評価を自動で行うことになる。この場合には、各項目を自立度に応じて15点、10点、5点及び0点で評価し、100点満点で全自立、100点未満60点以上で部分自立、60点未満40点以上で大部分介助、0点で全介助と評価部10が評価するようにしてもよい。介護に関する項目は、上記10項目に限られることはなく、項目内容は適宜設定又は変更されるようにしてもよい。また、上記10項目が大項目となり、各項目に中項目及び/又は小項目が設定されてもよい。 For example, the Barthel index may be used for the evaluation by the evaluation unit 10. In this case, for example, 10 items related to nursing care include eating, transfers, grooming, toileting, bathing, walking (moving), climbing stairs, changing clothes, defecating, and urinating, and the evaluation unit 10 evaluates these items. will be done automatically. In this case, each item is evaluated with 15 points, 10 points, 5 points, and 0 points depending on the degree of independence, with 100 points being full independence, less than 100 points being 60 points or more being partially independent, and less than 60 points being 40 points. The evaluation unit 10 may evaluate the above as mostly assisting, and 0 points as all assisting. The items related to nursing care are not limited to the above ten items, and the item contents may be set or changed as appropriate. Further, the above ten items may be large items, and each item may have medium items and/or small items.

介護対象者の情報は介護職員、リハビリ職員、医師、歯科医師、歯科衛生士等の担当者が所持するスマートフォン、タブレット、パソコン等の担当者端末等の端末200を介して入力されてもよく、当該端末200が取得部300の一部となってもよい。その際には、食事摂取表、バイタルチェック表、排せつチェック表、栄養記録等が端末200から入力され、これらの情報が記憶部60で記録されてもよい。 Information on the care recipient may be input via a terminal 200 such as a smartphone, tablet, or personal computer owned by a person in charge such as a care worker, rehabilitation worker, doctor, dentist, or dental hygienist. The terminal 200 may become a part of the acquisition unit 300. At that time, a meal intake chart, vital check chart, excretion check chart, nutrition record, etc. may be input from the terminal 200, and this information may be recorded in the storage unit 60.

また、対象者の動作を動画又は静止画で取得する撮像部310が設けられ、当該撮像部310が取得部300の一部となってもよい。この場合には、介護対象者が一人で寝起きできているか、一人で歩行できているか、また介護対象者が調理している様子や調理の片づけをしている様子等(図6参照)を動画として撮像部310が取得してもよい。撮像部310で取得された対象者の動作に関する情報を評価モデルに適用することで、評価部10が介護対象者の介護に関する項目又は心身の状態に関する項目についての評価を行うことになる。このような態様を採用した場合には、各介護対象者の日ごろの動作や試験的に行われる調理動作等を用いて、評価部10が介護対象者の介護に関する項目又は心身の状態に関する項目についての評価を自動で行うことができる。 Further, an imaging unit 310 that captures the motion of the subject as a moving image or a still image may be provided, and the imaging unit 310 may be a part of the acquisition unit 300. In this case, videos should be taken to check whether the person being cared for can wake up and get up on their own, whether they are able to walk by themselves, and how the person being cared for is cooking or cleaning up after cooking (see Figure 6). The image capturing unit 310 may acquire the image as a. By applying information regarding the behavior of the subject acquired by the imaging unit 310 to the evaluation model, the evaluation unit 10 evaluates items related to care or the mental and physical condition of the care subject. When such a mode is adopted, the evaluation unit 10 uses the daily movements of each care recipient, cooking operations performed on a trial basis, etc. to evaluate items related to care or mental and physical condition of each care recipient. can be evaluated automatically.

また食事を下げた際に、介護対象者が完食しているか、食事を残しているか等の食事後の状態を静止画又は動画として撮像部310が取得してもよい(図2参照)。またトレーに乗せられた食前の食事の重量と食後の重量を取得部300を構成する計量部320によって計量できるようになっており、その結果を用いて、食事の量を取得するようにしてもよい(図3参照)。この場合には、評価部10が、介護対象者の食べた食事に関する情報を評価モデルに適用することで、対象者の介護に関する項目又は心身の状態に関する項目についての評価を行うことになる。このような態様を採用した場合には、各介護対象者の食事量をもとに、評価部10が介護対象者の介護に関する項目又は心身の状態に関する項目についての評価を自動で行うことができる。 Furthermore, when the meal is stopped, the imaging unit 310 may obtain a still image or a moving image of the state after the meal, such as whether the care recipient has eaten all the food or has leftover food (see FIG. 2). Furthermore, the weight of the meal before the meal and the weight after the meal placed on the tray can be measured by the weighing section 320 that constitutes the acquisition section 300, and the result can be used to acquire the amount of the meal. Good (see Figure 3). In this case, the evaluation unit 10 applies information regarding the meals eaten by the person to be cared for to the evaluation model to evaluate items related to care or mental and physical condition of the person to be cared for. When such an aspect is adopted, the evaluation unit 10 can automatically evaluate items related to care or mental and physical condition of each care recipient based on the amount of food each care recipient eats. .

また各種センサによって取得される数字情報、例えばバイタル情報(体温、脈拍、呼吸、意識、血圧)やマットセンサーから得られる呼吸数や心拍数等を評価部10が、評価モデルに適用することで、対象者の介護に関する項目又は心身の状態に関する項目についての評価を行うようにしてもよい。また、食事形態、食事量、排泄・排便の有無や量等の生活情報や既往歴等の医療情報が手入力で端末200から入力され、これらの情報を評価部10が、評価モデルに適用することで、対象者の介護に関する項目又は心身の状態に関する項目についての評価を行うようにしてもよい。 In addition, the evaluation unit 10 applies numerical information obtained by various sensors, such as vital information (body temperature, pulse, respiration, consciousness, blood pressure), breathing rate and heart rate obtained from the mat sensor, to the evaluation model. Evaluations may be made on items related to the care of the subject or items related to the mental and physical condition of the subject. In addition, daily life information such as meal form, amount of food, existence and amount of excretion/defecation, and medical information such as medical history are manually input from the terminal 200, and the evaluation unit 10 applies this information to the evaluation model. In this way, items related to the care of the subject or items related to the mental and physical condition may be evaluated.

介護対象者の動作としては日常生活動作(ADL)を取得し、評価するようにしてもよい。日常生活動作(ADL)とはActivities of Daily Livingのことを意味し、移動、排泄、食事等の最低限の日常生活動作であり、介護対象者自身が行う必要がある動作である。評価部10は、入力される情報から、食事、椅子とベッド間の移乗、整容、トイレ動作、入浴、平地歩行、階段昇降、更衣、排便コントロール、排尿コントロールといった項目の各々に対して自立、一部介助、全介助といった評価(0点、5点、10点、15点等の評価)を行うようにしてもよい。 Activities of daily living (ADL) may be acquired and evaluated as the movements of the person to be cared for. Activities of Daily Living (ADL) refers to Activities of Daily Living, and is the minimum daily living activities such as moving, excreting, and eating, and is an action that the care recipient must perform himself/herself. Based on the input information, the evaluation unit 10 evaluates independence and control for each of the following items: eating, transferring between chairs and beds, grooming, toilet movements, bathing, walking on level ground, going up and down stairs, changing clothes, defecation control, and urinary control. Evaluations such as partial assistance and total assistance (evaluation of 0 points, 5 points, 10 points, 15 points, etc.) may be performed.

介護対象者の情報と動画又は静止画との紐づけは、介護対象者の位置情報や介護対象者の顔認識によって行われてもよい。介護対象者はRFタグやGPS端末等の位置特定部材を所持したり、位置特定部材がバンドとしてつけられたりしており、このような位置特定部材の位置情報から撮像部310に移っている人物や撮像部310で撮影された食後の様子がどの介護対象者であるのかを識別して紐づけてもよい。RFタグ等の位置特定部材は衣服に取り付けられてもよいし、靴に取り付けられてもよく、介護対象者の位置が特定できるのであれば、いずれの箇所に取り付けられてもよい。このように対象者が所持する又は対象者に取り付けられた位置特定部材から対象者の位置情報を特定することで、取得部300で取得された情報の介護対象者を特定する場合には、評価部10は、特定された各介護対象者に関して取得部300によって取得された情報を評価モデルに適用することで当該対象者の介護に関する項目又は心身の状態に関する項目についての評価を行うようにしてもよい。このような態様を採用した場合には、誰の情報を評価しているかを自動で行うことができることから、担当者による情報収集の手間をさらに減らすことができる点で有益である。 The information on the person to be cared for and a moving image or a still image may be linked using positional information of the person to be cared for or facial recognition of the person to be cared for. The person being cared for has a position identifying member such as an RF tag or a GPS terminal, or the position identifying member is attached as a band. It is also possible to identify and link the post-meal state photographed by the imaging unit 310 to which care recipient. A position specifying member such as an RF tag may be attached to clothing or shoes, and may be attached to any location as long as the location of the care recipient can be specified. In this way, when identifying the person to be cared for in the information obtained by the acquisition unit 300 by specifying the location information of the person from the position specifying member owned by the person or attached to the person, evaluation is performed. The unit 10 may apply the information acquired by the acquisition unit 300 regarding each specified nursing care recipient to an evaluation model to evaluate items related to caregiving or mental and physical condition of each identified nursing care recipient. good. When such an aspect is adopted, it is possible to automatically determine whose information is being evaluated, which is advantageous in that it is possible to further reduce the effort required by the person in charge to collect information.

また、食事を受けとるとき及び食後の食器を返還するときにはIDカード等の認証媒体を読取部330にかざすようにしてもよく(図3参照)、その場合には、IDカード等の認証媒体からの情報に基づいて介護対象者を識別することになる。 Furthermore, when receiving a meal or returning tableware after a meal, an authentication medium such as an ID card may be held over the reading unit 330 (see FIG. 3). In that case, the authentication medium such as an ID card may be The person to be cared for will be identified based on the information.

位置特定部材による対象者の位置情報の特定、顔認識による特定、読取部330を用いた特定等は情報処理装置の特定部50(図1参照)によって行われることになる。 The identification of the target person's position information using the position identification member, identification by face recognition, identification using the reading unit 330, etc. will be performed by the identification unit 50 (see FIG. 1) of the information processing device.

本実施の形態の撮像部310等を含む取得部300は高齢者施設や介護施設に設置されていたり、介護職員等の担当者が所持していたりするスマートフォンやタブレット等の端末200であることが典型的ではあるが、そのような態様に限られることはなく、自宅での介護にも本実施の形態を適用することはできる。 The acquisition unit 300 including the imaging unit 310 and the like of this embodiment may be a terminal 200 such as a smartphone or a tablet installed in an elderly care facility or a nursing care facility or carried by a person in charge such as a care worker. Although this is typical, the present embodiment is not limited to such an aspect, and can also be applied to nursing care at home.

また唾がのみ込めるかどうか、食事を問題なくのみ込めるかどうか等の口腔系の機能についての情報、自分で寝返りが打てるかどうか等も撮像部310からの情報によって取得してもよい。 Further, information about the functions of the oral cavity, such as whether the patient can swallow saliva or swallow food without any problem, and whether the patient can turn over on his or her own, may also be obtained from the image capturing unit 310.

また撮像部310での撮像対象が誰であるのかは介護職員等の担当者が指定するようにしてもよく、その場合には、担当者によって指定された情報に基づいて、誰の情報であるかが取得部300で取得されることになる。担当者によって指定された情報は記憶部60で記憶され、次回以降に介護対象者を特定する際に利用されてもよい。また介護対象者の正式な特定は、特定部50による特定結果を担当者が承認することで行われてもよい。例えば「〇〇さん」というような表示が端末200の表示部210でなされ、担当者が画面をタップして承認の選択を行うことで、介護対象者が正式に特定されるようにしてもよい。このような態様を採用する場合には、介護対象者と評価対象との紐づけをより確実に行うことができる点で有益である。なお、「〇〇さん」という表示内容が誤っている場合には、画面をタップした後で、当該人物名を入力するようにしてもよい。特定部50も人工知能機能を有しており、このように情報の修正が行われた場合には、人物を特定する際に用いられる特定モデルを修正するようにしてもよい。当該特定モデルも記憶部60で記憶されることになる。 Further, a person in charge, such as a care worker, may specify who is to be imaged by the image capturing unit 310, and in that case, based on information specified by the person in charge, whose information is to be captured is determined by the person in charge. will be acquired by the acquisition unit 300. The information specified by the person in charge may be stored in the storage unit 60 and used when specifying the person to be cared for next time. Further, the formal identification of the person to be cared for may be performed by the person in charge approving the identification result by the identification unit 50. For example, a display such as "Mr. XX" may be displayed on the display unit 210 of the terminal 200, and the person in charge may tap the screen to select approval, thereby officially identifying the care recipient. . When such an aspect is adopted, it is advantageous in that the care recipient and the evaluation target can be linked more reliably. Note that if the display content of "Mr. XX" is incorrect, the user may input the person's name after tapping the screen. The identifying unit 50 also has an artificial intelligence function, and when information is modified in this way, the specific model used to identify a person may be modified. The specific model will also be stored in the storage unit 60.

撮像部310は介護職員やリハビリ職員等の担当者が所持するスマートフォン等の端末200であってもよく、担当者が撮影対象者を指定した上で動画や静止画の撮影を行うようにしてもよい。この場合には、介護対象者を担当者が指定した上で動画や静止画の情報が取得されることになるので、導入コストを抑えつつ、動画や静止画の情報を用いた評価部10での評価が可能となる点で非常に有益である。例えば、スマートフォン等の端末200にインストールされる専用アプリケーションを用いることで人物名を入力できるようになっており、人物名や識別情報を入力部220によって手(手動)又は音声で入力した上で、スマートフォン等の端末200の静止画や動画によって、当該人物に関する情報を取得するようにしてもよい。この場合には、介護対象者の特定情報は端末200で撮影された動画又は静止画と紐づけられた上で記憶部60によって記憶され、当該動画又は静止画を評価モデルに適用することで得られる評価部10での評価結果は介護対象者の特定情報と紐づけられた上で記憶部60によって記憶されてもよい。撮影対象は、一例として、介護対象者の動きであってもよいし、食後の様子であってもよい(図2参照)。 The imaging unit 310 may be a terminal 200 such as a smartphone owned by a person in charge such as a nursing care worker or a rehabilitation worker, or the person in charge may designate a person to be photographed and then shoot a video or a still image. good. In this case, the video and still image information will be acquired after the person in charge specifies the care recipient, so the evaluation unit 10 using video and still image information can reduce the introduction cost. This is extremely useful in that it allows evaluation of For example, it is possible to input a person's name by using a dedicated application installed on the terminal 200 such as a smartphone, and after inputting the person's name and identification information by hand (manually) or voice through the input unit 220, Information regarding the person may be acquired using still images or videos from the terminal 200 such as a smartphone. In this case, the specific information of the person to be cared for is stored in the storage unit 60 in association with a video or still image taken by the terminal 200, and benefits can be obtained by applying the video or still image to the evaluation model. The evaluation results obtained by the evaluation unit 10 may be stored in the storage unit 60 in association with the specific information of the person to be cared for. The subject to be photographed may be, for example, the movement of the person to be cared for, or the state after eating (see FIG. 2).

端末200からの入力は情報処理装置の記憶部60に直接入力される形式で行われてもよいし、端末200から情報が送信されることで、情報処理装置の記憶部60で記憶されるようにしてもよい。 The input from the terminal 200 may be directly input into the storage unit 60 of the information processing device, or the information may be sent from the terminal 200 and stored in the storage unit 60 of the information processing device. You can also do this.

評価部10での介護対象者毎の評価は1日、1週間、1か月といった所定の期間に1回といった所定のタイミングで行われ、評価が行われる度に記憶部60で記憶されてもよい。記憶部60での評価の変化は履歴情報として端末200で確認できるようにしてもよい。この場合には、対象となる介護対象者の識別情報(識別IDや、氏名及び年齢等)を入れることで、介護対象者の評価部10での最新の評価結果と、評価結果の変化を確認できるようにしてもよい。 The evaluation of each person to be cared for by the evaluation unit 10 is performed at a predetermined timing such as once in a predetermined period such as one day, one week, or one month, and the evaluation is stored in the storage unit 60 every time the evaluation is performed. good. Changes in the evaluation in the storage unit 60 may be checked on the terminal 200 as historical information. In this case, by entering the identification information (identification ID, name, age, etc.) of the person to be cared for, you can check the latest evaluation results of the person to be cared for by the evaluation unit 10 and changes in the evaluation results. It may be possible to do so.

全てが自動で取得される必要はなく医師や介護対象者が判断した結果がタブレットやパソコン等の端末200から入力され、評価部10での評価に利用されてもよい。例えば唾がのみ込めるかどうか、認知症の症状があるか、排せつが適切に行えているか等の一部の情報については、医師や介護対象者等の担当者が判断した結果を端末200に入力するようにしてもよい。このような態様を採用した場合には、必要な部分の評価を評価部10によって自動で行いつつ、自動で評価を行うことが難しい内容に関しても適切に評価を行うことができるようになるので、コストを抑えつつ、介護現場での担当者の負担を軽減することができる。 It is not necessary that all the results are automatically acquired, and the results determined by the doctor or the care recipient may be input from the terminal 200 such as a tablet or a personal computer, and used for evaluation by the evaluation unit 10. For example, some information, such as whether or not you can swallow saliva, whether you have symptoms of dementia, whether you are excreting properly, etc., is determined by a person in charge such as a doctor or care recipient, and is input into the terminal 200. You may also do so. When such an aspect is adopted, the evaluation unit 10 can automatically evaluate necessary parts, and can also appropriately evaluate content that is difficult to evaluate automatically. It is possible to reduce costs and reduce the burden on the person in charge at the nursing care site.

介護対象者のRFタグ等の位置特定部材から位置情報を取得することで俳諧の問題がないかや日中の移動距離や歩行速度を取得し、このような情報も用いて評価部10が評価するようにしてもよい。このような態様を採用した場合には、位置情報、移動距離、歩行速度等の各種情報を用いて、各介護対象者の介護に関する項目又は心身の状態に関する項目の評価を行うことができる。 By acquiring location information from a location specifying member such as an RF tag of the person being cared for, the evaluation unit 10 checks whether there are any problems with haiku, and acquires the distance traveled during the day and the walking speed, and also uses such information to perform the evaluation. You may also do so. When such an aspect is adopted, various information such as position information, travel distance, walking speed, etc. can be used to evaluate items related to care or mental and physical condition of each care recipient.

また介護対象者の体重がベッド420のマットに組み込まれた重量計340によって取得されてもよい(図4参照)。この場合には、重量計340が取得部300の一部となる。また、介護対象者が身長計410に乗った際に、位置特定部材の情報から介護対象者を識別した上で、身長計410による測定結果を静止画や動画によって撮像部310が取得するようにしてもよい(図5参照)。この場合には、評価部10は介護対象者の体重又は身長に関する情報を評価モデルに適用することで、対象者の介護に関する項目又は心身の状態に関する項目についての評価を行うようにしてもよい。このような態様を採用した場合には、体重や身長の変化を用いて、各介護対象者の介護に関する項目又は心身の状態に関する項目の評価を自動で行うことができる。 Further, the weight of the person to be cared for may be acquired by a scale 340 built into the mat of the bed 420 (see FIG. 4). In this case, the weight scale 340 becomes part of the acquisition unit 300. Further, when the care recipient steps on the height meter 410, the imaging unit 310 identifies the person to be cared for from the information of the position specifying member, and then acquires the measurement result by the height meter 410 as a still image or a video. (See Figure 5). In this case, the evaluation unit 10 may apply information regarding the weight or height of the person to be cared for to the evaluation model to evaluate items related to care or the mental and physical condition of the person to be cared for. When such an aspect is adopted, it is possible to automatically evaluate items related to care or mental and physical condition of each care recipient using changes in weight and height.

脈拍もしくは心拍数、呼吸、血圧、体温等を含む介護対象者のバイタルデータが取得部300によって取得されてもよい。この場合には、バイタルデータを評価モデルに適用することで、評価部10が評価を行うようにしてもよい。 The acquisition unit 300 may acquire vital data of the person to be cared for, including pulse or heart rate, respiration, blood pressure, body temperature, and the like. In this case, the evaluation unit 10 may perform the evaluation by applying the vital data to the evaluation model.

出力部70は評価部10での評価結果を、介護ソフト(専用ソフト)を用いてLIFE(科学的介護情報システム)のデータベース150に自動で登録するようにしてもよい(図6参照)。LIFEのデータベース150には全国の介護事業者から提供される情報が蓄積されることになるが、本実施の形態によれば、LIFEのデータベース150への登録を自動で行うことができる。LIFEへの登録に用いられる情報は匿名情報となっている。 The output unit 70 may automatically register the evaluation results from the evaluation unit 10 in the database 150 of LIFE (Scientific Nursing Care Information System) using nursing care software (dedicated software) (see FIG. 6). The LIFE database 150 accumulates information provided by nursing care providers nationwide, and according to this embodiment, registration in the LIFE database 150 can be performed automatically. The information used for registration with LIFE is anonymous information.

評価部10、特定部50、記憶部60、出力部70等は一つのユニット(制御ユニット)によって実現されてもよいし、異なるユニットによって実現されてもよい。複数の「部」による機能が統合されてもよく、例えば評価部10及び特定部50の機能が一つのユニットによって実現されてもよい。また、評価部10、特定部50、記憶部60、出力部70等は回路構成によって実現されてもよい。 The evaluation section 10, the identification section 50, the storage section 60, the output section 70, etc. may be realized by one unit (control unit), or may be realized by different units. The functions of a plurality of "departments" may be integrated; for example, the functions of the evaluation section 10 and the identification section 50 may be realized by one unit. Further, the evaluation section 10, the identification section 50, the storage section 60, the output section 70, etc. may be realized by a circuit configuration.

上述した実施の形態の記載及び図面の開示は、特許請求の範囲に記載された発明を説明するための一例に過ぎず、上述した実施の形態の記載又は図面の開示によって特許請求の範囲に記載された発明が限定されることはない。また出願当初の請求項を適宜拡張することもできる。 The description of the embodiments described above and the disclosure of the drawings are merely examples for explaining the invention described in the claims, and the description of the embodiments and the disclosure of the drawings described above are only examples for explaining the invention described in the claims. The invented invention is not limited. In addition, the original claims may be expanded as appropriate.

10 評価部
70 出力部
200 端末
300 取得部
340 重量計
410 身長計
10 Evaluation section 70 Output section 200 Terminal 300 Acquisition section 340 Weight scale 410 Height scale

Claims (11)

対象者が食べた食事の量を重量によって取得する計量部、又は対象者が食べた食事の量を静止画もしくは動画で取得する第一撮像部を有する取得部と、
複数のテスト対象者の食べた食事の量と、前記複数のテスト対象者に対する介護の必要性又は心身の状態に関する評価結果とを学習データとして機械学習によって生成された評価モデルに、前記計量部又は前記第一撮像部によって取得された、対象者の食べた食事の量に関する情報を適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行う評価部と、
評価部での評価結果を出力する出力部と、
を備える、情報処理システム。
an acquisition unit having a measuring unit that acquires the amount of food eaten by the subject based on weight, or a first imaging unit that acquires the amount of food eaten by the subject as a still image or a video;
The measuring unit or an evaluation unit that performs an evaluation regarding the need for nursing care or the mental and physical condition of the subject by applying information regarding the amount of food eaten by the subject acquired by the first imaging unit ;
an output unit that outputs the evaluation results from the evaluation unit;
An information processing system comprising:
前記取得部は対象者を入力によって特定できる端末を有し、
前記評価部での評価結果と前記端末によって特定される対象者とを関連付けて記憶する記憶部が設けられる、請求項1に記載の情報処理システム。
The acquisition unit has a terminal that can identify the target person by input,
The information processing system according to claim 1, further comprising a storage unit that associates and stores the evaluation result by the evaluation unit and the target person specified by the terminal.
前記取得部は対象者の動作を動画で取得する第二撮像部を有し、
前記評価部は、複数のテスト対象者の食べた食事の量及び複数のテスト対象者の動作に関する情報と、複数のテスト対象者に対する介護の必要性又は心身の状態に関する評価結果とを学習データとして機械学習によって生成された評価モデルに、対象者の食べた食事の量に関する情報に加え、前記第二撮像部で取得された対象者の動作に関する情報を適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行う、請求項1又は2に記載の情報処理システム。
The acquisition unit includes a second imaging unit that acquires the motion of the subject in a moving image,
The evaluation unit uses, as learning data, information regarding the amount of food eaten by the plurality of test subjects and the movements of the plurality of test subjects, and evaluation results regarding the need for nursing care or the mental and physical condition of the plurality of test subjects. By applying information on the subject's movements acquired by the second imaging unit in addition to information on the amount of food eaten by the subject to the evaluation model generated by machine learning, the need for nursing care for the subject can be determined. The information processing system according to claim 1 or 2, wherein the information processing system performs an evaluation regarding sexual or mental and physical conditions.
前記取得部は対象者の動作を動画で取得する第二撮像部を有し、
対象者が所持する又は対象者に取り付けられた位置特定部材から対象者の位置情報を特定することで、前記第二撮像部で撮影されている対象者を特定する特定部を備える、請求項1又は2に記載の情報処理システム。
The acquisition unit includes a second imaging unit that acquires the motion of the subject in a moving image,
Claim comprising: a specifying unit that specifies the subject being imaged by the second imaging unit by specifying location information of the subject from a position specifying member owned by the subject or attached to the subject. 2. The information processing system according to 1 or 2.
特定部による特定結果を担当者が承認することで対象者の特定が正式に行われる、請求項4に記載の情報処理システム。 5. The information processing system according to claim 4, wherein the target person is formally identified by the person in charge approving the identification result by the identifying unit. 前記評価部は、複数のテスト対象者の食べた食事の量及び複数のテスト対象者の位置情報、移動距離又は歩行速度と、複数のテスト対象者に対する介護の必要性又は心身の状態に関する評価結果とを学習データとして機械学習によって生成された評価モデルに、対象者の食べた食事の量に関する情報に加え、前記位置特定部材を用いて前記特定部によって得られる対象者の位置情報、移動距離又は歩行速度を適用することで当該対象者に対する介護の必要性又は心身の状態に関する評価を行う、請求項に記載の情報処理システム。 The evaluation unit evaluates the amount of food eaten by the plurality of test subjects, the location information, moving distance or walking speed of the plurality of test subjects, and the evaluation results regarding the need for nursing care or mental and physical condition of the plurality of test subjects. In addition to information about the amount of food eaten by the subject, the subject's location information, movement distance, or movement distance obtained by the identification unit using the location identification member is added to the evaluation model generated by machine learning using learning data. 5. The information processing system according to claim 4 , which evaluates the need for nursing care or the mental and physical condition of the subject by applying walking speed. 前記取得部は、対象者の体重を測定する重量計又は対象者の身長を測定する身長計を有し、
前記評価部は、複数のテスト対象者の食べた食事の量及び複数のテスト対象者の体重又は身長と、複数のテスト対象者に対する介護の必要性又は心身の状態に関する評価結果とを学習データとして機械学習によって生成された評価モデルに、対象者の食べた食事の量に関する情報に加え、対象者の体重又は身長に関する情報を適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行う、請求項1又は2に記載の情報処理システム。
The acquisition unit has a weight scale for measuring the weight of the subject or a height scale for measuring the height of the subject,
The evaluation unit uses, as learning data, the amount of food eaten by the plurality of test subjects, the weight or height of the plurality of test subjects, and the evaluation results regarding the need for nursing care or the mental and physical condition of the plurality of test subjects. By applying information on the subject's weight or height in addition to information on the amount of food eaten by the subject to an evaluation model generated by machine learning, it is possible to evaluate the subject's need for care or their mental and physical condition. The information processing system according to claim 1 or 2, wherein the information processing system performs the following.
前記評価部は、センサから得られた数字情報又は手入力された情報を前記評価モデルに適用することで、対象者に対する介護の必要性又は心身の状態に関する評価を行う、請求項1又は2に記載の情報処理システム。 The method according to claim 1 or 2, wherein the evaluation unit evaluates the need for nursing care or the mental and physical condition of the subject by applying numerical information obtained from a sensor or manually input information to the evaluation model. The information processing system described. 出力部は、評価部による評価結果を用いて科学的介護情報システムであるLIFEのデータベースに自動で登録する、請求項1又は2に記載の情報処理システム。 3. The information processing system according to claim 1, wherein the output unit automatically registers the results of the evaluation by the evaluation unit into a database of LIFE , which is a scientific nursing care information system . 計量部によって対象者が食べた食事の量を重量によって取得する、又は第一撮像部によって対象者が食べた食事の量を静止画もしくは動画で取得する工程と、
複数のテスト対象者の食べた食事の量と、前記複数のテスト対象者に対する介護の必要性又は心身の状態に関する評価結果とを学習データとして機械学習によって生成された評価モデルに、前記計量部又は前記第一撮像部によって取得された、対象者の食べた食事の量に関する情報を適用することで対象者に対する介護の必要性又は心身の状態に関する評価を行う工程と、
出力部が評価部による評価結果を出力する工程と、
を備える、情報処理方法。
A step of obtaining the amount of food eaten by the subject by weight using a measuring unit, or obtaining the amount of food eaten by the subject in a still image or video using a first imaging unit;
The measuring unit or A step of evaluating the need for nursing care or the mental and physical condition of the subject by applying information regarding the amount of food eaten by the subject acquired by the first imaging unit ;
a step in which the output unit outputs the evaluation result by the evaluation unit;
An information processing method comprising:
情報処理装置にインストールされるプログラムであって、
前記プログラムがインストールされた情報処理装置に、
複数のテスト対象者の食べた食事の量と、前記複数のテスト対象者に対する介護の必要性又は心身の状態に関する評価結果とを学習データとして機械学習によって生成された評価モデルに、計量部によって取得された対象者が食べた食事の量、又は第一撮像部によって静止画もしくは動画で取得された対象者の食べた食事の量に関する情報を適用することで対象者に対する介護の必要性又は心身の状態に関する評価を行う評価機能と、
評価機能による評価結果を出力する出力機能と、
を実現させるプログラム。
A program installed on an information processing device,
The information processing device in which the program is installed,
The amount of food eaten by the plurality of test subjects and the evaluation results regarding the need for nursing care or the mental and physical condition of the plurality of test subjects are used as learning data to create an evaluation model generated by machine learning, and are acquired by the measuring unit. By applying information about the amount of food eaten by the subject, or information about the amount of food eaten by the subject captured in still images or videos by the first imaging unit, it is possible to determine the need for nursing care or the physical and mental health of the subject. An evaluation function that performs evaluation regarding the condition,
an output function that outputs the evaluation results by the evaluation function;
A program that makes this possible.
JP2022068690A 2022-04-19 2022-04-19 Information processing system, information processing device, information processing method and program Active JP7377910B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022068690A JP7377910B2 (en) 2022-04-19 2022-04-19 Information processing system, information processing device, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022068690A JP7377910B2 (en) 2022-04-19 2022-04-19 Information processing system, information processing device, information processing method and program

Publications (2)

Publication Number Publication Date
JP2023158734A JP2023158734A (en) 2023-10-31
JP7377910B2 true JP7377910B2 (en) 2023-11-10

Family

ID=88513861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022068690A Active JP7377910B2 (en) 2022-04-19 2022-04-19 Information processing system, information processing device, information processing method and program

Country Status (1)

Country Link
JP (1) JP7377910B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250004A (en) 1999-12-27 2001-09-14 Nissetsu Engineering Co Ltd Method and system for authorizing care requirement, recording medium, and portable terminal control equipment
JP2019204419A (en) 2018-05-25 2019-11-28 東京瓦斯株式会社 System, method, and program for certifying long-term care need
WO2021044696A1 (en) 2019-09-06 2021-03-11 Necソリューションイノベータ株式会社 Device for estimating nutritional intake amount, health management assistance device, method for estimating nutritional intake amount, health management assistance method, program, and system for estimating nutritional intake amount

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001250004A (en) 1999-12-27 2001-09-14 Nissetsu Engineering Co Ltd Method and system for authorizing care requirement, recording medium, and portable terminal control equipment
JP2019204419A (en) 2018-05-25 2019-11-28 東京瓦斯株式会社 System, method, and program for certifying long-term care need
WO2021044696A1 (en) 2019-09-06 2021-03-11 Necソリューションイノベータ株式会社 Device for estimating nutritional intake amount, health management assistance device, method for estimating nutritional intake amount, health management assistance method, program, and system for estimating nutritional intake amount

Also Published As

Publication number Publication date
JP2023158734A (en) 2023-10-31

Similar Documents

Publication Publication Date Title
JP6566409B1 (en) Information processing apparatus, program, and information processing method
CN110504010A (en) Intelligent diagnosis and treatment management method, system and the intelligent clinic using it
KR102439807B1 (en) Method and system for management of dementia patient
US20060183980A1 (en) Mental and physical health status monitoring, analyze and automatic follow up methods and its application on clothing
CN108348163A (en) System and method designed for the mobile platform that digital health management and remote patient monitoring are supported
CN103167831B (en) Anxiety is monitored
CN110832602B (en) Device for judging health state by using software and health state judging method
EP2219515A1 (en) Method and system for providing remote healthcare
Banerjee et al. Validating a commercial device for continuous activity measurement in the older adult population for dementia management
TW201019894A (en) Smart-type hospital bed system
CN111588384A (en) Method, device and equipment for obtaining blood sugar detection result
CN111065316A (en) Biological state management device and biological state management method
JP2019058227A (en) IoT measuring instrument, health SNS platform, and health service system
TWI430201B (en) Integrated managing system for human body condition and managing method for the same
JP2007072732A (en) Health design system
JP7377910B2 (en) Information processing system, information processing device, information processing method and program
WO2021140670A1 (en) Information transmission device and information transmission method
TWI321285B (en)
Keill Validity of wearable fitness trackers on sleep measure
Caprani et al. Exploring healthcare professionals' preferences for visualising sensor data
JP2022011919A (en) Biological information providing device, biological information providing method, and biological information providing program
JP6858616B2 (en) Biometric information management system, biometric information management device, and biometric information management method
Martillano et al. Wearable Tool for Breathing Pattern Recognition and Exacerbation Monitoring for COPD Patients via a Device-to-Cloud Communication Model.
Takahashi et al. A system for collecting motion data on patients’ activities of daily living
Prückner et al. Emergency monitoring and prevention-eu project emerge

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20220519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231003

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R150 Certificate of patent or registration of utility model

Ref document number: 7377910

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150