JP6968458B2 - 機能改善支援システム、および機能改善支援装置 - Google Patents

機能改善支援システム、および機能改善支援装置 Download PDF

Info

Publication number
JP6968458B2
JP6968458B2 JP2020116283A JP2020116283A JP6968458B2 JP 6968458 B2 JP6968458 B2 JP 6968458B2 JP 2020116283 A JP2020116283 A JP 2020116283A JP 2020116283 A JP2020116283 A JP 2020116283A JP 6968458 B2 JP6968458 B2 JP 6968458B2
Authority
JP
Japan
Prior art keywords
exercise program
image data
target user
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2020116283A
Other languages
English (en)
Other versions
JP2021026768A (ja
JP2021026768A5 (ja
Inventor
豪一 竹内
Original Assignee
株式会社元気広場
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=74664781&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP6968458(B2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Priority claimed from JP2019146110A external-priority patent/JP6775757B1/ja
Application filed by 株式会社元気広場 filed Critical 株式会社元気広場
Priority to JP2020116283A priority Critical patent/JP6968458B2/ja
Publication of JP2021026768A publication Critical patent/JP2021026768A/ja
Priority to JP2021059538A priority patent/JP2021101377A/ja
Publication of JP2021026768A5 publication Critical patent/JP2021026768A5/ja
Application granted granted Critical
Publication of JP6968458B2 publication Critical patent/JP6968458B2/ja
Ceased legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、対象ユーザの機能の改善を支援する機能改善支援システム、機能改善支援装置および端末装置に関する。
近年、高齢化が急速に進展し、高齢者を含む要介護者が増加している。このため、要介護者の増加の抑制、または要介護者を減少させる施策が必要となっている。
上記施策の一例として、例えば、特許文献1には、認知症の要介護者に対して、ゲームを行ってもらうことにより認知機能の改善を行う認知症介護支援システムが示されている。
また、特許文献2には、要介護者にエクササイズプログラムを提供し、当該プログラムに沿った動作を行ってもらうことにより、運動機能の改善を行うユーザ健康維持活性化支援及び見守りシステムが示されている。
特開2016−071897号公報 特開2010−140119号公報
しかし、要介護者の問題点は多岐にわたり、問題点を見つけ出したとしても、数多くある運動プログラムから最も効果的な運動プログラムを選択するのは、リハビリの専門職でなければ困難である。つまり、一般の介護職がこのような運動プログラムを選択するのは困難を極める。
特許文献1および2に記載のシステムにおいても、最適なゲームまたはエクササイズプログラムを選択することは困難であり、同様の問題が生じる。
本発明は、このような事情に鑑みてなされてものであり、要介護者などの対象ユーザの機能を効果的に改善するための運動プログラムを決定することのできる機能改善支援システム、機能改善支援装置および端末装置を提供することを目的とする。
(1)本発明のある局面に係る機能改善支援システムは、カメラを内蔵した端末装置と、所定の機能の改善を支援する機能改善支援装置とを備え、前記端末装置は、前記カメラにより対象ユーザを撮影することにより得られる、前記所定の機能に関連する画像データを前記機能改善支援装置に送信し、前記機能改善支援装置は、前記端末装置から前記画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記画像データから、前記所定の機能に関連する特徴量を抽出する特徴量抽出部と、学習済みモデルに基づいて、前記特徴量抽出部が抽出した前記特徴量から、前記所定の機能を改善するための運動プログラムを決定する運動プログラム決定部と、前記運動プログラム決定部が決定した前記運動プログラムの内容を示す情報を前記端末装置に提供する情報提供部とを備え、前記学習済みモデルは、複数のユーザについての前記所定の機能に関連する特徴量、および各ユーザが実行した運動プログラムを学習用データとして機械学習され、前記特徴量に対応する前記運動プログラムの識別情報を出力するモデルである。
この構成によると、端末装置に内蔵されたカメラで対象ユーザを撮影することにより、対象ユーザの画像データから所定の機能に関連する特徴量が抽出され、特徴量を学習済みモデルに入力することにより、当該対象ユーザの機能を改善するための運動プログラムを決定される。この学習済みモデルは、複数のユーザについての特徴量と、各ユーザが実行した運動プログラムを学習用データとして機械学習することにより得られたモデルである。このため、対象ユーザの特徴量を学習済みモデルに入力することにより、当該対象ユーザにとって改善度合いが最も高くなることが期待される運動プログラムが出力される。これにより、要介護者などの対象ユーザの機能を効果的に改善するための運動プログラムを決定することができる。また、リハビリの専門職以外の者(例えば、一般の介護職)であっても、カメラで対象ユーザを撮影するだけで、対象ユーザの運動プログラムを得ることができる。つまり、リハビリの専門職以外の者であっても、専門職と同等の基準で決定された運動プログラムを得ることができる。これにより、リハビリの専門職の不足を解消することもできる。
(2)好ましくは、前記所定の機能は、ユーザの動作に関連する機能であり、前記画像データは、所定の動作を行う前記対象ユーザを撮影することにより得られる動画像データを含み、前記特徴量抽出部は、前記所定の動作ができるか否かを判定するための1以上の動作の指標の各々について、前記動画像データから当該指標に関する評価を示す前記特徴量を抽出し、前記学習済みモデルは、複数のユーザについて、各ユーザの前記指標に関する評価を示す特徴量、および各ユーザが実行した運動プログラムを学習用データとして機械学習され、前記特徴量に対応する前記運動プログラムの識別情報を出力するモデルである。
この構成によると、端末装置に内蔵されたカメラで所定の動作を行う対象ユーザを撮影するだけで、当該動作ができるか否かを判定するための1以上の指標の評価が抽出されるとともに、所定の動作ができない対象ユーザに対し、当該動作を改善するための運動プログラムを決定することができる。例えば、起き上がりができない対象ユーザであっても、対象ユーザ間で起き上がりができない度合いに差がある。しかし、この構成では、起き上がりができない複数の対象ユーザに対して、同じ運動プログラムを提供するのではなく、対象ユーザごとの指標の評価の組み合わせに応じた最も効果的な運動プログラムを決定して、提供することができる。
(3)さらに好ましくは、前記特徴量抽出部は、前記動画像データに基づいて前記対象ユーザの関節位置を含む関節等位置を推定し、推定した前記関節等位置に基づいて各前記指標に関する評価を示す前記特徴量を抽出する。
この構成によると、距離画像センサなどの高価なセンサを用いなくとも、スマートフォンやタブレット端末などの端末装置に内蔵されたカメラで対象ユーザを撮影するだけで、所定の動作に関連する各指標に関する評価を抽出することができる。
(4)また、前記所定の機能は、ユーザの言語または口腔に関連する機能であり、前記画像データは、口、舌および下顎の少なくとも1つに関する所定の運動を行う前記対象ユーザを撮影することにより得られる画像データを含み、前記特徴量抽出部は、前記画像データから前記所定の運動に関する評価を前記特徴量として抽出し、前記学習済みモデルは、複数のユーザについて、各ユーザの前記所定の運動に関する評価を示す特徴量、ならびに各ユーザが実行した管理指導項目および運動プログラムを学習用データとして機械学習され、前記特徴量に対応する前記管理指導項目の識別情報および前記運動プログラムの識別情報を出力するモデルであってもよい。
この構成によると、端末装置に内蔵されたカメラで所定の運動を行う対象ユーザを撮影するだけで、当該運動に関する評価が抽出されるとともに、所定の運動ができていない対象ユーザに対する、当該運動を改善するための運動プログラムを決定することができる。これにより、例えば、構音障害または嚥下障害のある複数の対象ユーザに対して、同じ管理指導項目および運動プログラムを提供するのではなく、対象ユーザごとに最も効果的な管理指導項目および運動プログラムを決定して、提供することができる。
(5)また、前記端末装置は、さらに、マイクを内蔵し、前記端末装置は、前記対象ユーザが所定の音を発話した音声データを前記マイクを用いて取得し、取得した前記音声データを前記機能改善支援装置に送信し、前記機能改善支援装置は、さらに、前記端末装置から前記音声データを取得する音声データ取得部を備え、前記特徴量抽出部は、さらに、前記音声データ取得部が取得した前記音声データから前記所定の音の発話に関する評価を前記特徴量として抽出し、前記学習済みモデルは、複数のユーザについて、各ユーザの前記所定の運動に関する評価を示す特徴量および前記所定の音の発話に関する評価を示す特徴量、ならびに各ユーザが実行した管理指導項目および運動プログラムを学習用データとして機械学習され、前記特徴量に対応する前記管理指導項目の識別情報および前記運動プログラムの識別情報を出力するモデルであってもよい。
この構成によると、端末装置に内蔵されたマイクを用いて、対象ユーザが所定の音を発話した音声データを取得するだけで、当該発話に関する評価が抽出されるとともに、所定の音の発話ができていない対象ユーザに対する、当該発話を改善するための運動プログラムを決定することができる。これにより、例えば、発話障害のある複数の対象ユーザに対して、同じ管理指導項目および運動プログラムを提供するのではなく、対象ユーザごとに最も効果的な管理指導項目および運動プログラムを決定して、提供することができる。
(6)また、前記機能改善支援装置は、さらに、前記対象ユーザの言語または口腔の質問項目および検査項目に対する回答と、前記対象ユーザの言語または口腔の評価項目に対する口腔専門職による評価とを前記所定の機能に関連する特徴量として取得する特徴量取得部を備え、前記学習済みモデルは、複数のユーザについて、各ユーザの前記所定の運動に関する評価を示す特徴量、各ユーザの前記所定の音の発話に関する評価を示す特徴量、各ユーザの前記言語または口腔の質問項目および検査項目に対する回答を示す特徴量、口腔専門職による各ユーザの評価項目に対する評価を示す特徴量、ならびに各ユーザが実行した管理指導項目および運動プログラムを学習用データとして機械学習され、前記特徴量に対応する前記管理指導項目の識別情報および前記運動プログラムの識別情報を出力するモデルであり、前記運動プログラム決定部は、前記学習済みモデルに基づいて、前記特徴量抽出部が抽出した前記特徴量および前記特徴量取得部が取得した前記特徴量から、前記所定の機能を改善するための管理指導項目および運動プログラムを決定してもよい。
この構成によると、対象ユーザの言語または口腔の質問項目および検査項目に対する回答と、口腔専門職による対象ユーザの評価が取得され、取得された回答および評価を学習済みモデルに入力することにより、当該対象ユーザの言語または口腔に関連する機能を改善するための管理指導項目および運動プログラムを決定することができる。これにより、例えば、構音障害または嚥下障害のある複数の対象ユーザに対して、同じ管理指導項目および運動プログラムを提供するのではなく、対象ユーザごとに最も効果的な管理指導項目および運動プログラムを決定して、提供することができる。
(7)また、前記機能改善支援装置は、さらに、前記学習済みモデルを機械学習する機械学習部を備え、前記機械学習部は、さらに、前記運動プログラム決定部が決定した前記運動プログラムを実行した前記対象ユーザの前記特徴量、および当該運動プログラムの識別情報を学習用データとして前記学習済みモデルを機械学習してもよい。
この構成によると、対象ユーザの特徴量と、対象ユーザに対して提供した運動プログラムとを学習用データとして、学習済みモデルを再学習することができる。これにより、他の対象ユーザに対して、さらに、改善度合いの高い効果的な運動プログラムを決定して、提供することができる。
(8)本発明の他の局面に係る機能改善支援装置は、端末装置から、前記端末装置に内蔵されたカメラにより対象ユーザを撮影することにより得られる、前記対象ユーザの所定の機能に関連する画像データを取得する画像データ取得部と、前記画像データ取得部が取得した前記画像データから、前記所定の機能に関連する特徴量を抽出する特徴量抽出部と、学習済みモデルに基づいて、前記特徴量抽出部が抽出した前記特徴量から、前記所定の機能を改善するための運動プログラムを決定する運動プログラム決定部と、前記運動プログラムが決定した前記運動プログラムの内容を示す情報を前記端末装置に提供する情報提供部とを備え、前記学習済みモデルは、複数のユーザについての前記所定の機能に関連する特徴量、および各ユーザが実行した運動プログラムを学習用データとして機械学習され、前記特徴量に対応する前記運動プログラムの識別情報を出力するモデルである。
この構成によると、端末装置に内蔵されたカメラで対象ユーザを撮影することにより得られる画像データから、所定の機能に関連する特徴量が抽出され、特徴量を学習済みモデルに入力することにより、当該対象ユーザの機能を改善するための運動プログラムを決定される。この学習済みモデルは、複数のユーザについての特徴量と、各ユーザが実行した運動プログラムを学習用データとして機械学習することにより得られたモデルである。このため、対象ユーザの特徴量を学習済みモデルに入力することにより、当該対象ユーザにとって改善度合いが最も高くなることが期待される運動プログラムが出力される。これにより、要介護者などの対象ユーザの機能を効果的に改善するための運動プログラムを決定することができる。
(9)本発明の他の局面に係る端末装置は、カメラと、前記カメラにより対象ユーザを撮影することにより得られる、前記対象ユーザの所定の機能に関連する画像データを、請求項8に記載の機能改善支援装置に提供する画像データ提供部と、前記機能改善支援装置から、前記所定の機能を改善するための運動プログラムの内容を示す情報を取得する運動プログラム取得部と、前記運動プログラム取得部が取得した前記情報に基づいて、前記運動プログラムを提示する運動プログラム提示部とを備える。
この構成によると、上述の機能改善支援装置が決定した運動プログラムを提示することができる。このため、例えば、端末装置を利用する対象ユーザまたは対象ユーザの介護者は、最も効果的な運動プログラムに基づいた機能改善のための訓練を実行することができる。
本発明によると、要介護者などの対象ユーザの機能を効果的に改善することができる。
本発明の実施の形態1に係る機能改善支援システムの構成を示す図である。 端末装置の構成を示すブロック図である。 機能改善支援装置の構成を示すブロック図である。 記憶部に記憶されているユーザ情報の一例を示す図である。 機能改善支援システムの処理手順の一例を示すシーケンス図である。 個人情報入力画面の一例を示す図である。 バイタルチェック画面の一例を示す図である。 動作解析メニュー画面の一例を示す図である。 撮影画面の一例を示す図である。 運動説明画面の一例を示す図である。 解析結果画面の一例を示す図である。 機能改善支援装置の処理手順の一例を示すフローチャートである。 機能改善支援装置の構成を示すブロック図である。 記憶部に記憶されているユーザ情報の一例を示す図である。 端末装置の構成を示すブロック図である。 機能改善支援システムの処理手順を示すシーケンス図である。 機能改善支援システムの処理手順を示すシーケンス図である。 メニュー画面の一例を示す図である。 口腔機能検査画面の一例を示す図である。 口腔機能検査画面の一例を示す図である。 噛む力検査画面の一例を示す図である。 噛む力検査結果画面の一例を示す図である。 反復唾液嚥下検査画面の一例を示す図である。 口腔衛生検査画面の一例を示す図である。 撮影画面の一例を示す図である。 第1録音画面の一例を示す図である。 第2録音画面の一例を示す図である。 解析画面の一例を示す図である。 運動説明画面の一例を示す図である。 管理指導計画の一例を示す図である。 図17のステップS61で表示される解析画面の他の一例を示す図である。 図17のステップS61で表示される解析画面の他の一例を示す図である。 図17のステップS61で表示される解析画面の他の一例を示す図である。 図17のステップS61で表示される解析画面の他の一例を示す図である。 図17のステップS61で表示される解析画面の他の一例を示す図である。 図17のステップS61で表示される解析画面の他の一例を示す図である。
[実施の形態1]
<機能改善支援システムの構成>
図1は、本発明の実施の形態1に係る機能改善支援システムの構成を示す図である。実施の形態1で改善支援の対象とする機能とは、ユーザの動作に関連する機能である。
機能改善支援システム1は、要介護者などの対象ユーザ50の機能を改善するためのシステムであり、機能改善支援装置20と、端末装置40とを備える。
端末装置40は、例えば、対象ユーザ50または対象ユーザ50の介護者などの操作者が利用するタブレット端末、スマートフォンまたはノートパソコンなどの表示画面を備えるコンピュータ装置である。端末装置40には、2次元画像を撮影可能なカメラが内蔵されているものとする。特に、カメラは2次元の動画像を撮影可能であるものとする。例えば、対象ユーザ50の機能改善の手助けを行う介護者、介助者または介護福祉士などが、端末装置40を操作する。ただし、対象ユーザ50自身が端末装置40を操作してもよい。
また、端末装置40は、無線によりデータを送信する通信機能を有する。端末装置40は、無線通信によりネットワーク2を介して機能改善支援装置20との間でデータの送受信を行うことができる。例えば、端末装置40は、内蔵カメラにより取得された対象ユーザ50の画像データを、無線通信によりネットワーク2を介して機能改善支援装置20に送信する。また、端末装置40は、介護者等がタッチパネルやキーボード等を操作して入力したデータ(例えば、対象ユーザ50の個人情報)を機能改善支援装置20に送信する。さらに、端末装置40は、機能改善支援装置20から、対象ユーザ50の機能改善のための運動プログラムの内容を示す情報(例えば、運動プログラムの映像データ)を受信する。端末装置40は、受信した情報に従って、運動プログラムを端末装置40の表示画面に表示する。
機能改善支援装置20は、有線または無線によりネットワーク2に接続され、ネットワーク2を介して端末装置40と接続される。機能改善支援装置20は、端末装置40から、介護者等が入力したデータを受信する。また、機能改善支援装置20は、端末装置40から、対象ユーザ50の画像データを受信する。機能改善支援装置20は、受信した画像データに基づいて、対象ユーザ50が所定の動作ができているか否かを判定するための1以上の指標の評価を示す特徴量を抽出する。機能改善支援装置20は、特徴量に基づいて、対象ユーザ50の動作を改善するための運動プログラムを決定する。機能改善支援装置20は、決定した運動プログラムの内容を示す情報を端末装置40に送信する。
ネットワーク2は、例えば、インターネットまたはLAN(Local Area Network)などである。
<端末装置40の構成>
図2は、端末装置40の構成を示すブロック図である。
端末装置40は、通信部41と、カメラ42と、画像データ提供部43と、運動プログラム取得部44と、表示部45と、入力部46とを備える。端末装置40は、具体的には、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、通信インタフェースなどを備えるタブレット端末、スマートフォンまたはノートパソコンなどにより構成される。例えば、HDDまたはROMに記憶されたコンピュータプログラムをRAMにロードし、CPU上で実行することにより、端末装置40の各処理部が機能的に実現される。ただし、各処理部の一部または全部が半導体装置などのハードウェアにより実現されていてもよい。
通信部41は、ネットワーク2に無線により接続され、ネットワーク2を介して機能改善支援装置20などの他の装置とデータの送受信を行う通信機である。
カメラ42は、被写体を撮影することにより、被写体の画像データを生成し、画像データ提供部43に出力する。例えば、カメラ42は、被写体として対象ユーザ50を撮影する。以下では、被写体を対象ユーザ50として説明を続ける。
画像データ提供部43は、カメラ42が生成した対象ユーザ50の画像データを、対象ユーザ50のユーザIDと対応付けて通信部41に出力し、通信部41がネットワーク2を介して画像データおよびユーザIDを機能改善支援装置20に送信する。
通信部41は、ネットワーク2を介して機能改善支援装置20から、対象ユーザ50の動作に関する機能を改善するための運動プログラムの内容を示す情報を受信し、運動プログラム取得部44に出力する。
運動プログラム取得部44は、通信部41を介して機能改善支援装置20から取得した情報に基づいて、運動プログラムを示す画像データを表示部45に出力する。
表示部45は、運動プログラムを提示する運動プログラム提示部として機能し、運動プログラムを示す画像データを表示する。なお、表示部45は、機能改善支援装置20がタブレット端末またはスマートフォンの場合にはタッチパネルであり、機能改善支援装置20がノートパソコンの場合にはディスプレイである。
入力部46は、対象ユーザ50の属性などのデータの入力を受け付け、受け付けたデータを通信部41に出力する。通信部41は、入力部46から受けたデータを、対象ユーザ50のユーザIDと対応付けて、ネットワーク2を介して機能改善支援装置20に送信する。なお、入力部46は、機能改善支援装置20がタブレット端末またはスマートフォンの場合にはタッチパネルであり、機能改善支援装置20がノートパソコンの場合にはキーボードやタッチパッドなどである。
<機能改善支援装置20の構成>
図3は、機能改善支援装置20の構成を示すブロック図である。
機能改善支援装置20は、通信部21と、入力データ取得部22と、画像データ取得部23と、特徴量抽出部24と、運動プログラム決定部25と、情報提供部26と、学習用データ取得部27と、機械学習部28と、記憶部29とを備える。
機能改善支援装置20は、CPU、ROM、RAM、HDD、通信インタフェースなどを備える一般的なコンピュータにより実現することができる。例えば、HDDまたはROMに記憶されたコンピュータプログラムをRAMにロードし、CPU上で実行することにより、機能改善支援装置20の各処理部が機能的に実現される。ただし、各処理部の一部または全部が半導体装置などのハードウェアにより実現されていてもよい。
通信部21は、ネットワーク2に有線または無線により接続され、ネットワーク2を介して端末装置40などの他の装置とデータの送受信を行う通信機である。
入力データ取得部22は、通信部21を介して対象ユーザ50の属性を取得し、記憶部29に記憶されているユーザ情報29aに登録する。属性には、例えば、対象ユーザ50の名前、年齢、性別、介護度、麻痺の有無などの情報が含まれる。
図4は、記憶部29に記憶されているユーザ情報29aの一例を示す図である。
ユーザ情報29aは、ユーザID、名前、年齢、性別、介護度、麻痺の有無、動作、画像データ、指標(不十分)および運動プログラム名を含む。
例えば、入力データ取得部22は、ユーザID「u1」の対象ユーザ50の名前が「AA」、年齢が「81」歳、性別が「男」、介護度が「介1」(介護度1)、麻痺の有無が「両」(両方)であることを、ユーザ情報29aに登録する。入力データ取得部22は、ユーザID「u2」および「u3」などの他の対象ユーザ50の属性情報についても同様にユーザ情報29aに登録する。
再び図3を参照して、画像データ取得部23は、通信部21を介して対象ユーザ50の動画像データを取得する。画像データ取得部23は、取得した動画像データを記憶部29に記憶されているユーザ情報29aに登録する。なお、本開示において画像データとは、静止画像データで、動画像データ、動画像データを構成する各画像データのいずれを指すものとする。
図4を参照して、例えば、ユーザ情報29aには、後述する動作ごとに動画像データが登録される。例えば、ユーザID「u1」の対象ユーザ50の動作「寝起き・起き上がり」に対して動画像データ「v1」が登録され、同じ対象ユーザ50の動作「立ち上がり」に対して動画像データ「v2」が登録される。
再び図3を参照して、特徴量抽出部24は、画像データ取得部23から、画像データ取得部23が取得した動画像データを受け、動画像データから所定の機能に関連する特徴量を抽出する。所定の機能とは、ユーザの動作に関連する機能であり、例えば、「寝返り・起き上がり」、「立ち上がり」、「着座」、「しゃがみ込み」、「側方跨ぎ」、「片脚立位保持」、「座位保持」、「両脚立位保持」、「歩行(1周期)」の9項目が含まれるものとする。
特徴量抽出部24は、9つの各動作について、動作ができているか否かを判定するための1以上の動作の指標を評価し、評価の結果を特徴量とする。例えば、動作「寝返り・起き上がり」を判定するための指標には「頸部屈曲」、「肩甲帯前方突出&リーチ」、「体軸内回旋」、「体幹拳上」と呼ばれる4つの指標が存在する。また、動作「立ち上がり」を判定するための指標には「体幹前傾」、「円滑な体幹前傾」、「体幹と下肢の協調的な進展」と呼ばれる3つの指標が存在する。各指標の評価は、例えば、「十分」および「不十分」の2段階とする。
具体的には、特徴量抽出部24は、各動作を対象ユーザ50が実際に行った動画像データに基づいて、対象ユーザ50の関節位置を含む関節等位置を推定し、関節等位置の動きを推定する。ここで、関節等位置は、関節位置を含む。なお、関節等位置は、関節位置の他、鼻の位置、頭の位置、胸骨の位置等の対象ユーザ50の骨格を規定する位置を含んでいてもよい。関節等位置の推定には、ディープニューラルネットワークなどにより構成される学習済みモデル29bを使用する。この学習済みモデル29bは、画像データと関節等位置との組を学習データとして、ディープニューラルネットワークのパラメータを、ディープラーニングにより機械学習することにより得られる。これにより、画像データを入力とし、関節等位置を出力する学習済みモデル29bが得られる。学習済みモデル29bは、事前に記憶部29に記憶されているものとする。特徴量抽出部24は、記憶部29から学習済みモデル29bを読み出し、読み出した学習済みモデル29bに対象ユーザ50の動画像データを入力することにより、対象ユーザ50の最も確率の高い関節等位置を、動画像データごと、または動画像データを構成する画像データごとに推定する。なお、特徴抽出部24は、さらに、上記動画像データに基づいて、対象ユーザ50の関節等位置を結ぶ補助線の動きを推定してもよい。
次に、特徴量抽出部24は、推定した関節等位置の動きに基づいて、対象ユーザ50の各指標の評価を行う。指標の評価には、ディープニューラルネットワークなどにより構成される学習済みモデル29cを使用する。この学習済みモデル29cは、関節等位置の動き(動画像データを構成する各画像データにおける関節等位置)と、画像データごとの指標の評価(十分、不十分)との組を学習データとして、ディープニューラルネットワークのパラメータを、ディープラーニングにより機械学習することにより得られる。これにより、関節等位置の動きを入力として、指標の評価を出力する学習済みモデル29cが得られる。学習済みモデル29cは、事前に記憶部29に記憶されているものとする。特徴量抽出部24は、記憶部29から学習済みモデル29cを読み出し、読み出した学習済みモデル29cに、推定した関節等位置の動きを入力することにより、対象ユーザ50の各指標について、最も確率の高い評価を得る。
特徴量抽出部24は、各指標の評価をユーザ情報29aに登録する。図4を参照して、「指標(不十分)」の欄には、不十分と評価された指標名が登録される。例えば、ユーザID「u1」の対象ユーザ50の動作「寝返り・起き上がり」については、指標「頸部屈曲」および「体軸内回旋」が不十分と評価されたことが示されている。言い換えれば、動作「寝返り・起き上がり」のその他の指標「肩甲帯前方突出&リーチ」および「体幹挙上」については十分と評価されたことを示している。なお、ユーザ情報29aには、指標ごとの評価(十分、不十分)が登録されていてもよい。
再び図3を参照して、運動プログラム決定部25は、特徴量抽出部24から特徴量(ここでは、各指標に関する評価)を受け、特徴量から、所定の機能(ここでは、動作)を改善するための運動プログラムを決定する。運動プログラムの決定には、ディープニューラルネットワークなどにより構成される学習済みモデル29dを使用する。この学習済みモデル29dは、ユーザの属性と、各動作を判定するための1以上の指標の評価と、リハビリの専門職が選定した運動プログラムの識別情報との組を学習データとして、ディープニューラルネットワークのパラメータをディープラーニングにより機械学習することにより得られる。つまり、学習済みモデル29dは、動作ごとに用意される。これにより、動作ごとに、動作を判定するための1以上の指標の評価を入力として、運動プログラムの識別情報を出力する学習済みモデル29dが得られる。また、学習済みモデル29dは、事前に記憶部29に記憶されているものとする。特徴量抽出部24は、記憶部29から対象とする動作の学習済みモデル29dを読み出し、読み出した学習済みモデル29dに、対象ユーザ50の属性と、指標に関する評価とを入力することにより、最も確率の高い、動作を改善するための運動プログラムの識別情報を得る。
例えば、運動プログラム決定部25は、対象ユーザ50の属性と、動作「寝返り・起き上がり」を評価するための4つの指標「頸部屈曲」、「肩甲帯前方突出&リーチ」、「体軸内回旋」および「体幹拳上」の評価を、動作「寝返り・起き上がり」用の学習済みモデル29dに入力する。その後、運動プログラム決定部25は、学習済みモデル29dから、動作「寝返り・起き上がり」を改善するための最も確率の高い運動プログラム識別情報(例えば、運動プログラム名)を得る。運動プログラム決定部25は、決定した運動プログラムの識別情報を情報提供部26に出力する。運動プログラム決定部25は、他の動作についても同様に運動プログラムを決定する。
情報提供部26は、運動プログラム決定部25が決定した運動プログラムの内容を示す情報を、通信部21を介して端末装置40に送信する。例えば、運動プログラム決定部25が決定した運動プログラムを解説するための動画像データを記憶部29から読み出し、読み出した動画像データを、通信部21を介して端末装置40に送信する。
また、情報提供部26は、決定した運動プログラム名をユーザ情報29aに登録する。図4を参照して、例えば、ユーザID「u1」の対象ユーザ50の動作「寝返り・起き上がり」の運動プログラム名「p1」〜「p4」がユーザ情報29aに登録される。また、同じ対象ユーザ50の動作「立ち上がり」の運動プログラム名「p5」がユーザ情報29aに登録される。他の対象ユーザ50についても同様に動作および運動プログラム名の組がユーザ情報29aに登録される。
学習用データ取得部27は、学習済みモデル29dを再学習するための学習用データを取得する。具体的には、学習用データ取得部27は、記憶部29からユーザ情報29aを読み出す。
例えば、学習用データ取得部27は、図4に示したユーザID「u1」の対象ユーザ50についてのユーザ情報を、学習用データとして取得する。学習用データ取得部27は、ユーザID「u2」および「u3」等の他の対象ユーザ50についても同様に、ユーザ情報を学習用データとして取得する。
機械学習部28は、学習用データ取得部27が取得した学習用データに基づいて、学習済みモデル29dのパラメータをさらにディープラーニングにより機械学習することにより、学習済みモデル29dを更新してもよい。
<機能改善支援システム1の処理手順>
次に、機能改善支援システム1の処理手順の一例について説明する。
図5は、機能改善支援システム1の処理手順の一例を示すシーケンス図である。
端末装置40の表示部45は、個人情報入力画面を表示する(S1)。図6は、個人情報入力画面の一例を示す図である。個人情報入力画面を表示するための情報は、端末装置40の記憶部に事前に登録されていてもよいし、通信部41が機能改善支援装置20から取得し、表示部45が表示するようにしてもよい。なお、以降に説明する画面を表示部45に表示するための情報についても同様である。
図6を参照して、個人情報入力画面には、ID入力欄61と、OKボタン62と、名前入力欄63と、誕生日入力欄64と、年齢表示欄65と、性別選択ボタン66と、介護度選択ボタン67と、麻痺有無選択ボタン68と、ID新規作成ボタン69と、ID表示欄70と、OK/登録ボタン71とが表示される。なお、図6に示す入力欄、表示欄、ボタン等は一例であり、その種類や個数は図6に示したものに限定されるものではない。また、図6に示す個人情報入力画面が、例えば、表示部45の複数画面に亘って表示されてもよい。
ID新規作成ボタン69を押すことにより、機能改善支援装置20との間でやり取りが行われ、ユニークなユーザIDが割り振られる。通信部41は、ユーザIDを機能改善支援装置20から受け、表示部45は、そのユーザIDをID表示欄70に表示する。
名前入力欄63は、対象ユーザ50の名前を入力する欄である。
誕生日入力欄64は、対象ユーザ50の誕生日を入力する欄である。
年齢表示欄65は、誕生日入力欄64に入力された誕生日から算出される年齢を表示する欄である。
2つの性別選択ボタン66は、対象ユーザ50の性別を選択するためのボタンである。
8つの介護度選択ボタン67は、対象ユーザ50の介護度を選択するためのボタンである。「支1」、「支2」、「介1」、「介2」、「介3」、「介4」、「介5」、「非」は、それぞれ、要支援1、要支援2、介護度(要介護)1、介護度(要介護)2、介護度(要介護)3、介護度(要介護)4、介護度(要介護)5、介護不要を示す。
4つの麻痺有無選択ボタン68は、対象ユーザ50の麻痺の有無を選択するためのボタンである。「右」、「左」、「両」、「無」は、それぞれ、右側に麻痺有り、左側に麻痺有り、両側に麻痺有り、麻痺無しを示す。
OK/登録ボタン71は、個人情報を機能改善支援装置20に登録するためのボタンである。
操作者は、入力部46を操作して、ID新規作成ボタン69を押し、名前入力欄63、誕生日入力欄64、介護度選択ボタン67および麻痺有無選択ボタン68を用いて個人情報(属性情報)を入力し、OK/登録ボタン71を押すことにより、対象ユーザ50の属性を入力する(S2)。
入力部46は、入力された対象ユーザ50の属性を、通信部41を介して機能改善支援装置20に送信する(S3)。
なお、2回目以降の処理において、操作者は、ID入力欄61にユーザIDを入力し、OKボタン62を押すことにより、対象ユーザ50の名前、年齢、性別、介護度および麻痺の有無が自動入力される。
機能改善支援装置20の入力データ取得部22は、端末装置40から送信された対象ユーザ50の属性を受信し、ユーザ情報29aに登録する(S4)。
次に、表示部45は、バイタルチェック画面を表示する(S5)。図7は、バイタルチェック画面の一例を示す図である。バイタルチェック画面には、5つのバイタルチェックの質問と、その質問に対するそれぞれ2つの組からなる回答ボタン81〜85と、OKボタン86とが表示されている。なお、質問の個数は5つに限定されるものではなく、4つ以下であってもよいし、6つ以上であってもよい。
操作者は、入力部46を操作して、回答ボタン81〜85を押し、最後にOKボタンを押すことにより、5つの質問に回答する(S6)。
すべての回答が「はい」の場合には、表示部45は、動作解析メニュー画面を表示する(S7)。図8は、動作解析メニュー画面の一例を示す図である。動作解析メニュー画面には、解析対象の9つの動作(「寝返り・起き上がり」、「立ち上がり」、「着座」、「しゃがみ込み」、「側方跨ぎ」、「片脚立位保持」、「座位保持」、「両脚立位保持」、「歩行(1周期)」)が表示される。
操作者がいずれかの動作をタップすることにより選択すると(S8)、表示部45は、撮影画面を表示する(S9)。図9は、撮影画面の一例を示す図である。図9は、一例として「寝返り・起き上がり」動作についての撮影画面を示す。なお、他の動作についての撮影画面も同様である。撮影画面のカメラ映像領域91には、カメラ42で撮影中の動画像データが表示される。見本映像領域94は、正しい「寝返り・起き上がり」動作の見本映像が表示される。カメラ42は、対象ユーザ50が見本映像を真似して「寝返り・起き上がり」動作を行う画像を撮影する。なお、操作者は、スタートボタン92およびストップボタン93を押すことにより、撮影の開始および終了をそれぞれ指示する。
スタートボタン92が押された後にストップボタン93が押されると、画像データ提供部43は、スタートボタン92が押されてからストップボタン93が押されるまでの間に撮影された対象ユーザ50の動画像データを、ユーザIDおよび動作の識別情報とともに、通信部41を介して機能改善支援装置20に送信する(S10)。
機能改善支援装置20の画像データ取得部23は、端末装置40から送信された動画像データ、ユーザIDおよび動作の識別情報を受信し、動画像データをユーザIDおよび動作の識別情報と対応付けてユーザ情報29aに登録する(S11)。例えば、画像データ取得部23は、ユーザID「u1」の動作「寝起き・起き上がり」の動画像データ「v1」を受信した場合には、図4に示すように、ユーザID「v1」の動作「寝起き・立ち上がり」に対応させて、動画像データ「v1」をユーザ情報29aに登録する。画像データ取得部23は、端末装置40から受信したデータを特徴量抽出部24に出力する。
特徴量抽出部24は、画像データ取得部23から受けた動画像データと、学習済みモデル29bとに基づいて、対象ユーザ50の関節等位置を推定する(S12)。これにより、特徴量抽出部24は、関節等位置の動きを推定することができる。
特徴量抽出部24は、推定した関節等位置の動きと、画像データ取得部23から受けた動作の識別情報と、学習済みモデル29cとに基づいて、対象ユーザ50の上記動作についての各指標の評価を行う(S13)。なお、特徴量抽出部24は、各指標の評価をユーザ情報29aに登録する。例えば、ユーザID「u1」の動作「寝起き・起き上がり」の動画像データ「v1」から推定された関節等位置の動きに基づいて指標の評価を行った結果、指標「頸部屈曲」および「体軸内回旋」が不十分と評価された場合には、図4に示すユーザ情報29aの「指標(不十分)」の欄に、「頸部屈曲」および「体軸内回旋」が登録される。特徴量抽出部24は、ユーザIDと、動作の識別情報と、その動作についての各指標の評価とを運動プログラム決定部25に出力する。
運動プログラム決定部25は、記憶部29から、動作の識別情報に対応した学習済みモデル29dを読み出す。また、運動プログラム決定部25は、特徴量抽出部24から受けたユーザIDに対応する対象ユーザ50の属性をユーザ情報29aから抽出する。運動プログラム決定部25は、抽出した対象ユーザ50の属性と、特徴量抽出部24から受けた各指標の評価と、読み出した学習済みモデル29dとに基づいて、対象ユーザ50の動作を改善するための運動プログラム名を決定する(S14)。なお、運動プログラム決定部25は、決定した運動プログラム名をユーザ情報29aに登録する。例えば、ユーザID「u1」の対象ユーザ50の属性および動作「寝返り・起き上がり」の指標の評価に基づいて決定した運動プログラム名「p1」〜「p4」が、ユーザ情報29aの運動プログラム名の欄に登録される。運動プログラム決定部25は、決定した運動プログラム名を情報提供部26に出力する。
情報提供部26は、解析対象の動作について決定された運動プログラム名を運動プログラム決定部25から受け、運動プログラム名に対応した運動プログラムの動画像データを記憶部29から読み出す。また、情報提供部26は、当該動作についての指標の評価をユーザ情報29aから読み出す。情報提供部26は、運動プログラム名と、運動プログラムの動画像データと、指標評価とを、通信部41を介して機能改善支援装置20に送信する(S15)。
運動プログラム取得部44は、運動プログラム名、運動プログラムの動画像データおよび指標評価を、通信部41を介して受信し、表示部45は、運動説明画面を表示する(S16)。図10は、運動説明画面の一例を示す図である。図10は、一例として「寝返り・起き上がり」動作についての運動説明画面を示す。表示部45は、運動説明画面の運動プログラム領域101に、運動プログラム取得部44が取得した運動プログラムの動画像データを表示する。なお、運動プログラムが複数ある場合には、そのうちの1つを選択して表示する。
運動説明画面の解析結果ボタン102が押されると、表示部45は、解析結果画面を表示する(S17)。図11は、解析結果画面の一例を示す図である。図11は、一例として「寝返り・起き上がり」動作についての解析結果画面を示す。表示部45は、解析結果画面のカメラ映像領域111に、カメラ42で撮影された画像データを表示する。つまり、カメラ映像領域111には、図9に示した撮影画面において撮影された画像データが表示される。また、表示部45は、カメラ映像領域111のステータス項目領域112に、機能改善支援装置20から受信した指標結果を表示する。ここでは、チェック印が付けられた指標「頸部屈曲」および「体軸内回旋」が不十分と評価されたことが示されている。また、表示部45は、運動プログラム欄113に、機能改善支援装置20から受信した運動プログラム名を表示する。ここでは、2つの運動プログラム名(頸部屈曲・体軸内回旋運動、および反復起き上がり運動)が表示されている。例えば、操作者が、2つの運動プログラムのうちのいずれかを選択すると、図10に示した運動説明画面が表示され、運動プログラム領域101に選択した運動プログラム名に対応した運動プログラムの動画像データが表示される。操作者は、このような操作を各運動プログラムに対して行う。また、表示部45は、解析結果画面に人体モデル114を表示する。人体モデル114には、不十分と評価された指標に対応する部位が視覚的に区別されて表示される。例えば、当該部位の筋肉が点滅または発光させてもよい。また、十分と評価された指標に対応する部位と、不十分と評価された指標に対応する部位とを色分けして表示してもよい。
<学習モード>
端末装置40は、学習済みモデル29dを再学習することも可能である。図12は、機能改善支援装置20の処理手順の一例を示すフローチャートである。
学習用データ取得部27は、特徴量抽出部24から、ユーザ情報29aを読み出す(S101)。
機械学習部28は、学習用データ取得部27が読み出したユーザ情報29aを学習用データとして、記憶部29に記憶されている学習済みモデル29dを再度機械学習する(S102)。たとえば、機械学習部28は、各ユーザの属性、動作、指標の結果、運動プログラム名を学習用データとして学習済みモデル29dを機械学習する。機械学習部28は、機械学習後の学習済みモデル29dを、記憶部29に上書きして登録する。なお、学習用データは、ユーザの属性と、リハビリの専門職が判定した各動作を判定するための1以上の指標の評価と、当該専門職が選定した運動プログラム名であってもよい。
このような学習モードの処理は、例えば、所定期間(例えば、1か月)ごとに行われる。
<実施の形態1の効果>
以上説明したように、本発明の実施の形態1によると、端末装置40に内蔵されたカメラ42で所定の動作を行う対象ユーザ50を撮影するだけで、当該動作ができるか否かを判定するための1以上の指標の評価が抽出されるとともに、所定の動作ができない対象ユーザ50に対し、当該動作を改善するための運動プログラムを決定することができる。例えば、起き上がりができない対象ユーザ50であっても、対象ユーザ間で起き上がりができない度合いに差がある。しかし、この構成では、起き上がりができない複数の対象ユーザ50に対して、同じ運動プログラムを提供するのではなく、対象ユーザ50ごとの指標の評価の組み合わせに応じた最も効果的な運動プログラムを決定して、提供することができる。また、リハビリの専門職以外の者(例えば、一般の介護職)であっても、カメラ42で対象ユーザ50を撮影するだけで、対象ユーザ50の運動プログラムを得ることができる。つまり、リハビリの専門職以外の者であっても、専門職と同等の基準で決定された運動プログラムを得ることができる。これにより、リハビリの専門職の不足を解消することもできる。
また、距離画像センサなどの高価なセンサを用いなくとも、スマートフォンやタブレット端末などの端末装置40に内蔵されたカメラ42で対象ユーザ50を撮影するだけで、所定の動作に関連する各指標に関する評価を抽出することができる。
また、対象ユーザ50の特徴量と、対象ユーザ50に対して提供した運動プログラムとを学習用データとして、学習済みモデル29dを再学習することができる。これにより、他の対象ユーザに対して、さらに、改善度合いの高い効果的な運動プログラムを決定して、提供することができる。
[実施の形態2]
実施の形態1では、ユーザの動作に関連する機能の改善について説明した。ただし、改善対象の機能は、これに限定されるものではない。例えば、ユーザの言語または口腔に関連する機能を、改善対象の機能としてもよい。
実施の形態2では、ユーザの言語または口腔に関連する機能の改善について説明する。以下では、実施の形態1と異なる点を中心に説明し、同様の点については詳細な説明を繰り返さない。
実施の形態2に係る機能改善支援システムは、図1に示した機能改善支援システム1と同様である。
<機能改善支援装置20の構成>
図13は、機能改善支援装置20の構成を示すブロック図である。
機能改善支援装置20は、図3に示した機能改善支援装置20の構成に加え、音声データ取得部30と、特徴量取得部31とを備える。なお、音声データ取得部30および特徴量取得部31は、コンピュータプログラムを実行することにより実現される機能的な処理部である。ただし、音声データ取得部30および特徴量取得部31の一部または全部が半導体装置などのハードウェアにより実現されていてもよい。
画像データ取得部23は、通信部21を介して対象ユーザ50の口周辺の各運動指標に関する画像データを取得する。例えば、口周辺の運動指標は、「舌の突出」、「舌の右移動」、「舌の左移動」、「口唇を引く」、「口唇の突出」および「下顎の下制」の6つの指標を含む。画像データ取得部23は、取得した動画像データを記憶部29に記憶されているユーザ情報29aに登録する。
図14は、記憶部29に記憶されているユーザ情報29aの一例を示す図である。
ユーザ情報29aは、ユーザID、名前、年齢、性別、介護度、麻痺の有無、質問項目および検査項目の項目ID、回答、運動指標、画像データ、運動指標の評価、発話指標、音声データ、発話指標の評価、発話指標の評価、ならびに、管理指導項目名および運動プログラム名を含む。なお、名前、年齢、性別、介護度については紙面の都合上記載を省略する。
例えば、ユーザID「u1」の対象ユーザ50の運動指標「舌の突出」に対して動画像データ「vi1」が登録され、同じ対象ユーザ50の運動指標「舌の右移動」に対して動画像データ「vi2」が登録される。
再び図13を参照して、音声データ取得部30は、通信部21を介して対象ユーザ50の各発話指標に関する音声データを取得する。例えば、発話指標は、「最長発声持続時間」、「構音の反復回数」、「構音の明瞭度」、「声の大きさ」の4つの指標を含む。なお、「構音の反復回数」および「構音の明瞭度」は、それぞれ、単音「Pa」、「Ta」および「Ka」ごとに評価される。
図14を参照して、例えば、ユーザ情報29aには、ユーザID「u1」の対象ユーザ50の「最長発声持続時間」を評価するための音声データ「vo1」が登録される。また、同じ対象ユーザ50の単音「Pa」についての「構音の反復回数」および「構音の明瞭度」と、「声の大きさ」とを評価するための音声データ「vo2」が登録される。さらに、同じ対象ユーザ50の単音「Ta」についての「構音の反復回数」および「構音の明瞭度」を評価するための音声データ「vo3」が登録される。単音「Ka」についても同様の音声データが登録される。
再び図13を参照して、特徴量抽出部24は、画像データ取得部23が取得した画像データから、運動指標に対する評価を特徴量として抽出し、音声データ取得部30が取得した音声データから、発話指標に関する評価を特徴量として抽出する。
具体的には、特徴量抽出部24は、各運動を対象ユーザ50が実際に行った動画像データに基づいて、対象ユーザ50の各運動指標の評価を行う。運動指標の評価には、ディープニューラルネットワークなどにより構成される学習済みモデル29eを使用する。この学習済みモデル29eは、動画像データと、運動指標の評価(十分、不十分、不可)との組を学習データとして、ディープニューラルネットワークのパラメータをディープラーニングにより機械学習することにより得られる。これにより、動画像データを入力として、運動指標の評価を出力する学習済みモデル29eが得られる。学習済みモデル29eは、運動指標ごとに作成され、事前に記憶部29に記憶されているものとする。特徴量抽出部24は、記憶部29から、評価対象とする運動指標の学習済みモデル29eを読み出し、読み出した学習済みモデル29eに、運動指標に対応した動画像データを入力することにより、対象ユーザ50の最も確率の高い評価を得る。
また、特徴量抽出部24は、対象ユーザ50が発話した音声データに基づいて、各発話指標の評価を行う。特徴量抽出部24は、発話指標「最長発声持続時間」については、音声データの時間から評価する。例えば、音声データの時間が10秒以上の場合には「十分」と評価し、10秒未満の場合には「不十分」と評価する。また、音声データが得られていない場合や音声の音量が小さい場合などには「不可」と評価する。また、特徴量抽出部24は、発話指標「構音の反復回数」については、音声データを音声分析することにより評価する。例えば、特徴量抽出部24は、単音「Pa」を発声したユーザID「u1」の音声データ「vo2」を音声分析することにより、単音「Pa」についての発話指標「構音の反復回数」の評価を得る。一般に、1秒間に単音が4回以上発話されていれば、構音の反復回数は「十分」と評価され、1〜3回発話されていれば、「不十分」と評価され、発話されていなければ、「不可」と評価される。特徴量抽出部24は、発話指標「構音の明瞭度」および「声の大きさ」の評価には、ディープニューラルネットワークなどにより構成される学習済みモデル29fを使用する。この学習済みモデル29fは、音声データと、発話指標の評価との組を学習データとして、ディープニューラルネットワークのパラメータをディープラーニングにより機械学習することにより得られる。これにより、音声データを入力として、発話指標の評価を出力する学習済みモデル29fが得られる。学習済みモデル29fは、各単音の発話指標ごとに用意される。また、学習済みモデル29fは、事前に記憶部29に記憶されているものとする。特徴量抽出部24は、記憶部29から対象とする単音および発話指標の学習済みモデル29fを読み出し、読み出した学習済みモデル29fに、対象とする単音を発話した対象ユーザ50の音声データを入力することにより、最も確率の高い評価を得る。
また、特徴量抽出部24は、音声データ「vo2」を、単音「Pa」および発話指標「構音の明瞭度」用の学習済みモデル29fに入力する。特徴量抽出部24は、学習済みモデル29fから、単音「Pa」についての発話指標「構音の明瞭度」の評価を得る。発話指標「構音の明瞭度」の評価には、「明瞭」および「不明瞭」の2段階がある。発話指標「構音の明瞭度」の評価は、一般に言語聴覚士により行われる。学習済みモデル29fは、それをモデル化したものである。単音「Ta」および単音「Ka」についても同様である。
また、特徴量抽出部24は、音声データ「vo2」を、発話指標「声の大きさ」用の学習済みモデル29fに入力する。特徴量抽出部24は、学習済みモデル29fから、発話指標「声の大きさ」の評価を得る。発話指標「声の大きさ」の評価には、「十分」、「不十分」および「不可」の3段階がある。発話指標「声の大きさ」の評価は、一般に言語聴覚士により行われる。学習済みモデル29fは、それをモデル化したものである。なお、発話指標「声の大きさ」用の学習済みモデル29fに入力する音声データは、単音「Pa」を発声したものに限定されず、単音「Ta」または単音「Ka」を発声した音声データであってもよいし、それ以外の音を発声した音声データであってもよい。
特徴量抽出部24は、運動指標に関する評価および発話指標に関する評価を、記憶部29のユーザ情報29aに登録する。図14を参照して、例えば、ユーザID「u1」の対象ユーザ50の運動指標「舌の突出」に対して評価「不可」が登録され、発話指標「最長発声持続時間」に対して評価「不十分」が登録される。他の指標についても同様に登録される。
再び図13を参照して、特徴量取得部31は、対象ユーザ50の口腔の質問項目および検査項目に対する回答を、対象ユーザ50の機能に関連する特徴量として取得する。
ここで、質問項目とは、主に対象ユーザ50自身が主観で回答する項目である。また、検査項目とは、対象ユーザ50を客観的に観察するための項目であり、観察項目とも呼ばれる。検査項目についても、原則的に対象ユーザ50自身が回答する。ただし、質問項目および検査項目のそれぞれについて対象ユーザ50による回答が困難な場合には、介護者等が回答してもよい。
例えば、質問項目「義歯を使用していますか」に対する回答として「1.いいえ」と「2.はい」が用意されている。また、質問項目「自分の歯または入れ歯で左右の奥歯をしっかりかみしめられますか」に対する回答として、「1.両方できる」、「2.片方だけできる」および「3.どちらもできない」が用意されている。
また、質問項目として噛む力もある。噛む力は、後述する食事マップを用いて質問される。噛む力に対する回答には、「1.弱い」、「2.中程度」および「3.強い」がある。
また、検査項目には、反復唾液嚥下検査(RSST)が用いられる。これは、30秒間に唾を飲み込むことのできる回数を検査するものであり、RSSTに対する回答として、「1.十分」、「2.不十分」、「3.不可」が用意されている。RSSTは看護師または言語聴覚士により判定され、上記回数が3回以上であれば「1.十分」と判定され、1〜2回であれば「2.不十分」と判定され、0回であれば「3.不可」と判定される。
また、口腔衛生に対する検査項目および回答も用意されている。例えば、検査項目「歯や義歯の汚れ」に対する回答として、「1.ない」、「2.ある」および「3.多い」が用意されている。また、検査項目「舌の汚れ」に対する回答として、「1.ない」、「2.ある」および「3.多い」が用意されている。口腔衛生に対する検査項目については、例えば、看護師、言語聴覚士または介護職などが回答する。
特徴量取得部31は、端末装置40から、質問項目または検査項目を識別する項目IDと回答との組を、対象ユーザ50のユーザIDと併せて取得する。特徴量取得部31は、取得した項目IDおよび回答の組を、ユーザIDと対応付けて記憶部29のユーザ情報29aに登録する。
運動プログラム決定部25は、記憶部29に記憶されている学習済みモデル29gに基づいて、対象ユーザ50の属性と、特徴量抽出部24が抽出した特徴量と、特徴量取得部31が取得した特徴量とから、対象ユーザ50の機能(ここでは、対象ユーザ50の言語または口腔に関する機能)を改善するための管理指導項目および運動プログラムを決定する。管理指導項目および運動プログラムには、ディープニューラルネットワークなどにより構成される学習済みモデル29gを使用する。
学習済みモデル29gは、複数のユーザについて、各ユーザの属性、項目IDおよび回答の組、運動指標および評価の組、発話指標および評価の組、ならびに各ユーザが実行した管理指導項目および運動プログラムを学習用データとして、ディープニューラルネットワークのパラメータをディープラーニングにより機械学習することにより得られる。学習済みモデル29gは、対象ユーザ50の属性と、項目IDおよび回答の組と、運動指標および評価の組と、発話指標および評価の組とに対応する、最も確率の高い管理指導項目名および運動プログラム名を出力するモデルである。
運動プログラム決定部25は、決定した管理指導項目の識別情報である管理指導項目名および運動プログラムの識別情報である運動プログラム名を、記憶部29のユーザ情報29aに登録する。管理指導項目には、例えば、口腔機能向上に関する情報提供、口腔掃除の支援などの各種指導項目が含まれる。また、運動プログラムには、例えば、口腔体操、嚥下体操、唾液腺マッサージ、呼吸や飲み込み等の機能訓練などの各種プログラムが含まれる。なお、運動プログラム決定部25が決定する管理指導項目は、上述したような各種指導項目を組み合わせたものであり、運動プログラム決定部25が決定する運動プログラムは、上述したような各種プログラムを組み合わせたものである。
図14を参照して、例えば、ユーザ情報29aには、ユーザID「u1」の対象ユーザ50の機能改善のために決定された管理指導項目の名称として「m1」が登録され、対象ユーザ50の機能改善のために決定された運動プログラムの名称として「t1」が登録される。
情報提供部26は、運動プログラム決定部25が決定した管理指導項目の内容および運動プログラムの内容、または管理指導項目名および運動プログラム名を、通信部21を介して端末装置40に送信する。
学習用データ取得部27は、学習済みモデル29gを再学習するための学習用データを取得する。例えば、学習用データ取得部27は、図14に示したユーザID「u1」の対象ユーザ50についてのユーザ情報を、学習用データとして取得する。学習用データ取得部27は、ユーザID「u2」等の他の対象ユーザ50についても同様に、ユーザ情報を、学習用データとして取得する。
機械学習部28は、学習用データ取得部27が取得した学習用データに基づいて、学習済みモデル29gのパラメータをさらにディープラーニングにより機械学習することにより、学習済みモデル29gを更新する。
機械学習部28は、更新後の学習済みモデル29gを記憶部29に記憶させる。
<端末装置40の構成>
図15は、端末装置40の構成を示すブロック図である。
端末装置40は、図2に示した端末装置40の構成に加え、マイク47と、音声データ提供部48とを備える。
マイク47は、ユーザの音声を集音し、音声データを音声データ提供部48に出力する。
音声データ提供部48は、マイク47が生成した音声データを、ユーザIDとともに、通信部41を介して機能改善支援装置20に送信する。
運動プログラム取得部44は、通信部41を介して機能改善支援装置20から、対象ユーザ50の言語または口腔の機能を改善するための管理指導項目および運動プログラムの内容を示す情報を取得する。
運動プログラム取得部44は、取得した情報に基づいて、管理指導項目および運動プログラムを示す画像データを表示部45に表示させる。
入力部46は、対象ユーザ50の属性の他、質問項目および検査項目に対する回答の入力を受け付け、受け付けたデータを通信部41に出力する。通信部41は、入力部46から受けたデータを、対象ユーザ50のユーザIDと対応付けて、ネットワーク2を介して機能改善支援装置20に送信する。
<機能改善支援システム1の処理手順>
次に、機能改善支援システム1の処理手順の一例について説明する。
図16および図17は、機能改善支援システム1の処理手順を示すシーケンス図である。なお、図16に示すシーケンスの続きとして、図17に示すシーケンスが実行される。
ステップS1からS6までの処理は、図5に示したステップS1からS6までの処理と同様である。
ステップS6において、すべての回答が「はい」の場合には、表示部45は、メニュー画面を表示する(S21)。図18は、メニュー画面の一例を示す図である。メニュー画面には、検査および判定対象の6つの項目(「口腔機能検査(質問項目)」、「噛む力検査(食事マップ)」、「反復唾液嚥下検査(RSST)」、「口腔衛生検査」、「表情認識(口・舌)判定」、「音声(呼気、発音、発声)判定」)が表示される。
操作者が項目「口腔機能検査(質問項目)」をタップすることにより選択すると(S22)、表示部45は、口腔機能検査画面を表示する(S23)。図19および図20は、口腔機能検査画面の一例を示す図である。図19および図20の口腔機能検査画面には、口腔機能検査に関する16個の質問項目が含まれる。図20の画面は、図19の画面の続きとして表示される。画面上には、質問と、その質問に対するそれぞれ2以上の組からなる回答ボタン121〜136とが表示されている。なお、図19および図20に示す質問項目はあくまでも例示であり、これらのうち、いずれかの項目が含まれていなくてもよいし、図19および図20に示した項目以外の他の質問項目が含まれていてもよい。
操作者は、入力部46を操作して、回答ボタン121〜136を押し、最後に保存ボタン137を押すことにより、16個の質問に回答する(S24)。例えば、操作者は、質問項目「義歯を使用していますか」に対して「はい」と回答している。
通信部41は、16個の質問の項目IDと回答とを機能改善支援装置20に送信し、機能改善支援装置20の特徴量取得部31は、項目IDおよび回答を特徴量として取得する(S25)。
特徴量取得部31は、取得した項目IDおよび回答をユーザ情報29aに登録する(S26)。
次に、表示部45は、図18に示したようなメニュー画面を再度表示する(S27)。
操作者が項目「噛む力検査(食事マップ)」をタップすることにより選択すると(S28)、表示部45は、噛む力検査画面を表示する(S29)。図21は、噛む力検査画面の一例を示す図である。噛む力検査画面には、対象とする食品の写真またはイラスト(ここでは、ご飯のイラスト)と、回答ボタン144、145とが表示される。図21は、対象ユーザ50がご飯を噛めるか否かを操作者に回答させる画面である。操作者は、対象ユーザ50がご飯が噛める場合には回答ボタン144を押下し、ご飯が噛めない場合には回答ボタン145を押下することにより、回答する(S30)。表示部45は、ご飯以外の各食品についても、図21と同様の噛む力検査画面を順次表示する。なお、噛む力検査画面の表示順は、ランダムな順番であってもよいし、予め定められた順番であってもよい。これにより、操作者は、対象ユーザ50が各食品を噛むことができるか否かを回答する(S29およびS30の繰り返し)。対象とするすべての食品への回答が終了すると、表示部45は、噛む力検査結果画面を表示する(S29A)。
図22は、噛む力検査結果画面の一例を示す図である。噛む力検査結果画面には、食事マップ141と、結果表示ボタン142と、保存ボタン143とが表示される。食事マップ141は、ユーザの噛む力を5段階で評価するために、食物の指標をマップ化したものである。5段階のうち数字が大きくなるにつれ噛む力が強いと判定される。つまり、1段階が最も噛む力が弱く、5段階が最も噛む力が強いと判定される。食事マップ141には、段階ごとに噛む力を評価するための指標となる食物名が示されている。内側から外側に行くにつれ段階の高い同心円を示している。各同心円内の食物を噛むことができるか否かに応じてユーザの噛む力が判定される。例えば、ステーキ、フランスパン、およびたくわんを噛むことができるユーザは、噛む力が段階5であると判定される。また、ステーキ、フランスパン、およびたくわんを噛むことができないが、おこわ、かりんとう、およびこんにゃくを噛むことができるユーザは、噛む力が段階4であると判定される。
結果表示ボタン142のいずれかに、噛む力検査の結果が表示される。ここでは、「弱い(1、2)」と書かれた結果表示ボタン142が白抜き表示されていることより、対象ユーザ50の噛む力が弱いことが分かる。その後、操作者が保存ボタン143を押すと、通信部41は、噛む力に対する質問の項目IDおよび回答を機能改善支援装置20に送信し、機能改善支援装置20の特徴量取得部31は、項目IDおよび回答を特徴量として取得する(S31)。
特徴量取得部31は、取得した項目IDおよび回答をユーザ情報29aに登録する(S32)。
次に、表示部45は、図18に示したようなメニュー画面を再度表示する(S33)。
操作者が項目「反復唾液嚥下検査(RSST)」をタップすることにより選択すると(S34)、表示部45は、反復唾液嚥下検査画面を表示する(S35)。図23は、反復唾液嚥下検査画面の一例を示す図である。反復唾液嚥下検査画面には、回数入力欄151と、回答ボタン152と、保存ボタン153とが表示される。回数入力欄151は、30秒間に唾をのみ込むことのできる回数を入力するための欄である。回答ボタン152は、RSSTの判定結果を入力するためのボタンである。操作者が回数入力欄151に回数を入力し、いずれかの回答ボタン152を押した後に、保存ボタン153を押すことにより、RSSTの質問に対して回答する(S36)。例えば、操作者は、回数入力欄151に「2」と入力し、回答ボタン152を押すことにより「2.不十分」と回答する。
通信部41は、RSSTに対する項目IDおよび質問を機能改善支援装置20に送信し、機能改善支援装置20の特徴量取得部31は、項目IDおよび回答を特徴量として取得する(S37)。
特徴量取得部31は、取得した項目IDおよび回答をユーザ情報29aに登録する(S38)。
図17を参照して、次に、表示部45は、図18に示したようなメニュー画面を再度表示する(S39)。
操作者が項目「口腔衛生検査」をタップすることにより選択すると(S40)、表示部45は、口腔衛生検査画面を表示する(S41)。図24は、口腔衛生検査画面の一例を示す図である。口腔衛生に対する4つの検査項目が含まれる。画面上には、検査項目ごとに、検査項目に対する3つの組からなる回答ボタン161〜164が表示されている。
操作者は、入力部46を操作して、回答ボタン161〜164を押し、保存ボタン165を押すことにより検査項目に対して回答する(S42)。例えば、操作者は、「歯や義歯の汚れ」に対する検査項目に対して、回答ボタン161を押すことにより「多い」と回答する。
通信部41は、口腔衛生検査の各検査項目に対する項目IDおよび回答を機能改善支援装置20に送信し、機能改善支援装置20の特徴量取得部31は、項目IDおよび回答を特徴量として取得する(S43)。
特徴量取得部31は、取得した項目IDおよび回答をユーザ情報29aに登録する(S44)。
次に、表示部45は、図18に示したようなメニュー画面を再度表示する(S45)。
操作者が項目「表情認識(口・舌)判定」をタップすることにより選択すると(S46)、表示部45は、撮影画面を表示する(S47)。図25は、撮影画面の一例を示す図である。撮影画面のカメラ映像領域171には、カメラ42で撮影中の動画像データが表示される。撮影ボタン172は、カメラ42による撮影を開始および終了するボタンである。リセットボタン173は、カメラ42による撮影をリセットするボタンである。見本映像領域174は、6つの口周辺の運動(「舌の突出」、「舌の右移動」、「舌の左移動」、「口唇を引く」、「口唇の突出」および「下顎の下制」)の見本動作を順に表示する領域である。対象ユーザ50は見本動作に合わせて口周辺の運動を行い、操作者が撮影ボタン172を操作しながら対象ユーザ50の撮影を行う。操作者が保存ボタン175を押すことにより、処理が終了する。
画像データ提供部43は、6つの運動を収録した対象ユーザ50の動画像データを、対象ユーザ50のユーザIDと対応付けて、通信部41を介して機能改善支援装置20に送信する(S48)。
機能改善支援装置20の画像データ取得部23は、端末装置40から動画像データを受信し、ユーザ情報29aに登録する(S49)。
次に、表示部45は、図18に示したようなメニュー画面を再度表示する(S50)。
操作者が項目「音声(呼気、発音、発声)判定」をタップすることにより選択すると(S51)、表示部45は、第1録音画面を表示する(S52)。図26は、第1録音画面の一例を示す図である。第1録音画面は、最長発声持続時間を計る検査のための画面であり、アイコン181は、録音の開始を指示するためのボタンである。発声時間表示欄182には、録音を開始してからの時間が示される。例えば、操作者がアイコン181をタップしてから画面に「スタート」の文字が表示された後に、対象ユーザ50が単音(例えば、「アー」)を持続発声させる。すると、音声データ提供部48は、対象ユーザ50の音声を録音する。また、発声時間表示欄182には、対象ユーザ50の発声持続時間が表示される。
操作者が保存ボタン183を押すと、音声データ提供部48は、録音された対象ユーザ50の音声データを、通信部41を介して機能改善支援装置20に送信する(S53)。
機能改善支援装置20の音声データ取得部30は、端末装置40から音声データを受信し、ユーザ情報29aに登録する(S54)。
次に、表示部45は、第2録音画面を表示する(S55)。図27は、第2録音画面の一例を示す図である。第2録音画面は、「構音の反復回数」、「構音の明瞭度」および「声の大きさ」を評価するための音声を録音するための画面である。アイコン181は、録音の開始を指示するためのボタンである。対象ユーザ50は、アイコン181を押した後に指示に従って、単音「Pa」、「Ta」および「Ka」のそれぞれを繰り返し発声すると、音声データ提供部48は、各単音の音声データを録音する。また、回数表示欄184〜186には、単音「Pa」、「Ta」および「Ka」の1秒間当たりの構音の反復回数が示される。構音の反復回数は、音声データ提供部48が音声データを解析することにより計測してもよいし、操作者が回数表示欄184〜186に入力するようにしてもよい。操作者が保存ボタン183を押すと、音声データ提供部48は、録音された単音「Pa」、「Ta」および「Ka」の音声データを、通信部41を介して機能改善支援装置20に送信する(S56)。
機能改善支援装置20の音声データ取得部30は、端末装置40から音声データを受信し、ユーザ情報29aに登録する(S57)。
特徴量抽出部24は、ステップS48で取得された画像データ、並びにステップS54およびS57で取得された音声データに基づいて、運動指標および発話指標をそれぞれ評価する(S58)。
運動プログラム決定部25は、記憶部29に記憶されている学習済みモデル29gに基づいて、対象ユーザ50の属性と、ステップS58における評価結果とから、対象ユーザ50の機能(言語または口腔に関する機能)を改善するための管理指導項目および運動プログラムを決定する(S59)。
情報提供部26は、決定された管理指導項目および運動プログラムの情報を、通信部21を介して端末装置40に送信し、端末装置40の運動プログラム取得部44は、これらを受信する(S60)。なお、情報提供部26は、上記情報と併せて、ステップS58における評価結果も送信する。
表示部45は、対象ユーザ50の機能に関する解析結果を示す解析画面を表示する(S61)。
図28は、解析画面の一例を示す図である。図28に示す解析画面は、ステータス結果欄261と、運動プログラム欄262と、頭顔部モデル263とを含む。
表示部45は、ステータス結果欄261に、検査または判定において機能障害の原因とされる指標の項目を表示する。例えば、「画像判定」の欄には、図25に示した表情認識判定において、「不可」または「不十分」と判定された指標が表示される。ここでは、指標「舌の突出」および「口唇を引く」が指標の評価とともに表示されている。
また、「音声判定」の欄には、図26に示した「最長発声持続時間」の判定または図27に示した「構音の反復回数」、「構音の明瞭度」および「声の大きさ」の判定において、「不可」、「不十分」または「不明瞭」と判定された指標が指標の評価とともに表示される。ここでは、指標「最長発声持続時間」が指標の評価(8秒(不十分))とともに表示されている。
また、「口腔機能の質問項目」の欄には、図19および図20に示した対象ユーザ50への質問項目において、「はい」や、「どちらもできない」、「全然良くない」または「悪い」などの予め定められた回答がなされた質問項目が回答とともに表示される。ここでは、質問項目「義歯を使用していますか」および「お茶や汁物等でむせることはありますか」が、回答とともに表示されている。
また、「噛む力」の欄には、図22に示した噛む力検査における判定結果(指標の評価)が表示される。ここでは、判定結果として、「弱い」が表示されている。
また、「反復唾液嚥下検査」の欄には、図23に示した反復唾液嚥下検査において、「不十分」または「不可」と判定された場合に、その判定結果(指標の評価)が表示される。
また、「口腔衛生」の欄には、図24に示した口腔衛生検査において、「ある」、「多い」、「不十分」または「不可」と判定された指標が指標の評価とともに表示される。ここでは、「歯や義歯の汚れ」および「舌の汚れ」が指標の評価(多い、ある)とともに表示されている。
表示部45は、運動プログラム欄262に、決定された運動プログラムの名前を表示する。例えば、図18に示した6つの項目についての評価(例えば、ステータス結果欄261に示した評価)に基づいて決定された、2つの運動プログラム「くちすぼめ運動」および「連続発声練習」が表示される。
また、表示部45は、運動プログラムに対応する部位を、頭顔部モデル263上に示す。例えば、表示部45は、当該部位の筋肉を点滅または発光させたり、他の部位と異なる色で色分け表示したりする。
操作者が運動プログラム欄262に表示された運動プログラムの中から、いずれかを選択すると、端末装置40の表示部45は、運動説明画面を表示する(S62)。図29は、運動説明画面の一例を示す図である。運動説明画面は、運動プログラムの内容を示す画面であり、運動プログラム欄191と、解析結果ボタン192とを含む。運動プログラム欄191には、ステップS59で決定された運動プログラムを説明するための動画像データが表示される。この動画像データは、例えば、リズムに合わせて舌や表情を動かす運動や、発声トレーニングや、顔を動かして表情でジャンケンを行うゲームなどのコンテンツ動画を含む。運動説明画面上で解析結果ボタン192を押すことにより、解析画面に戻ることができる。
また、表示部45は、運動プログラム取得部44が機能改善支援装置20から受信した管理指導項目および運動プログラムの内容に基づいて作成する口腔機能向上サービスの管理指導計画を表示する(S63)。
図30は、管理指導計画の一例を示す図である。
当該管理指導計画には、対象ユーザ50に実施する管理指導項目と運動プログラムとが示されている。例えば、管理指導項目として、専門職による「口腔機能向上に関する情報提供」が示されている。また、運動プログラムとして、専門職による「口腔体操・嚥下体操」および「唾液腺マッサージ」と、関連職による「口腔体操・嚥下体操」と、本人による家庭での「口腔体操・嚥下体操と」が示されている。
なお、端末装置40は、実施の形態1と同様に、学習済みモデル29dを再学習することも可能である。
<実施の形態2の効果>
以上説明したように、本発明の実施の形態2によると、対象ユーザ50の言語または口腔の質問項目および検査項目に対する回答と、対象ユーザ50の言語または口腔の評価項目に対する口腔専門職による評価とが取得され、取得された回答および評価を学習済みモデル29gに入力することにより、当該対象ユーザ50の言語または口腔に関連する機能を改善するための管理指導項目および運動プログラムを決定することができる。これにより、例えば、構音障害または嚥下障害のある複数の対象ユーザ50に対して、同じ管理指導項目および運動プログラムを提供するのではなく、対象ユーザ50ごとに最も効果的な管理指導項目および運動プログラムを決定して、提供することができる。
[実施の形態2の変形例]
図28に示したように、実施の形態2では、図18に示した6つの項目についての評価を、解析画面のステータス結果欄261に表示した。これに対して、項目ごとに当該項目に対する評価を解析画面を表示するようにしてもよい。以下では、項目ごとに表示される解析画面について説明する。
図31は、図17のステップS61で表示される解析画面の他の一例を示す図である。図31に示す解析画面は、対象ユーザ50が、6つの口周辺の運動(「舌の突出」、「舌の右移動」、「舌の左移動」、「口唇を引く」、「口唇の突出」および「下顎の下制」)のいずれかができていない場合に表示される。解析画面は、カメラ映像領域201と、ステータス項目領域202と、運動プログラム欄203と、頭顔部モデル204とを含む。表示部45は、カメラ映像領域201に、録画した対象ユーザ50の6つの運動の動画像データを表示する。また、表示部45は、ステータス項目領域202に、不十分または不可と判定された運動の指標にチェック印をつけて表示する。ここでは、「舌の突出」と「口唇を引く」ができていなかったことが示されている。また、表示部45は、運動プログラム欄203に、決定された運動プログラムの名前を表示する。また、表示部45は、不十分または不可と判定された運動に対応する部位を、頭顔部モデル204上に示す。例えば、表示部45は、当該部位の筋肉を点滅または発光させたり、他の部位と異なる色で色分け表示したりする。
図32は、図17のステップS61で表示される解析画面の他の一例を示す図である。図32に示す解析画面は、対象ユーザ50が、発話指標「最長発声持続時間」、「構音の反復回数」、「構音の明瞭度」および「声の大きさ」のいずれかが不十分、不可または不明瞭と判定された場合に表示される。解析画面は録音音声領域211と、ステータス項目領域212と、運動プログラム欄213と、頭顔部モデル214とを含む。表示部45は、録音音声領域211に、録音した対象ユーザ50の音声を再生するためのボタンを表示する。操作者がボタンを奏することにより、スピーカー(図示せず)が録音音声を再生する。また、表示部45は、ステータス項目領域212に、不十分、不可または不明瞭と判定された発話指標にチェック印をつけて表示する。ここでは、「最長発声持続時間」と「構音の明瞭度」が不十分、不可または不明瞭であったことが示されている。また、表示部45は、運動プログラム欄213に、決定された運動プログラムの名前を表示する。また、表示部45は、不十分、不可または不明瞭と判定された発話指標に対応する部位を、頭顔部モデル214上に示す。部位の表示方法は、図31と同様である。なお、操作者が運動プログラム欄213に表示された運動プログラムの中から、いずれかを選択すると、端末装置40の表示部45は、図29に示したような運動説明画面を表示する。
図33は、図17のステップS61で表示される解析画面の他の一例を示す図である。図33に示す解析画面は、対象ユーザ50への質問項目に対してできていないものがある場合に表示される。解析画面は、回答表示欄221と、運動プログラム欄222と、頭顔部モデル223とを含む。表示部45は、カメラ映像領域201に、図19および図20に示した16個の質問項目およびその回答を表示する。表示部45は、運動プログラム欄222に、決定された運動プログラムの名前を表示する。また、表示部45は、できていないと回答した質問項目に対応する部位を、頭顔部モデル223上に示す。部位の表示方法は、図31と同様である。なお、操作者が運動プログラム欄222に表示された運動プログラムの中から、いずれかを選択すると、端末装置40の表示部45は、図29に示したような運動説明画面を表示する。
図34は、図17のステップS61で表示される解析画面の他の一例を示す図である。図34に示す解析画面は、噛む力検査の判定結果に応じて表示される。解析画面は、食事マップ231と、判定結果欄232と、運動プログラム欄233と、頭顔部モデル234とを含む。食事マップ231は、図22に示した食事マップ141と同様である。表示部45は、判定結果欄232に、図22に示した噛む力検査画面での回答結果を表示する。また、表示部45は、運動プログラム欄233に、決定された運動プログラムの名前を表示する。また、表示部45は、判定結果欄232に示した判定結果に対応する部位を、頭顔部モデル234上に示す。部位の表示方法は、図31と同様である。なお、操作者が運動プログラム欄233に表示された運動プログラムの中から、いずれかを選択すると、端末装置40の表示部45は、図29に示したような運動説明画面を表示する。
図35は、図17のステップS61で表示される解析画面の他の一例を示す図である。図35に示す解析画面は、反復唾液嚥下検査で不十分または不可と判定された場合に表示される。解析画面は、回数表示欄241と、判定結果欄242と、運動プログラム欄243と、頭顔部モデル244とを含む。表示部45は、回数表示欄241に、反復唾液嚥下検査の回数を表示する。また、表示部45は、判定結果欄242に、反復唾液嚥下検査の判定結果を表示する。この判定結果は、図23に示した反復唾液嚥下検査画面での回答結果と同じである。また、表示部45は、運動プログラム欄243に、決定された運動プログラムの名前を表示する。また、表示部45は、反復唾液嚥下検査の判定結果に対応する部位を、頭顔部モデル244上に表示する。部位の表示方法は、図31と同様である。なお、操作者が運動プログラム欄243に表示された運動プログラムの中から、いずれかを選択すると、端末装置40の表示部45は、図29に示したような運動説明画面を表示する。
図36は、図17のステップS61で表示される解析画面の他の一例を示す図である。図36に示す解析画面は、口腔衛生検査で問題があると判定された場合に表示される。解析画面は、判定結果欄251と、運動プログラム欄252と、口腔内モデル253とを含む。表示部45は、判定結果欄251に、図24の口腔衛生検査画面に示した検査項目および回答を表示する。また、表示部45は、運動プログラム欄252に、決定された運動プログラムの名前を表示する。また、表示部45は、口腔内モデル253に、口腔衛生検査で問題があると判定された箇所を表示する。例えば、舌の汚れがある場合には、舌の部分を点滅または発光させて表示する。なお、当該箇所を他の箇所と色分け表示してもよい。なお、操作者が運動プログラム欄252に表示された運動プログラムの中から、いずれかを選択すると、端末装置40の表示部45は、図29に示したような運動説明画面を表示する。
[付記]
上述の実施の形態では、ディープラーニングにより各モデルのパラメータを学習することとしたが、強化学習によりモデルの学習を行うことも可能である。
例えば、学習済みモデル29dにおいて、対象ユーザ50の属性と、指標に関する評価とを強化学習における状態とし、運動プログラム名を強化学習における行動とし、対象ユーザ50の機能の改善度合いを強化学習における報酬として、学習済みモデル29dの強化学習を行う。これにより、対象ユーザ50の属性および指標に関する評価を入力として、対象ユーザ50の機能の改善度合いを最大化するような運動プログラム名を出力する学習済みモデル29dを作成することができる。
また、学習済みモデル29gにおいて、対象ユーザ50の属性と、項目IDおよび回答の組と、運動指標および評価の組と、発話指標および評価の組とを強化学習における状態とし、管理指導項目名および運動プログラム名を強化学習における行動とし、対象ユーザ50の機能の改善度合いを強化学習における報酬として、学習済みモデル29gの強化学習を行う。これにより、対象ユーザ50の属性と、項目IDおよび回答の組と、運動指標および評価の組と、発話指標および評価の組とを入力として、対象ユーザ50の機能の改善度合いを最大化するような管理指導項目名および運動プログラム名を出力する学習済みモデル29gを作成することができる。
なお、強化学習を深層強化学習とすることもでき、これにより、モデルを多層ニューラルネットワークで表現することもできる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本開示の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 機能改善支援システム
2 ネットワーク
20 機能改善支援装置
21 通信部
22 入力データ取得部
23 画像データ取得部
24 特徴量抽出部
25 運動プログラム決定部
26 情報提供部
27 学習用データ取得部
28 機械学習部
29 記憶部
29a ユーザ情報
29b モデル
29c モデル
29d モデル
29e モデル
29f モデル
29g モデル
30 音声データ取得部
31 特徴量取得部
40 端末装置
41 通信部
42 カメラ
43 画像データ提供部
44 運動プログラム取得部
45 表示部
46 入力部
47 マイク
48 音声データ提供部
50 対象ユーザ
61 ID入力欄
62 OKボタン
63 名前入力欄
64 誕生日入力欄
65 年齢表示欄
66 性別選択ボタン
67 介護度選択ボタン
68 麻痺有無選択ボタン
69 ID新規作成ボタン
70 ID表示欄
71 登録ボタン
81 回答ボタン
82 回答ボタン
83 回答ボタン
84 回答ボタン
85 回答ボタン
86 OKボタン
91 カメラ映像領域
92 スタートボタン
93 ストップボタン
94 見本映像領域
101 運動プログラム領域
102 解析結果ボタン
111 カメラ映像領域
112 ステータス項目領域
113 運動プログラム欄
114 人体モデル
121 回答ボタン
122 回答ボタン
123 回答ボタン
124 回答ボタン
125 回答ボタン
126 回答ボタン
127 回答ボタン
128 回答ボタン
129 回答ボタン
130 回答ボタン
131 回答ボタン
132 回答ボタン
133 回答ボタン
134 回答ボタン
135 回答ボタン
136 回答ボタン
137 保存ボタン
141 食事マップ
142 結果表示ボタン
143 保存ボタン
144 回答ボタン144
145 回答ボタン145
151 回数入力欄
152 回答ボタン
153 保存ボタン
161 回答ボタン
162 回答ボタン
163 回答ボタン
164 回答ボタン
165 保存ボタン
171 カメラ映像領域
172 撮影ボタン
173 リセットボタン
174 見本映像領域
175 保存ボタン
181 アイコン
182 発声時間表示欄
183 保存ボタン
184 回数表示欄
185 回数表示欄
186 回数表示欄
191 運動プログラム欄
192 解析結果ボタン
201 カメラ映像領域
202 ステータス項目領域
203 運動プログラム欄
204 頭顔部モデル
211 録音音声領域
212 ステータス項目領域
213 運動プログラム欄
214 頭顔部モデル
221 回答表示欄
222 運動プログラム欄
223 頭顔部モデル
231 食事マップ
232 判定結果欄
233 運動プログラム欄
234 頭顔部モデル
241 回数表示欄
242 判定結果欄
243 運動プログラム欄
244 頭顔部モデル
251 判定結果欄
252 運動プログラム欄
253 口腔内モデル
261 ステータス結果欄
262 運動プログラム欄
263 頭顔部モデル

Claims (2)

  1. カメラを内蔵した端末装置と、
    ユーザの動作に関連する所定の機能の改善を支援する機能改善支援装置とを備え、
    前記端末装置は、前記カメラにより前記所定の機能に対応した動作を行う対象ユーザを撮影することにより得られる動画像データを前記機能改善支援装置に送信し、
    前記機能改善支援装置は、
    前記端末装置から前記動画像データを取得し、
    学習済みモデルに基づいて、取得した前記動画像データから、前記動画像データが示す動作に関連する前記所定の機能を改善するための運動プログラムを決定し、
    決定した前記運動プログラムの内容を示す情報を前記端末装置に提供し、
    前記学習済みモデルは、前記所定の機能に対応した動作ごとに、当該動作を行う複数のユーザについて取得された前記動画像データ、および各ユーザが実行した当該動作に関連する前記所定の機能を改善するための運動プログラムに基づいて機械学習され、前記動画像データに対応する前記運動プログラムの識別情報を出力するモデルであり
    記所定の機能は、片脚立位保持、座位保持、両脚立位保持、及び歩行の少なくとも1つを含む、
    機能改善支援システム。
  2. ユーザの動作に関連する所定の機能の改善を支援する機能改善支援装置であって、
    端末装置から、前記端末装置に内蔵されたカメラにより前記所定の機能に対応した動作を行う対象ユーザを撮影することにより得られる、前記対象ユーザの動画像データを取得し、
    学習済みモデルに基づいて、取得した前記動画像データから、前記動画像データが示す動作に関連する前記所定の機能を改善するための運動プログラムを決定し、
    決定した前記運動プログラムの内容を示す情報を前記端末装置に提供し、
    前記学習済みモデルは、前記所定の機能に対応した動作ごとに、当該動作を行う複数のユーザについて取得された前記動画像データ、および各ユーザが実行した当該動作に関連する前記所定の機能を改善するための運動プログラムに基づいて機械学習され、前記動画像データに対応する前記運動プログラムの識別情報を出力するモデルであり
    記所定の機能は、片脚立位保持、座位保持、両脚立位保持、及び歩行の少なくとも1つを含む、
    機能改善支援装置。
JP2020116283A 2019-08-08 2020-07-06 機能改善支援システム、および機能改善支援装置 Ceased JP6968458B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020116283A JP6968458B2 (ja) 2019-08-08 2020-07-06 機能改善支援システム、および機能改善支援装置
JP2021059538A JP2021101377A (ja) 2020-07-06 2021-03-31 機能改善支援システムおよび機能改善支援装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019146110A JP6775757B1 (ja) 2019-08-08 2019-08-08 機能改善支援システムおよび機能改善支援装置
JP2020116283A JP6968458B2 (ja) 2019-08-08 2020-07-06 機能改善支援システム、および機能改善支援装置

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019146110A Division JP6775757B1 (ja) 2019-08-08 2019-08-08 機能改善支援システムおよび機能改善支援装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021059538A Division JP2021101377A (ja) 2020-07-06 2021-03-31 機能改善支援システムおよび機能改善支援装置

Publications (3)

Publication Number Publication Date
JP2021026768A JP2021026768A (ja) 2021-02-22
JP2021026768A5 JP2021026768A5 (ja) 2021-04-30
JP6968458B2 true JP6968458B2 (ja) 2021-11-17

Family

ID=74664781

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020116283A Ceased JP6968458B2 (ja) 2019-08-08 2020-07-06 機能改善支援システム、および機能改善支援装置
JP2021059538A Pending JP2021101377A (ja) 2020-07-06 2021-03-31 機能改善支援システムおよび機能改善支援装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021059538A Pending JP2021101377A (ja) 2020-07-06 2021-03-31 機能改善支援システムおよび機能改善支援装置

Country Status (1)

Country Link
JP (2) JP6968458B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11071597B2 (en) 2019-10-03 2021-07-27 Rom Technologies, Inc. Telemedicine for orthopedic treatment
US20210128080A1 (en) 2019-10-03 2021-05-06 Rom Technologies, Inc. Augmented reality placement of goniometer or other sensors
US11515021B2 (en) 2019-10-03 2022-11-29 Rom Technologies, Inc. Method and system to analytically optimize telehealth practice-based billing processes and revenue while enabling regulatory compliance
US11978559B2 (en) 2019-10-03 2024-05-07 Rom Technologies, Inc. Systems and methods for remotely-enabled identification of a user infection
US11270795B2 (en) 2019-10-03 2022-03-08 Rom Technologies, Inc. Method and system for enabling physician-smart virtual conference rooms for use in a telehealth context
US11317975B2 (en) 2019-10-03 2022-05-03 Rom Technologies, Inc. Method and system for treating patients via telemedicine using sensor data from rehabilitation or exercise equipment
US11282599B2 (en) 2019-10-03 2022-03-22 Rom Technologies, Inc. System and method for use of telemedicine-enabled rehabilitative hardware and for encouragement of rehabilitative compliance through patient-based virtual shared sessions
US20210134458A1 (en) 2019-10-03 2021-05-06 Rom Technologies, Inc. System and method to enable remote adjustment of a device during a telemedicine session
US11282608B2 (en) 2019-10-03 2022-03-22 Rom Technologies, Inc. Method and system for using artificial intelligence and machine learning to provide recommendations to a healthcare provider in or near real-time during a telemedicine session
US20210134425A1 (en) 2019-10-03 2021-05-06 Rom Technologies, Inc. System and method for using artificial intelligence in telemedicine-enabled hardware to optimize rehabilitative routines capable of enabling remote rehabilitative compliance
US11515028B2 (en) 2019-10-03 2022-11-29 Rom Technologies, Inc. Method and system for using artificial intelligence and machine learning to create optimal treatment plans based on monetary value amount generated and/or patient outcome
US11075000B2 (en) 2019-10-03 2021-07-27 Rom Technologies, Inc. Method and system for using virtual avatars associated with medical professionals during exercise sessions
US11325005B2 (en) 2019-10-03 2022-05-10 Rom Technologies, Inc. Systems and methods for using machine learning to control an electromechanical device used for prehabilitation, rehabilitation, and/or exercise
US20210134412A1 (en) 2019-10-03 2021-05-06 Rom Technologies, Inc. System and method for processing medical claims using biometric signatures
US11069436B2 (en) 2019-10-03 2021-07-20 Rom Technologies, Inc. System and method for use of telemedicine-enabled rehabilitative hardware and for encouraging rehabilitative compliance through patient-based virtual shared sessions with patient-enabled mutual encouragement across simulated social networks
US20210134432A1 (en) 2019-10-03 2021-05-06 Rom Technologies, Inc. Method and system for implementing dynamic treatment environments based on patient information
US11282604B2 (en) 2019-10-03 2022-03-22 Rom Technologies, Inc. Method and system for use of telemedicine-enabled rehabilitative equipment for prediction of secondary disease
US20210127974A1 (en) 2019-10-03 2021-05-06 Rom Technologies, Inc. Remote examination through augmented reality
US11139060B2 (en) 2019-10-03 2021-10-05 Rom Technologies, Inc. Method and system for creating an immersive enhanced reality-driven exercise experience for a user
US20210142893A1 (en) 2019-10-03 2021-05-13 Rom Technologies, Inc. System and method for processing medical claims

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005006751A (ja) * 2003-06-17 2005-01-13 Yaskawa Electric Corp 歩行訓練装置
WO2010086447A2 (en) * 2009-01-31 2010-08-05 Enda Patrick Dodd A method and system for developing language and speech
JP2012157427A (ja) * 2011-01-31 2012-08-23 Toshiyuki Chiba 呼吸訓練用の入力装置
JP5694206B2 (ja) * 2012-01-11 2015-04-01 日本電信電話株式会社 運動管理装置、運動管理方法及びプログラム
JP6046913B2 (ja) * 2012-05-09 2016-12-21 テルモ株式会社 言語療法ロボット及び言語療法システム
FR3011188B1 (fr) * 2013-09-27 2020-11-27 Brgm Dispositif de piegeage d'arsenic
JP6234563B2 (ja) * 2014-05-22 2017-11-22 株式会社日立製作所 訓練システム
JP6645658B2 (ja) * 2014-10-03 2020-02-14 国立大学法人豊橋技術科学大学 移動訓練支援装置
CA3020982A1 (en) * 2016-04-14 2017-10-19 MedRhythms, Inc. Systems and methods for neurologic rehabilitation
JP6276456B1 (ja) * 2017-07-10 2018-02-07 株式会社FiNC ユーザの姿勢を評価するための方法およびシステム
JP6429301B1 (ja) * 2018-01-11 2018-11-28 株式会社元気広場 動作獲得支援装置、動作獲得支援システム、及び、動作獲得支援装置の制御方法

Also Published As

Publication number Publication date
JP2021026768A (ja) 2021-02-22
JP2021101377A (ja) 2021-07-08

Similar Documents

Publication Publication Date Title
JP6968458B2 (ja) 機能改善支援システム、および機能改善支援装置
JP6775757B1 (ja) 機能改善支援システムおよび機能改善支援装置
JP4231876B2 (ja) トレーニングシステム、操作端末、及びトレーニング支援プログラムを記録したコンピュータ読み取り可能な記録媒体
US20180078184A1 (en) Dual-task performing ability evaluation method and dual-task performing ability evaluation system
JP4565220B2 (ja) 医療用実習装置
JP2006320424A (ja) 動作教示装置とその方法
Baran et al. Design of a home-based adaptive mixed reality rehabilitation system for stroke survivors
JP6757010B1 (ja) 動作評価装置、動作評価方法、動作評価システム
WO2003045252A1 (fr) Appareil d'evaluation de capacite de jugement, robot, procede d'evaluation de capacite de jugement, programme et support
CN116807476B (zh) 基于界面式情感交互的多模态心理健康评估系统及方法
US20230404451A1 (en) Sightline-position determination device, sightline-position determination method, and training method
JP2020081088A (ja) 情報処理装置、情報処理システム、および、プログラム
KR20180097343A (ko) 심폐 소생술 훈련 시스템
JP2019024579A (ja) リハビリテーション支援システム、リハビリテーション支援方法及びプログラム
Donker et al. REHAP Balance Tiles: a modular system supporting balance rehabilitation
KR20180097334A (ko) 심폐 소생술 훈련 시뮬레이션 방법
JP2020189073A (ja) 運動器機能向上支援システム及び運動器機能向上の支援方法
WO2021205956A1 (ja) 生活機能評価システム、生活機能評価プログラム及び生活機能評価方法
Williams et al. Development and initial validation of the Effort Sense Rating Scale (ESRS): a self-perceived index of physical fitness
Romero et al. Designing and prototyping intelligent products for users with disabilities, a teaching experience
JP7303595B1 (ja) プログラム、情報処理装置、および情報処理方法
KR101945338B1 (ko) 체력 측정 진단에 대한 체력 개선 시스템
JP2020190786A (ja) 運動器機能向上支援装置、運動器機能向上支援システム及び運動器機能向上の支援方法
JP5395402B2 (ja) 視覚・脳・筋協働性トレーニング装置
JP2005192647A (ja) 認知機能障害改善システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210315

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210315

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210402

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210622

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210709

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211020

R150 Certificate of patent or registration of utility model

Ref document number: 6968458

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

RVOP Cancellation by post-grant opposition