JP2020140620A - 介護記録作成支援システム及びプログラム - Google Patents
介護記録作成支援システム及びプログラム Download PDFInfo
- Publication number
- JP2020140620A JP2020140620A JP2019037465A JP2019037465A JP2020140620A JP 2020140620 A JP2020140620 A JP 2020140620A JP 2019037465 A JP2019037465 A JP 2019037465A JP 2019037465 A JP2019037465 A JP 2019037465A JP 2020140620 A JP2020140620 A JP 2020140620A
- Authority
- JP
- Japan
- Prior art keywords
- text
- data
- voice
- care record
- care
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】通常の介護業務中における介護者の負担を軽減するとともに介護者の音声による正確な介護記録の作成を可能とする。【解決手段】介護記録作成支援システム1が、介護者2が発する介護業務に係る音声データを取得する音声取得手段と、音声データを認識し、テキストデータに変換する音声認識・テキスト変換手段11aと、テキストデータに基づいて介護記録を作成する介護記録作成手段11cと、介護者2による介護記録の確認を可能とする表示手段と、必要に応じた介護記録の修正を可能とする修正手段と、介護記録を最終的に確定させる確定手段と、音声データと、音声データから変換されたテキストデータと、確定手段によって確定された介護記録に最終的に採用されたテキストデータと、に基づいて、音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習を行う音声データ学習手段11dと、を備える。【選択図】図1
Description
本発明は、介護記録作成支援システム及びプログラムに関する。
従来、介護施設において、介護者は、通常の介護業務とは別に、被介護者の介護状況を介護記録として記録する業務を行っている。しかしながら、通常の介護業務を行いながら介護記録を作成することは、介護者にとって負担となる場合がある。
特許文献1には、マイクとヘッドホンを装着した介護者とシステムとの間で音声のやり取りを行い、システムによって認識された介護者の音声による介護報告に基づき、介護記録を蓄積して管理する技術が開示されている。このような技術によれば、手ぶらで音声による報告を行うことができ、蓄積された介護記録を報告書として出力することも可能となっている。
ところが、特許文献1に記載の技術は、介護者とシステムとの間で音声による受け答えを行うことが前提となっている。そのため、介護者は、システムからの応答音声を聞き逃さないようにしつつ、通常の介護業務を行う必要があり、必ずしも負担軽減に繋がらない場合がある。
そこで、システムからの応答がなく、介護者の音声のみによって介護記録を作成することが可能な技術の開発が求められている。しかしながら、介護者の音声のみで介護記録の作成を行うと、システムによる確認がその場で行われないため、介護記録を正確に作成できない場合があった。
本発明は、上記の事情に鑑みてなされたものであり、その課題は、通常の介護業務中における介護者の負担を軽減するとともに介護者の音声による正確な介護記録の作成を可能とすることである。
請求項1に記載の発明は、例えば図1〜図5に示すように、介護記録作成支援システム1であって、
介護者2が発する被介護者の介護業務に係る音声データを取得する音声取得手段(例えばヘッドセットマイク3及び通信用端末4)と、
前記音声取得手段によって取得した前記音声データを認識し、テキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b)に変換する音声認識・テキスト変換手段11aと、
前記音声認識・テキスト変換手段11aによって前記音声データから変換されたテキストデータに基づいて介護記録を作成する介護記録作成手段11cと、
前記介護記録作成手段11cによって作成された前記介護記録を表示して介護者2による確認を可能とする表示手段(例えば表示部13、タッチパネル21)と、
前記表示手段に表示された前記介護記録の、介護者2による必要に応じた修正を可能とする修正手段(例えば入力部14、タッチパネル21)と、
介護者2による確認と必要に応じた修正とが完了した状態の前記介護記録を最終的に確定させる確定手段(例えば介護記録確定ボタン33)と、
前記音声データと、前記音声データから変換されたテキストデータと、前記確定手段によって確定された前記介護記録に最終的に採用されたテキストデータ(例えばテキスト確定データ12d)と、に基づいて、前記音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習を行う音声データ学習手段11dと、を備えることを特徴とする。
介護者2が発する被介護者の介護業務に係る音声データを取得する音声取得手段(例えばヘッドセットマイク3及び通信用端末4)と、
前記音声取得手段によって取得した前記音声データを認識し、テキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b)に変換する音声認識・テキスト変換手段11aと、
前記音声認識・テキスト変換手段11aによって前記音声データから変換されたテキストデータに基づいて介護記録を作成する介護記録作成手段11cと、
前記介護記録作成手段11cによって作成された前記介護記録を表示して介護者2による確認を可能とする表示手段(例えば表示部13、タッチパネル21)と、
前記表示手段に表示された前記介護記録の、介護者2による必要に応じた修正を可能とする修正手段(例えば入力部14、タッチパネル21)と、
介護者2による確認と必要に応じた修正とが完了した状態の前記介護記録を最終的に確定させる確定手段(例えば介護記録確定ボタン33)と、
前記音声データと、前記音声データから変換されたテキストデータと、前記確定手段によって確定された前記介護記録に最終的に採用されたテキストデータ(例えばテキスト確定データ12d)と、に基づいて、前記音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習を行う音声データ学習手段11dと、を備えることを特徴とする。
請求項1に記載の発明によれば、音声取得手段によって、介護者2が発する被介護者の介護業務に係る音声データを取得し、これに基づいて介護記録を作成することができる。これにより、介護者2の音声のみによって介護記録を作成することが可能となり、介護者2とシステムとの間で音声による受け答えが必要なくなるので、介護業務中における介護者2の負担を軽減することができる。
さらに、介護記録作成手段11cによって作成された介護記録を、介護者2自身が確認でき、必要に応じて修正を行うことができるので、介護記録を正確に作成することが可能となる。
しかも、介護者2が発した介護業務に係る音声データと、介護者2による確認と必要に応じた修正とが行われた結果としてのテキストデータ(例えばテキスト確定データ12d)と、があり、その途中経過として、音声認識・テキスト変換手段11aによって音声データからテキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)への変換が行われるので、音声認識・テキスト変換手段11aによるテキスト変換機能が正しかったか、誤りがあったかを容易に判断することができる。そのため、音声データ学習手段11dによる音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習が行いやすい。そして、音声認識・テキスト変換手段11aによる音声データからテキストデータへの変換と、介護者2による確認及び必要に応じた修正と、が被介護者の介護を行うたびに行われることになるので、結果的に、音声データからテキストデータへの変換精度が高まり、介護者2の音声による正確な介護記録の作成が可能となる。
さらに、介護記録作成手段11cによって作成された介護記録を、介護者2自身が確認でき、必要に応じて修正を行うことができるので、介護記録を正確に作成することが可能となる。
しかも、介護者2が発した介護業務に係る音声データと、介護者2による確認と必要に応じた修正とが行われた結果としてのテキストデータ(例えばテキスト確定データ12d)と、があり、その途中経過として、音声認識・テキスト変換手段11aによって音声データからテキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)への変換が行われるので、音声認識・テキスト変換手段11aによるテキスト変換機能が正しかったか、誤りがあったかを容易に判断することができる。そのため、音声データ学習手段11dによる音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習が行いやすい。そして、音声認識・テキスト変換手段11aによる音声データからテキストデータへの変換と、介護者2による確認及び必要に応じた修正と、が被介護者の介護を行うたびに行われることになるので、結果的に、音声データからテキストデータへの変換精度が高まり、介護者2の音声による正確な介護記録の作成が可能となる。
請求項2に記載の発明は、例えば図2〜図5に示すように、請求項1に記載の介護記録作成支援システム1において、
前記音声認識・テキスト変換手段11aによって前記音声データから変換されたテキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)を文節ごとに区切り、区切られた文節の内容が、前記介護記録のうち、どの入力事項に対応するか解析を行うテキスト解釈手段11bを更に備え、
前記介護記録作成手段11cは、前記テキスト解釈手段11bによって解釈されたテキストデータ(例えばテキスト解釈結果データ12c)に基づいて前記介護記録を作成することを特徴とする。
前記音声認識・テキスト変換手段11aによって前記音声データから変換されたテキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)を文節ごとに区切り、区切られた文節の内容が、前記介護記録のうち、どの入力事項に対応するか解析を行うテキスト解釈手段11bを更に備え、
前記介護記録作成手段11cは、前記テキスト解釈手段11bによって解釈されたテキストデータ(例えばテキスト解釈結果データ12c)に基づいて前記介護記録を作成することを特徴とする。
請求項2に記載の発明によれば、テキスト解釈手段11bによって、音声データから変換されたテキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)を文節ごとに区切り、区切られた文節の内容が、介護記録のうち、どの入力事項に対応するか解析を行うので、音声データから変換されたテキストデータが長文になっても的確に解釈でき、介護記録作成手段11cによって介護記録を作成しやすくなる。
請求項3に記載の発明は、例えば図2〜図5に示すように、請求項1又は2に記載の介護記録作成支援システム1において、
前記音声認識・テキスト変換手段11aは、前記音声データをテキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)に変換する場合に、少なくとも一つの変換候補(例えば第一テキストデータ12a)を抽出し、
前記音声認識・テキスト変換手段11aによって抽出された前記テキストデータの変換候補が複数ある場合に、前記介護記録作成手段11cは、前記介護記録の作成時に採用されなかった変換候補(例えば第二テキストデータ12b等)を、前記表示手段(例えば表示部13、タッチパネル21)において修正候補として提示することを特徴とする。
前記音声認識・テキスト変換手段11aは、前記音声データをテキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)に変換する場合に、少なくとも一つの変換候補(例えば第一テキストデータ12a)を抽出し、
前記音声認識・テキスト変換手段11aによって抽出された前記テキストデータの変換候補が複数ある場合に、前記介護記録作成手段11cは、前記介護記録の作成時に採用されなかった変換候補(例えば第二テキストデータ12b等)を、前記表示手段(例えば表示部13、タッチパネル21)において修正候補として提示することを特徴とする。
請求項3に記載の発明によれば、音声認識・テキスト変換手段11aによるテキスト変換の際には採用されなかったテキストデータ(例えば第二テキストデータ12b等)を、修正候補として提示できるので、介護者2は、修正候補を見て容易に修正を行うことができる。
さらに、音声認識・テキスト変換手段11aによって抽出されたテキストデータの変換候補が複数ある場合に、どのような変換候補のテキストデータが、音声認識・テキスト変換手段11aによって最適な変換候補として抽出されるか、その傾向を知ることができるので、音声データ学習手段11dによる、音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習精度の向上に貢献できる。
さらに、音声認識・テキスト変換手段11aによって抽出されたテキストデータの変換候補が複数ある場合に、どのような変換候補のテキストデータが、音声認識・テキスト変換手段11aによって最適な変換候補として抽出されるか、その傾向を知ることができるので、音声データ学習手段11dによる、音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習精度の向上に貢献できる。
請求項4に記載の発明は、例えば図2に示すように、プログラムであって、
介護者2が発する被介護者の介護業務に係る音声データを認識し、テキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)に変換する音声認識・テキスト変換手段11aと、
前記音声データから変換されたテキストデータ(例えば第一テキストデータ12a)に基づいて、介護者2によって前記テキストデータが修正可能に構成された介護記録を作成する介護記録作成手段11cと、を備えたコンピューター(例えばサーバー10)を、
前記音声データと、前記音声データから変換されたテキストデータ(例えば第一テキストデータ12a)と、前記介護記録に最終的に採用されたテキストデータ(例えばテキスト確定データ12d)と、に基づいて、前記音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習を行う音声データ学習手段11dとして機能させることを特徴とする。
介護者2が発する被介護者の介護業務に係る音声データを認識し、テキストデータ(例えば第一テキストデータ12a、第二テキストデータ12b等)に変換する音声認識・テキスト変換手段11aと、
前記音声データから変換されたテキストデータ(例えば第一テキストデータ12a)に基づいて、介護者2によって前記テキストデータが修正可能に構成された介護記録を作成する介護記録作成手段11cと、を備えたコンピューター(例えばサーバー10)を、
前記音声データと、前記音声データから変換されたテキストデータ(例えば第一テキストデータ12a)と、前記介護記録に最終的に採用されたテキストデータ(例えばテキスト確定データ12d)と、に基づいて、前記音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習を行う音声データ学習手段11dとして機能させることを特徴とする。
請求項4に記載の発明によれば、コンピューター(例えばサーバー10)を、介護者2が発した介護業務に係る音声データと、音声認識・テキスト変換手段11aによって音声データから変換されたテキストデータ(例えば第一テキストデータ12a)と、介護記録に最終的に採用されたテキストデータ(例えばテキスト確定データ12d)と、に基づいて、音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習を行う音声データ学習手段11dとして機能させるので、音声認識・テキスト変換手段11aによるテキスト変換機能が正しかったか、誤りがあったかを容易に判断することができる。そのため、音声データ学習手段11dによる音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習が行いやすい。そして、音声認識・テキスト変換手段11aによる音声データからテキストデータへの変換と、介護者2による確認及び必要に応じた修正と、が被介護者の介護を行うたびに行われることになるので、結果的に、音声データからテキストデータへの変換精度が高まり、介護者2の音声による正確な介護記録の作成が可能となる。
本発明によれば、通常の介護業務中における介護者の負担を軽減できるとともに介護者の音声による正確な介護記録の作成を行うことが可能となる。
以下、図面を参照して本発明の実施の形態について説明する。ただし、以下に述べる実施形態には、本発明を実施するために技術的に好ましい種々の限定が付されているが、本発明の技術的範囲を以下の実施形態および図示例に限定するものではない。
図1において符号1は、介護記録作成支援システムを示す。この介護記録作成支援システム1は、介護者2が装着するヘッドセットマイク3と、介護者2が所持する通信用端末4と、サーバー10と、介護記録作成用端末20(以下、作成用端末20)と、を含んで構成されている。
そして、ヘッドセットマイク3と通信用端末4は、有線又は無線(例えばBluetooth:登録商標)によりデータ通信可能に接続されている。さらに、通信用端末4とサーバー10、サーバー10と作成用端末20は、通信ネットワークNによってデータ通信可能に接続されている。すなわち、これらヘッドセットマイク3及び通信用端末が、サーバー10に対する音声取得手段として機能している。
なお、通信ネットワークNは、特に限定されるものではなく、適宜変更可能であるが、本実施形態においては、例えば移動体通信網や、LAN(Local Area Network)、インターネットなどのWAN(Wide Area Network)等により適宜構成されるものとする。
介護者2が装着するヘッドセットマイク3は、介護者2の発する被介護者の介護業務に係る音声を取得し、通信用端末4に対して当該音声の入力を行うためのものである。本実施形態におけるヘッドセットマイク3は、装着部が介護者の耳や頭部に装着され、装着部から伸びるマイク部が介護者の口元に配置される。
通信用端末4は、例えばスマートフォン等の携帯電話機であり、ヘッドセットマイク3から送信された音声データを受信し、更にその音声データを、通信ネットワークNを介してサーバー10に送信(アップロード)する。なお、介護者2が音声入力を開始する場合は、合図となる掛け声を発し、その後に介護記録に入力すべき情報に係る声を発するようにする。
ヘッドセットマイク3における各種設定は、この通信用端末4側で行うことができる。このような各種設定のうち、サーバー10への音声データの送信設定は、ヘッドセットマイク3で取得した音声が、予め決められた一定以上の音量を超えたときのみ行われるよう設定されている。すなわち、ヘッドセットマイク3で取得した音声が一定以上であるか否かの判断は、通信用端末4に備えられた制御部が、予め記憶された音量判断プログラムを実行することによって行われる。
サーバー10は、介護施設や施設運営会社等によって管理されており、制御部11、記憶部12、表示部13、入力部14、通信部15等を有するコンピューターである。このサーバー10は、制御部11が実行する制御用プログラム(図示省略)に基づいてサーバー10全体の制御を行う。
制御部11は、例えばマイクロプロセッサーであり、記憶部12内に格納されている制御用プログラム(図示省略)に基づいて、音声認識・テキスト変換手段11a、テキスト解釈手段11b、介護記録作成手段11c、音声データ学習手段11dとしての機能を実行する。
記憶部12は、ハードディスクドライブやフラッシュメモリー等の大容量記憶媒体、及びROM、RAM等の半導体記憶媒体を備える。この記憶部12には上記の制御用プログラムが格納されているとともに、制御部11の制御動作時に必要とされる各種データが格納される。また、この記憶部12には、第一テキストデータ12a、第二テキストデータ12b、テキスト解釈結果データ12c、テキスト確定データ12d、学習結果データ12eが記憶されている。
なお、図示はしないが、介護者2の名前データと、被介護者の名前及び部屋番号のデータも予め記憶部12に記憶され、システムに登録されているものとする。
なお、図示はしないが、介護者2の名前データと、被介護者の名前及び部屋番号のデータも予め記憶部12に記憶され、システムに登録されているものとする。
表示部13は、サーバー10における表示装置であり、例えば液晶ディスプレイ等が採用される。本実施形態における表示部13は、サーバー10に対して出力インターフェースを介して接続されており、制御部11による表示制御信号に基づいて表示面に表示画面を表示する。
また、この表示部13は、介護記録作成支援システム1によって作成された介護記録を表示して介護者2による確認を可能とする表示手段として機能する。
また、この表示部13は、介護記録作成支援システム1によって作成された介護記録を表示して介護者2による確認を可能とする表示手段として機能する。
入力部14は、サーバー10における入力装置であり、例えばキーボードやマウス等が採用される。本実施形態における入力部14は、サーバー10に対して入力インターフェースを介して接続されており、表示部13における表示画面に対して文字等の入力を行うことができる。
また、この入力部14は、表示部13に表示された介護記録の、介護者2による必要に応じた修正を可能とする修正手段として機能する。
また、この入力部14は、表示部13に表示された介護記録の、介護者2による必要に応じた修正を可能とする修正手段として機能する。
通信部15は、制御部11からの通信信号を受け入れ、通信ネットワークNにこの通信信号を送出する。また、通信部15は、通信ネットワークNからの通信信号を受け入れ、制御部11にこの通信信号を出力する。本実施形態における通信部15は、サーバー10に対して通信インターフェースを介して接続されている。
制御部11は、音声認識・テキスト変換手段11aとして機能し、音声取得手段であるヘッドセットマイク3及び通信用端末4によって取得されて通信ネットワークNを介してサーバー10に送信された音声データを認識し、テキストデータに変換する。
例えば、介護者2が被介護者の介護業務中、音声入力を開始する合図となる掛け声の後に「101(被介護者の介護施設における部屋番号を指す。)の体温は36.5」と音声入力すると、制御部11は、それを認識し、テキストデータ(文字情報)に変換する。
音声データからテキストデータに変換される場合、制御部11の内部処理として、変換候補となる複数(一つの場合もあり)のテキストデータが抽出される。このうち、制御部11によって最適な変換候補(第一候補)として判断されたテキストデータが、第一テキストデータ12aとして記憶部12に記憶される。また、二番手の変換候補(第二候補)として判断されたテキストデータも、第二テキストデータ12bとして記憶部12に記憶される。
なお、第二候補である第二テキストデータ12bは、必ずしも抽出される必要はなく、ゼロ(第二候補なし)であってもよいし、反対に、三番手以降の変換候補が抽出されてもよい。
例えば、介護者2が被介護者の介護業務中、音声入力を開始する合図となる掛け声の後に「101(被介護者の介護施設における部屋番号を指す。)の体温は36.5」と音声入力すると、制御部11は、それを認識し、テキストデータ(文字情報)に変換する。
音声データからテキストデータに変換される場合、制御部11の内部処理として、変換候補となる複数(一つの場合もあり)のテキストデータが抽出される。このうち、制御部11によって最適な変換候補(第一候補)として判断されたテキストデータが、第一テキストデータ12aとして記憶部12に記憶される。また、二番手の変換候補(第二候補)として判断されたテキストデータも、第二テキストデータ12bとして記憶部12に記憶される。
なお、第二候補である第二テキストデータ12bは、必ずしも抽出される必要はなく、ゼロ(第二候補なし)であってもよいし、反対に、三番手以降の変換候補が抽出されてもよい。
また、制御部11は、テキスト解釈手段11bとして機能し、音声認識・テキスト変換手段11aによって音声データから変換されたテキストデータ(第一テキストデータ12a)の解釈(解析)を行う。つまり、テキスト解釈手段11bは、介護業務中に音声入力した介護者2が発した言葉(音声データから変換されたテキストデータ)を、意味のある文章として認識しようとするプログラムであり、介護者2が発した言葉(音声データ)が、どの被介護者を指しているのか、どの種別を指しているのか、どのような内容なのか、それぞれ分類して解釈する。
より詳細には、音声データから変換されたテキストデータを文節ごとに区切り、区切られた文節の内容が、介護業務における複数の入力事項のうち、どの入力事項に対応しているかを解析する。例えば、音声データから変換された第一テキストデータ12aが、「101の体温は36.5」であれば、制御部11は、「101の」「体温は」「36.5」と文節ごとに区切り、「対象:101、種別:体温、体温:36.5」であると解釈する。つまり、介護対象が101の被介護者であり、介護種別が体温測定であり、その体温が36.5度であると解釈する。
そして、解釈されたテキストデータは、テキスト解釈結果データ12cとして記憶部12に記憶される。テキスト解釈結果データ12cは、介護記録作成手段11cによる介護記録の作成時に使用される。
ただし、テキスト解釈手段11bによる解釈が間違っている場合もあり、その間違った解釈に基づくテキスト解釈結果データ12cも、介護記録作成手段11cによる介護記録の作成時に使用されることになる(介護者2によって修正される)。
より詳細には、音声データから変換されたテキストデータを文節ごとに区切り、区切られた文節の内容が、介護業務における複数の入力事項のうち、どの入力事項に対応しているかを解析する。例えば、音声データから変換された第一テキストデータ12aが、「101の体温は36.5」であれば、制御部11は、「101の」「体温は」「36.5」と文節ごとに区切り、「対象:101、種別:体温、体温:36.5」であると解釈する。つまり、介護対象が101の被介護者であり、介護種別が体温測定であり、その体温が36.5度であると解釈する。
そして、解釈されたテキストデータは、テキスト解釈結果データ12cとして記憶部12に記憶される。テキスト解釈結果データ12cは、介護記録作成手段11cによる介護記録の作成時に使用される。
ただし、テキスト解釈手段11bによる解釈が間違っている場合もあり、その間違った解釈に基づくテキスト解釈結果データ12cも、介護記録作成手段11cによる介護記録の作成時に使用されることになる(介護者2によって修正される)。
テキスト解釈手段11bによって解釈される介護種別には、上記の「体温」以外にも様々なものがある。大きな概念では、被介護者の健康状態(バイタル)に関連する介護種別と、被介護者の飲食に関連する介護種別と、被介護者の排泄に関連する介護種別と、その他の日常生活に関連する介護種別と、に区分されている。
健康状態に関連する介護種別には、上記の体温や、血圧、体重、脈拍、血中酸素濃度等の介護種別が含まれている。健康状態に関連する介護種別の場合、基本的には測定した数値を言えば、その数値が介護記録に入力される。ただし、血圧のように、複数の数値(最高血圧、最低血圧)がある場合は、それらの数値を全て言って入力する必要がある。
飲食に関連する介護種別には、食事(朝食、昼食、夕食)、おやつ、水分等の介護種別が含まれている。食事の場合は、主食を食べた割合、副食を食べた割合、食事の様態(普通食、キザミ食、軟菜、ゼリー食、ミキサー食)を更に入力することができる。
排泄に関連する介護種別には、排便、排尿の介護種別が含まれている。
また、その他の日常生活に関連する介護種別には、睡眠、お風呂(入浴、シャワー)、清潔(髭剃り、耳掃除、爪切り等)等の介護種別が含まれている。
また、その他の日常生活に関連する介護種別には、睡眠、お風呂(入浴、シャワー)、清潔(髭剃り、耳掃除、爪切り等)等の介護種別が含まれている。
以上のような介護種別の種類は、記憶部12に予め記憶されている。すなわち、テキスト解釈手段11bによってテキストデータを解釈(解析)する場合に、ある程度の選択肢が用意された状態となっているため、テキスト解釈手段11bによってテキストデータを解釈しやすい。
なお、介護業務では、上記の介護種別に括られない業務も存在する。そのようなときのために、「ケア」、「その他」と音声入力することによって自由文の音声入力が可能となっている。例えば「101のケアで散歩」などのように、「ケア」や「その他」を使うことで、上記の種別とは異なる種別として音声入力を行い、テキスト解釈を行うことができる。
なお、介護業務では、上記の介護種別に括られない業務も存在する。そのようなときのために、「ケア」、「その他」と音声入力することによって自由文の音声入力が可能となっている。例えば「101のケアで散歩」などのように、「ケア」や「その他」を使うことで、上記の種別とは異なる種別として音声入力を行い、テキスト解釈を行うことができる。
なお、介護者2が、音声入力を開始する合図となる掛け声の後、又は部屋番号の後に時刻を言うことで、その時刻も介護記録に入力することができる。午前か午後かの判別は自動的に行われる。また、時刻を指定しなかった場合は、音声入力が開始された時刻を自動的に入力することも可能となっている。
また、制御部11は、介護記録作成手段11cとして機能し、テキスト解釈手段11bによって解釈されたテキストデータ(テキスト解釈結果データ12c)に基づいて、予め記憶された介護記録のフォーマットに対してデータ入力を行う。また、制御部11は、介護記録作成手段11cを実行することによって、フォーマットにデータ入力された介護記録における要修正箇所のピックアップを行うことができる。
解釈されたテキストデータが入力された介護記録のデータは、サーバー10における表示部13及び介護記録作成用端末20における表示部(タッチパネル21)のうち少なくとも一方に表示することができる。さらに、サーバー10における入力部14及び介護記録作成用端末20における入力部(タッチパネル21)のうち少なくとも一方によってデータの変更(修正)、削除、手動登録等を行うことができる。
解釈されたテキストデータが入力された介護記録のデータは、サーバー10における表示部13及び介護記録作成用端末20における表示部(タッチパネル21)のうち少なくとも一方に表示することができる。さらに、サーバー10における入力部14及び介護記録作成用端末20における入力部(タッチパネル21)のうち少なくとも一方によってデータの変更(修正)、削除、手動登録等を行うことができる。
介護記録作成用端末20は、制御部、記憶部、表示部、入力部、通信部等を有するコンピューターであり、本実施形態においてはタブレット型パーソナルコンピューター(いわゆるタブレット端末)が採用されている。タブレット端末である介護記録作成用端末20は、表示部及び入力部として機能するタッチパネル21が筐体正面に設けられている。
また、タッチパネル21は、介護記録作成支援システム1によって作成された介護記録を表示して介護者2による確認を可能とする表示手段として機能する。さらに、このタッチパネル21は、表示部としてのタッチパネル21に表示された介護記録の、介護者2による必要に応じた修正を可能とする修正手段として機能する。
なお、本実施形態においては、介護記録作成用端末20が用いられるが、これに限られるものではなく、スマートフォン等の携帯電話機でもよいし、ラップトップ型パーソナルコンピューター(いわゆるノートパソコン)でもよい。
また、タッチパネル21は、介護記録作成支援システム1によって作成された介護記録を表示して介護者2による確認を可能とする表示手段として機能する。さらに、このタッチパネル21は、表示部としてのタッチパネル21に表示された介護記録の、介護者2による必要に応じた修正を可能とする修正手段として機能する。
なお、本実施形態においては、介護記録作成用端末20が用いられるが、これに限られるものではなく、スマートフォン等の携帯電話機でもよいし、ラップトップ型パーソナルコンピューター(いわゆるノートパソコン)でもよい。
図3は、介護記録作成手段11cによって作成された介護記録のうちの一部が、介護記録作成用端末20におけるタッチパネル21に表示された状態を示している。なお、介護記録作成用端末20は介護者2ごとに所持し、介護記録の閲覧はどの介護記録作成用端末20でも可能だが、介護記録の編集は各個人が所持する介護記録作成用端末20か、若しくはサーバー10でのみ可能となっている。
画面の上端部には、複数のタブ30a〜30eが表示されている。タブ30aはトップ画面、タブ30bはスタッフ(介護者2)別介護記録画面、タブ30cは利用者(被介護者)別介護記録画面、タブ30dは介護状況画面、タブ30eはバイタル・排泄画面にそれぞれに移行する際に押される(タップされる)ものである。
図3に示す画面が、上記のスタッフ別介護記録画面であり、介護者2ごとに介護記録を確認することができるようになっている。この画面には、介護記録を作成した日付及び介護者2の名前を表示する欄31、介護記録表示欄32、介護記録確定ボタン33、介護記録追加ボタン34が表示されている。
日付及び介護者2の名前を表示する欄31では、「▼」が表示されたボタン31aを押すことで、スタッフ(介護者2)の名前のプルダウンリストが表示され、名前を押すと、その担当者の介護記録を閲覧できるようになっている。
介護記録表示欄32には、介護業務ごとに項目分けされた介護記録が時間順に並べられて表示される。介護業務の各項目には、日付、時間、被介護者の名前、介護業務内容、自由文、介護記録確定ボタン33が表示される。
介護記録確定ボタン33は、チェックボックスが表示されており、各項目の介護業務に問題がない場合に押すことで、チェックボックス内にチェックが入り、その介護業務は確認完了状態となる。確認完了状態では編集が不可となるので、編集を行う場合は、介護記録確定ボタン33を再度押してチェックボックスからチェックを外した状態とする。すなわち、チェックボックスにチェックが入っていない状態の介護記録は、「仮」の状態であり、介護者2によってチェックボックスにチェックが入れられることで、「正式」の状態となる。換言すれば、介護者2によってチェックボックスにチェックが入れられることで、仮介護記録から本介護記録に変更される。
このような介護記録確定ボタン33は、制御部11と、記憶部12に格納された図示しない介護記録確定プログラムとの協同により確定手段として機能する。
介護記録確定ボタン33は、チェックボックスが表示されており、各項目の介護業務に問題がない場合に押すことで、チェックボックス内にチェックが入り、その介護業務は確認完了状態となる。確認完了状態では編集が不可となるので、編集を行う場合は、介護記録確定ボタン33を再度押してチェックボックスからチェックを外した状態とする。すなわち、チェックボックスにチェックが入っていない状態の介護記録は、「仮」の状態であり、介護者2によってチェックボックスにチェックが入れられることで、「正式」の状態となる。換言すれば、介護者2によってチェックボックスにチェックが入れられることで、仮介護記録から本介護記録に変更される。
このような介護記録確定ボタン33は、制御部11と、記憶部12に格納された図示しない介護記録確定プログラムとの協同により確定手段として機能する。
介護記録追加ボタン34は、例えば音声データの取得し忘れなどが起きた場合に、介護業務の項目を追加する場合に押すボタンである。すなわち、介護記録表示欄32における介護業務の項目を増やすことができる。
介護記録表示欄32に表示された介護業務の各項目において必要な情報が不足していると、項目内に「要修正」と表示され、介護記録確定ボタン33を押してもチェックボックスにチェックを入れられない状態となる。その場合は、当該項目をタップすることで編集画面へと移行する。
図4は各項目の編集画面であり、特に「要修正」が表示された場合の画面表示となっている。なお、各項目の編集は「要修正」が表示されなくても、介護記録確定ボタン33を押してチェックボックスにチェックを入れる前であれば可能となっている。
「閉じる」と表示されたボタン40は、編集画面を閉じて直前まで表示していた画面に戻るためのものであり、図3のスタッフ別介護記録画面から図4の編集画面に移行してきた場合は、閉じるボタン40を押すことで図3のスタッフ別介護記録画面に戻る。
「要修正」と表示されたボックス41は、図3のスタッフ別介護記録画面における介護記録表示欄32の各項目に「要修正」と表示され、かつ、図4の編集画面中に要修正事項がある場合に表示される。
「要修正」と表示されたボックス41は、図3のスタッフ別介護記録画面における介護記録表示欄32の各項目に「要修正」と表示され、かつ、図4の編集画面中に要修正事項がある場合に表示される。
符号42は、編集を行っている人の名前を表示させる欄であり、基本的には、図3における日付及び介護者2の名前を表示する欄31に表示された介護者2の名前が表示されるが、図4の編集画面で修正することも可能となっている。
介護者2の名前を修正する場合は、欄42をタップしてアクティブ状態とし、介護記録作成用端末20における入力部(タッチパネル21)によって正しい情報を入力する。正しい情報の入力は、例えば、タッチパネル21に表示されるソフトウェアキーボードから直接入力するか、上記の欄31と同様に、システムに登録された全介護者2の名前のプルダウンリストを表示させる「▼」のボタンを設定して修正できるようにしてもよい。
介護者2の名前を修正する場合は、欄42をタップしてアクティブ状態とし、介護記録作成用端末20における入力部(タッチパネル21)によって正しい情報を入力する。正しい情報の入力は、例えば、タッチパネル21に表示されるソフトウェアキーボードから直接入力するか、上記の欄31と同様に、システムに登録された全介護者2の名前のプルダウンリストを表示させる「▼」のボタンを設定して修正できるようにしてもよい。
符号43は日付を表示する欄であり、符号44aは、編集途中の該当介護業務の開始時間を、符号44bは介護業務の終了時間を表示する欄である。なお、日付は、システムに組み込まれた時計に準拠して自動的に欄43に入力され、開始時間は、音声入力を行うに際して掛け声を発したときの時間が欄44aに入力される。
符号45は、被介護者の名前を表示させる欄であり、この欄45には、介護業務中に音声入力した音声データからテキスト変換して解釈されたテキストデータ(すなわち、テキスト解釈結果データ12c)のうち、介護対象を表す部屋番号のテキストデータが入力される。被介護者の名前と部屋番号は予め紐づけられて記憶されており、被介護者の名前も自動的に入力されて表示される。
介護対象となっている被介護者の名前を修正する場合は、欄45をタップすることで表示される修正候補をタップして選択することで修正を行う。このとき表示される修正候補は、第二テキストデータ12bが、テキスト解釈手段11bによって解釈されたテキストデータに基づくものである。なお、被介護者の名前の修正は、それ以外にも、例えばタッチパネル21に表示されるソフトウェアキーボードから直接入力するか、若しくは、上記の欄42と同様に、システムに登録された全被介護者の名前のプルダウンリストを表示させる「▼」のボタンを設定して修正できるようにしてもよい。
介護対象となっている被介護者の名前を修正する場合は、欄45をタップすることで表示される修正候補をタップして選択することで修正を行う。このとき表示される修正候補は、第二テキストデータ12bが、テキスト解釈手段11bによって解釈されたテキストデータに基づくものである。なお、被介護者の名前の修正は、それ以外にも、例えばタッチパネル21に表示されるソフトウェアキーボードから直接入力するか、若しくは、上記の欄42と同様に、システムに登録された全被介護者の名前のプルダウンリストを表示させる「▼」のボタンを設定して修正できるようにしてもよい。
符号46は、介護業務の種別を表示させる欄であり、この欄45には、介護業務中に音声入力した音声データからテキスト変換して解釈されたテキストデータ(すなわち、テキスト解釈結果データ12c)のうち、介護業務の種別のテキストデータが入力される。
種別を修正する場合は、欄46をタップすることで表示される修正候補をタップして選択することで修正を行う。このとき表示される修正候補は、第二テキストデータ12bが、テキスト解釈手段11bによって解釈されたテキストデータに基づくものである。なお、種別の修正は、それ以外にも、例えばタッチパネル21に表示されるソフトウェアキーボードから直接入力するか、若しくは、システムに登録された全種別のプルダウンリストを表示させる「▼」のボタンを設定して修正できるようにしてもよい。
種別を修正する場合は、欄46をタップすることで表示される修正候補をタップして選択することで修正を行う。このとき表示される修正候補は、第二テキストデータ12bが、テキスト解釈手段11bによって解釈されたテキストデータに基づくものである。なお、種別の修正は、それ以外にも、例えばタッチパネル21に表示されるソフトウェアキーボードから直接入力するか、若しくは、システムに登録された全種別のプルダウンリストを表示させる「▼」のボタンを設定して修正できるようにしてもよい。
符号47は、種別において「食事(朝食、昼食、夕食)」が表示されている場合に、ご飯やパン等の主食を食べた割合を選択するための複数のボタンが表示された領域であり、介護業務中に音声入力した音声データからテキスト変換して解釈されたテキストデータ(すなわち、テキスト解釈結果データ12c)のうち、主食の割合を示すテキストデータに基づいて、0〜10までのいずれかが選択される。選択中の数字表示欄は、非選択の数字表示欄とは異なる色で表示される。別の数字に修正する場合は、最適な数字表示欄をタップすればよい。
符号48は、種別において「食事(朝食、昼食、夕食)」が表示されている場合に、副食(おかず)を食べた割合を選択するための複数のボタンが表示された領域であり、上記の領域47と同様に構成されている。
符号48は、種別において「食事(朝食、昼食、夕食)」が表示されている場合に、副食(おかず)を食べた割合を選択するための複数のボタンが表示された領域であり、上記の領域47と同様に構成されている。
「必須です」と表示されたボックス49は、編集画面中の要修正箇所に沿って表示されるものであり、本実施形態における要修正事項は、食事の様態である。
符号50は、当該食事の様態を選択するための複数のボタンが表示された領域であり、介護業務中に音声入力した音声データからテキスト変換して解釈されたテキストデータ(すなわち、テキスト解釈結果データ12c)のうち、食事の態様を示すテキストデータに基づいて、普通食、キザミ食、軟菜、ゼリー食、ミキサー食のいずれかが選択される。選択中の様態表示欄は、非選択の様態表示欄とは異なる色で表示される。食事の態様を修正する場合は、最適な様態表示欄をタップすればよい。
符号50は、当該食事の様態を選択するための複数のボタンが表示された領域であり、介護業務中に音声入力した音声データからテキスト変換して解釈されたテキストデータ(すなわち、テキスト解釈結果データ12c)のうち、食事の態様を示すテキストデータに基づいて、普通食、キザミ食、軟菜、ゼリー食、ミキサー食のいずれかが選択される。選択中の様態表示欄は、非選択の様態表示欄とは異なる色で表示される。食事の態様を修正する場合は、最適な様態表示欄をタップすればよい。
符号51は、該当介護業務のその他の内容を備考として記入する欄であり、介護業務中に音声入力した音声データからテキスト変換して解釈されたテキストデータ(すなわち、テキスト解釈結果データ12c)のうち、介護者2が備考として音声入力した音声データに基づくテキストデータが入力される。
欄51に入力されたテキストデータを修正する場合は、欄51をタップしてアクティブ状態とし、介護記録作成用端末20における入力部によって正しい情報を入力する。より具体的には、欄51をタップしてアクティブ状態とした後にタッチパネル21に表示されるソフトウェアキーボードから直接入力する。
欄51に入力されたテキストデータを修正する場合は、欄51をタップしてアクティブ状態とし、介護記録作成用端末20における入力部によって正しい情報を入力する。より具体的には、欄51をタップしてアクティブ状態とした後にタッチパネル21に表示されるソフトウェアキーボードから直接入力する。
欄51までの介護記録記入事項を踏まえると、図4は、該当介護業務中、掛け声の後に「103の夕食は主食10割、副食8割、今日はおいしいとおっしゃって召し上がる」と音声入力した状態を表している。すなわち、介護業務中に、「103の夕食は主食10割、副食8割、普通食、今日はおいしいとおっしゃって召し上がる」と音声入力していれば、図4に示す例の場合では、「要修正」が表示されずに介護記録を作成することができていた。
なお、介護業務中に音声入力によって食事の態様を指定しなかった場合に、「普通食」が自動的に選択されるように事前に設定されていれば、図4に示す例の場合では、「要修正」が表示されずに介護記録を作成することも可能である。
なお、介護業務中に音声入力によって食事の態様を指定しなかった場合に、「普通食」が自動的に選択されるように事前に設定されていれば、図4に示す例の場合では、「要修正」が表示されずに介護記録を作成することも可能である。
符号52は修正内容を一括で取り消すためのボタンであり、このボタン52を押すと図4の編集画面で修正を行った箇所を取り消すことができる。
符号53は、修正を完了させるためのボタンであり、このボタン53を押すと、図4の編集画面で行った修正を完了させることができ、その結果を、図3の介護記録表示欄32の該当項目に反映させることができる。修正を行った結果、「要修正」の表示が消えると、介護記録確定ボタン33を押してチェックボックスにチェックを入れることができるようになる。
符号54は、介護記録表示欄32の該当項目そのものを削除するためのボタンであり、図3の介護記録表示欄32にも反映され、該当項目が削除されることになる。
符号53は、修正を完了させるためのボタンであり、このボタン53を押すと、図4の編集画面で行った修正を完了させることができ、その結果を、図3の介護記録表示欄32の該当項目に反映させることができる。修正を行った結果、「要修正」の表示が消えると、介護記録確定ボタン33を押してチェックボックスにチェックを入れることができるようになる。
符号54は、介護記録表示欄32の該当項目そのものを削除するためのボタンであり、図3の介護記録表示欄32にも反映され、該当項目が削除されることになる。
図3のスタッフ別介護記録画面で「確定」された介護記録の各項目に採用されたテキストデータは、テキスト確定データ12dとして記憶部12に記憶される。
テキスト確定データ12dは、最適な変換候補(第一候補)として判断された第一テキストデータ12aが、介護者2による確認によって修正されなかった場合は、その第一テキストデータ12aがテキスト確定データ12dとなる。また、介護者2によって第一テキストデータ12aから、第二候補である第二テキストデータ12b又はその他のデータ(三番手以降のテキストデータ、介護者2によって直接入力されたテキストデータ、介護者2によって選択されたデータ)に修正された場合は、当該修正されたデータがテキスト確定データ12dとなる。
テキスト確定データ12dは、最適な変換候補(第一候補)として判断された第一テキストデータ12aが、介護者2による確認によって修正されなかった場合は、その第一テキストデータ12aがテキスト確定データ12dとなる。また、介護者2によって第一テキストデータ12aから、第二候補である第二テキストデータ12b又はその他のデータ(三番手以降のテキストデータ、介護者2によって直接入力されたテキストデータ、介護者2によって選択されたデータ)に修正された場合は、当該修正されたデータがテキスト確定データ12dとなる。
制御部11は、音声データ学習手段11dとして機能し、通信用端末4からサーバー10に送信された音声データと、音声認識・テキスト変換手段11aによって最適な変換候補(第一候補)として判断された第一テキストデータ12aと、二番手の変換候補(第二候補)として判断された第二テキストデータ12b(三番手以降の変換候補として判断されたテキストデータを含んでもよい。)と、介護者2によって確認されて介護記録に最終的に採用されたテキスト確定データ12dと、を紐づけして記憶部12に記憶し、これらの情報に基づいて、音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習を行う。
より詳細に説明すると、制御部11は、通信用端末4からサーバー10に送信された音声データを蓄積し、その音声データから最終的にテキスト確定データ12dで確定されたテキスト変換履歴を蓄積する。その後、音声データ学習手段11dを実行することによって、サーバー10に送信された音声データの特徴を抽出し、第一テキストデータ12aとテキスト確定データ12dの一致率を高めるように学習を行い、その学習結果を、音声認識・テキスト変換手段11aに反映して音声データからテキストデータへの変換精度を向上させるようにする。これにより、制御部11によって行われた音声認識の結果を、介護者2自身によって毎回修正する若しくは承認するので、介護記録の作成と同時に、制御部11による音声データ学習機能の精度向上を同時に行うことができ、しかも、その回数を重ねる(反復して学習する)ごとに正しく音声認識されてテキスト変換されたデータが反映された介護記録を作成できる精度が向上することになる。
なお、音声認識・テキスト変換手段11aに反映される学習結果は、学習結果データ12eとして記憶部12に格納される。
より詳細に説明すると、制御部11は、通信用端末4からサーバー10に送信された音声データを蓄積し、その音声データから最終的にテキスト確定データ12dで確定されたテキスト変換履歴を蓄積する。その後、音声データ学習手段11dを実行することによって、サーバー10に送信された音声データの特徴を抽出し、第一テキストデータ12aとテキスト確定データ12dの一致率を高めるように学習を行い、その学習結果を、音声認識・テキスト変換手段11aに反映して音声データからテキストデータへの変換精度を向上させるようにする。これにより、制御部11によって行われた音声認識の結果を、介護者2自身によって毎回修正する若しくは承認するので、介護記録の作成と同時に、制御部11による音声データ学習機能の精度向上を同時に行うことができ、しかも、その回数を重ねる(反復して学習する)ごとに正しく音声認識されてテキスト変換されたデータが反映された介護記録を作成できる精度が向上することになる。
なお、音声認識・テキスト変換手段11aに反映される学習結果は、学習結果データ12eとして記憶部12に格納される。
このような音声データ学習手段11dを実行するためのプログラムによれば、音声認識・テキスト変換手段11aによるテキスト変換機能が正しかったか、誤りがあったかを容易に判断することができる。そのため、音声データ学習手段11dによる音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習が行いやすい。そして、音声認識・テキスト変換手段11aによる音声データから第一テキストデータ12a(第二テキストデータ12b等)への変換と、介護者2による確認及び必要に応じた修正と、が被介護者の介護を行うたびに行われることになるので、結果的に、音声データから第一テキストデータ12aへの変換精度が高まり、介護者2の音声による正確な介護記録の作成が可能となる。
本実施形態における介護記録作成支援システム1は、以上のように構成されている。なお、本実施形態においては、音声認識・テキスト変換手段11a、テキスト解釈手段11b、音声データ学習手段11dは、サーバー10におけるソフトウェア(プログラム)として実装されているものとしたが、これに限られるものではなく、同様の機能を発揮する外部の音声認識エンジン、テキスト解釈エンジン、音声データ学習エンジンなどを利用してもよい。
次に、以上のような介護記録作成支援システム1によって介護記録の作成を支援する方法について説明する。
介護記録を作成するには、まず、介護者2がヘッドセットマイク3を装着するとともに通信用端末4を身に着け、そして、介護業務を行う。
介護者2は、介護業務中に、その介護業務の内容を声に出してヘッドセットマイク3に向かって発し、介護業務に係る音声の入力を行う(ステップS1)。
介護者2は、介護業務中に、その介護業務の内容を声に出してヘッドセットマイク3に向かって発し、介護業務に係る音声の入力を行う(ステップS1)。
介護者2によって介護業務に係る音声の入力が行われると、その音声データが、ヘッドセットマイク3に接続された通信用端末4から、通信ネットワークNを介してサーバー10へと送信され、サーバー10は、その音声データを取得する(ステップS2)。そして、サーバー10は、その音声データを記憶部12に記憶する(ステップS3)。
続いて、サーバー10は、制御部11が音声認識・テキスト変換手段11aを実行することによって、取得して記憶した音声データの音声認識を行い、テキストデータに変換する(ステップS4)。そして、音声データから変換されたテキストデータは記憶部12に記憶される(ステップS5)。
なお、音声データからテキストデータに変換される場合、変換候補となる複数のテキストデータが抽出される場合がある。複数のテキストデータのうち、制御部11によって最適な変換候補(第一候補)として判断されたテキストデータが、第一テキストデータ12aとして記憶部12に記憶される。また、二番手の変換候補(第二候補)として判断されたテキストデータも、第二テキストデータ12bとして記憶部12に記憶される(三番手以降の変換候補も同様に記憶部12に記憶される)。
なお、音声データからテキストデータに変換される場合、変換候補となる複数のテキストデータが抽出される場合がある。複数のテキストデータのうち、制御部11によって最適な変換候補(第一候補)として判断されたテキストデータが、第一テキストデータ12aとして記憶部12に記憶される。また、二番手の変換候補(第二候補)として判断されたテキストデータも、第二テキストデータ12bとして記憶部12に記憶される(三番手以降の変換候補も同様に記憶部12に記憶される)。
続いて、サーバー10は、制御部11がテキスト解釈手段11bを実行することによって、音声データから変換されて記憶部12に記憶されたテキストデータ(第一テキストデータ12a、第二テキストデータ12b)の解釈を行う(ステップS6)。すなわち、介護業務中に音声入力した介護者2が発した言葉(音声データから変換されたテキストデータ)を、意味のある文章として認識しようとする。
そして、解釈されたテキストデータは、テキスト解釈結果データ12cとして記憶部12に記憶される(ステップS7)。
そして、解釈されたテキストデータは、テキスト解釈結果データ12cとして記憶部12に記憶される(ステップS7)。
続いて、サーバー10は、制御部11が介護記録作成手段11cを実行することによって、テキスト解釈結果データ12cを介護記録のフォーマットに入力する(ステップS8)。なお、このとき制御部11は要修正箇所の有無を確認し、要修正箇所については介護記録作成画面中に介護者2に対して報知を行う(上記の「要修正」表示)。
テキスト解釈結果データ12cがフォーマットに入力されただけの状態では、介護記録の作成終了とはならず、介護者2による確認が必須となる。そのため、介護者2は、介護業務以外の時間に、介護記録の確認を行い、修正が必要な場合は適宜修正を行う(ステップS9)。そして、確認の終わった介護記録の項目は、介護記録表示欄32における介護記録確定ボタン33を押してチェックボックスにチェックを入れて、介護記録の確定を行う(ステップS10)。
そして、サーバー10は、テキスト確定データ12dを記憶部12に記憶する(ステップS11)。なお、テキスト確定データ12dについては、上記のように、介護者2による確認・修正の結果に応じて第一テキストデータ12aがそのままテキストデータ12aとなる場合もあるし、第二テキストデータ12bやその他のデータがテキスト確定データ12dとなる場合もある。
そして、サーバー10は、テキスト確定データ12dを記憶部12に記憶する(ステップS11)。なお、テキスト確定データ12dについては、上記のように、介護者2による確認・修正の結果に応じて第一テキストデータ12aがそのままテキストデータ12aとなる場合もあるし、第二テキストデータ12bやその他のデータがテキスト確定データ12dとなる場合もある。
介護者2若しくは介護施設の責任者や運営者が確認できる介護記録は、以上のような方法で作成されることとなる。そして、このように介護記録の作成が完了すると、サーバー10は、音声データ学習手段11dを実行することによって、サーバー10に送信された音声データの特徴を抽出し、第一テキストデータ12aとテキスト確定データ12dの一致率を高めるように学習を行い、その学習結果を、音声認識・テキスト変換手段11aに反映して音声データからテキストデータへの変換精度を向上させる(ステップS12)。
サーバー10は、このような学習を経て取得できた学習結果データ12eを記憶部12に記憶する(ステップS13)。
サーバー10は、このような学習を経て取得できた学習結果データ12eを記憶部12に記憶する(ステップS13)。
以上のようにして介護記録の作成と、制御部11によって行われた音声認識の結果を毎回学習することを反復することによって、介護者2が発した音声が、より正確にテキスト変換された介護記録を作成できることとなり、その精度は、回数を重ねるごとに向上することになる。
なお、本実施形態においては、音声取得手段としてヘッドセットマイク3及び通信用端末4が用いられるものとしたが、これに限られるものではなく、ヘッドセットマイク3と所謂スマートスピーカーとを連携させて音声取得手段として用いてもよいし、被介護者の部屋ごとに設置されたスマートスピーカーを単独で音声取得手段として用いてもよい。
ここでいうスマートスピーカーとは、対話型の音声操作に対応するAI(人工知能:Artificial Intelligence)アシスタント機能を利用可能なスピーカーを指す。スマートスピーカーは対話型ではあるものの、介護業務中は、例えば介護者2が音声入力を開始する合図となる上記の掛け声をきっかけに対話機能を中止できるようにしてもよい。または、スマートスピーカーの装置自体に、対話機能をON・OFFするスイッチを設けて介護業務中の対話機能を中止できるようにしてもよい。
これにより、介護者2は、少なくともヘッドセットマイク3だけを装着すればよいか、若しくはヘッドセットマイク3すら装着せずに介護業務を行うことができるので、より身軽な状態で介護業務を遂行できる。
ここでいうスマートスピーカーとは、対話型の音声操作に対応するAI(人工知能:Artificial Intelligence)アシスタント機能を利用可能なスピーカーを指す。スマートスピーカーは対話型ではあるものの、介護業務中は、例えば介護者2が音声入力を開始する合図となる上記の掛け声をきっかけに対話機能を中止できるようにしてもよい。または、スマートスピーカーの装置自体に、対話機能をON・OFFするスイッチを設けて介護業務中の対話機能を中止できるようにしてもよい。
これにより、介護者2は、少なくともヘッドセットマイク3だけを装着すればよいか、若しくはヘッドセットマイク3すら装着せずに介護業務を行うことができるので、より身軽な状態で介護業務を遂行できる。
また、本実施形態においては、介護者2が被介護者の介護業務中に音声入力を開始するときに、その被介護者に対応する部屋番号を言うことで被介護者の特定を行っていたが、これに限られるものではなく、介護者2の位置情報を特定する手段を採用することによって、被介護者の特定を行うようにしてもよい。
より具体的に説明すると、介護者2が例えばRFID(radio frequency identifier)タグを身に着け、当該タグのID情報を読み取るリーダライターを被介護者の部屋における出入口に設置しておく。そして、リーダライターで読み取った介護者2のID情報を、介護業務に係る音声データと共にサーバー10に送信すれば、介護者2は介護業務中に音声入力を行う際に、被介護者の部屋番号を言う必要がなくなる。
要するに、介護者2が施設内で介護業務を行う際に、施設内における介護者2の位置情報を特定する位置情報特定手段を、音声取得手段と共に用いることで、介護業務中に発する言葉の数を減らすことができるとともに、被介護者を部屋番号で特定する必要がなくなる利点がある。
より具体的に説明すると、介護者2が例えばRFID(radio frequency identifier)タグを身に着け、当該タグのID情報を読み取るリーダライターを被介護者の部屋における出入口に設置しておく。そして、リーダライターで読み取った介護者2のID情報を、介護業務に係る音声データと共にサーバー10に送信すれば、介護者2は介護業務中に音声入力を行う際に、被介護者の部屋番号を言う必要がなくなる。
要するに、介護者2が施設内で介護業務を行う際に、施設内における介護者2の位置情報を特定する位置情報特定手段を、音声取得手段と共に用いることで、介護業務中に発する言葉の数を減らすことができるとともに、被介護者を部屋番号で特定する必要がなくなる利点がある。
さらに、本実施形態においては、サーバー10が、音声認識・テキスト変換手段11aやテキスト解釈手段11b、介護記録作成手段11c、音声データ学習手段11d等を備えるものとしたが、これに限られるものではない。すなわち、これらの各手段は、介護者2が所持する通信用端末4が備えるものとしてもよい。さらには、通信用端末4を、介護記録作成用端末として用いるものとしてもよい。このように、介護記録作成支援システム1における主要な機能を通信用端末4に集約すれば、通信ネットワークNを用いる必要がなくなるので、オフライン環境下でも、介護記録の作成や音声データ学習手段11dによる学習等を行うことが可能となる。
本実施の形態によれば、音声取得手段によって、介護者2が発する被介護者の介護業務に係る音声データを取得し、これに基づいて介護記録を作成することができる。これにより、介護者2の音声のみによって介護記録を作成することが可能となり、介護者2とシステムとの間で音声による受け答えが必要なくなるので、介護業務中における介護者2の負担を軽減することができる。
さらに、介護記録作成手段11cによって作成された介護記録を、介護者2自身が確認でき、必要に応じて修正を行うことができるので、介護記録を正確に作成することが可能となる。
しかも、介護者2が発した介護業務に係る音声データと、テキスト確定データ12dと、があり、その途中経過として、音声認識・テキスト変換手段11aによって音声データから第一テキストデータ12aへの変換が行われるので、音声認識・テキスト変換手段11aによるテキスト変換機能が正しかったか、誤りがあったかを容易に判断することができる。そのため、音声データ学習手段11dによる音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習が行いやすい。そして、音声認識・テキスト変換手段11aによる音声データから第一テキストデータ12aへの変換と、介護者2による確認及び必要に応じた修正と、が被介護者の介護を行うたびに行われることになるので、結果的に、音声データから第一テキストデータ12aへの変換精度が高まり、介護者2の音声による正確な介護記録の作成が可能となる。
さらに、介護記録作成手段11cによって作成された介護記録を、介護者2自身が確認でき、必要に応じて修正を行うことができるので、介護記録を正確に作成することが可能となる。
しかも、介護者2が発した介護業務に係る音声データと、テキスト確定データ12dと、があり、その途中経過として、音声認識・テキスト変換手段11aによって音声データから第一テキストデータ12aへの変換が行われるので、音声認識・テキスト変換手段11aによるテキスト変換機能が正しかったか、誤りがあったかを容易に判断することができる。そのため、音声データ学習手段11dによる音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習が行いやすい。そして、音声認識・テキスト変換手段11aによる音声データから第一テキストデータ12aへの変換と、介護者2による確認及び必要に応じた修正と、が被介護者の介護を行うたびに行われることになるので、結果的に、音声データから第一テキストデータ12aへの変換精度が高まり、介護者2の音声による正確な介護記録の作成が可能となる。
また、テキスト解釈手段11bによって、音声データから変換された第一テキストデータ12a(第二テキストデータ12b等でもよい。)を文節ごとに区切り、区切られた文節の内容が、介護記録のうち、どの入力事項に対応するか解析を行うので、音声データから変換された第一テキストデータ12aが長文になっても的確に解釈でき、介護記録作成手段11cによって介護記録を作成しやすくなる。
また、音声認識・テキスト変換手段11aによるテキスト変換の際には採用されなかった第二テキストデータ12b等を、修正候補として提示できるので、介護者2は、修正候補を見て容易に修正を行うことができる。
さらに、音声認識・テキスト変換手段11aによって抽出されたテキストデータの変換候補が複数ある場合に、どのような変換候補のテキストデータ(第一テキストデータ12a、第二テキストデータ12b等)が、音声認識・テキスト変換手段11aによって最適な変換候補として抽出されるか、その傾向を知ることができるので、音声データ学習手段11dによる、音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習精度の向上に貢献できる。
さらに、音声認識・テキスト変換手段11aによって抽出されたテキストデータの変換候補が複数ある場合に、どのような変換候補のテキストデータ(第一テキストデータ12a、第二テキストデータ12b等)が、音声認識・テキスト変換手段11aによって最適な変換候補として抽出されるか、その傾向を知ることができるので、音声データ学習手段11dによる、音声認識・テキスト変換手段11aにおけるテキスト変換機能の学習精度の向上に貢献できる。
N 通信ネットワーク
1 介護記録作成支援システム
2 介護者
3 ヘッドセットマイク
4 通信用端末
10 サーバー
11 制御部
11a 音声認識・テキスト変換手段
11b テキスト解釈手段
11c 介護記録作成手段
11d 音声データ学習手段
12 記憶部
12a 第一テキストデータ
12b 第二テキストデータ
12c テキスト解釈結果データ
12d テキスト確定データ
12e 学習結果データ
13 表示部
14 入力部
15 通信部
20 介護記録作成用端末
21 タッチパネル
1 介護記録作成支援システム
2 介護者
3 ヘッドセットマイク
4 通信用端末
10 サーバー
11 制御部
11a 音声認識・テキスト変換手段
11b テキスト解釈手段
11c 介護記録作成手段
11d 音声データ学習手段
12 記憶部
12a 第一テキストデータ
12b 第二テキストデータ
12c テキスト解釈結果データ
12d テキスト確定データ
12e 学習結果データ
13 表示部
14 入力部
15 通信部
20 介護記録作成用端末
21 タッチパネル
Claims (4)
- 介護者が発する被介護者の介護業務に係る音声データを取得する音声取得手段と、
前記音声取得手段によって取得した前記音声データを認識し、テキストデータに変換する音声認識・テキスト変換手段と、
前記音声認識・テキスト変換手段によって前記音声データから変換されたテキストデータに基づいて介護記録を作成する介護記録作成手段と、
前記介護記録作成手段によって作成された前記介護記録を表示して介護者による確認を可能とする表示手段と、
前記表示手段に表示された前記介護記録の、介護者による必要に応じた修正を可能とする修正手段と、
介護者による確認と必要に応じた修正とが完了した状態の前記介護記録を最終的に確定させる確定手段と、
前記音声データと、前記音声データから変換されたテキストデータと、前記確定手段によって確定された前記介護記録に最終的に採用されたテキストデータと、に基づいて、前記音声認識・テキスト変換手段におけるテキスト変換機能の学習を行う音声データ学習手段と、を備えることを特徴とする介護記録作成支援システム。 - 前記音声認識・テキスト変換手段によって前記音声データから変換されたテキストデータを文節ごとに区切り、区切られた文節の内容が、前記介護記録のうち、どの入力事項に対応するか解析を行うテキスト解釈手段を更に備え、
前記介護記録作成手段は、前記テキスト解釈手段によって解釈されたテキストデータに基づいて前記介護記録を作成することを特徴とする請求項1に記載の介護記録作成支援システム。 - 前記音声認識・テキスト変換手段は、前記音声データをテキストデータに変換する場合に、少なくとも一つの変換候補を抽出し、
前記音声認識・テキスト変換手段によって抽出された前記テキストデータの変換候補が複数ある場合に、前記介護記録作成手段は、前記介護記録の作成時に採用されなかった変換候補を、前記表示手段において修正候補として提示することを特徴とする請求項1又は2に記載の介護記録作成支援システム。 - 介護者が発する被介護者の介護業務に係る音声データを認識し、テキストデータに変換する音声認識・テキスト変換手段と、
前記音声データから変換されたテキストデータに基づいて、介護者によって前記テキストデータが修正可能に構成された介護記録を作成する介護記録作成手段と、を備えたコンピューターを、
前記音声データと、前記音声データから変換されたテキストデータと、前記介護記録に最終的に採用されたテキストデータと、に基づいて、前記音声認識・テキスト変換手段におけるテキスト変換機能の学習を行う音声データ学習手段として機能させるプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019037465A JP2020140620A (ja) | 2019-03-01 | 2019-03-01 | 介護記録作成支援システム及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019037465A JP2020140620A (ja) | 2019-03-01 | 2019-03-01 | 介護記録作成支援システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020140620A true JP2020140620A (ja) | 2020-09-03 |
Family
ID=72265009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019037465A Pending JP2020140620A (ja) | 2019-03-01 | 2019-03-01 | 介護記録作成支援システム及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020140620A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6995275B1 (ja) | 2021-02-10 | 2022-01-14 | 株式会社エクサウィザーズ | 業務支援方法、システム及びプログラム |
JP7082772B1 (ja) | 2021-09-10 | 2022-06-09 | 株式会社ブルーオーシャンシステム | バイタルデータ入力装置,データ入力補助装置およびその制御プログラム |
JP2022103155A (ja) * | 2020-12-25 | 2022-07-07 | 三菱電機Itソリューションズ株式会社 | 評価装置、評価方法、および、評価プログラム |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0950291A (ja) * | 1995-08-04 | 1997-02-18 | Sony Corp | 音声認識装置及びナビゲーシヨン装置 |
JP2002344574A (ja) * | 2001-05-15 | 2002-11-29 | Aruze Corp | 移動体通信機器 |
WO2017010506A1 (ja) * | 2015-07-13 | 2017-01-19 | 帝人株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
-
2019
- 2019-03-01 JP JP2019037465A patent/JP2020140620A/ja active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0950291A (ja) * | 1995-08-04 | 1997-02-18 | Sony Corp | 音声認識装置及びナビゲーシヨン装置 |
JP2002344574A (ja) * | 2001-05-15 | 2002-11-29 | Aruze Corp | 移動体通信機器 |
WO2017010506A1 (ja) * | 2015-07-13 | 2017-01-19 | 帝人株式会社 | 情報処理装置、情報処理方法およびコンピュータプログラム |
Non-Patent Citations (1)
Title |
---|
(株)アドバンスト・メディア: "プロダクトA", 月刊自動認識, vol. 第31巻 第8号, JPN6020010738, 10 July 2018 (2018-07-10), JP, pages 28 - 32, ISSN: 0004355483 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022103155A (ja) * | 2020-12-25 | 2022-07-07 | 三菱電機Itソリューションズ株式会社 | 評価装置、評価方法、および、評価プログラム |
JP7536813B2 (ja) | 2020-12-25 | 2024-08-20 | 三菱電機Itソリューションズ株式会社 | 評価装置、評価方法、および、評価プログラム |
JP6995275B1 (ja) | 2021-02-10 | 2022-01-14 | 株式会社エクサウィザーズ | 業務支援方法、システム及びプログラム |
JP2022122809A (ja) * | 2021-02-10 | 2022-08-23 | 株式会社エクサウィザーズ | 業務支援方法、システム及びプログラム |
JP7082772B1 (ja) | 2021-09-10 | 2022-06-09 | 株式会社ブルーオーシャンシステム | バイタルデータ入力装置,データ入力補助装置およびその制御プログラム |
JP2023040335A (ja) * | 2021-09-10 | 2023-03-23 | 株式会社ブルーオーシャンシステム | バイタルデータ入力装置,データ入力補助装置およびその制御プログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7039657B2 (ja) | 会話の応答を生成するためのコンピュータ実装方法、システム、およびコンピュータ可読記録媒体 | |
JP6738445B2 (ja) | デジタルアシスタントサービスの遠距離拡張 | |
KR102374910B1 (ko) | 음성 데이터 처리 방법 및 이를 지원하는 전자 장치 | |
JP2020140620A (ja) | 介護記録作成支援システム及びプログラム | |
US11056105B2 (en) | Talk back from actions in applications | |
CN104484796B (zh) | 便携式终端及其日程管理方法 | |
US9507769B2 (en) | Systems, methods and computer program products for neurolinguistic text analysis | |
JP6540414B2 (ja) | 音声処理装置および音声処理方法 | |
US20240308252A1 (en) | Caption modification and augmentation systems and methods for use by hearing assisted users | |
KR102343084B1 (ko) | 전자 장치 및 전자 장치의 기능 실행 방법 | |
CN106471570A (zh) | 多命令单一话语输入方法 | |
CN112217941B (zh) | 用于操作数字助理的方法、设备和介质 | |
JP2010094243A (ja) | 自動問診システム | |
EP3729443A1 (en) | System and method for automated retrieval and analysis of medical records | |
JP5426706B2 (ja) | 音声記録選択装置、音声記録選択方法及び音声記録選択プログラム | |
US20220101852A1 (en) | Conversation support device, conversation support system, conversation support method, and storage medium | |
JP7021488B2 (ja) | 情報処理装置、及びプログラム | |
EP3474219A1 (en) | Nursing/care item input device, nursing/care item input method, and nursing/care item management system | |
US11763821B1 (en) | Tool for assisting people with speech disorder | |
JP7341111B2 (ja) | 会話支援装置、会話支援システム、会話支援方法およびプログラム | |
KR102315020B1 (ko) | 사용자 생활패턴 기반의 맞춤형 음성대화 제공 장치 및 방법 | |
WO2021144930A1 (ja) | データ入力支援装置 | |
JP6990865B2 (ja) | 情報処理方法、情報処理装置及び情報処理プログラム | |
JP6820632B1 (ja) | 情報処理装置、及びプログラム | |
WO2021144931A1 (ja) | データ入力支援装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190301 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200324 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200929 |