JP2021153777A - 制御装置、システム、端末装置、プログラム、及びコミュニケーション支援方法 - Google Patents

制御装置、システム、端末装置、プログラム、及びコミュニケーション支援方法 Download PDF

Info

Publication number
JP2021153777A
JP2021153777A JP2020056083A JP2020056083A JP2021153777A JP 2021153777 A JP2021153777 A JP 2021153777A JP 2020056083 A JP2020056083 A JP 2020056083A JP 2020056083 A JP2020056083 A JP 2020056083A JP 2021153777 A JP2021153777 A JP 2021153777A
Authority
JP
Japan
Prior art keywords
terminal device
user
control unit
control device
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020056083A
Other languages
English (en)
Inventor
賢志 澤田
Kenji Sawada
賢志 澤田
知樹 櫨田
Tomoki Hazeta
知樹 櫨田
信行 谷垣
Nobuyuki Tanigaki
信行 谷垣
寛子 宮崎
Hiroko Miyazaki
寛子 宮崎
章浩 鱸
Akihiro Suzuki
章浩 鱸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Terumo Corp
Original Assignee
Terumo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Terumo Corp filed Critical Terumo Corp
Priority to JP2020056083A priority Critical patent/JP2021153777A/ja
Publication of JP2021153777A publication Critical patent/JP2021153777A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】患者が感じていることを可視化する制御装置を提供する。【解決手段】制御装置20は、第1端末で受け付けられた第1ユーザの自覚症状の入力操作に応じて、前記自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データを生成し、生成した出力データを第2ユーザに向けて第2端末に表示させる制御部21を備える。【選択図】図2

Description

本開示は、制御装置、システム、機器、端末装置、プログラム、及びコミュニケーション支援方法に関する。
特許文献1には、被診断者から実際に発せられ送信された声音情報を、被診断者から離れた場所にある診断機関が受信し、受信された声音情報に基づき、被診断者の健康状態の診断を行い、この診断結果を被診断者に送信することが記載されている。
国際公開第2003/068062号
在宅の患者が感じている日常生活での違和感又は痛みを可視化することが望まれている。しかし、従来技術では、そのような可視化は困難である。
本開示の目的は、患者が感じていることの可視化である。
本開示の一態様としての制御装置は、第1端末装置で受け付けられた第1ユーザの自覚症状の入力操作に応じて、前記自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データを生成し、生成した出力データを第2ユーザに向けて第2端末装置に表示させる制御部を備える。
一実施形態として、前記入力操作は、それぞれ選択肢として提示された複数の症状の中から前記自覚症状を選ぶ操作を含む。
一実施形態として、前記入力操作は、前記複数の症状に1対1で対応する複数のボタンのうち前記自覚症状に対応するボタンを押す操作を含む。
一実施形態として、前記入力操作は、前記自覚症状を話す操作を含む。
一実施形態として、前記制御部は、前記第1端末装置で取得された前記第1ユーザの話し声の声質を分析して前記自覚症状の深刻度を評価する。
一実施形態として、前記制御部は、前記第1端末装置で取得された前記第1ユーザの生体測定値を参照して前記自覚症状の深刻度を評価する。
一実施形態として、前記制御部は、前記第1端末装置で取得された前記第1ユーザの話し声の声質と、前記第1端末装置で取得された前記第1ユーザの生体測定値と、前記第1端末装置で前記第1ユーザによって押されたボタンの情報と、前記第1端末装置で取得された前記第1ユーザの話し声をテキスト化して得られた情報との少なくともいずれかを分析して前記自覚症状の深刻度を評価する。
一実施形態として、前記制御部は、前記深刻度が閾値を上回る場合に、前記出力データを前記第2端末装置に表示させる。
一実施形態として、前記制御部は、前記深刻度に応じて、前記第2端末装置における前記出力データの表示態様を変化させる。
一実施形態として、前記制御部は、前記入力操作が行われた日時ごとに、前記深刻度を評価し、前記深刻度の推移を表す深刻度データを生成し、生成した深刻度データを前記第2ユーザに向けて前記第2端末装置にさらに表示させる。
一実施形態として、前記制御部は、前記自覚症状に応じて、前記第2端末装置における前記出力データの表示態様を変化させる。
一実施形態として、前記制御部は、前記自覚症状の推移を表す症状データを生成し、生成した症状データを前記第2ユーザに向けて前記第2端末装置にさらに表示させる。
一実施形態として、前記制御部は、前記自覚症状に基づいて、前記第1ユーザの疾患を推定し、推定した疾患を表す疾患データを生成し、生成した疾患データを前記第2ユーザに向けて前記第2端末装置にさらに表示させる。
一実施形態として、前記制御部は、前記第2端末装置に対し、それぞれが前記第1ユーザである複数のユーザに共通の画面上で前記出力データを表示させる。
本開示の一態様としてのシステムは、前記制御装置として機能する制御装置と、前記第1端末装置又は前記第2端末装置に相当し、前記制御装置とネットワークを介して通信する端末装置とを備える。
本開示の一態様としての端末装置は、前記制御装置と、前記第1端末装置又は前記第2端末装置との両方に相当する。
本開示の一態様としての端末装置は、第1ユーザの自覚症状の入力操作に応じて、前記自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データを生成する制御装置であって、生成した出力データを第2ユーザに向けて第2端末装置に表示させる制御装置とネットワークを介して通信する通信部と、前記入力操作を受け付け、前記入力操作で得られた入力データを前記通信部に前記制御装置へ送信させる制御部とを備える。
一実施形態として、前記入力操作は、それぞれ選択肢として提示された複数の症状の中から前記自覚症状を選ぶ操作を含み、前記制御部は、前記入力操作で選ばれた選択肢の識別データを前記入力データに含める。
前記入力操作は、前記自覚症状を話す操作を含み、前記制御部は、前記入力操作で得られた音声データを前記入力データに含める。
本開示の一態様としてのプログラムは、コンピュータを前記端末装置として機能させる。
本開示の一態様としてのコミュニケーション支援方法は、第1ユーザの自覚症状の入力操作を第1端末装置で受け付け、前記入力操作に応じて、前記自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データを制御装置で生成し、前記出力データを第2ユーザに向けて第2端末装置に表示させる、というものである。
本開示によれば、患者が感じていることを可視化できる。
本開示の実施形態に係るシステムの構成を示す図である。 本開示の実施形態に係る制御装置の構成を示すブロック図である。 本開示の実施形態に係る第1端末装置の構成を示すブロック図である。 本開示の実施形態に係る第2端末装置の構成を示すブロック図である。 本開示の実施形態に係る第1端末装置の動作を示す図である。 本開示の実施形態に係る制御装置の動作を示す図である。 本開示の実施形態に係る第2端末装置の動作を示す図である。 本開示の実施形態に係る第2端末装置の画面例を示す図である。 本開示の実施形態に係る第2端末装置の画面例を示す図である。 本開示の実施形態に係る第2端末装置の画面例を示す図である。 本開示の実施形態における疾患、生体測定値、自覚症状、及び深刻度の対応関係を示す表である。
以下、本開示の実施形態について、図を参照して説明する。
各図中、同一又は相当する部分には、同一符号を付している。本実施形態の説明において、同一又は相当する部分については、説明を適宜省略又は簡略化する。
図1を参照して、本実施形態に係るシステム10の構成を説明する。
本実施形態に係るシステム10は、少なくとも1台の制御装置20と、複数台の第1端末装置30と、少なくとも1台の第2端末装置40とを備える。
複数台の第1端末装置30は、それぞれが第1ユーザである複数のユーザによって利用される。すなわち、それぞれの第1端末装置30は、第1ユーザによって利用される。第1ユーザは、任意のユーザでよいが、本実施形態では患者であり、具体的には在宅の患者である。以下では、それぞれの第1端末装置30を単に「第1端末装置30」という。
第2端末装置40は、第2ユーザによって利用される。第2ユーザは、任意のユーザでよいが、本実施形態では医師などの医療従事者、介護者、又は第1ユーザの家族である。
制御装置20は、ネットワーク50を介して第1端末装置30及び第2端末装置40と通信可能である。
ネットワーク50は、インターネット、少なくとも1つのWAN、少なくとも1つのMAN、又はこれらの組み合わせを含む。「WAN」は、wide area networkの略語である。「MAN」は、metropolitan area networkの略語である。ネットワーク50は、少なくとも1つの無線ネットワーク、少なくとも1つの光ネットワーク、又はこれらの組み合わせを含んでもよい。無線ネットワークは、例えば、アドホックネットワーク、セルラーネットワーク、無線LAN、衛星通信ネットワーク、又は地上マイクロ波ネットワークである。「LAN」は、local area networkの略語である。
制御装置20は、データセンタなどの施設に設置される。制御装置20は、例えば、クラウドコンピューティングシステム又はその他のコンピューティングシステムに属し、IMサービスを提供するサーバである。「IM」は、instant messagingの略語である。
第1端末装置30は、第1ユーザによって保持される。あるいは、第1端末装置30は、第1ユーザの自宅に設置される。第1端末装置30は、例えば、ガジェットなどの専用端末、又は携帯電話機、スマートフォン、タブレット、若しくはPCなどの汎用端末である。「PC」は、personal computerの略語である。
本実施形態では、第1端末装置30は、複数のボタン37と、マイク38と、カメラ39とを備える。
第2端末装置40は、第2ユーザによって保持される。あるいは、第2端末装置40は、第2ユーザが勤める病院若しくはクリニックなどの医療施設、又は第2ユーザの自宅に設置される。第2端末装置40は、例えば、ガジェットなどの専用端末、又は携帯電話機、スマートフォン、タブレット、若しくはPCなどの汎用端末である。
図1を参照して、本実施形態の概要を説明する。
本実施形態に係るシステム10では、第1端末装置30が、第1ユーザの自覚症状の入力操作Piを受け付ける。制御装置20が、入力操作Piに応じて、自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データDjを生成する。制御装置20が、出力データDjを第2ユーザに向けて第2端末装置40に表示させる。
本実施形態によれば、患者である第1ユーザが感じていることを可視化できる。
図2を参照して、本実施形態に係る制御装置20の構成を説明する。
制御装置20は、制御部21と、記憶部22と、通信部23と、入力部24と、出力部25とを備える。
制御部21は、少なくとも1つのプロセッサ、少なくとも1つの専用回路、又はこれらの組み合わせを含む。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。「CPU」は、central processing unitの略語である。「GPU」は、graphics processing unitの略語である。専用回路は、例えば、FPGA又はASICである。「FPGA」は、field-programmable gate arrayの略語である。「ASIC」は、application specific integrated circuitの略語である。制御部21は、制御装置20の各部を制御しながら、制御装置20の動作に関わる処理を実行する。
記憶部22は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらのうち少なくとも2種類の組み合わせを含む。半導体メモリは、例えば、RAM又はROMである。「RAM」は、random access memoryの略語である。「ROM」は、read only memoryの略語である。RAMは、例えば、SRAM又はDRAMである。「SRAM」は、static random access memoryの略語である。「DRAM」は、dynamic random access memoryの略語である。ROMは、例えば、EEPROMである。「EEPROM」は、electrically erasable programmable read only memoryの略語である。記憶部22は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部22には、制御装置20の動作に用いられるデータと、制御装置20の動作によって得られたデータとが記憶される。
通信部23は、少なくとも1つの通信用インタフェースを含む。通信用インタフェースは、例えば、LANインタフェースである。通信部23は、制御装置20の動作に用いられるデータを受信し、また制御装置20の動作によって得られるデータを送信する。
入力部24は、少なくとも1つの入力用インタフェースを含む。入力用インタフェースは、例えば、物理キー、静電容量キー、ポインティングデバイス、ディスプレイと一体的に設けられたタッチスクリーン、回転式若しくはスライド式の可変抵抗器、又はマイクである。入力部24は、制御装置20の動作に用いられるデータを入力する操作を受け付ける。入力部24は、制御装置20に備えられる代わりに、外部の入力機器として制御装置20に接続されてもよい。接続方式としては、例えば、USB、Wi-Fi(登録商標)、HDMI(登録商標)、又はBluetooth(登録商標)などの任意の方式を用いることができる。「USB」は、Universal Serial Busの略語である。「HDMI(登録商標)」は、High-Definition Multimedia Interfaceの略語である。接続方式は、デジタル通信方式でなく、アナログ値をADコンバータ入力端子につなぐ方式でもよい。「AD」は、analog to digitalの略語である。
出力部25は、少なくとも1つの出力用インタフェースを含む。出力用インタフェースは、例えば、ディスプレイ、スピーカ、又はLEDなどのインジケータである。ディスプレイは、例えば、LCD又は有機ELディスプレイである。「LCD」は、liquid crystal displayの略語である。「EL」は、electro luminescenceの略語である。「LED」は、light emitting diodeの略語である。出力部25は、制御装置20の動作によって得られるデータを出力する。出力部25は、制御装置20に備えられる代わりに、外部の出力機器として制御装置20に接続されてもよい。接続方式としては、例えば、USB、Wi-Fi(登録商標)、HDMI(登録商標)、又はBluetooth(登録商標)などの任意の方式を用いることができる。
制御装置20の機能は、本実施形態に係る制御プログラムを、制御部21に相当するプロセッサで実行することにより実現される。すなわち、制御装置20の機能は、ソフトウェアにより実現される。制御プログラムは、制御装置20の動作をコンピュータに実行させることで、コンピュータを制御装置20として機能させる。すなわち、コンピュータは、制御プログラムに従って制御装置20の動作を実行することにより制御装置20として機能する。
プログラムは、非一時的なコンピュータ読取り可能な媒体に記憶しておくことができる。非一時的なコンピュータ読取り可能な媒体は、例えば、SDカードなどのフラッシュメモリ、磁気記録装置、光ディスク、光磁気記録媒体、又はROMである。プログラムの流通は、例えば、プログラムを記憶したDVD又はCD−ROMなどの可搬型媒体を販売、譲渡、又は貸与することによって行う。「DVD」は、digital versatile discの略語である。「CD−ROM」は、compact disc read only memoryの略語である。プログラムをサーバのストレージに格納しておき、サーバから他のコンピュータにプログラムを転送することにより、プログラムを流通させてもよい。プログラムをプログラムプロダクトとして提供してもよい。
コンピュータは、例えば、可搬型媒体に記憶されたプログラム又はサーバから転送されたプログラムを、一旦、主記憶装置に格納する。そして、コンピュータは、主記憶装置に格納されたプログラムをプロセッサで読み取り、読み取ったプログラムに従った処理をプロセッサで実行する。コンピュータは、可搬型媒体から直接プログラムを読み取り、プログラムに従った処理を実行してもよい。コンピュータは、コンピュータにサーバからプログラムが転送される度に、逐次、受け取ったプログラムに従った処理を実行してもよい。サーバからコンピュータへのプログラムの転送は行わず、実行指示及び結果取得のみによって機能を実現する、いわゆるASP型のサービスによって処理を実行してもよい。「ASP」は、application service providerの略語である。プログラムには、電子計算機による処理の用に供する情報であってプログラムに準ずるものが含まれる。例えば、コンピュータに対する直接の指令ではないがコンピュータの処理を規定する性質を有するデータは、「プログラムに準ずるもの」に該当する。
制御装置20の一部又は全ての機能が、制御部21に相当する専用回路により実現されてもよい。すなわち、制御装置20の一部又は全ての機能が、ハードウェアにより実現されてもよい。
図3を参照して、本実施形態に係る第1端末装置30の構成を説明する。
第1端末装置30は、制御部31と、記憶部32と、通信部33と、入力部34と、出力部35と、測位部36とを備える。
制御部31は、少なくとも1つのプロセッサ、少なくとも1つの専用回路、又はこれらの組み合わせを含む。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。専用回路は、例えば、FPGA又はASICである。制御部31は、第1端末装置30の各部を制御しながら、第1端末装置30の動作に関わる処理を実行する。
記憶部32は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらのうち少なくとも2種類の組み合わせを含む。半導体メモリは、例えば、RAM又はROMである。RAMは、例えば、SRAM又はDRAMである。ROMは、例えば、EEPROMである。記憶部32は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部32には、第1端末装置30の動作に用いられるデータと、第1端末装置30の動作によって得られたデータとが記憶される。
通信部33は、少なくとも1つの通信用インタフェースを含む。通信用インタフェースは、例えば、LTE、4G、若しくは5Gなどの移動通信規格に対応したインタフェース、Bluetooth(登録商標)などの近距離無線通信に対応したインタフェース、又はLANインタフェースである。「LTE」は、Long Term Evolutionの略語である。「4G」は、4th generationの略語である。「5G」は、5th generationの略語である。通信部33は、第1端末装置30の動作に用いられるデータを受信し、また第1端末装置30の動作によって得られるデータを送信する。
入力部34は、少なくとも1つの入力用インタフェースを含む。入力用インタフェースは、例えば、物理キー、静電容量キー、ポインティングデバイス、ディスプレイと一体的に設けられたタッチスクリーン、回転式若しくはスライド式の可変抵抗器、複数のボタン37、マイク38、カメラ39、センサ、又は電極である。それぞれのボタン37は、物理キー若しくは静電容量キーとして物理的に実装されてもよいし、又はディスプレイと一体的に設けられたタッチスクリーンに表示されることで仮想的に実装されてもよい。センサは、例えば、気温センサ、湿度センサ、照度センサ、UVセンサ、気圧センサ、若しくは騒音センサなどの環境情報センサ、又は生体センサである。「UV」は、ultravioletの略語である。環境情報センサは、第1ユーザの周辺の環境情報を入力するために利用される。環境情報は、例えば、気温、湿度、照度、UV、気圧、又は騒音である。生体センサ又は電極は、第1ユーザの生体測定値を入力するために利用される。生体測定値は、例えば、図11に示すように、SpO2、光電脈波、指先体温、映像脈波、音声波形、音声の音域、表情、血圧、単位時間当たりの言語数、神経活動指標、バイオインピーダンス、心電図、脳波、筋電、発汗量、血管径、指紋、静脈走行、体重、脂肪率、体水分量、血糖値、又は脂質である。「SpO2」は、percutaneous oxygen saturationの略語である。入力部34は、第1端末装置30の動作に用いられるデータを入力する操作を受け付ける。入力部34は、第1端末装置30に備えられる代わりに、外部の入力機器として第1端末装置30に接続されてもよい。接続方式としては、例えば、USB、Wi-Fi(登録商標)、HDMI(登録商標)、又はBluetooth(登録商標)などの任意の方式を用いることができる。接続方式は、デジタル通信方式でなく、アナログ値をADコンバータ入力端子につなぐ方式でもよい。
出力部35は、少なくとも1つの出力用インタフェースを含む。出力用インタフェースは、例えば、ディスプレイ、スピーカ、又はLEDなどのインジケータである。ディスプレイは、例えば、LCD又は有機ELディスプレイである。出力部35は、第1端末装置30の動作によって得られるデータを出力する。出力部35は、第1端末装置30に備えられる代わりに、外部の出力機器として第1端末装置30に接続されてもよい。接続方式としては、例えば、USB、Wi-Fi(登録商標)、HDMI(登録商標)、又はBluetooth(登録商標)などの任意の方式を用いることができる。
測位部36は、少なくとも1つのGNSS受信機を含む。「GNSS」は、global navigation satellite systemの略語である。GNSSは、例えば、GPS、QZSS、GLONASS、又はGalileoである。「GPS」は、Global Positioning Systemの略語である。「QZSS」は、Quasi-Zenith Satellite Systemの略語である。QZSSの衛星は、準天頂衛星と呼ばれる。「GLONASS」は、Global Navigation Satellite Systemの略語である。測位部36は、第1端末装置30の位置を測定する。
第1端末装置30の機能は、本実施形態に係る第1端末プログラムを、制御部31に相当するプロセッサで実行することにより実現される。すなわち、第1端末装置30の機能は、ソフトウェアにより実現される。第1端末プログラムは、第1端末装置30の動作をコンピュータに実行させることで、コンピュータを第1端末装置30として機能させる。すなわち、コンピュータは、第1端末プログラムに従って第1端末装置30の動作を実行することにより第1端末装置30として機能する。
第1端末装置30の一部又は全ての機能が、制御部31に相当する専用回路により実現されてもよい。すなわち、第1端末装置30の一部又は全ての機能が、ハードウェアにより実現されてもよい。
図4を参照して、本実施形態に係る第2端末装置40の構成を説明する。
第2端末装置40は、制御部41と、記憶部42と、通信部43と、入力部44と、出力部45と、測位部46とを備える。
制御部41は、少なくとも1つのプロセッサ、少なくとも1つの専用回路、又はこれらの組み合わせを含む。プロセッサは、CPU若しくはGPUなどの汎用プロセッサ、又は特定の処理に特化した専用プロセッサである。専用回路は、例えば、FPGA又はASICである。制御部41は、第2端末装置40の各部を制御しながら、第2端末装置40の動作に関わる処理を実行する。
記憶部42は、少なくとも1つの半導体メモリ、少なくとも1つの磁気メモリ、少なくとも1つの光メモリ、又はこれらのうち少なくとも2種類の組み合わせを含む。半導体メモリは、例えば、RAM又はROMである。RAMは、例えば、SRAM又はDRAMである。ROMは、例えば、EEPROMである。記憶部42は、例えば、主記憶装置、補助記憶装置、又はキャッシュメモリとして機能する。記憶部42には、第2端末装置40の動作に用いられるデータと、第2端末装置40の動作によって得られたデータとが記憶される。
通信部43は、少なくとも1つの通信用インタフェースを含む。通信用インタフェースは、例えば、LTE、4G、若しくは5Gなどの移動通信規格に対応したインタフェース、Bluetooth(登録商標)などの近距離無線通信に対応したインタフェース、又はLANインタフェースである。通信部43は、第2端末装置40の動作に用いられるデータを受信し、また第2端末装置40の動作によって得られるデータを送信する。
入力部44は、少なくとも1つの入力用インタフェースを含む。入力用インタフェースは、例えば、物理キー、静電容量キー、ポインティングデバイス、ディスプレイと一体的に設けられたタッチスクリーン、回転式若しくはスライド式の可変抵抗器、マイク、又はカメラである。入力部44は、第2端末装置40の動作に用いられるデータを入力する操作を受け付ける。入力部44は、第2端末装置40に備えられる代わりに、外部の入力機器として第2端末装置40に接続されてもよい。接続方式としては、例えば、USB、Wi-Fi(登録商標)、HDMI(登録商標)、又はBluetooth(登録商標)などの任意の方式を用いることができる。接続方式は、デジタル通信方式でなく、アナログ値をADコンバータ入力端子につなぐ方式でもよい。
出力部45は、少なくとも1つの出力用インタフェースを含む。出力用インタフェースは、例えば、ディスプレイ、スピーカ、又はLEDなどのインジケータである。ディスプレイは、例えば、LCD又は有機ELディスプレイである。出力部45は、第2端末装置40の動作によって得られるデータを出力する。出力部45は、第2端末装置40に備えられる代わりに、外部の出力機器として第2端末装置40に接続されてもよい。接続方式としては、例えば、USB、Wi-Fi(登録商標)、HDMI(登録商標)、又はBluetooth(登録商標)などの任意の方式を用いることができる。
測位部46は、少なくとも1つのGNSS受信機を含む。GNSSは、例えば、GPS、QZSS、GLONASS、又はGalileoである。測位部46は、第2端末装置40の位置を測定する。
第2端末装置40の機能は、本実施形態に係る第2端末プログラムを、制御部41に相当するプロセッサで実行することにより実現される。すなわち、第2端末装置40の機能は、ソフトウェアにより実現される。第2端末プログラムは、第2端末装置40の動作をコンピュータに実行させることで、コンピュータを第2端末装置40として機能させる。すなわち、コンピュータは、第2端末プログラムに従って第2端末装置40の動作を実行することにより第2端末装置40として機能する。
第2端末装置40の一部又は全ての機能が、制御部41に相当する専用回路により実現されてもよい。すなわち、第2端末装置40の一部又は全ての機能が、ハードウェアにより実現されてもよい。
図5から図11を参照して、本実施形態に係るシステム10の動作を説明する。この動作は、本実施形態に係るコミュニケーション支援方法に相当する。
図5は、第1端末装置30の動作を示している。
ステップS101からステップS103において、制御部31は、入力部34を介して、第1ユーザの自覚症状の入力操作Piを受け付ける。
本実施形態では、入力操作Piは、それぞれ選択肢として提示された複数の症状の中から自覚症状を選ぶ操作P1を含む。具体的には、入力操作Piは、操作P1として、複数の症状に1対1で対応する複数のボタン37のうち自覚症状に対応するボタン37を押す操作を含む。一変形例として、入力操作Piは、操作P1として、回転式の可変抵抗器を回転させて、複数の症状に1対1で対応する複数の回転角度のうち自覚症状に対応する回転角度に合わせる操作を含んでもよい。あるいは、入力操作Piは、操作P1として、スライド式の可変抵抗器をスライドさせて、複数の症状に1対1で対応する複数のスライド位置のうち自覚症状に対応するスライド位置に合わせる操作を含んでもよい。
本実施形態では、入力操作Piは、自覚症状を話す操作P2も含む。具体的には、入力操作Piは、操作P2として、マイク38に向かって自覚症状を話す操作を含む。
ステップS104において、制御部31は、入力操作Piで得られた入力データDiを通信部33に制御装置20へ送信させる。通信部33は、入力データDiを制御装置20へ送信する。
本実施形態では、制御部31は、入力操作Piで選ばれた選択肢の識別データD1を入力データDiに含める。識別データD1は、具体的には、操作P1で押されたボタン37を識別するデータである。
本実施形態では、制御部31は、入力操作Piで得られた音声データD2も入力データDiに含める。音声データD2は、具体的には、操作P2でマイク38を介して録音された話し声のデータである。
本実施形態では、制御部31は、入力部34に相当するセンサ又は電極で得られた生体測定値も入力データDiに含める。
一例として、複数のボタン37が、第1ユーザの自覚症状の程度、グレード、又はスケールを表すとする。自覚症状は、例えば、図11に示すように、痛み、呼吸困難、だるさ、見え方、しびれ、又は倦怠感である。スケールは、例えば、図11に示すように、NRS、mBS、又はVASである。「NRS」は、numerical rating scaleの略語である。「mBS」は、modified Borg scaleの略語である。「VAS」は、visual analogue scaleの略語である。自覚症状の程度、グレード、又はスケールは、例えば、それぞれのボタン37に印字された数字、又はそれぞれのボタン37の大きさ、形、色、若しくは位置によって表される。
いずれかのボタン37が押されると、ステップS101において、制御部31は、録音を開始する。
ステップS102において、制御部31は、マイク38を介して、第1ユーザの自覚症状に関するコメントを取得する。制御部31は、自覚症状に関するコメントだけでなく、モルヒネ服薬時間、身体活動、食事状況、食事時間、又は透析状況に関するコメントを取得してもよい。制御部31は、コメントを録音及びデータ化する。
ボタン37が離されると、ステップS103において、制御部31は、録音を終了する。
制御部31は、押されたボタン37を識別する識別データD1と、録音された話し声の音声データD2と、得られた生体測定値とを含む入力データDiを記憶部32に記憶させる。
ステップS104において、制御部31は、記憶部32に記憶された入力データDiを通信部33に制御装置20へ送信させる。
本実施形態の一変形例として、識別データD1及び音声データD2のうち、いずれか一方のデータを入力データDiに含めなくてもよい。あるいは、生体測定値を入力データDiに含めなくてもよい。
図6は、制御装置20の動作を示している。
ステップS201において、通信部23は、第1端末装置30から送信された入力データDiを受信する。制御部21は、通信部23により受信された入力データDiを取得する。
ステップS202からステップS206において、制御部21は、入力データDiを出力データDjに変換する。出力データDjは、入力データDiで示される第1ユーザの自覚症状をテキスト及び画像の少なくともいずれかの形式で表すデータである。すなわち、制御部21は、第1端末装置30で受け付けられた第1ユーザの自覚症状の入力操作Piに応じて、自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データDjを生成する。制御部21は、生成した出力データDjを第2ユーザに向けて第2端末装置40に表示させる。
本実施形態では、制御部21は、第2端末装置40に対し、それぞれが第1ユーザである複数のユーザに共通の画面上で出力データDjを表示させる。具体的には、制御部21は、図8に示すように、ユーザU1、ユーザU2、及びユーザU3などの複数のユーザの自覚症状を表すテキスト及び画像の少なくともいずれかを第2端末装置40に同一の画面上で表示させる。
本実施形態では、制御部21は、第1端末装置30で取得された第1ユーザの話し声の声質を分析して自覚症状の深刻度を評価する。具体的には、制御部21は、声質を分析することで、体調、又は疾患性の変化を判定し、判定結果に応じた値を、深刻度を表す値として算出する。例えば、制御部21は、第1ユーザの話し声が鼻声であれば、第1ユーザの体調が悪いと判定し、高めの値を、深刻度を表す値として算出する。制御部21は、話し声について前回との変化を捉えることで、深刻度を表す値を決定することも可能である。制御部21は、鼻声から第1ユーザが風邪薬を飲んでいることが予測される際には、処方されている薬剤、及び治療に対する飲み合わせ、並びに注意点を第1ユーザに返すか返さないかを判断することも可能である。
本実施形態では、制御部21は、第1端末装置30で取得された第1ユーザの生体測定値を参照して自覚症状の深刻度を評価する。具体的には、制御部21は、生体測定値を参照することで、生体測定値が正常かどうかを判定し、判定結果に応じた値を、深刻度を表す値として算出する。例えば、制御部21は、第1ユーザのSpO2が閾値よりも低ければ、SpO2が異常であると判定し、高めの値を、深刻度を表す値として算出する。
本実施形態では、制御部21は、第1ユーザの話し声の声質、及び第1ユーザの生体測定値などの客観的因子を総合的に分析して自覚症状の深刻度を評価するが、第1ユーザの話し声の声質のみ、第1ユーザの生体測定値のみ、又はその他の客観的因子のみを分析又は参照して自覚症状の深刻度を評価してもよい。いずれの場合も、第1ユーザによって押されたボタン37、又は第1ユーザの話し声の内容などの主観的因子から自覚症状を捉えた上で、第1ユーザの話し声の声質、又は第1ユーザの生体測定値などの客観的因子から自覚症状の深刻度を捉えることができる。例えば、第1ユーザの「頭が痛い」という主訴について、客観的因子から、その主訴がどれくらい深刻かを捉えることができる。
本実施形態の一変形例として、制御部21は、第1ユーザの話し声の声質、及び第1ユーザの生体測定値などの客観的因子だけでなく、第1ユーザによって押されたボタン37の情報、及び第1ユーザの話し声の内容などの主観的因子も総合的に分析して自覚症状の深刻度を評価してもよい。あるいは、制御部21は、第1ユーザによって押されたボタン37の情報、及び第1ユーザの話し声の内容などの主観的因子のみを分析して自覚症状の深刻度を評価してもよい。あるいは、制御部21は、第1ユーザによって押されたボタン37の情報のみ、第1ユーザの話し声の内容のみ、又はその他の主観的因子のみを分析又は参照して自覚症状の深刻度を評価してもよい。例えば、第1ユーザの「頭がとても痛い」という主訴について、「とても」という表現から、その主訴が深刻であると捉えることができる。あるいは、第1ユーザの「頭が少しだけ痛い」という主訴について、「少しだけ」という表現から、その主訴が深刻でないと捉えることができる。
このように、本実施形態又は本実施形態の一変形例では、制御部21は、第1端末装置30で取得された第1ユーザの話し声の声質と、第1端末装置30で取得された第1ユーザの生体測定値と、第1端末装置30で第1ユーザによって押されたボタン37の情報と、第1端末装置30で取得された第1ユーザの話し声をテキスト化して得られた情報との少なくともいずれかを分析して自覚症状の深刻度を評価する。
本実施形態の一変形例として、制御部21は、第1ユーザの自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データDjに、第1ユーザの生体測定値をテキスト及び画像の少なくともいずれかの形式で表すデータを含めてもよい。すなわち、制御部21は、第1ユーザの自覚症状を表すテキスト及び画像の少なくともいずれかと同時に、第1ユーザの生体測定値を表すテキスト及び画像の少なくともいずれかを第2端末装置40に画面上で表示させてもよい。さらなる変形例として、制御部21は、深刻度が閾値を上回る場合、又は第1ユーザの生体測定値が異常値である場合など、予め設定された条件の下に、第1ユーザの生体測定値を第2端末装置40に表示させてもよい。
本実施形態では、制御部21は、深刻度に応じて、第2端末装置40における出力データDjの表示態様を変化させる。具体的には、制御部21は、図8に示すように、深刻度が高い場合に、該当するテキストを第2端末装置40に画面上で大きく表示させる。
深刻度の評価指標としては、例えば、図11に示すように、急性増悪リスク、心筋梗塞リスク、疼痛コントロール、副作用管理、疼痛コントロール、服薬アドヒアランス、病態把握、血糖値予測、フレイル、サルコペニア、腎機能悪化リスクスコア、又は急激な腎機能低下の予測などの任意の指標を用いることができる。
本実施形態では、制御部21は、入力操作Piが行われた日時ごとに、深刻度を評価する。制御部21は、深刻度の推移を表す深刻度データD3を生成する。制御部21は、生成した深刻度データD3を第2ユーザに向けて第2端末装置40にさらに表示させる。具体的には、制御部21は、図9に示すように、深刻度の推移を表すグラフを深刻度データD3として第2端末装置40に画面上で表示させる。このようなグラフを表示することで、第2ユーザが、1日又は1週間などの一定期間における第1ユーザの体調変化の傾向又はパターンを把握しやすくなる。
本実施形態では、制御部21は、自覚症状の推移を表す症状データD4を生成する。制御部21は、生成した症状データD4を第2ユーザに向けて第2端末装置40にさらに表示させる。具体的には、制御部21は、図10に示すように、痛み又は呼吸困難など、自覚症状の種類ごとに、自覚症状の発生数の推移を表すグラフを症状データD4として第2端末装置40に画面上で表示させる。このようなグラフを表示することで、第2ユーザが、1日又は1週間などの一定期間における第1ユーザの症状変化の傾向又はパターンを把握しやすくなる。
一例として、第1端末装置30で押されたボタン37を識別する識別データD1と、第1端末装置30で録音された話し声の音声データD2と、第1端末装置30で得られた生体測定値とを含む入力データDiが、第1端末装置30から送信されたとする。
ステップS201において、通信部23は、第1端末装置30から入力データDiを受信する。制御部21は、通信部23により受信された入力データDiを記憶部22に記憶させる。
ステップS202において、制御部21は、記憶部22に記憶された入力データDiに含まれる音声データD2をテキスト化する。
ステップS203において、制御部21は、テキスト化した話し声の自然言語解析を行うことで、第1ユーザの主訴を抽出する。
ステップS204において、制御部21は、抽出した主訴のほかに、入力データDiに含まれる識別データD1で識別されるボタン37に対応する自覚症状の程度、グレード、又はスケール、入力データDiに含まれる音声データD2の声質を分析した結果、及び入力データDiに含まれる生体測定値から、深刻度を評価する。すなわち、制御部21は、第1ユーザの状態を判定する。深刻度が低いことは、第1ユーザの状態が良いことに相当する。第1ユーザの状態が良ければ、ステップS206の処理が実行される。深刻度が高いことは、第1ユーザの状態が良くないことに相当する。第1ユーザの状態が良くなければ、ステップS205の処理が実行される。
ステップS205において、制御部21は、出力データDjの表示態様がハイライト表示又はアラート表示になるように出力データDjに付加するメタデータを設定する。
ステップS206において、制御部21は、抽出した主訴を表すテキストのインスタントメッセージを出力データDjとして通信部23に第2端末装置40へ送信させる。ステップS205でメタデータが設定されていれば、制御部21は、出力データDjにメタデータを付加する。
ステップS202からステップS206の処理は、ステップS201で入力データDiが受信される度に実行される。
本実施形態の一変形例として、制御部21は、深刻度が閾値を上回る場合に、出力データDjを第2端末装置40に表示させてもよい。制御部21は、深刻度が閾値を下回る場合に、出力データDjを第2端末装置40に表示させなくてもよい。
本実施形態の一変形例として、制御部21は、自覚症状に応じて、第2端末装置40における出力データDjの表示態様を変化させてもよい。
本実施形態の一変形例として、制御部21は、自覚症状に基づいて、第1ユーザの疾患を推定してもよい。疾患は、例えば、図11に示すように、心不全、がん、COPD若しくは肺疾患、神経筋疾患、糖尿病、又は加齢であるが、認知症、脳血管疾患、臓器疾患、運動障害、又は精神疾患などでもよい。「COPD」は、chronic obstructive pulmonary diseaseの略語である。疾患を推定する方法としては、AI又は機械学習などの任意の方法を用いることができる。「AI」は、artificial intelligenceの略語である。制御部21は、推定した疾患を表す疾患データD5を生成してもよい。制御部21は、生成した疾患データD5を第2ユーザに向けて第2端末装置40にさらに表示させてもよい。
図7は、第2端末装置40の動作を示している。
ステップS301において、通信部43は、制御装置20から送信された出力データDjを受信する。制御部41は、通信部43により受信された出力データDjを記憶部42に記憶させる。
ステップS302において、制御部41は、記憶部42に記憶された出力データDjを出力部45に相当するディスプレイに表示させる。制御部41は、出力データDjにメタデータが付加されていれば、メタデータの設定に従って、出力データDjの表示態様を調整する。
ステップS302の処理は、ステップS301で出力データDjが受信される度に実行される。
上述のように、本実施形態では、制御装置20の制御部21は、第1端末装置30で受け付けられた第1ユーザの自覚症状の入力操作Piに応じて、自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データDjを生成する。制御部21は、生成した出力データDjを第2ユーザに向けて第2端末装置40に表示させる。
本実施形態によれば、患者である第1ユーザが感じていることを可視化できる。
本実施形態では、第1端末装置30の通信部33は、制御装置20とネットワーク50を介して通信する。第1端末装置30の制御部31は、第1ユーザの自覚症状の入力操作Piを受け付ける。制御部31は、入力操作Piで得られた入力データDiを通信部33に制御装置20へ送信させる。
本実施形態によれば、制御装置20が、入力操作Piに応じて、第1ユーザの自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データDjを生成し、生成した出力データDjを第2ユーザに向けて第2端末装置40に表示させることで、患者である第1ユーザが感じていることを可視化できる。
在宅で過ごす高齢の患者が感じている日常生活での違和感又は痛みのグレードを可視化するのは、医療提供者、又は患者の世話をする者が患者の状態、又は治療の効果を把握するために非常に有用である。しかし、スマートフォン又はPCを使用したサービスは煩雑であることが多く、患者の心理的ハードルが高い。
例えば、がんの末期において疼痛緩和は非常に重要な治療行為になる。米国ではオピオイド治療薬の過投与による死亡が大きな問題であり、患者の感じる痛みに応じた適切な投与が早急な課題となっている。現状、VASスコアなど、痛みをスコアリングで客観的にみる工夫がなされている。しかし、医療提供者とのコミュニケーションにおいてのみスコアリングが可能であり、在宅時又は慢性的な疼痛など、日常生活においての状態把握は困難である。
患者の主観的なスコアリング又はグレード評価が医療提供者にとって重要な情報となっている例として、他にもPROがある。「PRO」は、patient-reported outcomeの略語である。PROについては、FDAから2009年に「臨床家その他の誰の解釈も介さず、患者から直接得られた、患者の健康状態に関するあらゆる報告」という指針が出されている。「FDA」は、Food and Drug Administrationの略語である。PROは、QOLの評価に重要な要素となっている。「QOL」は、quality of lifeの略語である。医師と患者との評価の不一致は緩和ケアなどでは起こりやすく、客観的なデータが非常に重要である。
患者見守り及び遠隔医療が提案され、実証され始めているものの、高齢者にとって、アプリケーション、又は複雑な機械のUIを理解し、定期的に利用することは難しい。「UI」は、user interfaceの略語である。
本実施形態によれば、患者が複雑な操作をせずとも、患者の主観的なスコアリングをデータ化できる。
本実施形態によれば、患者の主観的データの定点的な観測が、難解な使用法を理解することなく、ボタン37を押すか、話すか、又はその両方という簡易な手法のみで可能となる。家族など、身近な人は、現状の患者の気分又はコメントなどの状態をアプリケーション又はサイトで確認可能となる。
本実施形態によれば、患者のコメントデータのテキスト化及びそれを用いた自然言語解析により自動的に状態の悪化などを検知することが可能となる。
本実施形態によれば、録音データから患者の状態が把握できる。身体的な音声データも取得可能になる。
第1端末装置30は、ガジェットなどの専用端末として実現されてもよいし、又は専用端末と同様の機能を持つアプリケーションを実行する汎用端末として実現されてもよい。すなわち、アプリケーション上に複数のボタン37を持たせ、録音した音声をテキスト化し、クラウド上にアップロードしてもよい。
第1端末装置30は、テレビのリモコンとして実現されてもよい。
本実施形態に係るシステム10は、複数台の第1端末装置30の代わりに、1台のみの第1端末装置を備えていてもよい。第1端末装置は、家族など、複数のユーザによって共用され、認証機能により各ユーザを識別できてもよい。
本実施形態に係るシステム10は、制御装置20と、第1端末装置30又は第2端末装置40に相当し、制御装置20とネットワークを介して通信する端末装置とを別々に備える代わりに、制御装置20と、第1端末装置30又は第2端末装置40との両方に相当する端末装置を備えていてもよい。すなわち、少なくとも1台の端末装置が、第1端末装置30として、入力操作Piを受け付けるとともに、制御装置20として、入力操作Piに応じて出力データDjを生成してもよい。あるいは、少なくとも1台の端末装置が、制御装置20として、入力操作Piに応じて出力データDjを生成するとともに、第2端末装置40として、出力データDjを第2ユーザに向けて表示してもよい。
本実施形態は、患者が在宅の場合に限らず、任意のシチュエーションに適用可能である。例えば、入院ベッドのナースコールは現在鳴らしたベッドが分かるのみであるが、第1端末装置30の操作がナースコールのように使われることも有用である。患者がボタン37を押して訴えた声音がテキストとしてナースステーションに設置した第2端末装置40へ表示されてもよいし、又は別の場所にいる医師に通知されてもよい。
本開示は上述の実施形態に限定されるものではない。例えば、ブロック図に記載の複数のブロックを統合してもよいし、又は1つのブロックを分割してもよい。フローチャートに記載の複数のステップを記述に従って時系列に実行する代わりに、各ステップを実行する装置の処理能力に応じて、又は必要に応じて、並列的に又は異なる順序で実行してもよい。その他、本開示の趣旨を逸脱しない範囲での変更が可能である。
10 システム
20 制御装置
21 制御部
22 記憶部
23 通信部
24 入力部
25 出力部
30 第1端末装置
31 制御部
32 記憶部
33 通信部
34 入力部
35 出力部
36 測位部
37 ボタン
38 マイク
39 カメラ
40 第2端末装置
41 制御部
42 記憶部
43 通信部
44 入力部
45 出力部
46 測位部
50 ネットワーク

Claims (21)

  1. 第1端末装置で受け付けられた第1ユーザの自覚症状の入力操作に応じて、前記自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データを生成し、生成した出力データを第2ユーザに向けて第2端末装置に表示させる制御部を備える制御装置。
  2. 前記入力操作は、それぞれ選択肢として提示された複数の症状の中から前記自覚症状を選ぶ操作を含む請求項1に記載の制御装置。
  3. 前記入力操作は、前記複数の症状に1対1で対応する複数のボタンのうち前記自覚症状に対応するボタンを押す操作を含む請求項2に記載の制御装置。
  4. 前記入力操作は、前記自覚症状を話す操作を含む請求項1から請求項3のいずれか1項に記載の制御装置。
  5. 前記制御部は、前記第1端末装置で取得された前記第1ユーザの話し声の声質を分析して前記自覚症状の深刻度を評価する請求項4に記載の制御装置。
  6. 前記制御部は、前記第1端末装置で取得された前記第1ユーザの生体測定値を参照して前記自覚症状の深刻度を評価する請求項1から4のいずれか1項に記載の制御装置。
  7. 前記制御部は、前記第1端末装置で取得された前記第1ユーザの話し声の声質と、前記第1端末装置で取得された前記第1ユーザの生体測定値と、前記第1端末装置で前記第1ユーザによって押されたボタンの情報と、前記第1端末装置で取得された前記第1ユーザの話し声をテキスト化して得られた情報との少なくともいずれかを分析して前記自覚症状の深刻度を評価する請求項1から4のいずれか1項に記載の制御装置。
  8. 前記制御部は、前記深刻度が閾値を上回る場合に、前記出力データを前記第2端末装置に表示させる請求項5から請求項7のいずれか1項に記載の制御装置。
  9. 前記制御部は、前記深刻度に応じて、前記第2端末装置における前記出力データの表示態様を変化させる請求項5から請求項8のいずれか1項に記載の制御装置。
  10. 前記制御部は、前記入力操作が行われた日時ごとに、前記深刻度を評価し、前記深刻度の推移を表す深刻度データを生成し、生成した深刻度データを前記第2ユーザに向けて前記第2端末装置にさらに表示させる請求項5から請求項9のいずれか1項に記載の制御装置。
  11. 前記制御部は、前記自覚症状に応じて、前記第2端末装置における前記出力データの表示態様を変化させる請求項1から請求項10のいずれか1項に記載の制御装置。
  12. 前記制御部は、前記自覚症状の推移を表す症状データを生成し、生成した症状データを前記第2ユーザに向けて前記第2端末装置にさらに表示させる請求項1から請求項11のいずれか1項に記載の制御装置。
  13. 前記制御部は、前記自覚症状に基づいて、前記第1ユーザの疾患を推定し、推定した疾患を表す疾患データを生成し、生成した疾患データを前記第2ユーザに向けて前記第2端末装置にさらに表示させる請求項1から請求項12のいずれか1項に記載の制御装置。
  14. 前記制御部は、前記第2端末装置に対し、それぞれが前記第1ユーザである複数のユーザに共通の画面上で前記出力データを表示させる請求項1から請求項13のいずれか1項に記載の制御装置。
  15. 請求項1から請求項14のいずれか1項に記載の制御装置と、
    前記第1端末装置又は前記第2端末装置に相当し、前記制御装置とネットワークを介して通信する端末装置と
    を備えるシステム。
  16. 請求項1から請求項14のいずれか1項に記載の制御装置と、前記第1端末装置又は前記第2端末装置との両方に相当する端末装置。
  17. 第1ユーザの自覚症状の入力操作に応じて、前記自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データを生成する制御装置であって、生成した出力データを第2ユーザに向けて第2端末装置に表示させる制御装置とネットワークを介して通信する通信部と、
    前記入力操作を受け付け、前記入力操作で得られた入力データを前記通信部に前記制御装置へ送信させる制御部と
    を備える端末装置。
  18. 前記入力操作は、それぞれ選択肢として提示された複数の症状の中から前記自覚症状を選ぶ操作を含み、
    前記制御部は、前記入力操作で選ばれた選択肢の識別データを前記入力データに含める請求項17に記載の端末装置。
  19. 前記入力操作は、前記自覚症状を話す操作を含み、
    前記制御部は、前記入力操作で得られた音声データを前記入力データに含める請求項17又は請求項18に記載の端末装置。
  20. コンピュータを請求項17から請求項19のいずれか1項に記載の端末装置として機能させるプログラム。
  21. 第1ユーザの自覚症状の入力操作を第1端末装置で受け付け、
    前記入力操作に応じて、前記自覚症状をテキスト及び画像の少なくともいずれかの形式で表す出力データを制御装置で生成し、
    前記出力データを第2ユーザに向けて第2端末装置に表示させるコミュニケーション支援方法。
JP2020056083A 2020-03-26 2020-03-26 制御装置、システム、端末装置、プログラム、及びコミュニケーション支援方法 Pending JP2021153777A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020056083A JP2021153777A (ja) 2020-03-26 2020-03-26 制御装置、システム、端末装置、プログラム、及びコミュニケーション支援方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020056083A JP2021153777A (ja) 2020-03-26 2020-03-26 制御装置、システム、端末装置、プログラム、及びコミュニケーション支援方法

Publications (1)

Publication Number Publication Date
JP2021153777A true JP2021153777A (ja) 2021-10-07

Family

ID=77916162

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020056083A Pending JP2021153777A (ja) 2020-03-26 2020-03-26 制御装置、システム、端末装置、プログラム、及びコミュニケーション支援方法

Country Status (1)

Country Link
JP (1) JP2021153777A (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230446A (ja) * 2005-02-22 2006-09-07 Nippon Shizen Kagaku Kenkyusho:Kk 健康状態推定装置
US20130073306A1 (en) * 2011-09-16 2013-03-21 Jordan Shlain Healthcare pre-visit and follow-up system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006230446A (ja) * 2005-02-22 2006-09-07 Nippon Shizen Kagaku Kenkyusho:Kk 健康状態推定装置
US20130073306A1 (en) * 2011-09-16 2013-03-21 Jordan Shlain Healthcare pre-visit and follow-up system

Similar Documents

Publication Publication Date Title
Gravenhorst et al. Mobile phones as medical devices in mental disorder treatment: an overview
US20190355447A1 (en) Devices and method for a healthcare collaboration space
Califf Future of personalized cardiovascular medicine: JACC state-of-the-art review
KR20210113299A (ko) 대화형 유연한 데이터 제시를 위한 시스템 및 방법
US11424025B2 (en) Systems and methods for medical device monitoring
US20210407633A1 (en) System and method for tracking informal observations about a care recipient by caregivers
US20210065889A1 (en) Systems and methods for graphical user interfaces for a supervisory application
US20210064224A1 (en) Systems and methods for graphical user interfaces for medical device trends
Băjenaru et al. Identifying the needs of older people for personalized assistive solutions in Romanian healthcare system
US20170354383A1 (en) System to determine the accuracy of a medical sensor evaluation
Jat et al. Harnessing the Digital Revolution: A Comprehensive Review of mHealth Applications for Remote Monitoring in Transforming Healthcare Delivery
Abedin et al. AI in primary care, preventative medicine, and triage
Katz et al. Digital Health Interventions for Hypertension Management in US Populations Experiencing Health Disparities: A Systematic Review and Meta-Analysis
Tsoi et al. Blood pressure monitoring on the cloud system in elderly community centres: a data capturing platform for application research in public health
JP2021153777A (ja) 制御装置、システム、端末装置、プログラム、及びコミュニケーション支援方法
Gomes et al. A Proposal to Incorporate Digital Auscultation and Its Processing into an Existing Electronic Health Record.
KR20190118774A (ko) 건강 관리 지원 시스템
JP2011180817A (ja) ネットワークを介した生活習慣病予防及び治療のための健康管理システム
US20220101989A1 (en) Customized medical treatment
Raad et al. A ubiquitous telehealth system for the elderly
WO2023053257A1 (ja) 情報処理システム、情報処理装置、情報処理方法、プログラムが格納された非一時的なコンピュータ可読媒体
Băjenaru et al. Clinically-validated technologies for older adults' quality of life self-management: vINCI ecosystem
US20240168776A1 (en) Dynamic interfaces based on machine learning and user state
WO2022163239A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
Lal et al. Enhancing Patient Care and Monitoring Through AI and IoT in Healthcare

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230718

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240130