JP2020149072A - 会話記録システム、会話記録方法、サーバ装置、及びプログラム - Google Patents

会話記録システム、会話記録方法、サーバ装置、及びプログラム Download PDF

Info

Publication number
JP2020149072A
JP2020149072A JP2019043300A JP2019043300A JP2020149072A JP 2020149072 A JP2020149072 A JP 2020149072A JP 2019043300 A JP2019043300 A JP 2019043300A JP 2019043300 A JP2019043300 A JP 2019043300A JP 2020149072 A JP2020149072 A JP 2020149072A
Authority
JP
Japan
Prior art keywords
information
explanatory
unit
voice
text information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019043300A
Other languages
English (en)
Inventor
奈津子 山口
Natsuko Yamaguchi
奈津子 山口
久子 森田
Hisako Morita
久子 森田
雅樹 近野
Masaki Konno
雅樹 近野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2019043300A priority Critical patent/JP2020149072A/ja
Publication of JP2020149072A publication Critical patent/JP2020149072A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)

Abstract

【課題】インフォームドコンセント等の会話の内容を正確に、かつ、より確認し易いように記録する。【解決手段】会話記録システムは、説明資料を登録する登録部と、会話の音声情報を取得する音声取得部と、前記音声情報をテキスト情報に変換して言葉単位に分ける音声処理部と、前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定部と、前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶部と、を備えることを特徴とする。【選択図】図3

Description

本発明は、会話記録システム、会話記録方法、サーバ装置、及びプログラムに関する。
医療現場においては、医師から患者等に対して、罹患している病気やその治療方法等について十分な説明を行い、患者等がその説明を理解した上で治療方法に合意すること、所謂、インフォームドコンセントが行われている。
ただし、インフォームドコンセントにおける医者の説明は、必ずしも患者にとって容易に理解できる内容であるとは限らない。よって、インフォームドコンセントの内容を患者が後日において確認するための様々な方法が提案されている。
最もシンプルな方法としては、インフォームドコンセントにおける会話を録音し、その録音を再生して聞き直す方法が考えられる。しかしながら、録音時間が長い場合、確認したい箇所を探し出すことは容易でなく、手間がかかってしまう。
そこで、例えば特許文献1には「記憶手段と、表示手段と、参照位置収集手段と、算出手段と、出力手段とを備え、記憶手段は、医用画像を予め記憶し、表示手段は、医用画像を表示し、参照位置収集手段は、医用画像における少なくとも1人の参照者の参照点の位置を収集し、算出手段は、参照位置収集手段で収集された前記参照点の位置に基づいて、複数の前記参照者の前記参照位置を統合した注目位置情報を求め、出力手段は、注目位置情報を出力する」医用情報処理システムが開示されている。
特開2015−118448号公報
特許文献1に記載の医用情報処理システムによれば、インフォームドコンセントにおける医師と患者との会話を文書として記録した議事録と、インフォームドコンセントにおいて参照した医用画像等の資料とを紐付けて記録することができる。よって、患者は、この記録を参照することにより、インフォームドコンセントが行われた後、その内容を確認することができる。また、医師は、インフォームドコンセントを適切に実施したことの証拠を残すことができる。
ただし、特許文献1に記載の医用情報処理システムにおける議事録は、医療秘書等の人力によって作成されるが、人力によって作成された議事録は、作成者(医療秘書等)の医療知識に差があったり、作成者の主観によって要約されたりしてしまうことがある。よって、議事録に会話の内容についての記録漏れがあったり、不正確な記載があったりする可能性がある。
本発明は、このような状況に鑑みてなされたものであり、インフォームドコンセント等の会話の内容を正確に、かつ、より確認し易いように記録することを目的とする。
本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。
上記課題を解決すべく、本発明の一態様に係る会話記録システムは、説明資料を登録する登録部と、会話の音声情報を取得する音声取得部と、前記音声情報をテキスト情報に変換して言葉単位に分ける音声処理部と、前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定部と、前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶部と、を備えることを特徴とする。
前記会話記録システムは、前記説明資料の説明文及び前記テキスト情報を含む説明画面を説明装置に表示させる表示制御部を、備えることができる。
前記表示制御部は、紐付けられた前記説明資料の項目の説明文及び前記テキスト情報の言葉単位を含む説明画面を説明装置に表示させることができる。
前記音声処理部は、順次入力される前記音声情報を前記テキスト情報に順次変換して言葉単位を設定することができ、前記表示制御部は、前記会話に対してリアルタイムで前記説明画面の前記テキスト情報を更新することができる。
前記音声処理部は、前記会話の発話者を区別して前記音声情報を前記テキスト情報に変換することができる。
前記会話記録システムは、前記会話が終了した後、前記説明装置及び端末装置の少なくとも一方からの要求に応じ、前記表示制御部を制御して前記説明画面を閲覧させる閲覧部を、備えることができ、前記表示制御部は、前記紐付け情報に基づいて前記説明画面を再現することができる。
前記紐付け判定部は、前記説明資料の各項目に対して前記音声情報の区間を紐付けた前記紐付け情報を生成することができ、前記記憶部は、前記音声情報を記憶することができる。
前記閲覧部は、前記会話が終了した後、前記説明装置及び端末装置の少なくとも一方からの要求に応じ、前記記憶部に記憶されている前記音声情報を供給することができる。
前記登録部は、前記説明資料の各項目からキーワードを抽出することができ、前記会話記録システムは、前記音声情報から変換された前記テキスト情報に前記キーワードが含まれていない場合、前記キーワードについて説明するように注意喚起を行う注意喚起部を、備えることができる。
前記会話記録システムは、ユーザからの修正指示に従い、前記記憶部に記憶されている前記説明資料及び前記テキスト情報の少なくとも一方を修正する修正部を、備えることができ、前記記憶部は、前記修正部による前記説明資料及び前記テキスト情報の少なくとも一方に対する修正の履歴を表す修正履歴情報を記憶することができる。
本発明の他の態様に係る会話記録方法は、説明資料を登録する登録ステップと、会話の音声情報を取得する音声取得ステップと、前記音声情報をテキスト情報に変換して言葉単位に分ける音声処理ステップと、説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定ステップと、前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶ステップと、を含むことを特徴とする。
本発明のさらに他の態様に係るサーバ装置は、説明資料を登録する登録部と、会話の音声情報をテキスト情報に変換して言葉単位に分けるか、または前記音声情報から変換された前記テキスト情報を取得して言葉単位に分ける音声処理部と、前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定部と、前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶部と、を備えることを特徴とする。
本発明のさらに他の態様に係る会話記録方法は、サーバ装置による会話記録方法であって、説明資料を登録する登録ステップと、会話の音声情報をテキスト情報に変換して言葉単位に分けるか、または前記音声情報から変換された前記テキスト情報を取得して言葉単位に分ける音声処理ステップと、前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定ステップと、前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶ステップと、を含むことを特徴とする。
本発明のさらに他の態様に係るプログラムは、コンピュータを、説明資料を登録する登録部と、会話の音声情報をテキスト情報に変換して言葉単位に分けるか、または前記音声情報から変換された前記テキスト情報を取得して言葉単位に分ける音声処理部と、前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定部と、前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶部と、して機能させることを特徴とする。
本発明の一態様によれば、インフォームドコンセント等の会話の内容を正確に、且つ、より確認し易いように記録することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
図1は、本発明の一実施の形態に係る会話記録システムの構成例を示すブロック図である。 図2は、説明装置を構成する機能ブロックの構成例を示すブロック図である。 図3は、サーバ装置を構成する機能ブロックの第1の構成例を示すブロック図である。 図4は、説明資料の一例を示す図である。 図5は、紐付け情報の一例を示す図である。 図6は、記録処理の一例を説明するフローチャートである。 図7は、インフォームドコンセント中の説明画面の表示例を示す図である。 図8は、インフォームドコンセント後の説明画面の表示例を示す図である。 図9は、サーバ装置を構成する機能ブロックの第2の構成例を示すブロック図である。 図10は、記録処理の一例を説明するフローチャートである。 図11は、説明画面の表示例を示す図である。 図12は、サーバ装置を構成する機能ブロックの第3の構成例を示すブロック図である。 図13は、一般的なコンピュータの構成例を示すブロック図である。
以下、本発明に係る一実施の形態を図面に基づいて説明する。なお、一実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。また、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。また、「Aからなる」、「Aよりなる」、「Aを有する」、「Aを含む」と言うときは、特にその要素のみである旨明示した場合等を除き、それ以外の要素を排除するものでないことは言うまでもない。同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは、特に明示した場合および原理的に明らかにそうでないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。
<本発明の一実施の形態に係る会話記録システム10の構成例>
図1は、本発明の一実施の形態に係る会話記録システム10の構成例を示している。
該会話記録システム10は、例えば、インフォームドコンセントにおける医師と患者(患者の家族を含む)との会話の音声を取得して音声認識を行い、その結果得られるテキスト情報と、インフォームドコンセントに用いた説明資料とを、説明資料の項目毎に紐付けてリアルタイムに表示し、且つ、記録するものである。ただし、会話記録システム10は、インフォームドコンセントの会話を記録する場合に限らず、任意の音声、例えば、授業や講演等の内容を記録する場合にも用いることができる。
会話記録システム10は、ネットワーク11を介して接続された説明装置20、スマートスピーカ30、サーバ装置40、及び端末装置50を備える。
ネットワーク11は、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、公衆電話通信網等からなる。
説明装置20は、インフォームドコンセントが行われる病院の診察室等に配置され、ユーザである医師等によって操作される。説明装置20は、例えば、PC(パーソナルコンピュータ)、タブレット型コンピュータ等の一般的なコンピュータからなる。
スマートスピーカ30は、本発明の音声取得部に相当する。スマートスピーカ30は、説明装置20とともに診察室等に配置される。スマートスピーカ30は、マイクロフォンを内蔵しており、インフォームドコンセントにおける医師と患者との会話の音声を取得し、音声情報としてネットワーク11を介してサーバ装置40に順次送信する。また、スマートスピーカ30は、サーバ装置40から供給される音声信号に基づいて音声を出力する。
なお、スマートスピーカ30は、説明装置20に対応付けられており、スマートスピーカ30からサーバ装置40に順次送信される音声情報の処理結果(説明画面60(図7))は説明装置20に送信される。スマートスピーカ30は、説明装置20に内蔵されていてもよい。
サーバ装置40は、いわゆるクラウドネットワーク上の任意の位置に配置される。サーバ装置40は、サーバコンピュータ等の一般的なコンピュータからなる。
端末装置50は、患者(患者の家族等を含む)が操作するPC、スマートフォン、タブレット型コンピュータ等の一般的なコンピュータからなる。端末装置50は、患者からの操作に応じ、ネットワーク11を介してサーバ装置40に接続して、インフォームドコンセントが行われたときの説明画面60(図7)を表示する。これにより、患者は、インフォームドコンセントの内容を後日において確認することができる。
<説明装置20を構成する機能ブロックの構成例>
次に、図2は、説明装置20を構成する機能ブロックの構成例を示している。説明装置20は、制御部21、通信部22、記憶部23、表示部24、及び操作部25の機能ブロックを備える。
制御部21は、例えば、PCのCPU(Central Processing Unit)が所定のプログラムを実行することによって実現される。制御部21は、説明装置20の全体の動作を制御する。
通信部22は、例えばPCの通信装置によって実現される。通信部22は、ネットワーク11を介してサーバ装置40に接続し、各種の情報を通信する。例えば、通信部22は、ユーザ(医師等)が作成し、記憶部23に格納されている説明資料をサーバ装置40に送信する。また例えば、通信部22は、サーバ装置40から送信される、説明画面60を表示するための画面情報を受信する。画面情報は、映像信号でもよいし、画像データでもよく、形式は限定されない。
記憶部23は、例えばPCの記憶装置によって実現される。記憶部23には、説明資料が格納されている。
説明資料は、インフォームドコンセントを行う際に患者に示しながら説明を行うためのものである。説明資料には、インフォームドコンセントにて説明すべき項目が予め設定されており、各項目には説明文や画像(レントゲン画像等)が用意されている。説明資料の項目の名称としては、例えば、(1)病気の概要、(2)治療の目的、(3)治療の方法、(4)治療の危険性等を挙げることができる。説明資料の詳細については後述する。
表示部24は、例えばPCの出力装置(ディスプレイ)によって実現される。表示部24は、サーバ装置40から供給される画面情報に基づいて説明画面60を表示する。操作部25は、例えばPCの入力装置(キーボード、タッチパネル、マウス等)によって実現される。操作部25は、ユーザからの指示操作を受け付けて制御部21に通知する。
<サーバ装置40を構成する機能ブロックの第1の構成例>
次に、図3は、サーバ装置40を構成する機能ブロックの第1の構成例を示している。サーバ装置40の第1の構成例は、制御部41、通信部42、及び記憶部43の機能ブロックを備える。
制御部41は、例えば、サーバコンピュータのCPUが所定のプログラムを実行することにより実現される。制御部41は、サーバ装置40の全体を制御する。制御部41は、登録部411、音声処理部412、紐付け判定部413、表示制御部414、及び閲覧部415の機能ブロックを有する。
登録部411は、説明装置20から送信された説明資料の各項目の説明文からキーワードを抽出し、説明資料の各項目に説明文とキーワードとを紐付けて記憶部43の説明資料DB(データベース)431に登録する(格納する)。
音声処理部412は、スマートスピーカ30から順次送信される音声情報に対し、予め登録されている説明装置20のユーザ(医師)の音声と、ユーザ以外(患者等)の音声とを区別して音声認識処理を行うことにより、音声情報をテキスト情報に順次変換する。また、音声処理部412は、テキスト情報を解析し、所定の言葉単位(段落、文、文節等)に分けて記憶部43のテキスト情報DB433に格納する。なお、音声認識処理は、他の装置に実行させてもよい。例えば、スマートスピーカ30は、他の装置(例えば、インターネット上の音声認識エンジン)に音声情報を送信して、音声認識結果としてのテキスト情報を受信し、音声処理部412は該テキスト情報を取得すればよい。
テキスト情報には、各言葉単位と音声情報の区間(音声の先頭からの経過時間)との対応関係を表す属性情報が含まれているものとする。さらに、音声処理部412は、説明装置20から順次送信される音声情報を連結して、記憶部43の音声情報DB432に格納する。なお、連結された音声情報は、所定の方法でエンコードしてから音声情報DB432に格納するようにしてもよい。
紐付け判定部413は、インフォームドコンセントに用いるとして選択された説明資料の各項目について、対応するテキスト情報の言葉単位を判定する。また、紐付け判定部413は、説明資料の各項目に、テキスト情報の言葉単位と、音声情報の区間とを紐付けた紐付け情報を生成し、記憶部43の紐付け情報DB434に格納する。
具体的には、インフォームドコンセントを行う際、医師はインフォームドコンセントに用いる説明資料を選択し、選択した説明資料の項目順に説明を行い、各項目の説明の冒頭において、例えば「(項目の名称)について説明を始めます」等と発言し、各項目の説明の最後において、例えば「以上で、(項目の名称)についての説明を終わります」等と発言するようにする。そして、紐付け判定部413は、音声情報に基づくテキスト情報から、上記した医師の発言と一致する文言を検出し、検出結果に基づき、各項目に対応するテキスト情報の言葉単位を判定する。ここで、「一致する」とは、所定の閾値を越えて類似する場合を含むものとする。
なお、上述した具体例の他、テキスト情報と、説明資料における各項目の説明文やキーワードとを照合して、説明資料の各項目に対応するテキスト情報の言葉単位を判定するようにしてもよい。
また、音声処理部412及び紐付け判定部413については、AI(人工頭脳)を採用してもよい。
表示制御部414は、記憶部43の説明資料DB431に格納されている説明資料のリスト(不図示)を説明装置20の表示部24に表示させるための画面情報を生成する。また、表示制御部414は、説明装置20の表示部24に説明画面60を表示させるための画面情報を生成する。
閲覧部415は、インフォームドコンセントが行われた後、ネットワーク11を介して接続された説明装置20や端末装置50からの要求に応じ、表示制御部414に対して、インフォームドコンセントが行われた際に説明装置20に表示させた説明画面60と同様の表示を行うための画面情報を生成させる。この場合、表示制御部414は、記憶部43の紐付け情報DB434に格納されている、インフォームドコンセントを行った際に生成した紐付け情報に基づいて説明画面60の画面情報を再現することができる。また、閲覧部415は、インフォームドコンセントが行われた際に取得され、記憶部43の音声情報DB432に格納されている音声情報を説明装置20や端末装置50に供給することができる。
通信部42は、例えばサーバコンピュータの通信装置によって実現される。通信部42は、ネットワーク11を介して接続された説明装置20、スマートスピーカ30、及び端末装置50と各種の情報を通信する。例えば、通信部42は、説明装置20から送信された説明資料を受信して登録部411に出力する。また通信部42は、スマートスピーカ30から順次送信される音声情報を受信して音声処理部412に出力する。さらに通信部42は、表示制御部414にて生成された画面情報を説明装置20や端末装置50に送信する。
記憶部43は、例えばサーバコンピュータの記憶装置によって実現される。記憶部43には、説明資料DB431、音声情報DB432、テキスト情報DB433、及び紐付け情報DB434が格納される。
説明資料DB431には、説明装置20から送信され、登録部411によって各項目のキーワードが抽出された説明資料が格納される。
音声情報DB432には、スマートスピーカ30から順次送信された音声情報が連結されて格納される。
テキスト情報DB433には、言葉単位に分けられたテキスト情報が格納される。
紐付け情報DB434は、紐付け判定部413によって生成された紐付け情報が格納される。
なお、図3に示されたサーバ装置40の機能ブロックの一部または全てを説明装置20に設けるようにしてもよい。
次に、図4は、説明資料DB431に格納された説明資料のデータ構造の一例を示している。説明資料には、説明資料を一意に識別できる資料番号が付与されている。また、説明資料には、複数の項目が設けられており、各項目には、名称、説明文、及び説明文から抽出されたキーワードが対応付けて記録されている。なお、説明文には、文字列の他、X線写真等の画像を含めることができる。
次に、図5は、紐付け情報の一例を示している。紐付け情報には、説明資料の項目番号に対して、テキスト情報の言葉単位、及び音声情報の区間が紐付けられている。同図の例では、資料番号2018/12/01/d01が表す説明資料の項目番号i1には、テキスト情報2018/12/01/d01の言葉単位p1−p3と、音声情報2018/12/01/v01の00:00:00−00:08:30が紐付けられていることを表している。また例えば、資料番号2018/12/01/d01が表す説明資料の項目番号i2には、テキスト情報2018/12/01/d01の言葉単位p4−p7と、音声情報2018/12/01/v01の00:08:31−00:15:10と紐付けられていることを表している。
<会話記録システム10による記録処理>
次に、図6は、会話記録システム10のサーバ装置40が第1の構成例(図3)を有する場合における記録処理の一例を説明するフローチャートである。
前提として、既にサーバ装置40の記憶部43の説明資料DB431には、登録部411により、説明装置20から送信された説明資料が登録されているものとする。記録処理は、説明装置20のユーザ(医師等)がインフォームドコンセントを始める際に行う所定の開始操作に応じて開始される。
はじめに、サーバ装置40の表示制御部414が、説明資料DB431に格納されている説明資料のリストを説明装置20の表示部24に表示させるための画面情報を生成する。そして、通信部42が、生成された画面情報をネットワーク11を介して説明装置20に送信する。説明装置20では、通信部22が該画面情報を受信し、表示部24が該画面情報に基づいて説明資料のリストを表示する。そして、操作部25が、該リストの中からインフォームドコンセントにて参照する説明資料を選択するユーザの操作を受け付けて、選択された説明資料の資料番号を制御部21に通知する。そして、通信部22が、制御部21からの制御に従い、選択された説明資料の資料番号をサーバ装置40に通知する。サーバ装置40では、通信部42が、選択された説明資料の資料番号を受信して紐付け判定部413及び表示制御部414に通知する。そして、表示制御部414が、説明資料DB431に格納された該当する説明資料を参照して、説明資料の内容を含む説明画面60(図7)の画面情報を生成する。この画面情報は、通信部42が、ネットワーク11を介して説明装置20に送信する。これにより、説明装置20の表示部24には、説明画面60が表示される(ステップS1)。
次に、説明装置20において、説明画面60を参照しながらユーザ(医師等)が説明を開始すると、スマートスピーカ30が、その音声を取得し、音声情報としてサーバ装置40への順次送信を開始する。サーバ装置40では、音声処理部412が、スマートスピーカ30からの音声情報に対し、説明装置20のユーザ(医師等)の声と、ユーザ以外(患者等)の声とを区別し、音声認識処理によって音声情報をテキスト情報に順次変換する。また、音声処理部412が、テキスト情報を解析して言葉単位に分けて、表示制御部414に出力するとともに、テキスト情報DB433への格納を開始する。さらに、音声処理部412が、説明装置20から順次送信された音声情報を連結して音声情報DB432への格納を開始する。そして、表示制御部414が、テキスト情報(インフォームドコンセントの会話内容)を追加した説明画面60の画面情報を生成する。この画面情報は、通信部42が、ネットワーク11を介して説明装置20に送信する。これにより、説明装置20の表示部24の表示は更新され、インフォームドコンセントの説明資料と会話内容とを含む説明画面60が表示される(ステップS2)。
次に、紐付け判定部413が、説明資料DB431に格納された該当する説明資料を参照して、1項目ずつ順に着目してその名称を取得し、音声処理部412から順次入力されるテキスト情報にて、例えば「(着目した項目の名称)について説明を始めます」と一致する文言を探索することによって、着目した項目の説明の始点を検出したか否かを判定する(ステップS3)。
ここで、テキスト情報から、着目した項目の説明の始点を検出していないと判定した場合(ステップS3でNO)、紐付け判定部413はステップS3を繰り返し実行する。そして、紐付け判定部413が、テキスト情報から、着目した項目の説明の始点を検出したと判定した場合(ステップS3でYES)、その旨を表示制御部414に通知する。そして、表示制御部414が、説明画面60において、始点が検出された項目の名称を強調表示する。具体的には、例えば、文字のサイズ、フォント、色、輝度等を変化させたり、太字にしたり、下線を付けたりする(ステップS4)。これにより、現在、医師がどの項目について説明しているのかを患者に対して分かり易く表示することができる。
次に、紐付け判定部413が、テキスト情報から、例えば「以上で、(着目した項目の名称)についての説明を終わります」と一致する文言を探索することによって、着目した項目の説明の終点を検出したか否かを判定する(ステップS5)。
ここで、テキスト情報から、着目した項目の説明の終点を検出していないと判定した場合(ステップS5でNO)、紐付け判定部413は、ステップS5を繰り返し実行する。そして、テキスト情報から、着目した項目の説明の終点を検出したと判定した場合(ステップS5でYES)、紐付け判定部413が、着目した項目に対して、テキスト情報から検出した始点を含む言葉単位から、検出した終点を含む言葉単位までを紐付けるとともに、音声情報の区間も紐付けた紐付け情報を生成して記憶部43の紐付け情報DB434に格納する(ステップS6)。
次に、紐付け判定部413が、参照している説明資料の全ての項目に着目したか否かを判定する(ステップS7)。ここで、紐付け判定部413が、全ての項目に着目していない(未着目の項目が残っている)と判定した場合(ステップS7でNO)、処理はステップS3に戻されて、ステップS3〜S7が繰り返される。そして、紐付け判定部413が、全ての項目を着目した(未着目の項目が残っていない)と判定した場合(ステップS7でYES)、以上で該記録処理は終了される。
以上に説明した記録処理によれば、インフォームドコンセントが行われている最中には、リアルタイムでその会話をテキストに変換して説明画面60に表示できるとともに、説明中の項目を強調表示することができる。これにより、現在、医師がどの項目について説明しているのかを患者に対して分かりやすく表示することができる。よって、医師は、患者が理解し易いように順序良く説明を行うことができる。
また、記録処理によれば、インフォームドコンセントが行われている最中に紐付け情報を生成して、紐付け情報DB434に記録できる。記録された紐付け情報を用いれば、インフォームドコンセントが行われた後、インフォームドコンセントが行われている最中に表示された説明画面60と同じ画面を、説明装置20や端末装置50に表示することができる。
さらに、記録処理によれば、インフォームドコンセントが行われている最中の音声情報を記録できる。記録された音声情報を用いれば、インフォームドコンセントが行われた後、インフォームドコンセントが行われている最中の会話の音声を説明装置20(またはスマートスピーカ30)や端末装置50から出力することができる。
これにより、患者は、インフォームドコンセントが行われた後、その正確な内容を確認することができ、医師は、インフォームドコンセントを適切に実施したことの証拠を正確に残すことができる。
<説明画面60の表示例>
次に、説明画面60の表示例について説明する。図7は、インフォームドコンセントが行われている最中において、説明装置20の表示部24に表示される説明画面60の表示例を示している。図8は、インフォームドコンセントが行われた後において、説明装置20や端末装置50からの要求に応じ、それぞれの表示部に表示される説明画面60の表示例を示している。
説明画面60には、資料項目領域61、資料内容領域62、会話項目領域63、及び会話内容領域64が設けられている。
資料項目領域61には、説明資料の項目の名称が項目番号順に列記される。そして、インフォームドコンセントが行われている最中の説明画面60(図7)においては、資料項目領域61に列記されている名称のうち、説明中の項目の名称が強調表示される。また、インフォームドコンセントが行われた後の説明画面60(図8)においては、説明装置20や端末装置50のユーザが選択した項目の名称が強調表示される。
資料内容領域62には、資料項目領域61にて強調表示されている項目についての説明文(画像を含む)が表示される。すなわち、インフォームドコンセントが行われている最中の説明画面60(図7)の資料内容領域62には、説明中の項目の説明文が表示される。また、インフォームドコンセントが行われた後の説明画面60(図8)の資料内容領域62には、ユーザが選択した項目の説明文が表示される。
会話項目領域63には、会話によって説明された項目の名称(実質的に説明資料の項目の名称と同じ)が列記される。ただし、インフォームドコンセントが行われている最中の説明画面60(図7)の会話項目領域63には、それまでに会話によって説明された、または説明途中の項目の名称が列記され、説明中の項目の名称が強調表示される。インフォームドコンセントが行われた後の説明画面60(図8)の会話項目領域63には、会話によって説明された全ての項目の名称が列記され、説明装置20や端末装置50のユーザが選択した項目の名称が強調表示される。
会話内容領域64には、会話項目領域63にて強調表示されている項目についても会話内容(音声情報を変換したテキスト情報)が表示される。すなわち、インフォームドコンセントが行われている最中の説明画面60(図7)の会話内容領域64には、説明中の会話内容がリアルタイムに表示される。また、インフォームドコンセントが行われた後の説明画面60(図8)の会話内容領域64には、ユーザが選択した項目を説明しているときの会話内容が表示される。
図7に示されたインフォームドコンセントが行われている最中の説明画面60によれば、患者は、医師によって説明されている内容をより容易に理解することができる。
図8に示されたインフォームドコンセントが行われた後の説明画面60によれば、医師及び患者は、インフォームドコンセントの項目を選択してその資料内容や会話内容を確認することができる。このとき、記録処理によって記録した音声情報を再生すれば、インフォームドコンセントの状況を再現することができる。
<サーバ装置40を構成する機能ブロックの第2の構成例>
次に、図9は、サーバ装置40を構成する機能ブロックの第2の構成例を示している。サーバ装置40の第2の構成例は、第1の構成例(図3)に対して、制御部41の中に注意喚起部416を追加したものである。該第2の構成例における注意喚起部416以外の構成要素については、第1の構成例(図3)の構成要素と同様であり、同一の符号を付してその説明を省略する。
注意喚起部416は、説明資料の各項目において、医師によって説明されていない未説明のキーワードが有るか否かを判定する。(例えば、テキスト情報に登場しないキーワードが有るか否かを判定する)。そして、未説明のキーワードが有った場合、注意喚起部416は、その旨を表示制御部414に通知する。この通知に応じ、表示制御部414は、未説明のキーワードについて説明するように注意喚起を行う表示を含む説明画面60の画面情報を生成する。この画面情報は、通信部42が、ネットワーク11を介して説明装置20に送信する。これにより、説明装置20の表示部24には、注意喚起の表示を含む説明画面60が表示される。
次に、図10は、会話記録システム10のサーバ装置40が第2の構成例(図9)を有する場合における記録処理の一例を説明するフローチャートである。
該記録処理は、サーバ装置40の第1の構成例に対応する記録処理(図6)のステップS5とステップS6の間に、ステップS11,S12を追加したものである。
該記録処理においては、紐付け判定部413が、着目した項目の説明の終点を検出したと判定した場合(ステップS5でYES)、注意喚起部416が、未説明のキーワードが有るか否かを判定する(ステップS11)。
ここで、未説明のキーワードが有ると判定した場合(ステップS11でYES)、注意喚起部416が、未説明のキーワードを表示制御部414に通知し、表示制御部414が、未説明のキーワードについて説明するように注意喚起を行う表示を含む説明画面60の画面情報を生成する。この画面情報は、通信部42が、ネットワーク11を介して説明装置20に送信する。これにより、説明装置20の表示部24の説明画面60には、注意喚起が表示される(ステップS12)。処理はステップS11に戻り、ステップS11,S12が繰り返される。
図11は、注意喚起を含む説明画面60の表示例を示している。同図の場合、会話内容領域64に注意喚起「(キーワード)について説明してください」が強調表示されている。なお、注意喚起の文言や表示する位置については図11の例に限るものではなく、任意に変更可能である。
図10の説明に戻る。反対に、注意喚起が行われる前に、説明中の項目の全てのキーワードについて医師が説明を行っていて未説明のキーワードがないと判定された場合や、注意喚起に応じ、未説明のキーワードについて医師が説明を行ったことにより未説明のキーワードがないと判定された場合(ステップS11でNO)、紐付け判定部413が、紐付け情報を生成して記憶部43の紐付け情報DB434に格納することになる(ステップS6)。
以上に説明した記録処理によれば、サーバ装置40の第1の構成例に対応する記録処理と同様の作用、効果を得ることができる。
また、以上に説明した記録処理によれば、医師が説明していないキーワードが残っている場合、未説明のキーワードについて説明するように注意喚起を行うことができるので、医師による説明漏れを抑止することができる。
<サーバ装置40を構成する機能ブロックの第3の構成例>
次に、図12は、サーバ装置40を構成する機能ブロックの第3の構成例を示している。サーバ装置40の第3の構成例は、第1の構成例(図3)に対して、制御部41に中に修正部417を追加するとともに、記憶部43の中に修正履歴情報DB435を追加したものである。該第3の構成例における修正部417及び修正履歴情報DB435以外の構成要素については、第1の構成例(図3)の構成要素と同様であり、同一の符号を付してその説明を省略する。
修正部417は、インフォームドコンセントが行われた後、説明装置20のユーザが入力した修正指示に応じて、説明資料DB431に格納されている説明資料の誤字や脱字を修正したり、テキスト情報DB433に格納されているテキスト情報の誤変換(誤字)を修正したりする。
修正履歴情報DB435には、修正部417による説明資料やテキスト情報に対する修正の履歴を表す修正履歴情報が格納される。
サーバ装置40の第3の構成例によれば、サーバ装置40の第1の構成例に対応する記録処理と同様の作用、効果を得ることができる。
また、サーバ装置40の第3の構成例によれば、説明装置20のユーザ(医師)は、説明資料やテキスト情報の誤りを修正できる。また、修正履歴情報DB435を設けたことにより、医師による説明資料やテキスト情報に対する不正な修正(例えば、誤った説明の隠蔽等)を抑止することができる。
<変形例>
サーバ装置40の第2の構成例(図9)及び第3の構成例(図12)は組み合わせてもよい。
<一般的なコンピュータの構成例>
上述したように、説明装置20、サーバ装置40、及び端末装置50は、一般的なコンピュータによって実現することができる。
図13は、説明装置20、サーバ装置40、及び端末装置50を実現する一般的なコンピュータの構成例を示している。
該コンピュータ100において、CPU101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インターフェース105が接続されている。入出力インターフェース105には、入力装置106、出力装置107、記憶装置108、通信装置109、およびドライブ装置110が接続されている。
入力装置106は、キーボード、マウス、マイクロフォン等よりなり、例えば、説明装置20の操作部25(図2)として機能する。出力装置107は、ディスプレイ、スピーカ等よりなり、例えば、説明装置20の表示部24(図3)として機能する。
記憶装置108は、HDD(hard Disk Drive)、SSD(solid State Drive)などからなり、例えば、説明装置20の記憶部23(図2)やサーバ装置40の記憶部43(図3)として機能する。通信装置109は、LANインターフェースやWi−Fiインターフェースからなり、例えば、説明装置20の通信部22(図2)やサーバ装置40の通信部42(図3)として機能する。ドライブ装置110は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブルメディア111を駆動する。
以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶装置108に記憶されているプログラムを、入出力インターフェース105およびバス104を介して、RAM103にロードして実行することにより、例えば、説明装置20の制御部21(図2)やサーバ装置40の制御部41(図3)が実現される。
コンピュータ100(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア111に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータ100では、プログラムは、リムーバブルメディア111をドライブ装置110に装着することにより、入出力インターフェース105を介して、記憶装置108にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信装置109で受信し、記憶装置108にインストールすることができる。その他、プログラムは、ROM102や記憶装置108に、あらかじめインストールしておくことができる。
なお、コンピュータ100が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
本発明は、上記した実施形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した各実施形態は、本発明を分かりやすく説明するために詳細に説明したものであり、本発明が、必ずしも説明した全ての構成要素を備えるものに限定されるものではない。また、ある実施形態の構成の一部を、他の実施形態の構成に置き換えることが可能であり、ある実施形態の構成に、他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部または全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現されてもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、半導体メモリ、HDD、SSD等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
10・・・会話記録システム、11・・・ネットワーク、20・・・説明装置、21・・・制御部、22・・・通信部、23・・・記憶部、24・・・表示部、25・・・操作部、30・・・スマートスピーカ、40・・・サーバ装置、41・・・制御部、42・・・通信部、43・・・記憶部、50・・・端末装置、60・・・説明画面、61・・・資料項目領域、62・・・資料内容領域、63・・・会話項目領域、64・・・会話内容領域、100・・・コンピュータ、101・・・CPU、102・・・ROM、103・・・RAM、104・・・バス、105・・・入出力インターフェース、106・・・入力装置、107・・・出力装置、108・・・記憶装置、109・・・通信装置、110・・・ドライブ装置、111・・・リムーバブルメディア、411・・・登録部、412・・・音声処理部、413・・・紐付け判定部、414・・・表示制御部、415・・・閲覧部、416・・・注意喚起部、417・・・修正部、431・・・説明資料DB、432・・・音声情報DB、433・・・テキスト情報DB、434・・・紐付け情報DB、435・・・修正履歴情報DB

Claims (14)

  1. 説明資料を登録する登録部と、
    会話の音声情報を取得する音声取得部と、
    前記音声情報をテキスト情報に変換して言葉単位に分ける音声処理部と、
    前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定部と、
    前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶部と、
    を備えることを特徴とする会話記録システム。
  2. 請求項1に記載の会話記録システムであって、
    前記説明資料の説明文及び前記テキスト情報を含む説明画面を説明装置に表示させる表示制御部を、
    備えることを特徴とする会話記録システム。
  3. 請求項2に記載の会話記録システムであって、
    前記表示制御部は、紐付けられた前記説明資料の項目の説明文及び前記テキスト情報の言葉単位を含む説明画面を説明装置に表示させる
    ことを特徴とする会話記録システム。
  4. 請求項2に記載の会話記録システムであって、
    前記音声処理部は、順次入力される前記音声情報を前記テキスト情報に順次変換して言葉単位を設定し、
    前記表示制御部は、前記会話に対してリアルタイムで前記説明画面の前記テキスト情報を更新する
    ことを特徴とする会話記録システム。
  5. 請求項1に記載の会話記録システムであって、
    前記音声処理部は、前記会話の発話者を区別して前記音声情報を前記テキスト情報に変換する
    ことを特徴とする会話記録システム。
  6. 請求項2に記載の会話記録システムであって、
    前記会話が終了した後、前記説明装置及び端末装置の少なくとも一方からの要求に応じ、前記表示制御部を制御して前記説明画面を閲覧させる閲覧部を、備え、
    前記表示制御部は、前記紐付け情報に基づいて前記説明画面を再現する
    ことを特徴とする会話記録システム。
  7. 請求項6に記載の会話記録システムであって、
    前記紐付け判定部は、前記説明資料の各項目に対して前記音声情報の区間を紐付けた前記紐付け情報を生成し、
    前記記憶部は、前記音声情報を記憶する
    ことを特徴とする会話記録システム。
  8. 請求項7に記載の会話記録システムであって、
    前記閲覧部は、前記会話が終了した後、前記説明装置及び端末装置の少なくとも一方からの要求に応じ、前記記憶部に記憶されている前記音声情報を供給する
    ことを特徴とする会話記録システム。
  9. 請求項1に記載の会話記録システムであって、
    前記登録部は、前記説明資料の各項目からキーワードを抽出し、
    前記音声情報から変換された前記テキスト情報に前記キーワードが含まれていない場合、前記キーワードについて説明するように注意喚起を行う注意喚起部を、
    備えることを特徴とする会話記録システム。
  10. 請求項1に記載の会話記録システムであって、
    ユーザからの修正指示に従い、前記記憶部に記憶されている前記説明資料及び前記テキスト情報の少なくとも一方を修正する修正部を、備え、
    前記記憶部は、前記修正部による前記説明資料及び前記テキスト情報の少なくとも一方に対する修正の履歴を表す修正履歴情報を記憶する
    ことを特徴とする会話記録システム。
  11. 会話記録システムによる会話記録方法であって、
    説明資料を登録する登録ステップと、
    会話の音声情報を取得する音声取得ステップと、
    前記音声情報をテキスト情報に変換して言葉単位に分ける音声処理ステップと、
    説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定ステップと、
    前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶ステップと、
    を含むことを特徴とする会話記録方法。
  12. 説明資料を登録する登録部と、
    会話の音声情報をテキスト情報に変換して言葉単位に分けるか、または前記音声情報から変換された前記テキスト情報を取得して言葉単位に分ける音声処理部と、
    前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定部と、
    前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶部と、
    を備えることを特徴とするサーバ装置。
  13. サーバ装置による会話記録方法であって、
    説明資料を登録する登録ステップと、
    会話の音声情報をテキスト情報に変換して言葉単位に分けるか、または前記音声情報から変換された前記テキスト情報を取得して言葉単位に分ける音声処理ステップと、
    前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定ステップと、
    前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶ステップと、
    を含むことを特徴とする会話記録方法。
  14. コンピュータを、
    説明資料を登録する登録部と、
    会話の音声情報をテキスト情報に変換して言葉単位に分けるか、または前記音声情報から変換された前記テキスト情報を取得して言葉単位に分ける音声処理部と、
    前記説明資料の各項目に対して前記テキスト情報の前記言葉単位を紐付けた紐付け情報を生成する紐付け判定部と、
    前記説明資料、前記テキスト情報、及び前記紐付け情報を記憶する記憶部と、
    して機能させることを特徴とするプログラム。
JP2019043300A 2019-03-11 2019-03-11 会話記録システム、会話記録方法、サーバ装置、及びプログラム Pending JP2020149072A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019043300A JP2020149072A (ja) 2019-03-11 2019-03-11 会話記録システム、会話記録方法、サーバ装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019043300A JP2020149072A (ja) 2019-03-11 2019-03-11 会話記録システム、会話記録方法、サーバ装置、及びプログラム

Publications (1)

Publication Number Publication Date
JP2020149072A true JP2020149072A (ja) 2020-09-17

Family

ID=72432003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019043300A Pending JP2020149072A (ja) 2019-03-11 2019-03-11 会話記録システム、会話記録方法、サーバ装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP2020149072A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4362033A1 (en) * 2022-10-24 2024-05-01 Koninklijke Philips N.V. Patient consent

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4362033A1 (en) * 2022-10-24 2024-05-01 Koninklijke Philips N.V. Patient consent
WO2024088756A1 (en) * 2022-10-24 2024-05-02 Koninklijke Philips N.V. Patient consent

Similar Documents

Publication Publication Date Title
CN109697283A (zh) 用于生成患者-健康护理提供者对话的文字记录的方法和系统
CN109698030A (zh) 用于患者-提供者对话的界面以及笔记或总结的自动生成
US20110150420A1 (en) Method and device for storing medical data, method and device for viewing medical data, corresponding computer program products, signals and data medium
US20160337622A1 (en) Medical support system
US20220188217A1 (en) Methods and systems for content management and testing
WO2010118327A2 (en) Targeted health care content delivery system
WO2014089569A1 (en) Medical photography user interface utilizing a body map overlay in camera preview to control photo taking and automatically tag photo with body location
WO2019232883A1 (zh) 推送保险产品的方法、装置、计算机设备和存储介质
US20200152304A1 (en) Systems And Methods For Intelligent Voice-Based Journaling And Therapies
US20210327582A1 (en) Method and system for improving the health of users through engagement, monitoring, analytics, and care management
Jacob Management of patient healthcare information: Healthcare-related information flow, access, and availability
JP4345358B2 (ja) 病院リスクマネジメント支援システム
CN110706774A (zh) 病历生成方法、终端设备及计算机可读存储介质
JP5811642B2 (ja) 音声記録サーバ装置及び音声記録システム
US20090049104A1 (en) Method and system for configuring a variety of medical information
KR20150098568A (ko) 전자 장치에서 비정형 데이터에 기초한 에피소드 기억 식별 방법
JP2020149072A (ja) 会話記録システム、会話記録方法、サーバ装置、及びプログラム
US20180189360A1 (en) Methods and apparatus to present information from different information systems in a local record
KR20220060054A (ko) 스마트 헬스케어 서비스 제공 방법 및 그를 위한 장치
US8751267B2 (en) Medical image processing server and managing method for medical image processing server
KR20110032161A (ko) 병원상담 및 수술과정을 포함한 병원진료의 녹화 및 이력데이터 관리 방법 및 시스템
US20220147703A1 (en) Voice activated clinical reporting systems and methods thereof
KR20170029866A (ko) 서버, 사용자 단말 및 이들의 제어 방법.
JP3915561B2 (ja) 試験問題作成システム、方法及びプログラム
Corrigan et al. Requirements and validation of a prototype learning health system for clinical diagnosis