JP7388450B2 - 会話支援装置、会話支援システム、会話支援方法及び記録媒体 - Google Patents

会話支援装置、会話支援システム、会話支援方法及び記録媒体 Download PDF

Info

Publication number
JP7388450B2
JP7388450B2 JP2021566679A JP2021566679A JP7388450B2 JP 7388450 B2 JP7388450 B2 JP 7388450B2 JP 2021566679 A JP2021566679 A JP 2021566679A JP 2021566679 A JP2021566679 A JP 2021566679A JP 7388450 B2 JP7388450 B2 JP 7388450B2
Authority
JP
Japan
Prior art keywords
conversation
patient
category
medical
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021566679A
Other languages
English (en)
Other versions
JPWO2021130953A1 (ja
JPWO2021130953A5 (ja
Inventor
孝之 近藤
利憲 細井
武史 長谷川
秀章 三澤
潤一郎 日下
有希 草野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2021130953A1 publication Critical patent/JPWO2021130953A1/ja
Publication of JPWO2021130953A5 publication Critical patent/JPWO2021130953A5/ja
Application granted granted Critical
Publication of JP7388450B2 publication Critical patent/JP7388450B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H80/00ICT specially adapted for facilitating communication between medical practitioners or patients, e.g. for collaborative diagnosis, therapy or health monitoring

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Public Health (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は、医療従事者と患者との会話を支援するための会話支援装置、会話支援システム、会話支援方法及び記録媒体の技術分野に関する。
病院等の医療現場では、医療従事者と患者との間で様々な会話が行われる。例えば、医療従事者と患者との間では、インフォームドコンセントのための会話が行われる。このようなインフォームドコンセントを支援するための装置が、特許文献1から2に記載されている。その他、本願発明に関連する先行技術文献として、特許文献3から6があげられる。
特開2005-063162号公報 特開2015-170120号公報 特開2017-111755号公報 国際公開第2019/038807号パンフレット 特開2017-049710号公報 特開2017-111756号公報
インフォームドコンセントが取得される場合には、医療従事者が患者に対して行う行為(例えば、医療行為)について、医療従事者が患者に対して過不足なく説明することが求められる。しかしながら、上述した特許文献1から6に記載された装置は、医療従事者が患者に対して行う行為について患者に対して過不足なく説明することを支援することは想定していない。このため、上述した特許文献1から6に記載された装置は、医療従事者から患者への説明に漏れが生ずる可能性が相対的に高くなるという技術的問題を有している。
本発明は、上述した技術的問題を解決可能な会話支援装置、会話支援システム、会話支援方法及びコンピュータプログラムを提供することを課題とする。一例として、本発明は、医療従事者から患者への説明に漏れが生ずる可能性を低減することが可能な会話支援装置、会話支援システム、会話支援方法及び記録媒体を提供することを課題とする。
課題を解決するための会話支援装置の一例は、医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類する分類手段と、前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示するように、表示装置を制御する表示制御手段とを備える会話支援装置である。
課題を解決するための会話支援システムの一例は、医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を記録する会話記録装置と、上述した会話支援装置の一例と、前記表示装置とを備える会話支援システムである。 課題を解決するための会話支援方法の一例は、医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類し、前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示する会話支援方法である。
課題を解決するための記録媒体の一例は、医療従事者と患者との会話を支援する会話支援方法をコンピュータに実行させるコンピュータプログラムが記録された記録媒体であって、前記会話支援方法は、前記医療従事者が前記患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類し、前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示する記録媒体である。
上述した会話支援装置、会話支援システム、会話支援方法及び記録媒体によれば、医療従事者から患者への説明に漏れが生ずる可能性を低減することができる。
図1は、本実施形態の会話支援システムの全体構成を示すブロック図である。 図2は、本実施形態の会話支援装置の構成を示すブロック図である。 図3は、IC管理DBのデータ構造の一例を示すデータ構造図である。 図4は、会話支援装置が行う会話支援動作の流れを示すフローチャートである。 図5は、初期情報の入力を受け付けるためのGUIの一例を示す平面図である。 図6は、IC支援画面の一例を示す平面図である。 図7は、第1変形例の会話支援装置の構成を示すブロック図である。 図8は、インフォームドコンセントで必要とされる会話が不十分である旨を警告する警告画面の一例を示す平面図である。 図9は、一のカテゴリに分類された会話テキストの数を示す指標を含むIC支援画面の一例を示す平面図である。 図10は、第2変形例の会話支援装置の構成を示すブロック図である。 図11、サマリ情報の一例を示す説明図である。 図12は、サマリ情報に含めるべき複数の会話テキストのうちの少なくとも一部を指定するためのGUIを含むIC支援画面の一例を示す平面図である。 図13は、第3変形例の会話支援装置の構成を示すブロック図である。 図14は、第4変形例の会話支援システムの全体構成を示すブロック図である。 図15は、第4変形例の会話支援装置の構成を示すブロック図である。 図16は、第5変形例の会話支援装置の構成を示すブロック図である。 図17は、会話テキストの分類結果を修正するためのGUIを含むIC支援画面の一例を示す平面図である。 図18は、会話テキストを検索するためのGUIを含むIC支援画面の一例を示す平面図である。
以下、図面を参照しながら、会話支援装置、会話支援システム、会話支援方法及びコンピュータプログラムの実施形態について説明する。以下では、会話支援装置、会話支援システム、会話支援方法及びコンピュータプログラムの実施形態が適用された会話支援システムSYSについて説明する。
(1)会話支援システムSYSの構成
はじめに、図1を参照しながら、本実施形態の会話支援システムSYSの構成について説明する。図1は、本実施形態の会話支援システムSYSの構成を示すブロック図である。
会話支援システムSYSは、医療従事者と患者との会話を支援する。特に、本実施形態では、会話支援システムSYSは、医療従事者が患者に対して行う行為(例えば、医療行為)について医療従事者から患者に対して説明が行われる場面において、会話を支援してもよい。この場合、会話支援システムSYSは、医療従事者から患者に十分な説明が行われたか否かを確認する目的で、会話を支援してもよい。その中でも特に、本実施形態では、会話支援システムSYSは、医療従事者が患者に対して行う行為(例えば、医療行為)について患者に説明し且つその行為について医療従事者と患者との間で合意を得るための合意取得過程における医療従事者と患者との会話を支援してもよい。このような合意取得過程における医療従事者と患者との会話の一例として、インフォームドコンセント(IC)を取得するための会話があげられる。尚、本実施形態では、医療分野におけるインフォームドコンセントは、医療従事者と患者との十分な情報を得た上での合意を意味する。以下では、説明の便宜上、インフォームドコンセントを取得するための合意取得過程における医療従事者と患者との会話を支援する会話支援システムSYSについて説明する。
尚、本実施形態における「医療従事者」は、病気の治療、病気の予防、健康の維持、健康の回復及び健康の増進の少なくとも一つを目的とした活動である医療に従事する人物全般を含んでいてもよい。例えば、医療従事者は、独立して医療行為を行うことが可能な人物を含んでいてもよい。独立して医療行為を行うことが可能な人物の一例として、医師、歯科医師及び助産師の少なくとも一人があげられる。例えば、医療従事者は、上位の者(例えば、医師又は歯科医師)からの指示の下に医療行為を行うことが可能な人物を含んでいてもよい。上位の者からの指示の下に医療行為を行うことが可能な人物の一例として、看護師、薬剤師、臨床検査技師、放射線技師及び理学療法士等の少なくとも一人(いわゆる、コ・メディカル)があげられる。例えば、医療従事者は、施術所(例えば、鍼灸院、接骨院及び整骨院の少なくとも一つ)で施術を行う人物を含んでいてもよい。施術を行う人物の一例として、あん摩マッサージ指圧師、はり師、きゅう師及び柔道整復師の少なくとも一人があげられる。例えば、医療従事者は、保健業務に従事する人物を含んでいてもよい。保健業務に従事する人物の一例として、保健師があげられる。例えば、医療従事者は、福祉業務に従事する人物を含んでいてもよい。福祉業務に従事する人物の一例として、社会福祉士、児童福祉士、精神保健福祉士、臨床心理士及び臨床発達心理士の少なくとも一人があげられる。例えば、医療従事者は、介護業務に従事する人物を含んでいてもよい。介護業務に従事する人物の一例として、介護福祉士、訪問介護員、介護支援専門員及びホームヘルパーの少なくとも一人があげられる。
また、本実施形態における「患者」は、病気の治療、病気の予防、健康の維持、健康の回復及び健康の増進の少なくとも一つを目的とした活動である医療が施される人物全般を含んでいてもよい。尚、患者の様態によっては、患者が意思疎通を行うことができない可能性がある。この場合、通常は、患者の代理人が(例えば、親族、後見人又は補佐人)が患者に代わって医療従事者と会話をする。このため、本実施形態における「患者」は、患者の代理人も含んでいてもよい。
会話支援システムSYSは、一人の医療従事者と一人の患者との間の会話を支援してもよい。会話支援システムSYSは、複数の医療従事者と一人の患者との間の会話を支援してもよい。会話支援システムSYSは、一人の医療従事者と複数の患者との間の会話を支援してもよい。会話支援システムSYSは、複数の医療従事者と複数の患者との間の会話を支援してもよい。
インフォームドコンセントを取得するための会話を支援するために、会話支援システムSYSは、図1に示すように、録音装置1と、会話支援装置2と、表示装置3と、入力装置4とを備えている。
録音装置1は、医療従事者と患者との会話を録音する装置である。医療従事者と患者との会話を録音することで、録音装置1は、医療従事者と患者との会話の内容を音声で示す音声データを生成する。このため、録音装置1は、例えば、マイクと、マイクがアナログの電子信号として録音した会話を、デジタルの音声データに変換するデータ処理装置とを備えていてもよい。一例として、録音装置1は、マイクを内蔵した情報端末(例えば、スマートフォン)であってもよい。録音装置1は、生成した音声データを会話支援装置2に出力する。
会話支援装置2は、録音装置1が生成した音声データを用いて、医療従事者と患者との会話を支援するための会話支援動作を行う。本実施形態では、会話支援動作は、例えば、インフォームドコンセントを取得する際に医療従事者から患者に対して行われる説明に漏れが生じないように、医療従事者と患者との会話を支援する動作を含んでいてもよい。言い換えれば、会話支援動作は、例えば、インフォームドコンセントを取得する際に医療従事者から患者に対して十分な説明が行われるように、医療従事者と患者との会話を支援する動作を含んでいてもよい。
ここで、図2を参照しながら、会話支援装置2の構成について更に詳細に説明する。図2は、会話支援装置2の構成を示すブロック図である。図2に示すように、会話支援装置2は、CPU(Central Processing Unit)21と、記憶装置22と、入出力IF(Interface:インタフェース)23とを備えている。
CPU21は、コンピュータプログラムを読み込む。例えば、CPU21は、記憶装置22が記憶しているコンピュータプログラムを読み込んでもよい。例えば、CPU21は、コンピュータで読み取り可能な記録媒体が記憶しているコンピュータプログラムを、図示しない記録媒体読み取り装置を用いて読み込んでもよい。CPU21は、不図示の通信装置を介して、会話支援装置2の外部に配置される不図示の装置からコンピュータプログラムを取得してもよい(つまり、ダウンロードしてもよい又は読み込んでもよい)。CPU21は、読み込んだコンピュータプログラムを実行する。その結果、CPU21内には、会話支援装置2が行うべき動作(例えば、上述した会話支援動作)を実行するための論理的な機能ブロックが実現される。つまり、CPU21は、会話支援装置2が行うべき動作を実行するための論理的な機能ブロックを実現するためのコントローラとして機能可能である。
図2には、会話支援動作を実行するためにCPU21内に実現される論理的な機能ブロックの一例が示されている。図2に示すように、CPU21内には、テキスト変換部211と、分類部212と、表示制御部213とが実現される。尚、テキスト変換部211、分類部212及び表示制御部213の動作の詳細については、後に図3等を参照しながら詳述するが、ここでその概要について簡単に説明する。テキスト変換部211は、録音装置1から送信される音声データを、テキストデータに変換する。分類部212は、テキストデータが示す文章を細分化することで得られる複数の会話テキストの夫々を、インフォームドコンセントを取得するための合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類する。表示制御部213は、分類部212の分類結果に基づいて、医療従事者と患者との会話を支援するためIC支援画面31(後述する図6参照)を表示するように表示装置3を制御する。
尚、録音装置1自身が、録音装置1が録音した音声データをテキストデータに変換するテキスト変換部を備えていてもよい。この場合、録音装置1は、音声データに加えて又は代えて、テキストデータを会話支援装置2に送信してもよい。会話支援装置2は、CPU21内に実現される論理的な機能ブロックとして、テキスト変換部211に加えて又は代えて、録音装置1が送信するテキストデータを取得するデータ取得部を備えていてもよい。会話支援装置2は、テキスト変換部211を備えていなくてもよい。
会話支援装置2は、医療従事者が使用する情報端末(例えば、パーソナルコンピュータ及びタブレットコンピュータの少なくとも一つ)であってもよい。会話支援装置2は、医療従事者が働いている施設内に設置されたサーバであってもよい。会話支援装置2は、医療従事者が働いている施設の外部に設置されたサーバ(いわゆる、クラウドサーバ)であってもよい。
記憶装置22は、所望のデータを記憶可能である。例えば、記憶装置22は、CPU21が実行するコンピュータプログラムを一時的に記憶していてもよい。記憶装置22は、CPU21がコンピュータプログラムを実行している際にCPU21が一時的に使用するデータを一時的に記憶してもよい。記憶装置22は、会話支援装置2が長期的に保存するデータを記憶してもよい。尚、記憶装置22は、RAM(Random Access Memory)、ROM(Read Only Memory)、ハードディスク装置、光磁気ディスク装置、SSD(Solid State Drive)及びディスクアレイ装置のうちの少なくとも一つを含んでいてもよい。
本実施形態では特に、記憶装置22は、会話支援動作の支援対象となるインフォームドコンセントを管理するためのIC管理DB(DataBase)221を記憶する。IC管理DB221は、インフォームドコンセントの内容に関する情報を含むレコードを、インフォームドコンセントが取得された回数と同じ数だけ含んでいる。インフォームドコンセントの内容に関する情報を含むレコードは、IC管理DB221のデータ構造の一例を示す図3に示すように、例えば、レコードを識別するための識別番号(ID)を示す情報と、インフォームドコンセントのタイトルを示す情報と、インフォームドコンセントが取得された日時(或いは、インフォームドコンセントが取得される予定の日時)を示す情報と、インフォームドコンセントを取得する際に会話を行った医療従事者及び患者の夫々の氏名を示す情報と、インフォームドコンセントに関するコメント(例えば、医療従事者及び患者の少なくとも一方からのコメント)を示す情報と、インフォームドコンセントに関連して得られたデータ(例えば、上述した音声データ、テキストデータ及び会話テキストの分類結果を示すデータの少なくとも一つ)を示す情報とを含んでいてもよい。尚、IC管理DB221は、合意関連データと称されてもよい。
入出力IF23は、会話支援装置2と会話支援装置2の外部の装置(例えば、録音装置1、表示装置3及び入力装置4の少なくとも一つ)との間でのデータの送受信を行う装置である。従って、会話支援装置2は、入出力IF23を介して、会話支援装置2の外部の装置にデータを送信する。更に、会話支援装置2は、入出力IF23を介して、会話支援装置2の外部の装置から送信されるデータを受信する。
再び図1において、表示装置3は、所望の情報を表示可能な出力装置(つまり、ディスプレイ)である。本実施形態では特に、表示装置3は、表示制御部213の制御下で、IC支援画面31を表示する。表示装置3は、医療従事者が使用する情報端末(例えば、パーソナルコンピュータ及びタブレットコンピュータの少なくとも一つ)が備えるディスプレイであってもよい。表示装置3は、医療従事者及び患者の双方が視認可能なディスプレイであってもよい。或いは、会話支援システムSYSは、医療従事者が視認可能な表示装置3と、患者が視認可能な表示装置3とを別々に備えていてもよい。つまり、会話支援システムSYSは、複数の表示装置3を備えていてもよい。この場合、一の表示装置3に表示される情報は、他の表示装置3に表示される情報と同一であってもよいし、異なっていてもよい。
入力装置4は、会話支援装置2のユーザ(例えば、医療従事者及び患者の少なくとも一方)からの入力操作を受け付ける装置である。入力装置4は、例えば、ユーザが操作可能な操作装置を含んでいてもよい。入力装置4は、操作装置の一例として、例えば、キーボード、マウス及びタッチパネルのうちの少なくとも一つを備えていてもよい。入力装置4は、医療従事者が使用する情報端末(例えば、パーソナルコンピュータ及びタブレットコンピュータの少なくとも一つ)が備える操作装置であってもよい。入力装置4は、医療従事者及び患者の双方が操作可能な操作装置であってもよい。或いは、会話支援システムSYSは、医療従事者が操作可能な入力装置4と、患者が操作可能な入力装置4とを別々に備えていてもよい。つまり、会話支援システムSYSは、複数の入力装置4を備えていてもよい。
(2)会話支援装置2が行う会話支援動作
続いて、図4を参照しながら、会話支援装置2が行う会話支援動作について説明する。図4は、会話支援装置2が行う会話支援動作の流れを示すフローチャートである。
図4に示すように、会話支援装置2は、インフォームドコンセントに関する初期情報の入力を受け付け、受け付けた初期情報をIC管理DB221に登録する(ステップS11)。但し、既に初期情報が入力済みである(例えば、初期情報がIC管理DB221に登録済みである)場合には、会話支援装置2は、ステップS11の動作を行わなくてもよい。
会話支援装置2の表示制御部213は、インフォームドコンセントに関する初期情報の入力を受け付けるためのGUI(Graphical User Interface)31を表示するように、表示装置3を制御してもよい。この場合、会話支援装置2のユーザ(例えば、医療従事者及び患者の少なくとも一方)は、表示装置3に表示されたGUI32を参照しながら、入力装置4を用いて初期情報を入力してもよい。
初期情報の入力を受け付けるためのGUI32の一例が、図5に示されている。図5に示すように、GUI32は、IC管理DB221に含まれる情報の入力を受け付けるためのGUIを含んでいてもよい。図5に示す例では、GUI32は、IC管理DB221に含まれる情報の入力を受け付けるためのGUIとして、インフォームドコンセントのタイトル(ICタイトル)を入力するためのテキストボックス321と、インフォームドコンセントを取得する医療従事者の氏名(IC取得者氏名及び医師側出席者氏名)を入力するためのテキストボックス322と、インフォームドコンセントを取得する患者の氏名(患者氏名及び患者代理人氏名)を入力するためのテキストボックス323と、インフォームドコンセントが取得された日時(或いは、インフォームドコンセントが取得される予定の日時)を入力するためのテキストボックス324と、インフォームドコンセントに関するコメントを入力するためのテキストボックス325とを含んでいる。
更に、図5に示すように、GUI32は、会話テキストを分類するためのカテゴリ(言い換えれば、タグ)を指定するための入力を受け付けるためのGUIを含んでいてもよい。この場合、分類部212は、複数の会話テキストの夫々を、GUI32を用いて指定された少なくとも一つのカテゴリに分類する。一方で、分類部212は、GUI32を用いて指定されなかった少なくとも一つのカテゴリは、会話テキストの分類先として使用しなくてもよい。図5に示す例では、GUI32は、会話テキストを分類するためのカテゴリを指定するための入力を受け付けるGUIとして、複数のカテゴリに夫々対応する複数のチェックボックス326を含む。例えば、図5に示すように、GUI32は、「インフォームドコンセントの目的(つまり、合意取得過程の目的)」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326-1と、「患者の症状又は病状」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326-2と、「患者に対して行われる検査又は治療」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326-3と、「患者を対象とする治験又は研究」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326-4と、「患者の意見」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326-5と、「医療従事者と患者との間での合意(尚、ここで言う合意は、同意及び拒否の少なくとも一方の意思表示を含んでいてもよい)」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326-6と、「患者の対する今後の医療方針」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326-7との少なくとも一つを含んでいてもよい。また、図5に示すように、GUI32は、「病名又は診断名」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326と、「今回行う予定の行為(例えば、医療行為)によるメリット(例えば、生命予後に関するメリット及びQOL(Quality Of Life)に関するメリット)」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326と、「今回行う予定の行為(例えば、医療行為)によるデメリット(例えば、危険性、苦痛、副作用及び合併症の少なくとも一つに関するデメリット)」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326と、「患者の負担(例えば、費用的な負担、及び、休業を含む時間的な負担の少なくとも一方)」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326と、「医療従事者側からの返答又は確認」に言及している会話テキストが分類されるカテゴリを指定するチェックボックス326との少なくとも一つを含んでいてもよい。
再び図4において、その後、テキスト変換部211は、入出力IF23を介して、録音装置1が生成した音声データを取得する(ステップS12)。取得された音声データは、記憶装置22によって記憶されてもよい。この際、記憶装置22によって記憶された音声データに関する情報は、IC管理DB221に登録されてもよい。音声データには、音声データの改ざんを防ぐための情報(例えば、タイムスタンプ及び電子署名の少なくとも一方)が付与されてもよい。
その後、テキスト変換部211は、ステップS12で取得した音声データから、医療従事者と患者との会話の内容を文章(つまり、テキスト)で示すテキストデータを生成する(ステップS13)。つまり、テキスト変換部211は、ステップS12で取得した音声データを、テキストデータに変換する(ステップS13)。生成されたテキストデータは、記憶装置22によって記憶されてもよい。この際、記憶装置22によって記憶されたテキストデータに関する情報は、IC管理DB221に登録されてもよい。テキストデータには、テキストデータの改ざんを防ぐための情報(例えば、タイムスタンプ及び電子署名の少なくとも一方)が付与されてもよい。尚、この際、テキスト変換部211(或いは、CPU21が備える任意の機能ブロック)は、医療従事者の発話内容を示すテキストと患者の発話内容を示すテキストとが区別できるように、テキストデータを生成してもよい。
その後、分類部212は、ステップS13で生成されたテキストデータが示す文章を細分化することで得られる複数の会話テキストの夫々を、ステップS11で指定された複数のカテゴリのうちの少なくとも一つに分類する(ステップS14)。尚、会話テキストをカテゴリに分類することは、会話テキストに対して、ステップS11で指定された複数のカテゴリに夫々対応する複数のタグのうちの少なくとも一つを割り当てる(つまり、会話テキストをタグ付けする)ことと等価であるとみなしてもよい。
例えば、分類部212は、所定の分類モデルを用いて、複数の会話テキストの夫々を、複数のカテゴリのうちの少なくとも一つに分類してもよい。分類モデルは、例えば、カテゴリに関するマスタデータと、各カテゴリに分類される例文に関するマスタデータと、単語のベクトル化に関する辞書データとを含んでいてもよい。この場合、分類部212は、テキストデータが示す文章をマスタデータと比較することで、当該文章を構成する会話テキストを所望のカテゴリに分類してもよい。分類部212は、テキストデータが示す文章を構成する単語をベクトル化する(つまり、単語又は文章の特徴ベクトルを算出する)と共に、ベクトル化した単語に基づいて(つまり、特徴ベクトルに基づいて)会話テキストを所望のカテゴリに分類してもよい。
例えば、分類部212は、分類モデルを用いることに加えて又は代えて、ルールベースに準拠した方法を用いて、複数の会話テキストの夫々を複数のカテゴリのうちの少なくとも一つに分類してもよい。つまり、分類部212は、複数の会話テキストの夫々を所定のルールに従って分類することで、複数の会話テキストの夫々を複数のカテゴリのうちの少なくとも一つに分類してもよい。
例えば、分類部212は、分類モデル及びルールベースに準拠した方法の少なくとも一方を用いることに加えて又は代えて、コサイン類似度(つまり、会話テキストのベクトルに関するコサイン類似度)を用いて、複数の会話テキストの夫々を複数のカテゴリのうちの少なくとも一つに分類してもよい。
例えば、分類部212は、分類モデル、ルールベースに準拠した方法及びコサイン類似度の少なくとも一つを用いることに加えて又は代えて、クラスタリングに準拠した手法を用いて、複数の会話テキストの夫々を複数のカテゴリのうちの少なくとも一つに分類してもよい。
例えば、分類部212は、分類モデル、ルールベースに準拠した方法、コサイン類似度及びクラスタリングに準拠した手法の少なくとも一つを用いることに加えて又は代えて、学習モデルを用いて、複数の会話テキストの夫々を複数のカテゴリのうちの少なくとも一つに分類してもよい。学習モデルは、テキストデータが入力された場合に、当該テキストデータを構成する会話テキストのカテゴリを出力する学習モデル(例えば、ニューラルネットワークを用いた学習モデル)である。
尚、会話テキストの文意によっては、複数のカテゴリのいずれにも分類し難い会話テキストが存在する可能性がある。この場合、分類部212は、複数のカテゴリのいずれにも分類し難い会話テキストを、複数のカテゴリのいずれにも分類しなくてもよい。この場合、例えば、分類部212は、複数のカテゴリのいずれにも分類し難い会話テキストに対して、「対応カテゴリなし」又は「対応カテゴリ不明」というタグを付与してもよい。
テキストデータが示す文章は、任意の単位で細分化されてもよい。つまり、テキストデータが示す文章を細分化することで得られる会話テキストのサイズは、任意であってもよい。例えば、テキストデータが示す文章の少なくとも一部は、単語の単位で細分化されてもよい。例えば、テキストデータが示す文章の少なくとも一部は、文節の単位で細分化されてもよい。例えば、テキストデータが示す文章の少なくとも一部は、句読点を境界とする複数の会話テキストに細分化されてもよい。例えば、テキストデータが示す文章の少なくとも一部は、文(例えば、単文、複文及び重文の少なくとも一つ)の単位で細分化されてもよい。例えば、テキストデータが示す文章の少なくとも一部は、形態素の単位で細分化されてもよい。この場合、テキストデータに対して形態素解析が行われてもよい。
分類部212による分類結果を示す分類データ(例えば、会話テキストに関する情報及び会話テキストが分類されたカテゴリに関する情報の少なくとも一方)は、記憶装置22によって記憶されてもよい。この際、記憶装置22によって分類データには、分類データの改ざんを防ぐための情報(例えば、タイムスタンプ及び電子署名の少なくとも一方)が付与されてもよい。
その後、表示制御部213は、分類部212の分類結果に基づいて、医療従事者と患者との会話を支援するためIC支援画面31を生成する(ステップS15)。更に、表示制御部213は、生成したIC支援画面31を表示するように表示装置3を制御する(ステップS15)。その結果、表示装置3は、IC支援画面31を表示する。
IC支援画面31の一例が図6に示されている。図6に示すように、IC支援画面31は、例えば、会話表示画面311と、カテゴリ表示画面312とを含んでいてもよい。つまり、表示制御部213は、会話表示画面311とカテゴリ表示画面312とを並列表示するように、表示装置3を制御する。但し、IC支援画面31は、会話表示画面311及びカテゴリ表示画面312の少なくとも一方を含んでいなくてもよい。
会話表示画面311は、会話テキストの内容を、医療従事者と患者との会話の流れに沿って表示する。つまり、会話表示画面311は、ある期間中における医療従事者と患者との会話の内容を示すテキストを、会話の流れの順に表示する。この際、会話テキストの内容は、その会話テキストが示す会話が行われていた時間を示す情報と、その会話テキストが示す言葉を発話した人物を示す情報と、その会話テキストが分類されたカテゴリを示す情報と共に表示されてもよい。会話表示画面311は、現在の医療従事者と患者との会話の内容を示すテキストを、会話の流れの順に表示してもよい。但し、会話の内容を示すテキストを表示するためには、上述したステップS12からステップS14までの処理が完了する必要がある。このため、会話表示画面311は、現在の医療従事者と患者との会話の内容を示すテキストとして、実質的には、ステップS12からステップS14までの処理が完了するために必要な時間だけ現在時刻から遅延した会話の内容を示すテキストを表示している。或いは、会話表示画面311は、一定時間前の(例えば、数秒前の、数十秒前の又は数分前の)医療従事者と患者との会話の内容を示すテキストを、会話の流れの順に表示してもよい。或いは、会話表示画面311は、医療従事者と患者との既に終了した会話の内容を示すテキストを、会話の流れの順に表示してもよい。
尚、会話表示画面311は、細分化された会話テキストの単位で会話の内容を表示してもよい。或いは、会話表示画面311は、会話テキストの単位で会話の内容を表示することに加えて又は代えて、会話テキストとは異なる単位で会話の内容を表示してもよい。例えば、会話表示画面311は、複数の会話テキストを含むひとまとまりの会話の単位で(つまり、意味の通じる会話の単位で)、会話の内容を表示してもよい。例えば、会話表示画面311は、会話テキストに細分化される前のテキストデータが示すテキストを表示してもよい。
一方で、カテゴリ表示画面312は、複数の会話テキストのうちの少なくとも一部を、分類されたカテゴリ別に表示する。つまり、カテゴリ表示画面312は、複数のカテゴリのうちの一のカテゴリに分類された会話テキストを表示する。一方で、カテゴリ表示画面312は、複数のカテゴリのうちの一のカテゴリとは異なる他のカテゴリに分類された会話テキストを表示しなくてもよい。図6に示す例では、カテゴリ表示画面312は、「患者の症状又は病状」に関するカテゴリに分類された会話テキストが表示されております。尚、カテゴリ表示画面312においても、会話表示画面311と同様に、会話テキストの内容は、その会話テキストが示す会話が行われていた時間を示す情報と、その会話テキストが示す言葉を発話した人物を示す情報と、その会話テキストが分類されたカテゴリを示す情報と共に表示される。
カテゴリ表示画面312は、カテゴリ表示画面312に表示する会話テキストのカテゴリを指定するためのGUI3120を含んでいてもよい。図6に示す例では、GUI3120は、複数のカテゴリに夫々対応する複数のボタン3121を含む。複数のボタン3121は、図4のステップS11で指定された複数のカテゴリに夫々対応する。例えば、図6に示すように、GUI3120は、全てのカテゴリの会話テキストを表示することを希望する場合に押下されるボタン3121-1と、「インフォームドコンセントの目的」に言及している会話テキストを表示することを希望する場合に押下されるボタン3121-2と、「患者の症状又は病状」に言及している会話テキストを表示することを希望する場合に押下されるボタン3121-3と、「患者に対して行われる検査又は治療」に言及している会話テキストを表示することを希望する場合に押下されるボタン3121-4と、「患者を対象とする治験又は研究」に言及している会話テキストを表示することを希望する場合に押下されるボタン3121-5と、「患者の意見」に言及している会話テキストを表示することを希望する場合に押下されるボタン3121-6と、「医療従事者と患者との間での合意」に言及している会話テキストを表示することを希望する場合に押下されるボタン3121-7と、「患者の対する今後の医療方針」に言及している会話テキストを表示することを希望する場合に押下されるボタン3121-8とを含んでいてもよい。
この場合、会話支援装置2のユーザ(例えば、医療従事者及び患者の少なくとも一方)は、表示装置3に表示されたGUI3120を参照しながら、入力装置4を用いて、カテゴリ表示画面312に表示する会話テキストのカテゴリを指定してもよい。その結果、カテゴリ表示画面312には、ユーザが指定したカテゴリに分類された会話テキストが表示される。
以上説明した動作(特に、ステップS12からステップS15までの動作)が、会話支援動作を終了すると判定されるまで繰り返される(ステップS16)。
尚、上述したように、医療従事者が視認可能な表示装置3と患者が視認可能な表示装置3とを会話支援システムSYSが別々に備えている場合には、患者が視認可能な表示装置3に表示されるIC支援画面31の内容は、医療従事者が視認可能な表示装置3に表示されるIC支援画面31の内容とは異なっていてもよい。患者が視認可能な表示装置3に表示されるIC支援画面31は、医療従事者の説明を患者が理解するために有益な情報(例えば、医療従事者が発した医療用語の解説に関する情報及び患者の診断結果に関する情報の少なくとも一方)が表示されていてもよい。
(3)会話支援システムSYSの技術的効果
以上説明したように、本実施形態の会話支援システムSYSは、インフォームドコンセントを取得するために行われた医療従事者と患者との会話の内容を示す会話テキストが、当該会話テキストのカテゴリと共に表示されるIC支援画面31を表示することができる。このため、医療従事者は、IC支援画面31に表示された会話テキストのカテゴリを確認することで、あるカテゴリに関する説明が不足しているか否かを判定することができる。尚、ここで言う「あるカテゴリに関する説明が不足している」状態は、あるカテゴリに関する医療従事者からの説明に漏れが生じている状態を意味していてもよい。つまり、「あるカテゴリに関する説明が不足している」状態は、あるカテゴリに関して医療従事者から患者に対して伝えるべき情報の少なくとも一部が患者に対して説明されていない状態を意味していてもよい。患者もまた、IC支援画面31に表示された会話テキストのカテゴリを確認することで、あるカテゴリに関する説明が不足しているか否かを判定することができる。その結果、あるカテゴリに関する説明が不足していると判定された場合には、医療従事者は、あるカテゴリに関する説明を更に追加で行うことができる。このため、会話支援システムSYSは、医療従事者から患者への説明に漏れが生ずる可能性を低減することができる。
また、本実施形態では、会話支援システムSYSは、複数の会話テキストのうちの少なくとも一部を、分類されたカテゴリ別に表示するためのカテゴリ表示画面312を表示することができる。この場合、あるカテゴリに分類された会話テキストがまとめて表示されるがゆえに、医療従事者及び患者は、あるカテゴリに関する説明が不足しているか否かをより適切に判定することができる。このため、会話支援システムSYSは、医療従事者から患者への説明に漏れが生ずる可能性をより適切に低減することができる。
(4)変形例
続いて、会話支援システムSYSの変形例について説明する。
(4-1)第1変形例
はじめに、第1変形例の会話支援システムSYSaについて説明する。第1変形例の会話支援システムSYSaは、上述した会話支援システムSYSと比較して、会話支援装置2に代えて会話支援装置2aを備えているという点で異なる。会話支援システムSYSaのその他の特徴は、会話支援システムSYSのその他の特徴と同一であってもよい。このため、以下、図7を参照しながら、第1変形例の会話支援装置2aについて説明する。図7は、第1変形例の会話支援装置2aの構成を示すブロック図である。尚、既に説明済みの構成要件については、同一の参照符号を付することでその詳細な説明を省略する。
図7に示すように、第1変形例の会話支援装置2aは、上述した会話支援装置2と比較して、会話支援動作を実行するためにCPU21内に実現される論理的な機能ブロックとして、CPU21内に警告部214aが実現されているという点で異なる。会話支援装置2aのその他の特徴は、会話支援装置2のその他の特徴と同一であってもよい。
警告部214aは、分類部212の分類結果に基づいて、インフォームドコンセントで必要とされる会話が不十分であるか否かを判定する。例えば、警告部214aは、分類部212の分類結果に基づいて、カテゴリ毎に、インフォームドコンセントで必要とされる会話が不十分であるか否かを判定してもよい。尚、医療従事者と患者との間の会話の分量が多くなればなるほど、医療従事者から患者に対して十分な説明がなされた可能性が高くなる。逆に、医療従事者と患者との間の会話の分量が少なくなればなるほど、医療従事者から患者に対して十分な説明がなされた可能性が低くなる。このため、あるカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分であるか否かを判定する動作は、実質的には、あるカテゴリに関する説明が不足しているか否かを判定する動作と等価であるとみなしてもよい。言い換えれば、あるカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分であるか否かを判定する動作は、実質的には、あるカテゴリに関する説明が不足しているか否かを判定する動作の一具体例であるとみなしてもよい。
一のカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分であるか否かを判定するために、警告部214aは、一のカテゴリに分類された会話テキストの数(つまり、細分化された一塊の会話テキストの数)が、当該一のカテゴリに固有の閾値よりも多いか否かを判定してもよい。会話テキストの数が閾値よりも多い場合には、会話テキストの数が閾値よりも少ない場合と比較して、インフォームドコンセントで必要とされる一のカテゴリに関する会話が十分に行われた可能性が高い。一方で、会話テキストの数が閾値よりも少ない場合には、会話テキストの数が閾値よりも多い場合と比較して、インフォームドコンセントで必要とされる一のカテゴリに関する会話が十分に行われていない可能性が高い。このため、警告部214aは、会話テキストの数が閾値よりも多い場合には、インフォームドコンセントで必要とされる会話が不十分でないと判定してもよい。一方で、警告部214aは、会話テキストの数が閾値よりも少ない場合には、インフォームドコンセントで必要とされる会話が不十分であると判定してもよい。
一のカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分であるか否かを判定するために、警告部214aは、一のカテゴリに関する医療従事者及び患者の発話回数(つまり、発言回数)及び発話時間(つまり、発言時間)の少なくとも一方が、当該一のカテゴリに固有の閾値よりも多いか否かを判定してもよい。尚、発話回数は、例えば、意味の通じるひとまとまりの会話が発せられた回数を意味していてもよい。発話回数及び発話時間の少なくとも一方が閾値よりも多い場合には、発話回数及び発話時間の少なくとも一方が閾値よりも少ない場合と比較して、インフォームドコンセントで必要とされる一のカテゴリに関する会話が十分に行われた可能性が高い。一方で、発話回数及び発話時間の少なくとも一方が閾値よりも少ない場合には、発話回数及び発話時間の少なくとも一方が閾値よりも多い場合と比較して、インフォームドコンセントで必要とされる一のカテゴリに関する会話が十分に行われていない可能性が高い。このため、警告部214aは、発話回数及び発話時間の少なくとも一方が閾値よりも多い場合には、インフォームドコンセントで必要とされる会話が不十分でないと判定してもよい。一方で、警告部214aは、発話回数及び発話時間の少なくとも一方が閾値よりも少ない場合には、インフォームドコンセントで必要とされる会話が不十分であると判定してもよい。
閾値は、インフォームドコンセントで必要とされる会話が不十分である状態と、インフォームドコンセントで必要とされる会話が不十分でない状態とを、会話テキストの数、発話回数及び発話時間の少なくとも一つから適切に区別可能な適切な値に設定されていることが好ましい。このような閾値は、会話支援システムSYS又はユーザによって予め定められた固定値であってもよい。閾値は、会話支援システムSYS又はユーザによって適宜設定可能な可変値であってもよい。
閾値はゼロであってもよい。この場合、一のカテゴリに分類された会話テキストの数、一のカテゴリに関する発話回数及び一のカテゴリに関する発話時間の少なくとも一つが閾値よりも多いか否か(つまり、ゼロよりも多いか否か)を判定する動作は、一のカテゴリに関する発話が行われたか否を判定する動作と等価である。一のカテゴリに分類された会話テキストの数、一のカテゴリに関する発話回数及び一のカテゴリに関する発話時間の少なくとも一つが閾値よりも多くないと判定された場合に、一のカテゴリに関する発話が全く行われていないと推定される。このため、この場合には、警告部214aは、インフォームドコンセントで必要とされる会話が不十分であると判定してもよい。
警告部214aは、一のカテゴリに対応する閾値を、過去に同じ種類のインフォームドコンセントが取得された際に一のカテゴリに関して行われた会話の内容に基づいて設定してもよい。尚、一のインフォームドコンセントと同じ種類の他のインフォームドコンセントは、一のインフォームドコンセントと目的、症状、検査、治療及び病名の少なくとも一つ(或いは、全部)が同じ又は類似している他のインフォームドコンセントを意味していてもよい。例えば、過去に取得されたインフォームドコンセントと同じ種類のインフォームドコンセントが取得される場合には、一のカテゴリに関して同じ程度の分量の会話が行われることが望ましい。このため、警告部214aは、一のカテゴリに対応する閾値を、過去に同じ種類のインフォームドコンセントが取得された際に一のカテゴリに関して行われた会話の内容を示す会話テキストの数、発話回数及び発話時間の少なくとも一つに基づいて設定してもよい。例えば、警告部214aは、一のカテゴリに対応する閾値を、同じ種類のインフォームドコンセントが取得された際に一のカテゴリに関して行われた会話の内容を示す会話テキストの数、発話回数及び発話時間の少なくとも一つそのもの又は当該会話テキストの数、発話回数及び発話時間の少なくとも一つに対して所定のマージンを加算又は減算した値に設定してもよい。この場合、警告部214aは、適切な閾値の設定が可能となる。尚、会話テキストの数に関する閾値と、発話回数に関する閾値と、発話時間に関する閾値とは、個別に設定されることが好ましい。
一のカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分であるか否かを判定するために、警告部214aは、一のカテゴリに関する特定のキーワードが医療従事者及び患者の少なくとも一方によって発せられたか否かを判定してもよい。特定のキーワードは、例えば、一にカテゴリに関する説明を行うための会話に出てくるべきキーワードであってもよい。この場合、特定のキーワードが医療従事者及び患者の少なくとも一方によって発せられていない場合には、インフォームドコンセントで必要とされる一のカテゴリに関する会話が十分に行われていない可能性が高い。このため、警告部214aは、特定のキーワードが医療従事者及び患者の少なくとも一方によって発せられていない場合には、インフォームドコンセントで必要とされる会話が不十分であると判定してもよい。
インフォームドコンセントで必要とされる会話が不十分であるか否かを判定する際には、警告部214aは、医療従事者と患者との会話が開始されてから一定時間以上が経過した後に、会話テキストの数、発話回数及び発話時間の少なくとも一つが閾値よりも多いか否かを及び/又は特定のキーワードが医療従事者及び患者の少なくとも一方によって発せられたか否か判定してもよい。なぜならば、医療従事者と患者との会話が開始されてから一定時間以上が経過していない場合には、医療従事者があるカテゴリに関しての説明を行っている途中である(つまり、あるカテゴリに関しての説明がまだ完了していない)可能性が相対的に高いからである。
ここで、過去に取得されたインフォームドコンセントと同じ種類のインフォームドコンセントが取得される場合には、当該インフォームドコンセントで行われる会話の流れは、過去に取得されたインフォームドコンセントで行われた会話の流れと同じである可能性が相対的に高くなる。このため、警告部214aは、過去に取得されたインフォームドコンセントで行われた会話の流れに基づいて、今回新たに取得されるインフォームドコンセントで行われると想定される会話の流れを推定することができる。この場合、警告部214aは、今回新たに取得されるインフォームドコンセントで行われると想定される会話の流れの推定結果に基づいて、一のカテゴリに関する会話が終了する時間を推定し、一のカテゴリに関する会話が終了すると推定された時間が経過した後に、一のカテゴリに分類された会話テキストの数、一のカテゴリに関する発話回数及び一のカテゴリに関する発話時間の少なくとも一つが閾値よりも多いか否か及び/又は特定のキーワードが医療従事者及び患者の少なくとも一方によって発せられたか否かを判定してもよい。その結果、警告部214aは、一のカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分であるか否かを適切に判定することができる。
或いは、インフォームドコンセントが取得される場合には、通常、一のカテゴリに関する会話が行われた後に、他のカテゴリに関する会話が行われることが多い。このため、分類部212の分類結果が、一のカテゴリに分類される会話テキストの数、一のカテゴリに関する発話回数及び一のカテゴリに関する発話時間の少なくとも一つが相対的に多い分類結果から、他のカテゴリに分類される会話テキストの数、他のカテゴリに関する発話回数及び他のカテゴリに関する発話時間の少なくとも一つが相対的に多い分類結果へと変わった場合には、一のカテゴリに関する会話が終了した(つまり、一のカテゴリに関する事項について医療従事者が十分に説明した)可能性が相対的に高いと推定される。このため、警告部214aは、分類部212の分類結果が、一のカテゴリに分類される会話テキストの数、一のカテゴリに関する発話回数及び一のカテゴリに関する発話時間の少なくとも一つが相対的に多い分類結果から、他のカテゴリに分類される会話テキストの数、他のカテゴリに関する発話回数及び他のカテゴリに関する発話時間の少なくとも一つが相対的に多い分類結果へと変わった後に、一のカテゴリに分類された会話テキストの数、一のカテゴリに関する発話回数及び一のカテゴリに関する発話時間の少なくとも一つが閾値よりも多いか否かを判定してもよい。その結果、警告部214aは、一のカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分であるか否かを適切に判定することができる。
警告部214aは、上述した判定により一のカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分であると判定した場合には、その旨を会話支援システムSYSのユーザに警告してもよい。例えば、警告部214aは、一のカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分である旨を警告するための警告画面33aを表示するように、表示装置3を制御してもよい。尚、警告画面33aの一例は、図8に示されている。
以上説明したように、第1変形例の会話支援システムSYSaは、インフォームドコンセントで必要とされる会話が不十分であるか否かを判定することができる。更に、会話支援システムSYSaは、インフォームドコンセントで必要とされる会話が不十分である場合には、インフォームドコンセントで必要とされる会話が不十分である旨を警告することができる。その結果、警告を確認した医療従事者は、あるカテゴリに関する説明を更に追加で行うことができる。このため、会話支援システムSYSaは、医療従事者から患者への説明に漏れが生ずる可能性をより適切に低減することができる。
尚、会話支援システムSYSaは、上述した警告画面33aを表示することに加えて又は代えて、一のカテゴリにおいてインフォームドコンセントで必要とされる会話が不十分である旨を音声で警告してもよい。この場合、会話支援システムSYSaは、表示装置3に加えて又は代えて、警告を音声で出力するスピーカを備えていてもよい。
また、会話支援システムSYSaは、上述した警告画面33aを表示することに加えて又は代えて、一のカテゴリに分類された会話テキストの数、発話回数及び発話時間の少なくとも一つを示す指標を含むIC支援画面31を表示してもよい。例えば、会話テキストの数を示す指標を含むIC支援画面31の一例を示す図9に示すように、会話支援システムSYSa(特に、表示制御部213)は、一のカテゴリに分類された会話テキストの数を定量的に示す棒グラフ3122aを含むIC支援画面31を表示してもよい。その結果、会話支援システムSYSaのユーザは、会話テキストの数をより直感的に認識することができるがゆえに、あるカテゴリに関する説明が不足しているか否かを判定することができる。図9に示す例では、ユーザは、「患者の対する今後の医療方針」というカテゴリに関する説明が不足していることを直感的に認識することができる。このため、会話支援システムSYSaは、医療従事者から患者への説明に漏れが生ずる可能性をより適切に低減することができる。尚、会話支援システムSYSaは、一のカテゴリに分類された会話テキストの数、発話回数及び発話時間の少なくとも一つを示す指標を含むIC支援画面31を表示する場合には、警告部214aを備えていなくてもよい。
(4-2)第2変形例
続いて、第2変形例の会話支援システムSYSbについて説明する。第2変形例の会話支援システムSYSbは、上述した会話支援システムSYSと比較して、会話支援装置2に代えて会話支援装置2bを備えているという点で異なる。会話支援システムSYSbのその他の特徴は、会話支援システムSYSのその他の特徴と同一であってもよい。このため、以下、図10を参照しながら、第2変形例の会話支援装置2bについて説明する。図10は、第2変形例の会話支援装置2bの構成を示すブロック図である。
図10に示すように、第2変形例の会話支援装置2bは、上述した会話支援装置2と比較して、会話支援動作を実行するためにCPU21内に実現される論理的な機能ブロックとして、CPU21内にサマリ出力部215bが実現されているという点で異なる。会話支援装置2bのその他の特徴は、会話支援装置2のその他の特徴と同一であってもよい。尚、上述した第1変形例の会話支援装置2aがサマリ出力部215bを備えていてもよい。
サマリ出力部215bは、インフォームドコンセントを取得した際における医療従事者と患者との会話の内容を要約したサマリ情報(つまり、要約情報)を生成する。更に、サマリ出力部215bは、生成したサマリ情報を出力する。例えば、サマリ出力部215bは、サマリ情報を表示するように、出力装置の一具体例である表示装置3を制御してもよい。
サマリ情報は、例えば、図4のステップS11で登録された初期情報の少なくとも一部を含んでいてもよい。例えば、サマリ情報の一例を示す説明図である図11に示すように、サマリ情報は、インフォームドコンセントのタイトルを示す情報と、インフォームドコンセントを取得した医療従事者の氏名を示す情報と、インフォームドコンセントを取得した患者の氏名を示す情報と、インフォームドコンセントが取得された日時を示す情報と、インフォームドコンセントに関する医療従事者及び患者の少なくとも一方のコメントを示す情報とのうちの少なくとも一つを含んでいてもよい。
図11に示すように、サマリ情報は、例えば、テキスト変換部211が変換したテキストデータが示す文章を細分化することで得られる複数の会話テキストの少なくとも一部を含んでいてもよい。この場合、会話支援システムSYSbのユーザが、サマリ情報に含めるべき複数の会話テキストのうちの少なくとも一部を指定してもよい。この場合、表示制御部213は、サマリ情報に含めるべき会話テキストを指定するためのGUI3110を含むIC支援画面31を表示するように、表示装置3を制御してもよい。サマリ情報に含めるべき会話テキストを指定するためのGUI3110bを含むIC支援画面31の一例が、図12に示されている。図12に示す例では、GUI3110bは、IC支援画面31に表示される複数の会話テキストに夫々対応する複数のチェックボックス3111bであって且つ対応する会話テキストをサマリ情報に含める場合に選択される複数のチェックボックス3111bを含む。この場合、サマリ出力部215bは、ユーザが選択したチェックボックス3111bに対応する会話テキストをサマリ情報に含める。一方で、サマリ出力部215bは、ユーザ選択しなかったチェックボックス3111bに対応する会話テキストをサマリ情報に含めなくてもよい。
尚、図12は、IC支援画面31を構成する会話表示画面311にGUI3110bが含まれる例を示している。しかしながら、IC支援画面31を構成するカテゴリ表示画面312にGUI3110bが含まれていてもよい。
サマリ情報は、例えば、サマリ情報に含まれる会話テキストが分類されたカテゴリに関する情報を含んでいてもよい。この場合、サマリ出力部215bは、会話テキストをカテゴリごとに区別して示すサマリ情報を出力してもよい。
以上説明したように、第2変形例の会話支援システムSYSbは、サマリ情報を出力することができる。このため、ユーザは、サマリ情報を確認することで、インフォームドコンセントの内容を適切に把握することができる。
尚、サマリ出力部215bは、サマリ情報に含めるべき会話テキストを指定するユーザの指示を学習してもよい。サマリ出力部215bは、ユーザの指示の学習結果に基づいて、サマリ情報に含めるべき会話テキストを自動的に選択してもよい。つまり、サマリ出力部215bは、ユーザの指示の学習結果に基づいて、ユーザがサマリ情報に含めるであろうと推定される会話テキストを、サマリ情報に含めるべき会話テキストとして自動的に選択してもよい。この場合、サマリ出力部215bは、サマリ情報に含めるべき会話テキストを指定するユーザの指示を必要とすることなく、サマリ情報に含めるべき会話テキストとしてユーザが選択する可能性が相対的に高い会話テキストを適切に選択することができる。その結果、会話テキストを含むサマリ情報の生成に要するユーザの負荷が低減される。尚、ユーザの指示を学習する場合には、サマリ出力部215bは、サマリ情報に含めるべき会話テキストを指定するユーザの指示を教師データとして用いて学習可能な学習モデル(例えば、ニューラルネットワークを用いた学習モデル)を含んでいてもよい。
また、サマリ出力部215bは、サマリ情報に含めるべき会話テキストを指定するユーザの指示の学習結果に基づいて、ユーザに対して、サマリ情報に含めることが好ましい会話テキストを推奨してもよい。例えば、サマリ出力部215bは、IC支援画面31上において、サマリ情報に含めることが好ましい会話テキストを他の会話テキストと区別可能な表示方法で表示するように、表示装置3を制御してもよい。その結果、ユーザは、サマリ情報に含めるべき会話テキストを相対的に容易に選択することができる。
(4-3)第3変形例
続いて、第3変形例の会話支援システムSYScについて説明する。第3変形例の会話支援システムSYScは、上述した会話支援システムSYSと比較して、会話支援装置2に代えて会話支援装置2cを備えているという点で異なる。会話支援システムSYScのその他の特徴は、会話支援システムSYSのその他の特徴と同一であってもよい。このため、以下、図13を参照しながら、第3変形例の会話支援装置2cについて説明する。図13は、第3変形例の会話支援装置2cの構成を示すブロック図である。
図13に示すように、第3変形例の会話支援装置2cは、上述した会話支援装置2と比較して、会話支援動作を実行するためにCPU21内に実現される論理的な機能ブロックとして、CPU21内にスケジュール提示部216cが実現されているという点で異なる。会話支援装置2cのその他の特徴は、会話支援装置2のその他の特徴と同一であってもよい。尚、上述した第1変形例の会話支援装置2a及び第2変形例の会話支援装置2bの少なくとも一方がスケジュール提示部216cを備えていてもよい。
スケジュール提示部216cは、インフォームドコンセントを取得する医療従事者に対して、インフォームドコンセントを取得するために行うべき会話のスケジュールを提示する。具体的には、スケジュール提示部216cは、過去に取得されたインフォームドコンセントと同じ種類のインフォームドコンセントが取得される場合には、過去に取得されたインフォームドコンセントでの会話の内容に基づいて、今回のインフォームドコンセントを取得する医療従事者に対して、今回のインフォームドコンセントを取得するために行うべき会話のスケジュールを提示する。というのも、上述したように、過去に取得されたインフォームドコンセントと同じ種類のインフォームドコンセントが取得される場合には、その会話の流れは、過去に取得されたインフォームドコンセントで行われた会話の流れと同じである可能性が相対的に高くなる。このため、スケジュール提示部216cは、過去に取得されたインフォームドコンセントで行われた会話のスケジュールに基づいて、今回新たに取得されるインフォームドコンセントで行われるべき会話のスケジュールを提示することができる。例えば、スケジュール提示部216cは、過去に取得されたインフォームドコンセントで行われた会話のスケジュールと同じ又は類似するスケジュールを、今回新たに取得されるインフォームドコンセントで行われるべき会話のスケジュールとして提示してもよい。例えば、スケジュール提示部216cは、過去に取得されたインフォームドコンセントで行われた会話のスケジュールを学習し、スケジュールの学習結果に基づいて、今回新たに取得されるインフォームドコンセントで行われるべき会話のスケジュールを提示してもよい。この場合、スケジュール提示部216cは、過去に取得されたインフォームドコンセントで行われた会話のスケジュールを教師データとして用いて学習可能な学習モデル(例えば、ニューラルネットワークを用いた学習モデル)を含んでいてもよい。その結果、医療従事者は、提示されたスケジュールに基づいて、適切なスケジュールでインフォームドコンセントを取得するために行うべき説明を進めることができる。
(4-4)第4変形例
続いて、図14を参照しながら、第4変形例の会話支援システムSYSdについて説明する。図14は、第4変形例の会話支援システムSYSdの構成を示すブロック図である。
図14に示すように、第4変形例の会話支援システムSYSdは、上述した会話支援システムSYSと比較して、電子カルテシステム5dを更に備えているという点で異なっている。更に、会話支援システムSYSdは、上述した会話支援システムSYSと比較して、会話支援装置2に代えて会話支援装置2dを備えているという点で異なる。会話支援システムSYSdのその他の特徴は、会話支援システムSYSのその他の特徴と同一であってもよい。尚、上述した第1変形例の会話支援システムSYSaから第3変形例の会話支援システムSYScの少なくとも一つが電子カルテシステム5dを備えていてもよい。
電子カルテシステム5dは、患者の電子カルテを管理するためのシステムである。具体的には、電子カルテシステム5dは、患者の電子カルテを示す電子カルテデータ51dを格納している。このため、電子カルテシステム5dは、電子カルテデータ51dを格納するための記憶装置を備えていてもよい。
会話支援装置2dは、会話支援装置2dの構成を示す図15に示すように、上述した会話支援装置2と比較して、会話支援動作を実行するためにCPU21内に実現される論理的な機能ブロックとして、CPU21内にカルテ連携部217dが実現されているという点で異なる。会話支援装置2dのその他の特徴は、会話支援装置2のその他の特徴と同一であってもよい。尚、上述した第1変形例の会話支援装置2aから第3変形例の会話支援装置2cの少なくとも一つがカルテ連携部217dを備えていてもよい。
カルテ連携部217dは、電子カルテシステム5dが格納する電子カルテデータ51dと、IC管理DB221によって管理されるデータ(つまり、インフォームドコンセントを管理するためのデータ)とを連携した連携動作を行う。
例えば、カルテ連携部217dは、電子カルテデータ51dとIC管理DB221とに基づいて、インフォームドコンセントによって合意に達していない行為(例えば、医療行為)が、患者に対して既に行われている又は行われる予定があるか否かを判定してもよい。具体的には、カルテ連携部217dは、電子カルテデータ51dに基づいて、患者に対して既に行われている又は行われる医療行為等を特定することができる。更に、カルテ連携部217dは、IC管理DB221に基づいて、患者に対して行われる医療行為等に関して医療従事者と患者との間で合意に達したか否かを判定することができる。このため、カルテ連携部217dは、電子カルテデータ51dとIC管理DB221とに基づいて、インフォームドコンセントによって合意に達していない医療行為等が、患者に対して既に行われている又は行われる予定があるか否かを判定することができる。更に、インフォームドコンセントによって合意に達していない医療行為等が患者に対して既に行われている又は行われる予定があると判定された場合には、カルテ連携部217dは、その旨を会話支援システムSYSdのユーザに警告してもよい。その結果、ユーザは、医療行為等を行うためにインフォームドコンセントを行う必要があることを認識することができる。このため、医療従事者は、インフォームドコンセントが適切に取得された後に、医療行為等を行うことができる。つまり、医療従事者は、インフォームドコンセントが適切に取得されていない医療行為等を誤って行うことは殆どなくなる。
尚、IC管理DB221の少なくとも一部が、電子カルテデータ51dに含まれていてもよい。IC管理DB221の少なくとも一部が、電子カルテデータ51dの一部として電子カルテシステム5dに格納されていてもよい。IC管理DB221によって管理されるデータ(例えば、上述した音声データ、テキストデータ及び分類部212の分類結果を示す分類データの少なくとも一つ)の少なくとも一部が、電子カルテデータ51dに含まれていてもよい。IC管理DB221によって管理されるデータの少なくとも一部が、電子カルテデータ51dの一部として電子カルテシステム5dに格納されていてもよい。
(4-5)第5変形例
続いて、第5変形例の会話支援システムSYSeについて説明する。第5変形例の会話支援システムSYSeは、上述した会話支援システムSYSと比較して、会話支援装置2に代えて会話支援装置2eを備えているという点で異なる。会話支援システムSYSeのその他の特徴は、会話支援システムSYSのその他の特徴と同一であってもよい。このため、以下、図16を参照しながら、第5変形例の会話支援装置2eについて説明する。図16は、第5変形例の会話支援装置2eの構成を示すブロック図である。
図16に示すように、第5変形例の会話支援装置2eは、上述した会話支援装置2と比較して、分類部212に代えて分類部212eを備えているという点で異なる。また、第5変形例の会話支援装置2eは、上述した会話支援装置2と比較して、学習部214eを備えているという点で異なる。会話支援装置2eのその他の特徴は、会話支援装置2のその他の特徴と同一であってもよい。尚、上述した第1変形例の会話支援装置2bから第4変形例の会話支援装置2dの少なくとも一つが、分類部212に代えて、分類部212eを備えていてもよい。
分類部212eは、分類部212と比較して、夫々が会話テキストを複数のカテゴリのうちの少なくとも一つに分類可能な少なくとも二つの分類部2121eを含んでいるという点で異なる。図16に示す例では、分類部212eは、分類部2121e-1と分類部2121e-2とを含む。分類部212eのその他の特徴は、分類部212のその他の特徴と同一であってもよい。
分類部2121e-1は、任意の方法を用いて会話テキストを分類してもよい。一方で、分類部2121e-2は、分類部2121e-1が用いる方法とは異なる方法を用いて会話テキストを分類してもよい。一例として、例えば、分類部2121e-1は、上述したルールベースに準拠した方法を用いて会話テキストを分類してもよい。例えば、分類部2121e-2は、上述した分類モデル(例えば、ニューラルネットワークを用いた学習モデル)を用いて会話テキストを分類してもよい。この場合、分類部2121e-2は、分類部2121e-1が分類することができなかった会話テキストを分類してもよい。
学習部214eは、分類部2121e-1の分類結果を学習する。学習部214eの学習結果は、分類器2121e-2に反映される。このため、分類部2121e-2は、学習部214eが学習することにより作成した学習モデル(例えば、ニューラルネットワークを用いた学習モデル)を用いて会話テキストを分類することが好ましい。その結果、分類部2121e-2は、分類部2121e-1の分類結果の学習結果が反映された学習モデルを用いることができるがゆえに、分類部2121e-1よりも相対的に高精度に会話テキストを分類することができる。
尚、会話支援システムSYSが単一の分類部212を備える場合においても、学習部214eは、分類部212の分類結果を学習してもよい。学習部214eの学習結果は、分類器212に反映される。この場合、学習部214eによる学習によって、分類部212による分類精度が向上していくことが期待される。
(4-6)その他の変形例
分類部212は、会話テキストの分類結果を修正してもよい。例えば、分類部212は、会話テキストの分類結果を修正するためのユーザの指示に基づいて、会話テキストの分類結果を修正してもよい。この場合、表示制御部213は、会話テキストの分類結果を修正するためのGUI313を含むIC支援画面31を表示するように、表示装置3を制御してもよい。会話テキストの分類結果を修正するためのGUI313を含むIC支援画面31の一例は、図17に示されている。図17に示す例では、GUI313は、IC支援画面31に表示されたカテゴリ(例えば、会話表示画面311中に、会話テキストと対応付けて表示されたカテゴリ)に対応するように表示され且つ会話テキストを分類するべきカテゴリを選択可能なプルダウンメニュー3131を含む。この場合、ユーザは、入力装置4を用いて、所望の会話テキストのカテゴリを変更してもよい。その結果、分類部212は、会話テキストを分類するカテゴリを、ユーザが選択したカテゴリに変更してもよい。
会話テキストの分類結果が修正される場合には、分類部212は、会話テキストの分類結果の修正内容を学習してもよい。分類部212は、会話テキストの分類結果の修正内容を学習し、且つ、会話テキストの分類結果の修正内容の学習結果に基づいて、会話テキストを分類してもよい。その結果、分類部212は、会話テキストの分類結果の修正内容を学習しない場合と比較して、相対的に高精度に会話テキストを分類することができる。尚、この場合には、分類部212は、会話テキストの分類結果の修正内容(例えば、会話テキストの分類結果を修正するユーザの指示)を教師データとして用いて学習可能な学習モデル(例えば、ニューラルネットワークを用いた学習モデル)を含んでいてもよい。
表示制御部213は、会話テキストを検索するためのGUIを含むIC支援画面31を表示するように、表示装置3を制御してもよい。会話テキストを検索するためのGUIを含むIC支援画面31の一例は、図18に示されている。図18に示すように、IC支援画面31(図18では、会話表示画面311)は、会話テキストを検索するためのGUIとして、検索したい文言を入力するためのテキストボックス3112を含んでいてもよい。この場合、IC支援画面31(図18では、会話表示画面311)は、テキストボックス3112に入力された文言を含む会話テキストを表示してもよい。図18は、「合併症」という文言がテキストボックス3112に入力された場合に、合併症という文言を含む会話テキストを表示するIC支援画面31(図18では、会話表示画面311)を示している。
会話支援システムSYSは、インフォームドコンセントを取得するために会話をしている医療従事者及び患者の少なくとも一方の動画を撮影可能な動画撮影装置(例えば、ビデオカメラ)を備えていてもよい。動画撮影装置が撮影した動画を示す動画データは、インフォームドコンセントの証拠として用いられてもよい。動画撮影装置が撮影した動画データは、記憶装置22によって記憶されてもよい。この際、記憶装置22によって記憶された動画データに関する情報は、IC管理DB221に登録されてもよい。動画データには、動画データの改ざんを防ぐための情報(例えば、タイムスタンプ及び電子署名の少なくとも一方)が付与されてもよい。また、医療従事者及び患者の少なくとも一方は、上述した初期情報を登録する際に(図4のステップS11)、動画撮影装置による撮影を行うか否かを指定してもよい。
上述した説明では、会話支援システムSYSは、医療従事者が患者に対して行う行為(例えば、医療行為)について患者に十分に説明し且つその行為について医療従事者と患者との間で合意を得るための合意取得過程における医療従事者と患者との会話を支援する。しかしながら、会話支援システムSYSは、医療従事者と患者との会話を支援する場合と同様の態様で、所望事項について任意の第1の人物と任意の第2の人物との間で合意を得るための合意取得過程において第1の人物と第2の人物との会話を支援してもよい。或いは、合意取得過程における第1の人物と第2の人物との会話を支援することに加えて又は代えて、会話支援システムSYSは、第1の人物と第2の人物との任意の会話を支援してもよい。つまり、会話支援システムSYSは、合意取得過程に限らず、任意の会話がなされる場面において用いられてもよい。例えば、会話支援システムSYSは、所望事項について任意の第1の人物が任意の第2の人物に説明する過程での第1の人物と第2の人物との会話を支援してもよい。例えば、会話支援システムSYSは、第1の人物と第2の人物との会話を音声で示す音声データをテキストデータに変換し、テキストデータが示す文章を細分化することで得られる複数の会話テキストの夫々を、所望事項について説明する過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類し、分類部212の分類結果に基づいて、第1の人物と第2の人物との会話を支援するため支援画面(例えば、図6に示すIC支援画面31と同様の画面)を表示してもよい。この場合、第1の人物は、第2の人物に対する所望事項の説明が不足しているか否かを判定することができる。つまり、第1の人物は、第2の人物に対する所望事項の説明義務を十分に果たしているか否かを判定することができる。その結果、会話支援システムSYSは、第1及び第2の人物のいずれか一方から第1及び第2の人物のいずれか他方への説明に漏れが生ずる可能性を低減することができる。尚、第1の人物と第2の人物との間の会話が支援される場面の他の一例として、第1の人物と第2の人物との間で契約(例えば、不動産に関する契約及び金融に関する契約の少なくとも一方)が締結される場面があげられる。この場合、会話支援システムSYSは、契約内容について第1の人物が任意の第2の人物に説明する過程での第1の人物と第2の人物との間の会話を支援してもよい。第1の人物と第2の人物との間の会話が支援される場面の他の一例として、警察において警察官が被疑者を取り調べる場面があげられる。この場合、会話支援システムSYSは、警察官が被疑者を取り調べる過程での警察官と被疑者との間の会話を支援してもよい。第1の人物と第2の人物との間の会話が支援される場面の他の一例として、裁判所における審理が行われる場面があげられる。この場合、会話支援システムSYSは、裁判官、検察官、弁護士、原告、被告及びお証人の少なくとも二人の間で行われる会話(例えば、弁論)を支援してもよい。
(5)付記
以上説明した実施形態に関して、更に以下の付記を開示する。
[付記1]
医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類する分類手段と、
前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示するように、表示装置を制御する表示制御手段と
を備える会話支援装置。
[付記2]
前記表示制御手段は、前記複数の会話テキストのうちの少なくとも一部を、分類されたカテゴリ別に表示するように、前記表示装置を制御する
付記1に記載の会話支援装置。
[付記3]
前記表示制御手段は、前記複数のカテゴリのうちの前記医療従事者及び前記患者の少なくとも一方が指定した一のカテゴリに分類された会話テキストを表示するように、前記表示装置を制御する
付記1又は2に記載の会話支援装置。
[付記4]
前記分類手段による前記複数の会話テキストの分類結果に基づいて、前記合意取得過程で必要とされる会話が不十分である旨を警告する会話警告手段を更に備える
付記1から3のいずれか一項に記載の会話支援装置。
[付記5]
前記会話警告手段は、前記複数のカテゴリのうちの一のカテゴリに分類された前記会話テキストの数が、前記一のカテゴリに対して設定された所定閾値を下回っている場合に、前記一のカテゴリに関する会話が不十分である旨を警告する
付記4に記載の会話支援装置。
[付記6]
前記所定閾値は、前記合意取得過程において過去に前記医療従事者と前記患者との間で前記一のカテゴリに関連して行われた前記会話の内容に基づいて設定される
付記5に記載の会話支援装置。
[付記7]
前記会話警告手段は、前記複数のカテゴリのうちの一のカテゴリに前記会話テキストが一つも分類されていない場合に、前記一のカテゴリに関する会話が不十分である旨を警告する
付記4から6のいずれか一項に記載の会話支援装置。
[付記8]
前記表示制御手段は、前記複数のカテゴリのうちの一のカテゴリに分類された前記会話テキストの数を示す指標を更に表示する
付記1から7のいずれか一項に記載の会話支援装置。
[付記9]
前記複数のカテゴリは、前記合意取得過程の目的に言及する発話内容に関するカテゴリ、前記患者の症状又は病状に言及する発話内容に関するカテゴリ、前記患者に対して行われる検査又は治療に言及する発話内容に関するカテゴリ、前記患者を対象とする治験又は研究に言及する発話内容に関するカテゴリ、前記患者の意見に言及する発話内容に関するカテゴリ、前記医療従事者と前記患者との間での合意の有無に言及する発話内容に関するカテゴリ、及び、前記患者に対する今後の医療方針に言及する発話内容に関するカテゴリのうちの少なくとも一つを含む
付記1から8のいずれか一項に記載の会話支援装置。
[付記10]
(i)前記複数の会話テキストのうちの少なくとも一つを、前記合意取得過程での前記会話の内容を要約した要約情報に含めることを指定する前記医療従事者の指示を学習し、(ii)前記医療従事者の指示の学習結果に基づいて、前記要約情報を生成する生成手段を更に備える
付記1から9のいずれか一項に記載の会話支援装置。
[付記11]
前記生成手段は、前記医療従事者の指示を学習し、前記医療従事者の指示の学習結果に基づいて、前記複数の会話テキストのうちの少なくとも一つを、前記要約情報に含めるべき会話テキストとして前記医療従事者に推奨する
付記10に記載の会話支援装置。
[付記12]
一の種類の行為に関する前記合意取得過程において過去に前記医療従事者と前記患者との間で行われた前記会話の内容に基づいて、前記一の種類の行為に関する前記合意取得過程の場にいる前記医療従事者に対して、前記一の種類の行為に関する前記合意取得過程でなすべき会話のスケジュールを提示する提示手段を更に備える
付記1から11に記載の会話支援装置。
[付記13]
前記合意取得過程で得られた合意関連データを格納する格納手段と、
前記格納手段に格納されている前記合意関連データと前記患者のカルテを電子的に管理する電子カルテデータとに基づいて、前記合意取得過程において前記医療従事者と前記患者との間で合意に達していない行為が前記患者に対して行われている又は行われる予定がある旨を警告するカルテ連携手段と
を更に備える付記1から12のいずれか一項に記載の会話支援装置。
[付記14]
前記分類手段は、前記複数の会話テキストの夫々を前記複数のカテゴリのうちの少なくとも一つに分類する第1の分類部と、前記第1の分類部の分類結果を含む教師データを学習し、前記教師データの学習結果に基づいて前記複数の会話テキストの夫々を前記複数のカテゴリのうちの少なくとも一つに分類する第2の分類部とを含む
付記1から13のいずれか一項に記載の会話支援装置。
[付記15]
医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を記録する会話記録装置と、
付記1から14のいずれか一項に記載の会話支援装置と、
前記表示装置と
を備える会話支援システム。
[付記16]
医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類し、
前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示する
会話支援方法。
[付記17]
医療従事者と患者との会話を支援する会話支援方法をコンピュータに実行させるコンピュータプログラムが記録された記録媒体であって、
前記会話支援方法は、
前記医療従事者が前記患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類し、
前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示する
記録媒体。
[付記18]
医療従事者と患者との会話を支援する会話支援方法をコンピュータに実行させるコンピュータプログラムであって、
前記会話支援方法は、
前記医療従事者が前記患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類し、
前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示する
コンピュータプログラム。
[付記18]
第1の人物から第2の人物に対して所定事項に関する説明を行う会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記所定事項に関する説明で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類する分類手段と、
前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示するように、表示装置を制御する表示制御手段と
を備える会話支援装置。
本発明は、請求の範囲及び明細書全体から読み取るこのできる発明の要旨又は思想に反しない範囲で適宜変更可能であり、そのような変更を伴う会話支援装置、会話支援システム、会話支援方法、コンピュータプログラム及び記録媒体もまた本発明の技術思想に含まれる。
SYS 会話支援システム
1 録音装置
2、2a、2b、2c、2d、2e 会話支援装置
21 CPU
211 テキスト変換部
212、212e、2121e、2122e 第2分類部
213 表示制御部
214a 警告部
215b サマリ出力部
216c スケジュール提示部
217d カルテ連携部
22 記憶装置
221 IC管理DB
3 表示装置
4 入力装置
5d 電子カルテシステム
51d 電子カルテデータ

Claims (16)

  1. 医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類する分類手段と、
    前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示するように、表示装置を制御する表示制御手段と
    前記分類手段による前記複数の会話テキストの分類結果に基づいて、前記合意取得過程で必要とされる会話が不十分である旨を警告する会話警告手段と
    を備える会話支援装置。
  2. 前記表示制御手段は、前記複数の会話テキストのうちの少なくとも一部を、分類されたカテゴリ別に表示するように、前記表示装置を制御する
    請求項1に記載の会話支援装置。
  3. 前記表示制御手段は、前記複数のカテゴリのうちの前記医療従事者及び前記患者の少なくとも一方が指定した一のカテゴリに分類された会話テキストを表示するように、前記表示装置を制御する
    請求項1又は2に記載の会話支援装置。
  4. 前記会話警告手段は、前記複数のカテゴリのうちの一のカテゴリに分類された前記会話テキストの数が、前記一のカテゴリに対して設定された所定閾値を下回っている場合に、前記一のカテゴリに関する会話が不十分である旨を警告する
    請求項に記載の会話支援装置。
  5. 前記所定閾値は、前記合意取得過程において過去に前記医療従事者と前記患者との間で前記一のカテゴリに関連して行われた前記会話の内容に基づいて設定される
    請求項に記載の会話支援装置。
  6. 前記会話警告手段は、前記複数のカテゴリのうちの一のカテゴリに前記会話テキストが一つも分類されていない場合に、前記一のカテゴリに関する会話が不十分である旨を警告する
    請求項4又は5に記載の会話支援装置。
  7. 前記表示制御手段は、前記複数のカテゴリのうちの一のカテゴリに分類された前記会話テキストの数を示す指標を更に表示する
    請求項1からのいずれか一項に記載の会話支援装置。
  8. 前記複数のカテゴリは、前記合意取得過程の目的に言及する発話内容に関するカテゴリ、前記患者の症状又は病状に言及する発話内容に関するカテゴリ、前記患者に対して行われる検査又は治療に言及する発話内容に関するカテゴリ、前記患者を対象とする治験又は研究に言及する発話内容に関するカテゴリ、前記患者の意見に言及する発話内容に関するカテゴリ、前記医療従事者と前記患者との間での合意の有無に言及する発話内容に関するカテゴリ、及び、前記患者に対する今後の医療方針に言及する発話内容に関するカテゴリのうちの少なくとも一つを含む
    請求項1からのいずれか一項に記載の会話支援装置。
  9. (i)前記複数の会話テキストのうちの少なくとも一つを、前記合意取得過程での前記会話の内容を要約した要約情報に含めることを指定する前記医療従事者の過去の指示を学習し、(ii)前記医療従事者の過去の指示の学習結果に基づいて、前記要約情報を生成する生成手段を更に備える
    請求項1からのいずれか一項に記載の会話支援装置。
  10. 前記生成手段は、前記医療従事者の過去の指示を学習し、前記医療従事者の過去の指示の学習結果に基づいて、前記複数の会話テキストのうちの少なくとも一つを、前記要約情報に含めるべき会話テキストとして前記医療従事者に推奨する
    請求項に記載の会話支援装置。
  11. 一の種類の行為に関する前記合意取得過程において過去に前記医療従事者と前記患者との間で行われた前記会話の内容に基づいて、前記一の種類の行為に関する前記合意取得過程の場にいる前記医療従事者に対して、前記一の種類の行為に関する前記合意取得過程で話すべき会話のスケジュールを提示する提示手段を更に備える
    請求項1から10のいずれか一項に記載の会話支援装置。
  12. 前記合意取得過程で得られた合意関連データを格納する格納手段と、
    前記格納手段に格納されている前記合意関連データと前記患者のカルテを電子的に管理する電子カルテデータとに基づいて、前記合意取得過程において前記医療従事者と前記患者との間で合意に達していない行為が前記患者に対して行われている又は行われる予定がある旨を警告するカルテ連携手段と
    を更に備える請求項1から11のいずれか一項に記載の会話支援装置。
  13. 前記分類手段は、前記複数の会話テキストの夫々を前記複数のカテゴリのうちの少なくとも一つに分類する第1の分類部と、前記第1の分類部の分類結果を含む教師データを学習し、前記教師データの学習結果に基づいて前記複数の会話テキストの夫々を前記複数のカテゴリのうちの少なくとも一つに分類する第2の分類部とを含む
    請求項1から12のいずれか一項に記載の会話支援装置。
  14. 医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を記録する会話記録装置と、
    請求項1から13のいずれか一項に記載の会話支援装置と、
    前記表示装置と
    を備える会話支援システム。
  15. コンピュータが実行する会話支援方法であって、
    医療従事者が患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類し、
    前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示し、
    前記複数の会話テキストの分類結果に基づいて、前記合意取得過程で必要とされる会話が不十分である旨を警告する
    会話支援方法。
  16. 医療従事者と患者との会話を支援する会話支援方法をコンピュータに実行させるコンピュータプログラムであって、
    前記会話支援方法は、
    前記医療従事者が前記患者に対して行う行為について前記患者に説明し且つ前記行為について前記医療従事者と前記患者との間で合意を得るための合意取得過程での前記医療従事者と前記患者との会話の内容を示すテキストを細分化することで得られる複数の会話テキストの夫々を、前記合意取得過程で発話されるべき発話内容の種類に応じて区別される複数のカテゴリのうちの少なくとも一つに分類し、
    前記複数の会話テキストのうちの少なくとも一部を、各会話テキストが分類された前記カテゴリと共に表示し、
    前記複数の会話テキストの分類結果に基づいて、前記合意取得過程で必要とされる会話が不十分である旨を警告する
    コンピュータプログラム。
JP2021566679A 2019-12-26 2019-12-26 会話支援装置、会話支援システム、会話支援方法及び記録媒体 Active JP7388450B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/051090 WO2021130953A1 (ja) 2019-12-26 2019-12-26 会話支援装置、会話支援システム、会話支援方法及び記録媒体

Publications (3)

Publication Number Publication Date
JPWO2021130953A1 JPWO2021130953A1 (ja) 2021-07-01
JPWO2021130953A5 JPWO2021130953A5 (ja) 2022-07-29
JP7388450B2 true JP7388450B2 (ja) 2023-11-29

Family

ID=76575827

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021566679A Active JP7388450B2 (ja) 2019-12-26 2019-12-26 会話支援装置、会話支援システム、会話支援方法及び記録媒体

Country Status (2)

Country Link
JP (1) JP7388450B2 (ja)
WO (1) WO2021130953A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049971A (zh) * 2021-10-11 2022-02-15 北京左医科技有限公司 基于医患对话的医学教学方法及医学教学装置
EP4362033A1 (en) * 2022-10-24 2024-05-01 Koninklijke Philips N.V. Patient consent

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178158A (ja) 2001-12-07 2003-06-27 Canon Inc 第三者証拠資料保存型の調書プリントサービスシステム
JP2005063162A (ja) 2003-08-13 2005-03-10 Takashi Suzuki インフォームドコンセント記録管理装置
JP2010197643A (ja) 2009-02-25 2010-09-09 Gifu Univ 対話型学習システム
JP2015138457A (ja) 2014-01-23 2015-07-30 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019023805A (ja) 2017-07-24 2019-02-14 シャープ株式会社 表示制御装置、表示制御方法及びプログラム
WO2019078887A1 (en) 2017-10-20 2019-04-25 Google Llc CAPTURING DETAILED STRUCTURE FROM PATIENT-PHYSICIAN CONVERSATIONS FOR USE IN CLINICAL DOCUMENTATION

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003178158A (ja) 2001-12-07 2003-06-27 Canon Inc 第三者証拠資料保存型の調書プリントサービスシステム
JP2005063162A (ja) 2003-08-13 2005-03-10 Takashi Suzuki インフォームドコンセント記録管理装置
JP2010197643A (ja) 2009-02-25 2010-09-09 Gifu Univ 対話型学習システム
JP2015138457A (ja) 2014-01-23 2015-07-30 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2019023805A (ja) 2017-07-24 2019-02-14 シャープ株式会社 表示制御装置、表示制御方法及びプログラム
WO2019078887A1 (en) 2017-10-20 2019-04-25 Google Llc CAPTURING DETAILED STRUCTURE FROM PATIENT-PHYSICIAN CONVERSATIONS FOR USE IN CLINICAL DOCUMENTATION

Also Published As

Publication number Publication date
JPWO2021130953A1 (ja) 2021-07-01
WO2021130953A1 (ja) 2021-07-01

Similar Documents

Publication Publication Date Title
Parikh et al. Addressing bias in artificial intelligence in health care
US9070357B1 (en) Using speech analysis to assess a speaker's physiological health
Rosenbloom et al. Data from clinical notes: a perspective on the tension between structure and flexible documentation
US20180018966A1 (en) System for understanding health-related communications between patients and providers
Dawson et al. Potential for digital behavioral measurement tools to transform the detection and diagnosis of autism spectrum disorder
CN110675951A (zh) 智能化的疾病诊断方法及装置、计算机设备与可读介质
Pilnick et al. Advice, authority and autonomy in shared decision‐making in antenatal screening: the importance of context
CN111316281A (zh) 基于机器学习的自然语言情境中数值数据的语义分类
US20230154575A1 (en) Systems and Methods for Mental Health Care Delivery Via Artificial Intelligence
US20160239617A1 (en) Systems and methods for capturing data, creating billable information and outputting billable information
CN111133521A (zh) 用于医学记录的自动检索和分析的系统和方法
JP2023026640A (ja) 情報処理装置、電子カルテ作成方法および電子カルテ作成プログラム
JP7388450B2 (ja) 会話支援装置、会話支援システム、会話支援方法及び記録媒体
Walker et al. Developing an intelligent virtual agent to stratify people with cognitive complaints: a comparison of human–patient and intelligent virtual agent–patient interaction
Kuehn After 50 years, newborn screening continues to yield public health gains
Abbas et al. Facial and vocal markers of schizophrenia measured using remote smartphone assessments: observational study
KR20200000745A (ko) 진료 데이터 수집 관리 시스템 및 방법
WO2020036207A1 (ja) 医療用情報処理システム、医療用情報処理装置、および医療用情報処理方法
Kohli et al. The role of intelligent technologies in early detection of autism spectrum disorder (asd): A scoping review
Duran et al. The quality of CLP-related information for patients provided by ChatGPT
Gill Heterogeneity between genetic variants as a proxy for pleiotropy in Mendelian randomization
Pai et al. Workshop on using natural language processing applications for enhancing clinical decision making: an executive summary
Gordon et al. Prevalence and nature of financial considerations documented in narrative clinical records in intensive care units
Farrington The need to include biological variables in prospective longitudinal studies of the development of criminal behavior
US11804311B1 (en) Use and coordination of healthcare information within life-long care team

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220601

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230807

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231017

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231030

R151 Written notification of patent or utility model registration

Ref document number: 7388450

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151