JP2023145092A - 対話システム、対話方法及び対話プログラム - Google Patents

対話システム、対話方法及び対話プログラム Download PDF

Info

Publication number
JP2023145092A
JP2023145092A JP2022052377A JP2022052377A JP2023145092A JP 2023145092 A JP2023145092 A JP 2023145092A JP 2022052377 A JP2022052377 A JP 2022052377A JP 2022052377 A JP2022052377 A JP 2022052377A JP 2023145092 A JP2023145092 A JP 2023145092A
Authority
JP
Japan
Prior art keywords
symptom
term
character string
user
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022052377A
Other languages
English (en)
Other versions
JP7171000B1 (ja
Inventor
尚史 福江
Naofumi Fukue
裕太 平山
Yuta HIRAYAMA
敬介 森
Keisuke Mori
勇樹 山本
Yuki Yamamoto
敬真 福岡
Takamasa Fukuoka
智史 三浦
Tomohito Miura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL CANCER CENTER
TIS Inc
Original Assignee
NATIONAL CANCER CENTER
TIS Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL CANCER CENTER, TIS Inc filed Critical NATIONAL CANCER CENTER
Priority to JP2022052377A priority Critical patent/JP7171000B1/ja
Application granted granted Critical
Publication of JP7171000B1 publication Critical patent/JP7171000B1/ja
Publication of JP2023145092A publication Critical patent/JP2023145092A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】ユーザの発言を傾聴する対話システム、対話方法及び対話プログラムを提供する。【解決手段】音声又はテキストによるユーザの発言に基づいて生成される文字列を取得する文字列取得部と、用語ごとに設定される重み情報に基づいて、文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出する第1症状用語抽出部と、症状と症状用語との対応関係を示す対応関係情報に基づいて、少なくとも1つの第1の症状用語に対応する症状を特定する症状特定部と、対応関係情報に基づいて、発言に対応してユーザに返答するための返答用文字列であって、特定される症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列を、音声又はテキストによりユーザに提供する返答部と、を備える対話システム。【選択図】図1

Description

本発明は、対話システム、対話方法及び対話プログラムに関する。
従来、対話システムを用いて、ユーザの症状を診断し、医療提供につなげる技術が知られている。
例えば、特許文献1に記載されているコミュニケーションロボットは、マイクロホンから入力されたユーザの音声を認識し、マイクロホンから入力された音声の音響的特徴に基づいてユーザの生体状態を推定し、スピーカから音声を出力する。
特開第2017-100221号公報
しかしながら、特許文献1に記載されているコミュニケーションロボットでは、ユーザの生体状態を推定することができるものの、ユーザの発言を傾聴し、ユーザを精神的にサポートすることができない。
そこで、本発明は、ユーザの発言を傾聴する対話システムを提供することを目的とする。
本発明の一態様に係る対話システムは、音声又はテキストによるユーザの発言に基づいて生成される文字列を取得する文字列取得部と、用語ごとに設定される重み情報に基づいて、文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出する第1症状用語抽出部と、症状と症状用語との対応関係を示す対応関係情報に基づいて、少なくとも1つの第1の症状用語に対応する症状を特定する症状特定部と、対応関係情報に基づいて、発言に対応してユーザに返答するための返答用文字列であって、特定される症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列を、音声又はテキストによりユーザに提供する返答部と、を備える対話システム。
本発明の一態様に係る対話方法は、コンピュータが、音声又はテキストによるユーザの発言に基づいて生成される文字列を取得し、用語ごとに設定される重み情報に基づいて、文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出し、症状と症状用語との対応関係を示す対応関係情報に基づいて、少なくとも1つの第1の症状用語に対応する症状を特定し、対応関係情報に基づいて、発言に対応してユーザに返答するための返答用文字列であって、特定される症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列を、音声又はテキストによりユーザに提供する。
本発明の一態様に係る対話プログラムは、コンピュータに、音声又はテキストによるユーザの発言に基づいて生成される文字列を取得する文字列取得部と、用語ごとに設定される重み情報に基づいて、文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出する取得用語抽出部と、症状と症状用語との対応関係を示す対応関係情報に基づいて、少なくとも1つの第1の症状用語に対応する症状を特定する症状特定部と、対応関係情報に基づいて、発言に対応してユーザに返答するための返答用文字列であって、特定される症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列を、音声又はテキストによりユーザに提供する返答部と、を実現させる。
なお、本発明において、「部」とは、単に物理的手段を意味するものではなく、その「部」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」や装置が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」や装置の機能が1つの物理的手段や装置により実現されてもよい。
本発明によれば、ユーザの発言を傾聴する対話システムを提供することが可能となる。
本発明の一実施形態である対話システム100の構成を示す図である。 記憶部111に記憶される文字列情報の例を示す図である。 記憶部111に記憶される重み情報の例を示す図である。 記憶部111に記憶される第1症状用語情報の例を示す図である。 記憶部111に記憶される対応関係情報の例を示す図である。 記憶部111に記憶される第2症状用語情報の例を示す図である。 節記憶部141に記憶される情報の例を示す図である。 返答記憶部144に記憶される情報の例を示す図である。 対話システム100における処理の例を示すフローチャートである。
添付図面を参照して、本発明の好適な実施形態について説明する。図1は、本発明の一実施形態である対話システム100の構成を示す図である。対話システム100は、情報処理システム200とインターネット等のネットワークを介して通信可能に接続されるシステムである。
対話システム100は、ユーザと、音声又はテキストによる対話を行うシステムである。
対話システム100は、音声又はテキストによるユーザの発言を文字列として取得し、取得した文字列に含まれる症状に関する第1の症状用語に基づいて第2の症状用語を抽出し、第2の症状用語を含む返答用文字列をユーザに提供して、ユーザと対話を行う。また、対話システム100は、第1の症状用語に基づいて特定される症状に関する情報を、情報処理システム200に提供することができる。対話システム100の詳細については後述する。
情報処理システム200は、対話システム100において特定される症状に関する情報を、対話システム100から取得する情報処理システムである。情報処理システム200は、例えば、医療機関や医師、看護師、介護士等が利用する端末やサーバであってもよく、また、例えば家族等、ユーザと密接な関係にある者が利用する端末やサーバであってもよい。
続いて、対話システム100の詳細について説明する。対話システム100は、記憶部111、音声認識部121、文字列取得部122、第1症状用語抽出部131、症状特定部132、第2症状用語抽出部133、節記憶部141、返答用文字列生成部142、返答部143、返答記憶部144、外部提供部151、用語登録部152を備える。対話システム100を構成するコンピュータは、プロセッサ及び記憶領域を備える。図1に示す各部は、例えば、記憶領域を用いたり、記憶領域に格納されたプログラムをプロセッサが実行したりすることにより実現することができる。
記憶部111は、対話システム100において処理される情報を記憶する。記憶部111は、例えば、後述する、文字列情報、第1症状用語情報、重み情報、対応関係情報、第2症状用語情報を記憶することができる。
音声認識部121は、ユーザの発話を取得して、文字列を生成し、生成した文字列を後述する文字列取得部122に提供する。音声認識部121は、音声認識技術を用いて、ユーザの発話から文字列を生成することができる。
音声認識部121は、ユーザの発話に含まれる所定の音声(例えば、「ねえ」等の呼びかけ)の後に続くユーザの発話を文字列として生成してもよい。また、音声認識部121は、対話システム100からユーザに提供される文字列(例えば、「気分はいかがですか」等の問いかけ)の後に続くユーザの発話を文字列として生成してもよい。
文字列取得部122は、音声又はテキストによるユーザの発言に基づいて生成される文字列を取得し、取得した文字列を示す文字列情報を記憶部111に格納する。
なお、文字列取得部122は、ユーザの発言が音声による発話である場合、音声認識部121によってユーザの発話に基づいて生成された文字列を取得してもよい。また、文字列取得部122は、ユーザの発言がテキストで入力される場合、例えば、対話システム100とインターネット等のネットワークを介して通信可能に接続される、ユーザが利用するユーザ装置から、ユーザの発言に対応するテキストを取得してもよい。
図2は、記憶部111に記憶される文字列情報の例を示す図である。記憶部111に記憶される情報は、例えば、文字列ID及び文字列情報を含む。
文字列IDは、文字列取得部122が取得する文字列を識別する文字列識別情報である。文字列情報は、文字列取得部122が取得する文字列を示す情報である。
第1症状用語抽出部131は、用語ごとに設定される重み情報に基づいて、文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出し、抽出される少なくとも1つの第1の症状用語を記憶部111に格納する。
ここで、症状用語は、症状に関する用語であり、例えば、「吐き気」「むかむか」「頭痛」等の症状を示す用語であってもよい。また、症状用語は、「頭」「胸」等の部位を示す部位用語であってもよく、また、「とても」「少し」等の程度を示す程度用語であってもよい。
重み情報は、用語に対応付けられた、第1の症状用語として抽出する際の度合いを示す重みを示す情報である。なお、重み情報に含まれる用語は、症状用語であってもよく、症状用語以外の用語であってもよい。
具体的には、第1症状用語抽出部131は、例えば、まず、文字列取得部122が取得した文字列について、所定の自然言語処理技術に基づく形態素解析を行う。その後、形態素解析によって生成される複数の形態素のそれぞれと、記憶部111に記憶される重み情報とに基づいて、症状に関する少なくとも1つの第1の症状用語として抽出する。このとき、第1症状用語抽出部131は、例えば、形態素と形態素に対応する重みを入力として所定の評価値を出力する用語抽出モデルを用いて、一定値以上の評価値を出力する形態素を、症状に関する少なくとも1つの第1の症状用語として抽出することができる。
このように、第1症状用語抽出部131は、用語ごとに設定される重み情報を用いて、文字列に含まれる、ユーザの症状に関する第1の症状用語を抽出する。
図3は、記憶部111に記憶される重み情報の例を示す図である。記憶部111に記憶される情報は、例えば、用語ID、用語情報、重み情報を含む。
用語IDは、記憶部111に記憶される重み情報に対応する用語を識別する用語識別情報である。用語情報は、記憶部111に記憶される重み情報に対応する用語を示す情報である。重み情報は、用語に対応する重みを示す情報である。
図4は、記憶部111に記憶される第1症状用語情報の例を示す図である。記憶部111に記憶される情報は、例えば、文字列ID及び第1症状用語情報を含む。ここで、第1症状用語情報は、第1症状用語抽出部131によって抽出された少なくとも1つの第1の症状用語を示す情報である。
なお、記憶部111は、1つの文字列IDに複数の第1の症状用語を対応付けて、第1症状用語情報を記憶してもよい。また、記憶部111は、用語抽出モデルに基づいて算出される評価値の順と対応付けて、複数の第1の症状用語を記憶してもよい。
症状特定部132は、症状と症状用語との対応関係を示す、後述する対応関係情報に基づいて、少なくとも1つの第1の症状用語に対応する症状を特定し、特定される症状を記憶部111に格納する。
ここで、対応関係情報は、症状と症状用語の対応関係を示す情報である。なお、対応関係情報は、1つの症状に複数の症状用語が対応する情報であってもよい。また、対応関係情報は、対応する症状と症状用語が同じ文字列であってもよい。すなわち、1つの症状「吐き気」に、3つの症状用語「吐き気」、「むかむか」、「嘔吐感」が対応してもよい。
また、対応関係情報は、所定の機械学習モデルに関する情報であってもよい。すなわち、対応関係情報は、症状用語を入力として、所定の演算により、対応する症状を出力するモデルを示す情報であってもよく、また、症状を入力として、所定の演算により、対応する症状用語を出力するモデルを示す情報であってもよい。
図5は、記憶部111に記憶される対応関係情報の例を示す図である。記憶部111に記憶される情報は、例えば、症状情報及び症状用語情報を含む。
症状情報は、症状を示す情報である。症状用語情報は、症状用語を示す情報である。
記憶部111に記憶される対応関係情報は、1つの症状に複数の症状用語が対応する情報であってもよい。また、対応関係情報は、対応する症状と症状用語が同じ文字列であってもよい。すなわち、1つの症状「吐き気」に、3つの症状用語「吐き気」、「むかむか」、「嘔吐感」が対応してもよい。
このように、症状特定部132は、症状と症状用語の対応関係を示す対応関係情報に基づいて、少なくとも1つの第1の症状用語に対応する症状を特定する。すなわち、第1の症状用語が「むかむか」である場合、症状特定部132は、対応関係情報に基づいて、症状「吐き気」を特定する。
症状特定部132は、特定した症状を記憶部111に格納する。症状特定部132は、例えば、文字列取得部122が取得した文字列情報と対応付けて、特定した症状を記憶部111に格納する。このとき、症状特定部132は、文字列取得部122が取得した文字列情報に対応する文字列IDと対応付けて、特定した症状を記憶部111に格納してもよい。
第2症状用語抽出部133は、対応関係情報に基づいて、症状特定部132によって特定された症状に対応する、少なくとも1つの第2の症状用語を抽出し、記憶部111に格納する。
すなわち、第2症状用語抽出部133は、例えば、症状特定部132によって特定された症状が「吐き気」である場合、対応関係情報に基づいて、対応する症状用語「吐き気」、「むかむか」、「嘔吐感」のうち少なくとも1つを第2の症状用語として抽出することができる。
第2症状用語抽出部133は、症状特定部132によって特定された症状に対応する症状用語が複数の症状用語である場合、当該複数の症状用語及び、第1症状用語抽出部131によって抽出される少なくとも1つの第1の症状用語に基づいて、当該複数の症状用語のうち少なくとも1つの第2の症状用語を抽出することができる。
このとき、第2症状用語抽出部133は、当該複数の症状用語のうち、第1の症状用語と異なる少なくとも1つの第2の症状用語を抽出することができる。また、第2症状用語抽出部133は、当該複数の症状用語のうち、第1の症状用語と同一の少なくとも1つの第2の症状用語を抽出することができる。
すなわち、第2症状用語抽出部133は、例えば、第1の症状用語が「むかむか」である場合、症状特定部132によって特定された症状「吐き気」に対応する症状用語「吐き気」、「むかむか」、「嘔吐感」のうち、第1の症状用語「むかむか」と異なる症状用語「吐き気」及び「嘔吐感」の少なくともいずれかを第2の症状用語として抽出することができ、また、第1の症状用語「むかむか」と同一の症状用語「むかむか」を第2の症状用語として抽出することができる。
従来、例えば、末期のがん等の完治が難しい疾患や精神疾患の患者や高齢者等に対し、メンタルケアが行われている。メンタルケアにおいては、ユーザ(例えば、患者)が他者(例えば、ケアを行う人やシステム)に寄り添われていることを実感できることが重要であり、例えば、ユーザ(例えば、患者)が、自身の発言を傾聴されていると実感できることが重要である。ユーザへの傾聴を実現する手法として、例えば、ユーザの発言や当該発言に含まれる用語を言い換えて繰り返す手法や、ユーザの発言や当該発言に含まれる用語をそのまま繰り返す手法がある。ユーザは、自身の発言をそのまま繰り返されたり、言い換えて繰り返されたりすることで、対話内容が機械的に生成された印象を受けず、自身の発言が傾聴されていると実感する。なお、ユーザ自身の性格や発言時の精神状態、疾患の状況等に応じて、ユーザへの傾聴を実現するための適切な手法は変わりうる。
第2症状用語抽出部133は、当該複数の症状用語のうち、第1の症状用語と異なる少なくとも1つの第2の症状用語を抽出することで、ユーザの発言を言い換えて繰り返す対話システム100を実現し、また、当該複数の症状用語のうち、第1の症状用語と同一の少なくとも1つの第2の症状用語を抽出することで、ユーザの発言をそのまま繰り返す対話システム100を実現することができる。これにより、ユーザの発言を傾聴する対話システム100を実現することができる。
また、第2症状用語抽出部133は、症状特定部132によって特定された症状に対応する症状用語が複数の症状用語である場合、当該複数の症状用語の数に基づいて、当該複数の症状用語のうち少なくとも1つの第2の症状用語を抽出することができる。
すなわち、例えば、第2症状用語抽出部133は、当該複数の症状用語の数が所定の値より大きい場合、当該複数の症状用語のうちから少なくとも1つの第2の症状用語を無作為に抽出し、また、当該複数の症状用語の数が所定の値より小さい場合、当該複数の症状用語のうち、第1の症状用語と異なる少なくとも1つの第2の症状用語を抽出してもよい。これにより、ユーザは、第2の症状用語が機械的に抽出された印象を受けず、自身の発言が傾聴されていると実感することができる。
また、第2症状用語抽出部133は、症状特定部132によって特定される症状に基づいて、当該複数の症状用語のうち少なくとも1つの第2の症状用語を抽出することができる。
すなわち、第2症状用語抽出部133は、特定される症状が軽い症状であるとき、症状が軽いことを暗に示すような第2の症状用語を抽出することができる。また、第2症状用語抽出部133は、特定される症状が重い症状であるとき、症状が重いことを暗に示すような第2の症状用語を抽出することができる。具体的には、第2症状用語抽出部133は、例えば、症状が「軽い咳」のとき、症状用語「咳」や「いがいが」を第2の症状用語として抽出することができ、また、例えば、症状が「重い咳」のとき、症状用語「咳き込む」を第2の症状用語として抽出することができる。
また、第2症状用語抽出部133は、後述する返答記憶部144を参照して、返答記憶部144に記憶される所定の条件に基づいて、当該複数の症状用語のうち、少なくとも1つの第2の症状用語を抽出することができる。
ここで、所定の条件は、例えば、症状用語それぞれの、後述する返答用文字列としてユーザに提供された時期や、所定の期間内に返答用文字列としてユーザに提供された回数に関する条件である。
所定の条件が、例えば、「過去の一定期間内に、一回以上提供」である場合、第2症状用語抽出部133は、返答記憶部144を参照して、例えば、返答用文字列に含まれる第2の症状用語として当該期間内にユーザに提供されたことがある症状用語と異なる症状用語を、第2の症状用語として抽出してもよい。
すなわち、第2症状用語抽出部133は、過去の所定の期間内に、症状用語「むかむか」及び「嘔吐感」をユーザに返答として提供している場合、症状用語「吐き気」(すなわち、症状用語「むかむか」及び「嘔吐感」と異なる症状用語)を第2の症状用語として抽出してもよい。これにより、対話システム100は、短い期間の間に同一の症状用語を第2の症状用語として抽出しないようにすることができ、ユーザは、第2の症状用語が機械的に抽出された印象を受けず、自身の発言が傾聴されていると実感することができる。
図6は、記憶部111に記憶される第2症状用語情報の例を示す図である。記憶部111に記憶される情報は、例えば、文字列ID、第2症状用語情報を含む。ここで、第2症状用語情報は、第2の症状用語を示す情報である。
節記憶部141は、用語と組み合わせることによって文の少なくとも一部を生成することが可能となる、少なくとも1つの文節からなる節を示す少なくとも1つの節情報を記録する。
ここで、節は、「するんですね」や「しちゃうんですね」等の少なくとも1つの文節からなり、用語と組み合わせることによって文の少なくとも一部となる。例えば、症状用語「吐き気」及び節「するんですね」を組み合わせることによって、文「吐き気がするんですね」を生成することができる。なお、用語及び節の組み合わせに際して、適宜、文字又は文字列(例えば、助詞「が」)が付加されてもよい。
図7は、節記憶部141に記憶される節情報の例を示す図である。記憶部111に記憶される情報は、例えば、節ID、節情報を含む。
返答用文字列生成部142は、ユーザの発言に対応してユーザに返答するための返答用文字列であって、特定される症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列を生成する。
具体的には、返答用文字列生成部142は、記憶部111及び節記憶部141を参照して、少なくとも1つの第2の症状用語及び少なくとも1つの節情報を組み合わせて、返答用文字列を生成することができる。なお、返答用文字列生成部142は、第2の症状用語及び節情報の組み合わせに際して、適宜、文字又は文字列(例えば、助詞「が」等)を付加してもよい
また、返答用文字列生成部142は、節記憶部141に記憶される複数の節情報から無作為に抽出される節情報を、第2の症状用語と組み合わせて、返答用文字列を生成してもよい。これにより、ユーザは、返答用文字列が機械的に生成された印象を受けず、自身の発言が傾聴されていると実感することができる。
また、返答用文字列生成部142は、後述する返答記憶部144を参照して、所定の条件に基づいて、過去の所定の期間内に、後述する返答部143によってユーザに提供した返答用文字列に含まれる節と異なる節を示す節情報を、節記憶部141に記憶される複数の節情報のうちから抽出して、返答用文字列を生成してもよい。これにより、ユーザは、返答用文字列が機械的に生成された印象を受けず、自身の発言が傾聴されていると実感することができる。
また、返答用文字列生成部142は、症状特定部132によって特定された症状に基づいて節記憶部141に記憶される複数の節情報から抽出される節情報を、第2の症状用語と組み合わせて、返答用文字列を生成してもよい。
すなわち、返答用文字列生成部142は、例えば、症状特定部132によって特定された症状が重篤な疾患に関わるものである場合、節記憶部141に記憶される複数の節情報のうち、厳かな表現が用いられている節(例えば、節「してしまうのですね」)を示す節情報を抽出してもよい。これにより、ユーザは、自身の症状に応じて異なる返答を受けることができ、自身の発言が傾聴されていると実感することができる。
返答部143は、返答用文字列生成部142によって生成された返答用文字列を、音声又はテキストによりユーザに提供し、提供した返答用文字列を返答記憶部144に格納する。返答部143がテキストにより返答用文字列を提供する場合、返答部143は、例えば、ユーザが利用するユーザ装置に対し、返答用文字列を提供してもよい。
図8は、返答記憶部144に記憶される情報の例を示す図である。返答記憶部144に記憶される情報は、例えば、返答ID、文字列ID、返答用文字列情報を含む。ここで、返答用文字列情報は、返答用文字列を示す情報である。
なお、返答記憶部144は、返答用文字列情報と対応付けて、さらに、所定の情報(例えば、返答用文字列がユーザに提供された時刻)を記憶してもよい。また、返答記憶部144は、返答用文字列情報を記憶せずに、返答用文字列として組み合わされた第2の症状用語及び、節情報の少なくとも一方を記憶してもよい。
外部提供部151は、症状特定部132によって特定される症状を情報処理システム200に提供する。
また、外部提供部151は、対話システム100とユーザとの対話の内容(すなわち、例えば、文字列取得部122が取得した文字列情報や、返答用文字列生成部142が生成した返答用文字列)を、情報処理システム200に提供してもよい。これにより、情報処理システム200の管理者や操作者(例えば、医師や看護師、介護士、家族等)は、ユーザ(例えば、患者)の対話記録に基づいて、ユーザへのケア(例えば、医療・介護サービスや日常のサポート)を行うことができる。
用語登録部152は、第1症状用語抽出部131によって抽出された少なくとも1つの第1の症状用語が対応関係情報に含まれていない場合、当該含まれていない少なくとも1つの第1の症状用語を、所定の症状と対応付けて対応関係情報に登録し、記憶部111に記憶される対応関係情報を更新する。
用語登録部152は、例えば、機械学習モデルに基づいて、対応関係情報に含まれていない第1の症状用語を所定の症状と対応付けてもよく、また、対話システム100のシステム管理者の操作に基づいて、対応関係情報に含まれていない第1の症状用語を所定の症状と対応付けてもよい。
図9は、対話システム100における処理の例を示すフローチャートである。
まず、音声認識部121が、ユーザの発言に基づいて文字列を生成する。文字列取得部122が、ユーザの発言に基づく文字列を取得する(S901)。なお、文字列取得部122は、テキストにより、ユーザの発言を取得してもよい。続いて、第1症状用語抽出部131が、文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出する(S902)。症状特定部132が、対応関係情報に基づいて、少なくとも1つの第1の症状用語に対応する症状を特定する(S903)。
第2症状用語抽出部133が、対応関係情報に基づいて、特定された症状に対応する少なくとも1つの第2の症状用語を抽出する(S904)。返答用文字列生成部142が、少なくとも1つの第2の症状用語及び節記憶部141に記憶される節情報に基づいて、返答用文字列を生成する(S905)。返答部143が、音声又はテキストにより、返答用文字列をユーザに提供する(S906)。
以上、本発明の一実施形態について説明した。対話システム100は、ユーザの発言に基づいて生成される文字列に含まれる少なくとも1つの第1の症状用語を抽出し、少なくとも1つの第1の症状用語に対応する症状を特定し、症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列をユーザに提供することができる。これにより、ユーザの発言を傾聴する対話システムを実現することが可能となる。
また、対話システム100は、症状に対応する第2の症状用語が複数の症状用語である場合、第1の症状用語及び複数の症状用語に基づいて、複数の症状用語のうち少なくとも1つの第2の症状用語を抽出することができる。このとき、対話システム100は、第1の症状用語と同一の第2の症状用語を抽出することができ、また、第1の症状用語と異なる第2の症状用語を抽出することができる。これにより、ユーザは、自身の発言した症状用語が返答用文字列において再度使用されることで、自身の発言が傾聴されていると実感でき、また、自身の発言した症状用語と異なる症状用語が返答用文字列において使用されることで、返答用文字列が機械的に生成された印象を受けず、自身の発言が傾聴されていると実感することができる。
また、対話システム100は、第1の症状用語によって特定される症状に基づいて、複数の症状用語のうち少なくとも1つの第2の症状用語を抽出することができる。これにより、特定される症状や対応する疾患を考慮して、ユーザの心情に配慮した対話を実現することができる。
また、対話システム100は、返答記憶部144を参照して、返答記憶部144に記憶されている所定の情報に対応する所定の条件に基づいて、複数の症状用語のうち少なくとも1つの第2の症状用語を抽出することができる。これにより、対話システム100は、過去にユーザに返答した内容を考慮して、返答用文字列をユーザに提供することができ、ユーザは、返答用文字列が機械的に生成された印象を受けず、自身の発言が傾聴されていると実感することができる。
また、対話システム100は、第1の症状用語が対応関係情報に含まれていない場合、当該含まれていない第1の症状用語を、所定の症状と対応付けて対応関係情報に登録することができる。これにより、対話システム100は、ユーザの発言を学習して、対話可能な症状を追加することで、より高精度にユーザの発言を傾聴することができる。
また、対話システム100は、節記憶部141を参照して、少なくとも1つの節情報及び少なくとも1つの第2の症状用語を組み合わせて、返答用文字列を生成することができる。これにより、ユーザの発言を傾聴する対話システムを実現することが可能となる。
また、対話システム100は、ユーザの発話を取得して、文字列を生成することができる。これにより、ユーザは、音声により、対話システム100と対話することができる。
また、対話システム100は、第1の症状用語に基づいて特定される症状を、情報処理システム200に提供することができる。これにより、情報処理システム200の管理者や操作者は、対話システム100とユーザとの対話に基づいて、ユーザへのケアを行うことができる。
なお、本実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。本発明は、その趣旨を逸脱することなく、変更/改良され得るととともに、本発明にはその等価物も含まれる。
100 対話システム、111 記憶部、121 音声認識部、122 文字列取得部、131 第1症状用語抽出部、132 症状特定部、133 第2症状用語抽出部、141 節記憶部、142 返答用文字列生成部、143 返答部、144 返答記憶部、151 外部提供部、152 用語登録部、200 情報処理システム

Claims (12)

  1. 音声又はテキストによるユーザの発言に基づいて生成される文字列を取得する文字列取得部と、
    用語ごとに設定される重み情報に基づいて、前記文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出する第1症状用語抽出部と、
    症状と症状用語との対応関係を示す対応関係情報に基づいて、前記少なくとも1つの第1の症状用語に対応する前記症状を特定する症状特定部と、
    前記対応関係情報に基づいて、前記発言に対応して前記ユーザに返答するための返答用文字列であって、前記特定される症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列を、音声又はテキストにより前記ユーザに提供する返答部と、
    を備える対話システム。
  2. 前記対応関係情報において、前記少なくとも1つの第2の症状用語が複数の症状用語である場合、前記少なくとも1つの第1の症状用語及び前記複数の症状用語に基づいて、前記複数の症状用語のうち前記少なくとも1つの第2の症状用語を抽出する第2症状用語抽出部をさらに備える、請求項1に記載の対話システム。
  3. 前記第2症状用語抽出部は、前記特定される症状にさらに基づいて、前記複数の症状用語のうち前記少なくとも1つの第2の症状用語を抽出する、請求項2に記載に対話システム。
  4. 前記第2症状用語抽出部は、前記複数の症状用語のうち、前記少なくとも1つの第1の症状用語と異なる前記少なくとも1つの第2の症状用語を抽出する、請求項2又は3に記載の対話システム。
  5. 前記第2症状用語抽出部は、前記複数の症状用語のうち、前記少なくとも1つの第1の症状用語と同一の前記少なくとも1つの第2の症状用語を抽出する、請求項2~4のいずれか一項に記載の対話システム。
  6. 前記第2症状用語抽出部は、前記抽出される少なくとも1つの第2の症状用語を所定の情報と対応付けて記録する返答記憶部を参照して、前記所定の情報に対応する所定の条件に基づいて、前記複数の症状用語のうち前記少なくとも1つの第2の症状用語を抽出する、請求項2~5のいずれか一項に記載の対話システム。
  7. 前記少なくとも1つの第1の症状用語が前記対応関係情報に含まれていない場合、前記含まれていない少なくとも1つの第1の症状用語を、所定の症状と対応付けて前記対応関係情報に登録する用語登録部をさらに備える、請求項1~6のいずれか一項に記載の対話システム。
  8. 用語と組み合わせることによって文の少なくとも一部を生成することが可能となる、少なくとも1つの文節からなる節を示す少なくとも1つの節情報を記録する節記憶部を参照して、前記少なくとも1つの節情報及び前記少なくとも1つの第2の症状用語を組み合わせて、前記返答用文字列を生成する返答用文字列生成部をさらに備え、
    前記返答部は、前記生成される返答用文字列を音声又はテキストにより前記ユーザに提供する、
    請求項1~7のいずれか一項に記載の対話システム。
  9. 前記ユーザの発話を取得して、前記文字列を生成する音声認識部をさらに備え、
    前記文字列取得部は、前記生成される文字列を取得する、
    請求項1~8のいずれか一項に記載の対話システム。
  10. 前記特定される症状を外部の情報処理システムに提供する外部提供部をさらに備える、請求項1~9のいずれか一項に記載の対話システム。
  11. コンピュータが、
    音声又はテキストによるユーザの発言に基づいて生成される文字列を取得し、
    用語ごとに設定される重み情報に基づいて、前記文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出し、
    症状と症状用語との対応関係を示す対応関係情報に基づいて、前記少なくとも1つの第1の症状用語に対応する前記症状を特定し、
    前記対応関係情報に基づいて、前記発言に対応して前記ユーザに返答するための返答用文字列であって、前記特定される症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列を、音声又はテキストにより前記ユーザに提供する、
    対話方法。
  12. コンピュータに、
    音声又はテキストによるユーザの発言に基づいて生成される文字列を取得する文字列取得部と、
    用語ごとに設定される重み情報に基づいて、前記文字列に含まれる、症状に関する少なくとも1つの第1の症状用語を抽出する第1症状用語抽出部と、
    症状と症状用語との対応関係を示す対応関係情報に基づいて、前記少なくとも1つの第1の症状用語に対応する前記症状を特定する症状特定部と、
    前記対応関係情報に基づいて、前記発言に対応して前記ユーザに返答するための返答用文字列であって、前記特定される症状に対応する少なくとも1つの第2の症状用語を含む返答用文字列を、音声又はテキストにより前記ユーザに提供する返答部と、
    を実現させるための対話プログラム。
JP2022052377A 2022-03-28 2022-03-28 対話システム、対話方法及び対話プログラム Active JP7171000B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022052377A JP7171000B1 (ja) 2022-03-28 2022-03-28 対話システム、対話方法及び対話プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022052377A JP7171000B1 (ja) 2022-03-28 2022-03-28 対話システム、対話方法及び対話プログラム

Publications (2)

Publication Number Publication Date
JP7171000B1 JP7171000B1 (ja) 2022-11-15
JP2023145092A true JP2023145092A (ja) 2023-10-11

Family

ID=84045963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022052377A Active JP7171000B1 (ja) 2022-03-28 2022-03-28 対話システム、対話方法及び対話プログラム

Country Status (1)

Country Link
JP (1) JP7171000B1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306195A (ja) * 1998-04-24 1999-11-05 Mitsubishi Electric Corp 情報検索システムおよび情報検索方法
JP2019091387A (ja) * 2017-11-14 2019-06-13 富士ゼロックス株式会社 情報処理装置及びプログラム
WO2022059307A1 (ja) * 2020-09-16 2022-03-24 株式会社Cureapp 情報処理装置、情報処理方法及び情報処理プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11306195A (ja) * 1998-04-24 1999-11-05 Mitsubishi Electric Corp 情報検索システムおよび情報検索方法
JP2019091387A (ja) * 2017-11-14 2019-06-13 富士ゼロックス株式会社 情報処理装置及びプログラム
WO2022059307A1 (ja) * 2020-09-16 2022-03-24 株式会社Cureapp 情報処理装置、情報処理方法及び情報処理プログラム

Also Published As

Publication number Publication date
JP7171000B1 (ja) 2022-11-15

Similar Documents

Publication Publication Date Title
Levy et al. The effects of intensive speech treatment on intelligibility in Parkinson's disease: a randomised controlled trial
TWI313418B (en) Multimodal speech-to-speech language translation and display
Popovici et al. Professional challenges in computer-assisted speech therapy
CN113380234A (zh) 基于语音识别生成表单的方法、装置、设备及介质
Hadley et al. Beyond the binaries: Negotiating gender and sex in music therapy
Ben-David et al. Challenges and opportunities for telehealth assessment during COVID-19: iT-RES, adapting a remote version of the test for rating emotions in speech
Strobel et al. Artificial intelligence for sign language translation–A design science research study
WO2021172039A1 (ja) 情報処理装置、情報処理方法、及びプログラム
Cordero Jr Sákit Pighati and Pag-asa: a pastoral reflection on suffering during the COVID-19 pandemic in the Philippines
Anuja et al. Design and development of a frame based MT system for English-to-ISL
Sakurai et al. VICA, a visual counseling agent for emotional distress
JP2023145092A (ja) 対話システム、対話方法及び対話プログラム
Kumar et al. Indian sign language generation system
Ashwini et al. Dynamic NLP enabled chatbot for rural health care in India
Neerincx et al. Attuning speech-enabled interfaces to user and context for inclusive design: technology, methodology and practice
Liu et al. The interpreter’s aging: A unique story of multilingual cognitive decline?
JP2013109575A (ja) メンタルケア装置、メンタルケア方法及びメンタルケアプログラム
Kaczmarek et al. LEON KACZMAREK'S THEORY OF SPEECH AND ITS SIGNIFICANCE FOR CONTEMPORARY NEUROPSYCHOLOGY.
MacKenzie et al. The philosopher of ambiguity: exploring stories of spirituality of people with aphasia through the lens of Merleau-Ponty
Pande et al. A Comparative Analysis of Real Time Open-Source Speech Recognition Tools for Social Robots
JP2006330060A (ja) 音声合成装置、音声処理装置、およびプログラム
Bhirud et al. Development of Psychiatric COVID-19 CHATBOT Using Deep Learning
Cassidy Good mothers-bad mothers: Grief, morality and gender inequality in care encounters following perinatal death
JP2020144681A (ja) 情報連携システム、情報連携サーバー、音声入出力装置、情報連携方法およびプログラム
Sang et al. Natural Language Processing: An Approach to Aid Emergency Services in COVID-19 Pandemic

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220909

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220930

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221025

R150 Certificate of patent or registration of utility model

Ref document number: 7171000

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150