JP2010094243A - Automatic inquiry system - Google Patents

Automatic inquiry system Download PDF

Info

Publication number
JP2010094243A
JP2010094243A JP2008266852A JP2008266852A JP2010094243A JP 2010094243 A JP2010094243 A JP 2010094243A JP 2008266852 A JP2008266852 A JP 2008266852A JP 2008266852 A JP2008266852 A JP 2008266852A JP 2010094243 A JP2010094243 A JP 2010094243A
Authority
JP
Japan
Prior art keywords
net
answer
information
question
record
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2008266852A
Other languages
Japanese (ja)
Inventor
Ken Shimozuma
憲 下妻
Daisuke Shirono
大輔 城野
Chiharu Kubo
千春 久保
Kazufumi Yoshihara
一文 吉原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KITHIT CO Ltd
Kyushu University NUC
Original Assignee
KITHIT CO Ltd
Kyushu University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KITHIT CO Ltd, Kyushu University NUC filed Critical KITHIT CO Ltd
Priority to JP2008266852A priority Critical patent/JP2010094243A/en
Publication of JP2010094243A publication Critical patent/JP2010094243A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an automatic inquiry system for guiding a patient to give assumed answers when he or she gives unexpected answers. <P>SOLUTION: The automatic inquiry system includes: a microphone; a speaker; a voice recognition means; a voice output means; a question information storage means wherein the question information of a question sentence to a patient in an inquiry interaction scenario is stored; an inquiry result storage means for storing the answer information of a selected answer to the question sentence in relation to the question sentence; a question read means for successively reading, sounding and outputting the question information; an answer discrimination means for discriminating whether the answer information of the patient is the assumed answer or the unexpected answer; a guide information storage means for storing guide information of a guide sentence for guiding the patient to correctly select an answer to the question sentence corresponding to the type of choices of each question sentence; an answer preservation means for preserving the answer information in the inquiry result storage means in the case of the assumed answer; and a guide output means for sounding and outputting the guide information corresponding to the type of the choices of the question sentence in the case of the unexpected answer. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、病院などにおいて受診者の問診を自動で行う自動問診システムに関する。   The present invention relates to an automatic inquiry system that automatically performs an inquiry of a patient in a hospital or the like.

従来の自動問診システムとしては、特許文献1−3に記載のものが公知である。   As a conventional automatic inquiry system, the thing of patent documents 1-3 is publicly known.

特許文献1には、健康管理提供者があらかじめ設定した質問に関する第1のデータ、および前記第1のデータに関連した第2のデータを蓄積するサーバと、通信ネットワークを介し、前記サーバから前記第1のデータを読み出して第1の表示手段に表示するとともに、健康管理対象者が前記第1の表示手段に表示された質問に対して音声または画像で行った回答を音声データまたは画像データに変換し、この変換データを、前記通信ネットワークを介し、前記第2のデータとして前記サーバに転送する第1の端末と、前記通信ネットワークを介し、前記サーバから前記第1および第2のデータを読み出し、少なくとも前記第2のデータである音声データまたは画像データを音声または画像に変換する第2の端末とを備えた健康データ収集装置が記載されている。   In Patent Document 1, a server that stores first data related to a question set in advance by a health care provider and second data related to the first data, and a server that stores the second data related to the first data from the server via the communication network. 1 data is read out and displayed on the first display means, and a reply made by the voice or image to the question displayed on the first display means by the health care subject is converted into voice data or image data. And reading the first and second data from the server via the communication network, a first terminal that transfers the converted data to the server as the second data via the communication network, A health data collecting apparatus comprising: a second terminal that converts at least the audio data or image data as the second data into audio or image It has been described.

上記特許文献1の健康データ収集装置は、問診の際の質問は、第1の端末に備えられた第1の表示手段に表示され、受診者はその質問を読んで、音声又はタッチパネルにより回答するように構成されている。この場合、特に高齢者のように弱視者には質問を目読するのが困難な場合が多いという問題がある。   In the health data collection device of the above-mentioned Patent Document 1, a question at the time of an inquiry is displayed on the first display means provided in the first terminal, and the examinee reads the question and answers by voice or a touch panel. It is configured as follows. In this case, there is a problem that it is often difficult for a low vision person such as an elderly person to read a question.

それに対して、上記特許文献2,3には、医療関係者側に置かれる医療側情報処理装置及び利用者側に置かれる健康管理支援端末がネットワークによってサーバに接続され、前記健康管理支援端末は、音声合成又は音声データに基づいて音声出力を行う音声出力手段を備えることで利用者に予め固定的に記憶している質問及び/又は前記サーバによって追加された質問を与え、利用者から返される情報を取得する情報取得手段にてその回答を取得し、この回答データを前記サーバに自動送信するように構成され、前記サーバは、利用者毎の質問リストを保持し、追加の質問データを前記健康管理支援端末に送信し、回答データを利用者毎に管理して成る利用者健康関連情報を少なくとも蓄積し、前記医療側情報処理装置からの要求に応じて少なくとも前記利用者健康関連情報を当該装置に送信すると共に、前記医療側情報処理装置から入力された利用者毎の追加の質問の受信を行うように構成されたことを特徴とする健康管理支援システムが記載されている。   On the other hand, in Patent Documents 2 and 3, a medical information processing apparatus placed on the medical staff side and a health management support terminal placed on the user side are connected to a server by a network, and the health management support terminal is By providing voice output means for performing voice output based on voice synthesis or voice data, a question stored in advance and / or a question added by the server is given to the user and returned from the user The information is acquired by an information acquisition means for acquiring information, and the response data is automatically transmitted to the server. The server holds a question list for each user, and adds additional question data to the server. At least user health-related information that is transmitted to the health management support terminal and managed by reply data for each user is accumulated, and in response to a request from the medical information processor A health management support configured to transmit at least the user health-related information to the apparatus and to receive an additional question for each user input from the medical information processing apparatus The system is described.

この健康管理支援システムでは、問診の際の質問は音声により行われ、それに対する受診者の回答も音声により行われる。従って、対話形式で問診が行われるため、高齢者のような弱視者にとっても適切な問診を行うことが可能である。   In this health management support system, questions during an inquiry are made by voice, and the answers of the examinees are also made by voice. Therefore, since the interview is performed in an interactive manner, it is possible to perform an appropriate interview for a weakly sighted person such as an elderly person.

図19は、特許文献2に記載の健康管理支援システムの動作を表すフローチャートである。このシステムでは、1日に3〜4問の問診を行い、1週間で一巡することを基本としている。例えば、問診数が23問の場合、1週間の各日の問診数は4,4,3,3,3,3,3というようになる。図19のステップS101〜S105は、1回の問診を行う際の質問の選択等の前処理である。1回の問診を行う際の問診動作は、図19のステップS106〜S116である。   FIG. 19 is a flowchart showing the operation of the health management support system described in Patent Document 2. This system is based on conducting 3-4 questions a day and making a round in a week. For example, when the number of interviews is 23, the number of interviews on each day of the week is 4, 4, 3, 3, 3, 3, 3. Steps S101 to S105 in FIG. 19 are preprocessing such as selection of a question when performing one inquiry. The inquiry operation at the time of one inquiry is steps S106 to S116 in FIG.

まず、ステップS106,107で、質問が読み出され、利用者側の健康管理支援端末(ペット型健康管理支援端末)において問診言葉が発話される。この問診に対する利用者の「はい」「いいえ」による回答の待ち時間は10秒とされる(S109)。10秒経過しても回答のない場合はもう一度発話する。これを3回まで繰り返す(S111)。3回実行しても音声入力のない場合には、その問診に対する回答は「いいえ」とされる(S113)。   First, in steps S106 and 107, a question is read out, and an inquiry word is uttered at a health management support terminal (pet type health management support terminal) on the user side. The waiting time for answering “Yes” or “No” by the user for this inquiry is 10 seconds (S109). If there is no answer after 10 seconds, speak again. This is repeated up to three times (S111). If there is no voice input even after three executions, the answer to that question is “No” (S113).

「はい」の回答があった場合(S110)、健康管理支援端末において、要注意回答に対する報知である「糖尿病の症状かもしれません。サーバに登録してもいいですか」という質問が発話され、これに対する利用者の回答が「はい」ならば「登録可」として処理し(ステップS114における「Yes」)、ステップS115において「サーバ登録可」の情報が格納される。ステップS114で利用者の回答が「いいえ」の場合、ステップS115において「サーバ登録不可」の情報が格納される。
ステップS108−S110において、利用者が問診内容を聞き取れない場合に利用者が「もう一度」という応答をした場合、ステップS107に戻って再度問診内容が発話される。
When the answer is “Yes” (S110), the health care support terminal will announce the question “It may be a symptom of diabetes. If the user's answer to this is “Yes”, it is processed as “Registration is possible” (“Yes” in Step S114), and information of “Server registration is possible” is stored in Step S115. If the answer of the user is “No” in step S114, the information “server registration impossible” is stored in step S115.
In steps S108 to S110, when the user cannot hear the contents of the inquiry, if the user responds “again”, the process returns to step S107 and the contents of the inquiry are again uttered.

再度の発話でも回答のない場合は、「答えが『はい』ならペットに向かって『はい』を、答えが『いいえ』ならペットに向かって『いいえ』と言ってください。」というガイドを流す。それでも回答が得られない場合は、「問診を中止しますか。」と発話して「はい」の回答が得られると(ステップS110で「中止」)、問診タスクを終了する。答えが「いいえ」なら再度同じ問診項目を発話する。   If there is no answer even if the utterance is repeated, please say “Yes” to the pet if the answer is “Yes”, and “No” to the pet if the answer is “No”. If the answer is still not obtained, utter “Do you want to stop the interview?” And if the answer is “Yes” (“Cancel” in step S110), the interview task is terminated. If the answer is “No”, the same question item is spoken again.

そして、当日分の問診予定を終了したかどうかを判断し(S116)、終了したなら問診タスクを終了し、終了していないならステップS106へ戻る。
特開2008−18136号公報 特開2003−122846号公報 特開2003−122847号公報
Then, it is determined whether or not the inquiry schedule for the day has been completed (S116). If completed, the inquiry task is terminated, and if not completed, the process returns to step S106.
JP 2008-18136 A JP 2003-122846 A JP 2003-122847 A

しかしながら、上記特許文献2の問診システムでは、ステップS107−S110の対話処理において、利用者が「はい」「いいえ」「もう一度」のような規定された応答をしてくれることを前提としているため、利用者が想定外の応答をした場合の処理が考慮されていない。従って、利用者が想定外の応答の場合、ステップS109で応答なしと判定されるため、同じ問診内容の問診発話が3回繰り返された後に、回答を「いいえ」とみなされて(S113)、その質問は終了することになる。   However, in the interrogation system of Patent Document 2, it is assumed that the user gives a prescribed response such as “Yes”, “No”, or “Once again” in the dialog processing of Steps S107 to S110. Processing when the user makes an unexpected response is not considered. Therefore, if the user has an unexpected response, it is determined that there is no response in step S109. Therefore, after the interview utterance of the same interview content is repeated three times, the answer is regarded as “no” (S113). That question will end.

利用者が、このようなシステムの動作を理解していない場合、利用者が想定外の応答を繰り返すことになり、結局、正確な問診結果を得ることができないという問題がある。特に、高齢者のように複雑なシステムの使用を不得意とする利用者の場合に、このような事態が生じることが予想される。   If the user does not understand the operation of such a system, the user repeats an unexpected response, and eventually there is a problem that an accurate inquiry result cannot be obtained. In particular, such a situation is expected to occur in the case of a user who is not good at using a complicated system such as an elderly person.

そこで、本発明の目的は、問診に対して利用者が想定される回答以外の回答をする場合には、利用者が想定回答をするように誘導することの可能な自動問診システムを提供することにある。   Accordingly, an object of the present invention is to provide an automatic inquiry system that can guide a user to make an assumed answer when an answer is made other than an expected answer to an inquiry. It is in.

本発明に係る自動問診システムの第1の構成は、受診者に対する問診を自動で行う自動問診システムであって、受診者が音声を入力するマイクと、受診者に対して音声を出力するスピーカと、受診者が前記マイクから入力する音声を文字データに変換し出力する音声認識手段と、文字データを音声に変換して前記スピーカから出力する音声出力手段と、問診における自動問診システムと受診者との対話の進行内容である問診対話シナリオにおける自動問診システムから受診者に対する質問文であって複数の選択肢による回答を求める質問文の情報である質問情報が記憶された質問情報記憶手段と、前記質問文に対して受診者が選択する選択回答の情報である回答情報を、前記質問文と関連づけて記憶する問診結果記憶手段と、前記質問情報記憶手段に記憶された前記質問情報を順次読み出し、前記音声出力手段により前記スピーカから前記質問文を発話出力する質問読出手段と、前記質問読出手段が前記質問文を発話出力した直後に、受診者が前記マイクから入力し前記音声認識手段により文字情報に変換された回答情報を、直前の前記質問文に対して想定される選択肢を選択する想定回答か、それ以外の想定外回答かを判別する回答判別手段と、前記各質問文の選択肢の種別に応じて、当該質問文に対する正しい選択回答を行うように誘導するためのガイド文の情報であるガイド情報を記憶するガイド情報記憶手段と、前記回答判別手段により前記回答情報が前記想定回答であると判別された場合、当該回答情報を、前記問診結果記憶手段に前記質問文と関連づけて保存する回答保存手段と、前記回答判別手段により前記回答情報が前記想定外回答であると判別された場合、前記質問文の選択肢の種別に応じて、前記ガイド情報記憶手段に記憶されたガイド情報を読み出し、当該ガイド情報を前記音声出力手段により前記スピーカから発話出力するガイド出力手段と、を備えたことを特徴とする。   A first configuration of an automatic inquiry system according to the present invention is an automatic inquiry system that automatically performs an inquiry to a medical examinee, and a microphone that inputs voice to the medical examinee, and a speaker that outputs audio to the medical examinee, Voice recognition means for converting the voice inputted by the examiner from the microphone into character data and outputting; voice output means for converting the character data to voice and outputting from the speaker; an automatic inquiry system in the interview; Question information storage means for storing question information, which is a question sentence for an examinee from an automatic inquiry system in an inquiry dialogue scenario, which is a progress of the dialogue, and which is a question sentence requesting an answer by a plurality of options, and the question An inquiry result storage means for storing answer information, which is information of a selected answer selected by the examinee for the sentence, in association with the question sentence; and the question information storage The question information stored in the means is sequentially read out, the question reading means for outputting the question sentence from the speaker by the voice output means, and immediately after the question reading means outputs the question sentence, the examinee Answer that discriminates whether answer information input from the microphone and converted into character information by the voice recognition means is an assumed answer for selecting an option assumed for the immediately preceding question sentence, or other unexpected answer Determining means; guide information storage means for storing guide information which is guide sentence information for guiding to make a correct selection answer to the question sentence according to the type of each question sentence choice; and the answer When the determination means determines that the answer information is the assumed answer, the answer stores the answer information in association with the question sentence in the inquiry result storage means When the answer information is determined to be the unexpected answer by the existing means and the answer determination means, the guide information stored in the guide information storage means is read according to the type of option of the question sentence, And a guide output means for outputting the guide information from the speaker by the voice output means.

この構成により、質問文に対して受診者が想定外の応答をした場合、ガイド出力手段が、質問文に対する正しい選択回答を行うように誘導するためのガイド文を読み上げて、再度の応答を促す。従って、複雑なシステムの使用を不得意とする受診者であっても、対話により問診に対する規定された回答を選択するように誘導することが可能となり、問診結果の精度を高めることが可能となる。   With this configuration, when the examinee responds to the question text unexpectedly, the guide output means reads out the guide text for guiding the correct selection answer to the question text, and prompts the response again. . Therefore, even a patient who is not good at using a complicated system can be guided to select a prescribed answer to the interview through dialogue, and the accuracy of the interview result can be improved. .

ここで、「受診者に対する質問文」とは、問診票の各設問のことをいう。「複数の選択肢による回答を求める質問文」とは、「はい」「いいえ」や「希望する」「希望しない」のような複数の選択肢を選択する回答を求める質問文をいう。尚、選択肢は2つに限定されず、「あてはまる」「あてはまらない」「どちらでもない」のように、3つ以上の選択肢であってもよい。   Here, the “question text for the examinee” means each question on the questionnaire. The “question text that asks for an answer with a plurality of options” refers to a question text that asks for an answer that selects a plurality of options such as “yes”, “no”, “desired”, and “not desired”. The number of options is not limited to two, and may be three or more options such as “applicable”, “not applicable”, and “neither”.

また、本発明に係る自動問診システムの第2の構成は、前記第1の構成において、前記回答判別手段は、前記音声出力手段が前記質問情報を発話出力した直後に、受診者が前記マイクから入力し前記音声認識手段により文字情報に変換された回答情報を、直前の前記質問情報に対して規定される選択肢を選択する想定回答か、割込制御指示か、それ以外の想定外回答かを判別するものであり、前記回答判別手段により前記回答情報が前記割込制御指示であると判別された場合、その割込制御指示により指定される割り込み動作を実行する割込制御手段を備えたことを特徴とする。   In addition, in a second configuration of the automatic inquiry system according to the present invention, in the first configuration, the answer determination unit is configured so that the examinee is connected to the microphone immediately after the voice output unit utters and outputs the question information. Whether the answer information input and converted into character information by the voice recognition means is an assumed answer for selecting an option specified for the immediately preceding question information, an interrupt control instruction, or any other unexpected answer And an interrupt control means for executing an interrupt operation specified by the interrupt control instruction when the answer determination means determines that the answer information is the interrupt control instruction. It is characterized by.

ここで、「割込制御指示」とは、「もう一度」のように再度の質問の発話を促す指示、「中止」のように問診を中断する指示、「最初から」のように問診を最初からやり直す指示のように、問診における質問・応答のループの流れを変更又は中断させる指示をいう。受診者により割込制御指示が入力された場合には、割込制御手段は、割込制御指示により指定される割り込み動作を実行する。これにより、受診者の意志に応じて、問診の繰り返しや中断を行うことが可能となる。   Here, the “interrupt control instruction” means an instruction for prompting the utterance of a question again such as “again”, an instruction for interrupting the interview such as “stop”, and an inquiry from the beginning such as “from the beginning” This is an instruction to change or interrupt the flow of the question / response loop in the interview, such as an instruction to redo. When an interrupt control instruction is input by the examinee, the interrupt control means executes an interrupt operation specified by the interrupt control instruction. Thereby, it is possible to repeat or interrupt the inquiry according to the will of the examinee.

本発明に係る自動問診システムの第3の構成は、受診者に対する問診を自動で行う自動問診システムであって、
受診者が音声を入力するマイクと、
受診者に対して音声を出力するスピーカと、
受診者が前記マイクから入力する音声を文字データに変換し出力する音声認識手段と、
文字データを音声に変換して前記スピーカから出力する音声出力手段と、
問診における自動問診システムと受診者との対話の進行内容である問診対話シナリオにおけるシステム側のそれぞれの情報処理単位を処理項目といい、前記問診対話シナリオに沿った対話プロセスの進行に伴う各処理項目間の遷移関係をネットというとき、
前記各処理項目のそれぞれに対してレコードが割り当てられ、前記各レコードには、当該処理項目へ遷移する側の入力ネットを特定する入力ネット情報及び当該処理項目から遷移する側の出力ネットを特定する出力ネット情報並びに当該処理項目に対し必要に応じて設定される発話内容又は受話キーワードを記述するコーパスが格納された処理項目テーブルを記憶する処理項目テーブル記憶手段と、
前記各ネットのそれぞれに対してレコードが割り当てられ、前記各レコードには、当該ネットのネットID、及び当該ネットの活性状態を表すネット状態フラグが格納されたネット状態テーブルを記憶するネット状態テーブル記憶手段と、
問診結果を記憶する問診結果記憶手段と、
を備え、
前記処理項目テーブルは、少なくとも、
前記コーパスとして、前記問診対話シナリオを開始するための開始キーワードが格納され、前記出力ネット情報として、前記問診対話シナリオにおける最初の質問文又はガイド文の発話処理を行う処理項目へ遷移するネットのネットIDが記憶された開始情報レコード群と、
前記コーパスとして、受診者に対する質問文であって複数の選択肢による回答を求める質問文が格納され、前記入力ネット情報として、前記問診対話シナリオにおいて当該質問文への遷移元の処理項目に接続するネットのネットIDが格納され、前記出力ネット情報として、前記問診対話シナリオにおいて当該質問文に対する受診者の回答を判定する処理項目に接続するネットのネットIDが格納された質問情報レコード群と、
前記入力ネット情報として、何れかの前記質問文の処理項目に接続する前記入力ネットのネットIDが記憶され、前記コーパスとして、前記質問文に対して受診者が選択する選択回答のキーワードである回答キーワードが複数格納され、前記出力ネット情報として、それらの前記回答キーワードに応じて選択される前記出力ネットのネットID及び想定外回答に対して選択される前記出力ネットのネットIDが記憶された回答情報レコード群と、
前記コーパスとして、それぞれの前記質問文に対応して当該質問文に対する正しい選択回答を行うように誘導するガイド文及びその他のガイド文が記憶され、前記入力ネット情報として、前記問診対話シナリオにおいて当該ガイド文への遷移元の処理項目に接続するネットのネットIDが格納され、前記出力ネット情報として、前記問診対話シナリオにおいて当該ガイド文からの遷移先の処理項目に接続するネットのネットIDが格納されたガイド情報レコード群と、
を含み、
前記音声認識手段から前記文字データが入力された場合に、前記開始情報レコード群の各レコードのうち前記文字データに一致又は含まれるコーパスを検索し、検索により抽出されるレコードの前記出力ネットの前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得された前記ネットIDに対応するネット状態フラグを活性化するシナリオ開始手段と、
前記質問情報レコード群の全レコードを順次選択し、選択したレコードの前記入力ネットに対応する前記ネット状態テーブルの前記ネット状態フラグが活性状態であれば、当該選択したレコードの前記質問文を前記音声出力手段により出力するとともに、前記ネット状態テーブルの当該選択したレコードの前記入力ネットに対応する前記ネット状態フラグを非活性化、当該選択したレコードの前記出力ネットの前記ネット状態フラグを活性化する質問文出力手段と、
前記音声認識手段から前記文字データが入力された場合に、前記回答情報レコード群の各レコードのうち前記入力ネットに対する前記ネット状態テーブルの前記ネット状態フラグが活性状態にあるレコードを検索し、検索の結果レコードが抽出された場合、そのレコードの何れかの前記回答キーワードが前記文字データに一致又は含まれるか否かを判定し、前記文字データに一致又は含まれる前記回答キーワードがある場合には、その回答キーワードに対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化し、前記入力ネットに対する前記ネット状態フラグを非活性化するとともに、当該回答キーワードの選択結果を前記問診結果記憶手段に格納する一方、前記文字データに一致又は含まれる前記回答キーワードがない場合には、想定外回答に対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化するとともに、前記入力ネットに対する前記ネット状態フラグを非活性化する回答判別手段と、
前記ガイド情報レコード群の全レコードを順次選択し、選択したレコードの前記入力ネットに対応する前記ネット状態テーブルの前記ネット状態フラグが活性状態であれば、当該選択したレコードの前記ガイド文を前記音声出力手段により出力するとともに、前記ネット状態テーブルの当該選択したレコードの前記入力ネットに対応する前記ネット状態フラグを非活性化、当該選択したレコードの前記出力ネットの前記ネット状態フラグを活性化するガイド文出力手段と、を備えたことを特徴とする。
A third configuration of the automatic inquiry system according to the present invention is an automatic inquiry system that automatically performs an inquiry for a patient,
A microphone for the examinee to input voice,
A speaker that outputs sound to the examinee;
A voice recognition means for converting the voice inputted by the examinee from the microphone into character data and outputting it;
Voice output means for converting character data into voice and outputting from the speaker;
Each information processing unit on the system side in the interview dialogue scenario, which is the progress of the dialogue between the automatic interview system and the examinee in the interview, is called a processing item, and each processing item that accompanies the progress of the dialog process according to the interview dialog scenario When the transition relationship between them is called a net,
A record is assigned to each of the processing items, and each record specifies input net information for specifying an input net on the transition side to the processing item and an output net on the side of transition from the processing item. A processing item table storage means for storing a processing item table storing a corpus that describes output net information and utterance contents or receiving keywords set as necessary for the processing item;
A record is assigned to each of the nets, and each record has a net state table storage for storing a net state table in which the net ID of the net and a net state flag indicating the active state of the net are stored. Means,
An interrogation result storage means for memorizing interrogation results;
With
The processing item table is at least:
As the corpus, a start keyword for starting the interview dialogue scenario is stored, and as the output net information, a net of a net that transitions to a processing item that performs an utterance process of the first question sentence or guide sentence in the interview dialogue scenario A start information record group in which an ID is stored;
As the corpus, a question sentence that is a question sentence for the examinee and that asks for answers by a plurality of options is stored, and the input net information is a network that is connected to a processing item that is a transition source to the question sentence in the inquiry dialogue scenario. A group of question information records in which the net ID of the net connected to the processing item for determining the answer of the examinee to the question sentence in the inquiry dialogue scenario is stored as the output net information;
As the input net information, a net ID of the input net connected to any of the question sentence processing items is stored, and as the corpus, an answer that is a keyword of a selected answer selected by the examinee for the question sentence A plurality of keywords are stored and, as the output net information, a net ID of the output net selected according to the answer keyword and a net ID of the output net selected for an unexpected answer are stored Information records,
As the corpus, a guide sentence and other guide sentences for guiding a correct selection answer to the question sentence corresponding to each question sentence and other guide sentences are stored, and the guide information in the inquiry dialogue scenario is used as the input net information. The net ID of the net connected to the process item that is the transition source to the sentence is stored, and the net ID of the net that is connected to the process item that is the transition destination from the guide sentence in the inquiry dialogue scenario is stored as the output net information. Guide information record group,
Including
When the character data is input from the voice recognition unit, the corpus that matches or is included in the character data among the records of the start information record group is searched, and the output net of the record extracted by the search Scenario start means for obtaining a net ID and activating a net state flag corresponding to the net ID obtained in the net state table storage means;
If all the records of the question information record group are sequentially selected and the net status flag of the net status table corresponding to the input net of the selected record is active, the question text of the selected record is A question that is output by the output means, deactivates the net status flag corresponding to the input net of the selected record of the net status table, and activates the net status flag of the output net of the selected record Sentence output means;
When the character data is input from the voice recognition means, the record of the net status flag of the net status table for the input net is searched for among the records of the answer information record group, and the search When a result record is extracted, it is determined whether any one of the answer keywords of the record matches or is included in the character data. If there is the answer keyword that matches or is included in the character data, The net ID for the answer keyword is acquired, the net status flag corresponding to the net ID acquired in the net status table storage means is activated, the net status flag for the input net is deactivated, and the answer While storing keyword selection results in the inquiry result storage means, If there is no answer keyword that matches or is included in the written data, the net ID for the unexpected answer is acquired, and the net status flag corresponding to the net ID acquired in the net status table storage means is activated. And answer determination means for deactivating the net status flag for the input net;
If all the records of the guide information record group are sequentially selected and the net status flag of the net status table corresponding to the input net of the selected record is active, the guide sentence of the selected record is converted to the voice. A guide for outputting by the output means, deactivating the net status flag corresponding to the input net of the selected record of the net status table, and activating the net status flag of the output net of the selected record And a sentence output means.

また、本発明に係る自動問診システムの第4の構成は、前記第3の構成において、前記回答情報レコード群には、前記入力ネット情報として、何れかの前記質問文の処理項目に接続する前記入力ネットのネットIDが記憶され、前記コーパスとして、複数の前記回答キーワード及び割込制御を指示するための割込制御キーワードが格納され、前記出力ネット情報として、それらの前記回答キーワード及び前記割込制御キーワードに応じて選択される前記出力ネットのネットID及び想定外回答に対して選択される前記出力ネットのネットIDが記憶されており、
前記回答判別手段は、前記音声認識手段から前記文字データが入力された場合に、前記回答情報レコード群の各レコードのうち前記入力ネットに対する前記ネット状態テーブルの前記ネット状態フラグが活性状態にあるレコードを検索し、検索の結果レコードが抽出された場合、そのレコードの何れかの前記回答キーワードが前記文字データに一致又は含まれるか否かを判定し、
前記文字データに一致又は含まれる前記回答キーワードがある場合には、その回答キーワード又はその割込制御キーワードに対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化し、前記入力ネットに対する前記ネット状態フラグを非活性化するとともに、当該回答キーワードの選択結果を前記問診結果記憶手段に格納し、
前記文字データに一致又は含まれる前記割込制御キーワードがある場合には、その割込制御キーワードに対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化するとともに、前記入力ネットに対する前記ネット状態フラグを非活性化し、
前記文字データに一致又は含まれる前記回答キーワードがない場合には、想定外回答に対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化するとともに、前記入力ネットに対する前記ネット状態フラグを非活性化する
ことを特徴とする。
In addition, in the fourth configuration of the automatic inquiry system according to the present invention, in the third configuration, the answer information record group is connected to any one of the question sentence processing items as the input net information. A net ID of an input net is stored, a plurality of the answer keywords and an interrupt control keyword for instructing interrupt control are stored as the corpus, and the answer keyword and the interrupt are output as the output net information. The net ID of the output net selected according to the control keyword and the net ID of the output net selected for the unexpected answer are stored,
The answer discriminating means is a record in which the net status flag of the net status table for the input net is active in each record of the answer information record group when the character data is inputted from the voice recognition means. When a search result record is extracted, it is determined whether or not any of the answer keywords in the record matches or is included in the character data,
If there is an answer keyword that matches or is included in the character data, the net ID corresponding to the answer keyword or the interrupt control keyword is obtained, and the net corresponding to the net ID obtained in the net state table storage means Activate the status flag, deactivate the net status flag for the input net, and store the selection result of the answer keyword in the inquiry result storage means,
If there is the interrupt control keyword that matches or is included in the character data, the net ID for the interrupt control keyword is acquired, and the net status flag corresponding to the net ID acquired in the net status table storage means And deactivating the net status flag for the input net,
If there is no answer keyword that matches or is included in the character data, the net ID for the unexpected answer is acquired, and the net state flag corresponding to the net ID acquired in the net state table storage means is activated. In addition, the net status flag for the input net is deactivated.

以上のように、本発明によれば、問診の質問文に対して受診者が想定外の応答をした場合に、ガイド出力手段が、質問文に対する正しい選択回答を行うように誘導するためのガイド文を読み上げ、再度の応答を促すことで、対話により問診に対する規定された回答を選択するように誘導することが可能となる。従って、高齢者のように複雑なシステムの使用を不得意とする受診者に対しても、精度の高い問診結果を得ることが可能となる。   As described above, according to the present invention, when the examinee makes an unexpected response to the question text, the guide output means guides the user to make a correct selection answer to the question text. By reading out the sentence and prompting a response again, it is possible to guide the user to select a prescribed answer to the interview through dialogue. Therefore, it is possible to obtain a highly accurate inquiry result even for a patient who is not good at using a complicated system such as an elderly person.

以下、本発明を実施するための最良の形態について、図面を参照しながら説明する。   The best mode for carrying out the present invention will be described below with reference to the drawings.

図1は、本発明の実施例1に係る自動問診システムの構成を表す図である。自動問診システム1は、管理サーバ2、診断者側コンピュータ3、及び受診者側端末装置4がネットワーク5により通信可能に接続された構成からなる。診断者側コンピュータ3は、問診を行う各医師が、問診結果の閲覧や出力に使用するコンピュータである。受診者側端末装置4は、問診を受ける受診者が、問診の際に使用する端末である。受診者側端末装置4は、通常のパーソナルコンピュータ以外に、図1に示したような専用の装置を使用することもできる。尚、図1では、診断者側コンピュータ3及び受診者側端末装置4はそれぞれ1台ずつ記載しているが、これらは複数台あってもよい。   FIG. 1 is a diagram illustrating a configuration of an automatic inquiry system according to Embodiment 1 of the present invention. The automatic inquiry system 1 has a configuration in which a management server 2, a diagnostician side computer 3, and a examinee side terminal device 4 are connected to be communicable via a network 5. The diagnostician computer 3 is a computer used by each doctor who conducts an inquiry to view and output the inquiry results. The examinee side terminal device 4 is a terminal used by the examinee who receives the inquiry at the time of the inquiry. The examinee side terminal device 4 can also use a dedicated device as shown in FIG. 1 in addition to a normal personal computer. In FIG. 1, one each of the diagnoser-side computer 3 and the examinee-side terminal device 4 are illustrated, but there may be a plurality of these.

受診者側端末装置4は、スピーカ6、マイク7、及びタッチパネル8を備えている。スピーカ6及びマイク7は、受診者に対する対話を行うためのものである。タッチパネル8は、受診者に対するメッセージを表示するとともに、受診者からの入力を受け付けるために設けられている。   The examinee side terminal device 4 includes a speaker 6, a microphone 7, and a touch panel 8. The speaker 6 and the microphone 7 are used for dialogue with the examinee. The touch panel 8 is provided for displaying a message for the examinee and receiving an input from the examinee.

図2は、図1の自動問診システム1の機能的な構成を表す図である。図2において、管理サーバ2、診断者側コンピュータ3、受診者側端末装置4、ネットワーク5、スピーカ6、マイク7、及びタッチパネル8は、それぞれ図1の同符号のものに対応している。   FIG. 2 is a diagram illustrating a functional configuration of the automatic inquiry system 1 of FIG. In FIG. 2, the management server 2, the examiner side computer 3, the examinee side terminal device 4, the network 5, the speaker 6, the microphone 7, and the touch panel 8 correspond to the same reference numerals in FIG.

図2において、管理サーバ2は、質問情報記憶部11、問診結果記憶部12、及び通信インタフェース(通信I/F)13を備えている。質問情報記憶部11及び問診結果記憶部12は、管理サーバ2に内蔵された記憶装置により実現される。   In FIG. 2, the management server 2 includes a question information storage unit 11, an inquiry result storage unit 12, and a communication interface (communication I / F) 13. The question information storage unit 11 and the inquiry result storage unit 12 are realized by a storage device built in the management server 2.

質問情報記憶部11には、受診者に対する問診の質問文であって複数の選択肢による回答を求める質問文の情報である質問情報が記憶されている。問診結果記憶部12には、問診票の質問文に対して受診者が選択する選択回答の情報である回答情報が、質問文と関連づけて記憶されている。通信I/F13は、管理サーバ2がネットワークを介して診断者側コンピュータ3や受診者側端末装置4と通信を行うための通信インタフェースである。   The question information storage unit 11 stores question information that is a question text for a question to the examinee and information on a question text that asks for answers by a plurality of options. The inquiry result storage unit 12 stores answer information, which is information of a selected answer selected by the examinee with respect to the question sentence of the questionnaire, in association with the question sentence. The communication I / F 13 is a communication interface for the management server 2 to communicate with the diagnostician side computer 3 and the examinee side terminal device 4 via the network.

診断者側コンピュータ3は、診断者が問診結果を参照するためのコンピュータである。   The diagnostician side computer 3 is a computer for the diagnostician to refer to the inquiry result.

受診者側端末装置4は、スピーカ6、マイク7、タッチパネル8、音声出力部14、音声認識部15、質問群選択部16、質問読出部17、回答判別部18、回答保存部19、割込制御部20、ガイド情報記憶部21、ガイド出力部22、及び通信インタフェース23を備えている。   The examinee side terminal device 4 includes a speaker 6, a microphone 7, a touch panel 8, a voice output unit 14, a voice recognition unit 15, a question group selection unit 16, a question reading unit 17, an answer determination unit 18, an answer storage unit 19, and an interrupt. A control unit 20, a guide information storage unit 21, a guide output unit 22, and a communication interface 23 are provided.

音声出力部14は、文字データを音声に変換してスピーカ6から出力する。音声認識部15は、受診者がマイク7から入力する音声を文字データに変換し出力する。質問群選択部16は、受診者の指示に従って、問診における自動問診システムと受診者との対話の進行内容である問診対話シナリオを選択する。質問読出部17は、ネットワーク5を介して、質問情報記憶部11に記憶された質問情報を順次読み出し、音声出力部14によりスピーカ6から質問文を発話出力する。回答判別部18は、質問文読出部17が質問文を発話出力した直後に、受診者がマイク7から入力し音声認識部15により文字情報に変換された回答情報を、直前の質問文に対して想定される選択肢を選択する想定回答か、割込制御指示か、それ以外の想定外回答かを判別する。ここで、「想定回答」とは、質問文に対して想定された選択回答のことをいう。回答保存部19は、回答判別部18により回答情報が想定回答であると判別された場合、当該回答情報を、問診結果記憶部12に質問文と関連づけて保存する。割込制御部20は、回答判別部18により回答情報が割込制御指示であると判別された場合、その割込制御指示により指定される割り込み動作を実行する。   The voice output unit 14 converts the character data into voice and outputs it from the speaker 6. The voice recognition unit 15 converts voice input from the microphone 7 by the examinee into character data and outputs the text data. The question group selection unit 16 selects an inquiry dialogue scenario, which is the progress of dialogue between the automatic inquiry system and the examinee, in accordance with the instruction of the examinee. The question reading unit 17 sequentially reads the question information stored in the question information storage unit 11 via the network 5, and the voice output unit 14 utters and outputs the question sentence from the speaker 6. Immediately after the question text reading unit 17 utters and outputs the question text, the answer discriminating unit 18 inputs the answer information input from the microphone 7 and converted into character information by the voice recognition unit 15 to the previous question text. It is discriminated whether it is an assumed answer for selecting an assumed option, an interrupt control instruction, or any other unexpected answer. Here, the “assumed answer” means a selected answer assumed for the question sentence. When the answer determining unit 18 determines that the answer information is an assumed answer, the answer storing unit 19 stores the answer information in the inquiry result storage unit 12 in association with the question text. When the answer determination unit 18 determines that the answer information is an interrupt control instruction, the interrupt control unit 20 executes an interrupt operation specified by the interrupt control instruction.

ガイド情報記憶部21は、各質問文の選択肢の種別に応じて、当該質問文に対する正しい選択回答を行うように誘導するためのガイド文の情報であるガイド情報を記憶する。ガイド出力部22は、回答判別部18により回答情報が想定外回答であると判別された場合、質問文の選択肢の種別に応じて、ガイド情報記憶部21に記憶されたガイド情報を読み出し、当該ガイド情報を音声出力部14によりスピーカ6から発話出力する。   The guide information storage unit 21 stores guide information that is guide sentence information for guiding the user to make a correct selection answer to the question sentence according to the type of option of each question sentence. When the answer determination unit 18 determines that the answer information is an unexpected answer, the guide output unit 22 reads the guide information stored in the guide information storage unit 21 according to the type of question sentence option, The guide information is output from the speaker 6 by the voice output unit 14.

通信インタフェース23は、受診者側端末装置4がネットワークを介して診断者側コンピュータ3や管理サーバ2と通信を行うための通信インタフェースである。   The communication interface 23 is a communication interface for the examinee side terminal device 4 to communicate with the diagnoser side computer 3 and the management server 2 via the network.

図3は、質問情報記憶部11に保存されている質問情報レコード群のデータ構造を表す図である。質問情報レコード群は、「質問ID」フィールド、「質問群」フィールド、「質問文」フィールド、「想定回答1」フィールド、「想定回答2」フィールド、「想定回答3」フィールドの6つのフィールドを有する。尚、図3の例では、想定回答が最大3つの場合を示しているが、想定回答が4つ以上の場合には、「想定回答4」フィールド、「想定回答5」フィールド、…のように増やしてゆけばよい。   FIG. 3 is a diagram illustrating a data structure of a question information record group stored in the question information storage unit 11. The question information record group has six fields: a “question ID” field, a “question group” field, a “question sentence” field, an “assumed answer 1” field, an “assumed answer 2” field, and an “assumed answer 3” field. . The example in FIG. 3 shows a case where there are a maximum of three assumed answers, but when there are four or more assumed answers, the “assumed answer 4” field, the “assumed answer 5” field,... Just increase it.

「質問ID」フィールドは、質問文に固有のIDが格納されるフィールドである。「質問群」フィールドは、その質問文が属する質問群を特定する情報が格納されるフィールドである。「質問群」とは、1つの問診票に含まれる質問の集合をいい、例えば、「ストレスチェック問診票」であれば「ストレスチェック」質問群、「健康調査票」であれば「健康調査票」質問群といったように、問診票に一対一に対応する。「質問文」フィールドには、音声出力又は画面出力するための質問文が格納される。「想定回答n」フィールド(n=1,2,…)には、質問文に対する想定回答が1つずつ格納される。   The “question ID” field is a field in which an ID unique to the question sentence is stored. The “question group” field is a field in which information for identifying a question group to which the question sentence belongs is stored. “Question group” means a set of questions included in one questionnaire. For example, a “stress check questionnaire” is a “stress check” question group, and a “health questionnaire” is a “health questionnaire”. “One-to-one correspondence with the questionnaire, such as a group of questions”. The “question text” field stores a question text for voice output or screen output. In the “assumed answer n” field (n = 1, 2,...), Assumed answers to the question sentence are stored one by one.

図4は、問診結果記憶部12に記憶された問診結果テーブル及び受診者テーブルのデータ構造と他のテーブルとの関係を表す図である。図4(a)は、問診結果テーブルの構造を示し、図4(b)は受診者テーブルの構造を示す。図4(c)は、問診結果テーブルと受診者テーブル及び質問情報レコード群とのリレーションを示す。   FIG. 4 is a diagram illustrating the relationship between the data structure of the inquiry result table and the examinee table stored in the inquiry result storage unit 12 and other tables. FIG. 4A shows the structure of the inquiry result table, and FIG. 4B shows the structure of the examinee table. FIG. 4C shows a relationship between the inquiry result table, the examinee table, and the question information record group.

受診者テーブルは、「受診者ID」、「氏名」、「氏名カナ」の3つのフィールドを有する。「受診者ID」フィールドには、受診者に個別に割り当てられた受診者IDが格納される。「氏名」フィールドには、各受診者の氏名が格納される。また、「氏名カナ」フィールドには、各受診者の氏名のフリガナが格納される。   The examinee table has three fields of “examinee ID”, “name”, and “name kana”. In the “checker ID” field, a checker ID assigned to each checker is stored. In the “name” field, the name of each examinee is stored. In the “Name Kana” field, the reading of the name of each examinee is stored.

また、問診結果テーブルは、「問診結果ID」、「受診者ID」、「質問ID」、「回答番号」の4つのフィールドを有する。「問診結果ID」フィールドには、各問診結果に固有に割りふられるID(問診結果ID)が格納される。「受診者ID」フィールドには、問診を行った受診者の受診者IDが格納される。「質問ID」フィールドには、問診を行った質問文の質問IDが格納される。「回答番号」フィールドには、その質問文に対して受診者が回答した選択回答の番号(回答番号)が格納される。この場合、回答番号は、質問情報レコード群の「想定回答1」を選択した場合には回答番号は「1」、「想定回答2」を選択した場合には回答番号は「2」、…のように割り振られる。   The inquiry result table has four fields of “inquiry result ID”, “examinee ID”, “question ID”, and “answer number”. In the “interview result ID” field, an ID (interview result ID) uniquely assigned to each interview result is stored. The “checker ID” field stores the checker ID of the checker who has made the inquiry. The “question ID” field stores the question ID of the question sentence for which the inquiry was made. In the “answer number” field, the number (answer number) of the selected answer answered by the examinee with respect to the question sentence is stored. In this case, the answer number is “1” when “assumed answer 1” of the question information record group is selected, the answer number is “2” when “assumed answer 2” is selected, and so on. Are allocated as follows.

問診結果テーブルと受診者テーブル及び質問情報レコード群とのリレーションは図4(c)に示した通りである。受診者テーブルの「受診者ID」と問診結果テーブルの「受診者ID」とは1対多の関係にある。質問情報レコード群の「質問ID」と問診結果テーブルの「質問ID」とは1対多の関係にある。   The relationship between the inquiry result table, the examinee table, and the question information record group is as shown in FIG. There is a one-to-many relationship between the “examinee ID” in the examinee table and the “examinee ID” in the inquiry result table. The “question ID” in the question information record group and the “question ID” in the inquiry result table have a one-to-many relationship.

以上のように構成された本実施例の自動問診システムについて、以下その動作を説明する。   About the automatic inquiry system of a present Example comprised as mentioned above, the operation | movement is demonstrated below.

図5は、本発明の実施例1に係る自動問診システム1の動作を表すフローチャートである。   FIG. 5 is a flowchart showing the operation of the automatic inquiry system 1 according to the first embodiment of the present invention.

まず、受診者側端末装置4は、タッチパネル8の画面上に、図6に示したような名前及び受診者IDの入力画面を表示する。受診者は、受診者側端末装置4において、タッチパネル8から名前と受診者IDを入力する(S1)。受診者側端末装置4は、入力された名前及び受診者IDを、管理サーバ2に送信する。尚、受診者IDについては必須ではない。   First, the examinee side terminal device 4 displays the name and examinee ID input screen as shown in FIG. 6 on the screen of the touch panel 8. The examinee inputs the name and the examinee ID from the touch panel 8 in the examinee side terminal device 4 (S1). The examinee side terminal device 4 transmits the input name and examinee ID to the management server 2. The patient ID is not essential.

管理サーバ2は、名前及び受診者IDに基づいて、受診者を特定し、その受診者に対して行う問診の問診対話シナリオの種類(例えば、「ストレスチェック」、「健康調査票」、「HAD尺度」、「TAS−20」等)を受診者側端末装置4に送信する。受診者側端末装置4の質問群選択部16は、タッチパネル8の画面上に、図7に示したような問診票の選択画面を表示する。受診者は、この選択画面から、問診を受ける問診票(質問群)を選択する(S2)。問診票が選択されると、受診者側端末装置4は次のステップS3の動作に移る。ここで、問診票が選択されるまで待つか、または「名前の入力に戻る」が選択された場合、受診者側端末装置4は問診票の選択画面を閉じて、ステップS1に戻る。   The management server 2 identifies the examinee based on the name and the examinee ID, and types of interview dialogue scenarios of the interview conducted for the examinee (for example, “stress check”, “health questionnaire”, “HAD” The scale ”,“ TAS-20 ”, etc.) are transmitted to the terminal device 4 on the examinee side. The question group selection unit 16 of the examinee-side terminal device 4 displays an inquiry form selection screen as shown in FIG. 7 on the screen of the touch panel 8. The examinee selects an inquiry form (question group) to receive an inquiry from this selection screen (S2). When the questionnaire is selected, the examinee side terminal device 4 proceeds to the operation of the next step S3. Here, it waits until an inquiry form is selected, or when “return to name input” is selected, the terminal unit 4 on the examinee side closes the selection screen of the inquiry form and returns to step S1.

選択された問診票(質問群)の特定情報を受信すると、受診者側端末装置4のガイド出力部22は、まず、問診の進め方を説明するガイド文を、音声出力部14に出力し、音声出力部14は当該ガイド文をスピーカ6により受診者に発話出力する(S3)。これにより、受診者は、自動問診システム1の操作方法を理解することができる。   When the specific information of the selected questionnaire (question group) is received, the guide output unit 22 of the terminal device 4 on the examinee first outputs a guide sentence explaining how to proceed with the interview to the voice output unit 14, The output unit 14 utters and outputs the guide sentence to the examinee through the speaker 6 (S3). Thereby, the examinee can understand the operation method of the automatic inquiry system 1.

この「ガイド文」としては、例えば、「(ストレスチェック)を始めます。これから(13)個の質問をしますので、(あてはまる、あてはまらない、どちらともいえない、)どれか一つでお答えください。答えをこちらで繰り返しますので、答えが違っていた場合は、マイクに向かって『前に戻る』というか、タッチパネルの『前に戻る』ボタンを押してください。それでは始めます。」のような文が出力される。上記ガイド文において、( )で囲まれた部分は、質問群に応じて適宜変更される箇所である。   As this “guide sentence”, for example, “(Stress check) will start. Since we will ask (13) questions, please answer any one (applies, does not apply, cannot say either). I will repeat the answer here, so if the answer is different, say "Back" to the microphone or press the "Back" button on the touch panel. Is output. In the above guide sentence, the part surrounded by () is a part that is appropriately changed according to the question group.

次に、質問読出部17は、ネットワーク5を介して、質問情報記憶部11に記憶された質問情報を質問情報レコード群から順次読み出す。この場合、質問群が特定されているので、その特定された質問群に属する質問情報レコードを、質問IDの小さい順から読み出していく。そして、質問読出部17は、音声出力部14によりスピーカ6から、読み出した質問情報レコードの質問文を発話出力するとともに、該質問情報レコードの想定回答に基づいてタッチパネル8に図8や図9に示すような質問ガイドを表示する(S4)。   Next, the question reading unit 17 sequentially reads the question information stored in the question information storage unit 11 from the question information record group via the network 5. In this case, since the question group is specified, the question information records belonging to the specified question group are read in ascending order of the question ID. Then, the question reading unit 17 utters and outputs the question text of the read question information record from the speaker 6 by the voice output unit 14 and also displays the question information on the touch panel 8 based on the assumed answer of the question information record in FIGS. A question guide as shown is displayed (S4).

ここで、質問文は、受診者に対して複数の選択肢から選択回答を求めるような質問文であり、受診者は、提示された選択肢から1つの選択肢を選択して回答する。選択肢は2以上あり、例えば、選択肢が2つの場合にはタッチパネル8には図8のような画面表示がされ、選択肢が3つの場合にはタッチパネル8には図9のような画面表示がされる。   Here, the question sentence is a question sentence that asks the examiner for a selection answer from a plurality of options, and the examiner selects and answers one option from the presented options. There are two or more options. For example, when there are two options, the touch panel 8 displays a screen as shown in FIG. 8, and when there are three options, the touch panel 8 displays a screen as shown in FIG. .

図8,図9において、画面表示の上部枠には質問文(例えば、図8では「神経質な方ですか、人からそういわれますか。」と表示された部分)が表示され、中央部には選択肢として選択可能な回答文(例えば、図8では「はい」「いいえ」が表示された部分)と選択ボタン(例えば、図8では「はい」「いいえ」と囲む円形のボタン)が表示される。受診者がこれらの選択ボタンを指で触れることで、質問文に対する回答がタッチパネル8に入力されることになる。一方、スピーカ6からも同じ質問文(例えば、図8では「神経質な方ですか、人からそういわれますか。」という質問文)が発話されるため、視力の弱い受診者にも質問内容を伝達することができる。受診者は、質問文に対して、マイク7から声により選択肢を入力することも可能である。   8 and 9, a question sentence (for example, a part that is displayed as “Nervous or is it said by a person” in FIG. 8) is displayed in the upper frame of the screen display, and is displayed in the center. Is displayed as an answer sentence that can be selected as an option (for example, a portion where “Yes” and “No” are displayed in FIG. 8) and a selection button (for example, a circular button surrounding “Yes” and “No” in FIG. 8). The When the examinee touches these selection buttons with a finger, an answer to the question sentence is input to the touch panel 8. On the other hand, since the same question sentence (for example, the question sentence “Is it nervous or is it said by a person?” In FIG. 8) is spoken from the speaker 6, the contents of the question are also given to the examinees with low vision. Can communicate. The examinee can also input a choice by voice from the microphone 7 in response to the question sentence.

更に、画面表示の下部には、割込制御指示文(例えば、図8,図9では「前に戻る」「質問をきく」「最初から」の文)と割込制御指示ボタン(例えば、図8,図9では「前に戻る」「質問をきく」「最初から」の文を囲む帯直円形のボタン)が表示される。例えば、図8,図9において、受診者が割込制御指示ボタンを指で触れることで、割り込み制御指示がタッチパネル8に入力されることになる。   Further, at the bottom of the screen display, an interrupt control instruction sentence (for example, “return to previous”, “question”, “from the beginning” sentence in FIGS. 8 and 9) and an interrupt control instruction button (for example, FIG. 8 and 9, a straight band button surrounding a sentence “return to the front”, “question a question”, and “from the beginning” is displayed. For example, in FIGS. 8 and 9, when the examinee touches the interrupt control instruction button with a finger, the interrupt control instruction is input to the touch panel 8.

次に、回答判別部18は、受診者から質問文に対する回答が入力されるのを待ち、回答が入力されるとその内容の判別を行う(S5)。尚、マイク7から回答が入力された場合には、音声認識部15が入力された音声をテキスト形式に変換し、回答判別部18に入力し、回答判別部18はその回答文に特定のキーワードが含まれるか否かを判定することで判別を行う。   Next, the answer discriminating unit 18 waits for an answer to the question text from the examinee, and discriminates the content when the answer is inputted (S5). When an answer is input from the microphone 7, the voice recognition unit 15 converts the input voice into a text format and inputs it to the answer determination unit 18. The answer determination unit 18 uses a specific keyword in the answer sentence. Is discriminated by determining whether or not is included.

回答判別部18は、回答が質問文に対して想定された想定回答であった場合には、その回答内容に従って、ステップS6,S7,S8の何れかに遷移する。   When the answer is an assumed answer assumed for the question sentence, the answer determination unit 18 transitions to any of steps S6, S7, and S8 according to the contents of the answer.

想定回答の内容が肯定(「はい」)の場合、回答保存部19は、ネットワーク5を介して問診結果保存部19の問診結果テーブルに、新規レコードを作成し、そのレコードに新たな問診結果IDを格納し、受診者ID、質問IDとともに肯定(「はい」)を表す回答番号(この場合は「1」)を格納する(S6)。想定回答の内容が否定(「いいえ」)の場合、回答保存部19は、ネットワーク5を介して問診結果保存部19の問診結果テーブルに、新規レコードを作成し、そのレコードに新たな問診結果IDを格納し、受診者ID、質問IDとともに否定(「いいえ」)を表す回答番号(この場合は「2」)を格納する(S7)。想定回答の内容が肯定・否定以外(「どちらともいえない」)の場合、回答保存部19は、ネットワーク5を介して問診結果保存部19の問診結果テーブルに、新規レコードを作成し、そのレコードに新たな問診結果IDを格納し、受診者ID、質問IDとともに不定(「どちらともいえない」)を表す回答番号(この場合は「3」)を格納する(S8)。   When the content of the assumed answer is affirmative (“Yes”), the answer storage unit 19 creates a new record in the inquiry result table of the inquiry result storage unit 19 via the network 5, and adds a new inquiry result ID to the record. And the answer number (in this case, “1”) indicating affirmation (“Yes”) is stored together with the examinee ID and the question ID (S6). When the content of the assumed answer is negative (“No”), the answer storage unit 19 creates a new record in the interview result table of the interview result storage unit 19 via the network 5 and adds a new interview result ID to the record. And the answer number (in this case, “2”) indicating negative (“No”) is stored together with the examinee ID and the question ID (S7). When the content of the assumed answer is other than affirmative or negative (“cannot be said”), the answer storage unit 19 creates a new record in the interview result table of the interview result storage unit 19 via the network 5, and the record A new inquiry result ID is stored, and an answer number (in this case, “3”) representing indefinite (“neither”) is stored together with the examinee ID and question ID (S8).

ステップS6,S7,S8の後、この質問文が最終質問でなければ(S9)、質問文読出部17は、次の質問を選択してステップS4の処理に戻る。一方、最終質問の場合(S9)、ガイド出力部22は、質問が終了した旨のガイド文を音声出力部14を介してスピーカ6から出力すると共に、タッチパネル8の画面に図10に示したような終了画面を出力し(S11)、処理を終了する。   After this step S6, S7, S8, if this question sentence is not the final question (S9), the question sentence reading unit 17 selects the next question and returns to the process of step S4. On the other hand, in the case of the final question (S9), the guide output unit 22 outputs a guide sentence to the effect that the question has been completed from the speaker 6 via the voice output unit 14, and on the screen of the touch panel 8 as shown in FIG. An end screen is output (S11), and the process ends.

ステップS5において、回答が割込制御指示であった場合には、その割込制御指示に応じた処理を行う。   In step S5, when the answer is an interrupt control instruction, processing according to the interrupt control instruction is performed.

「質問をきく」の割込制御指示が入力された場合、同じ質問文を再度発話出力すべく、ステップS4に戻り、質問読出部17は音声出力部14を介して、スピーカ6から同じ質問文を発話出力する。   When an interrupt control instruction of “quick a question” is input, the process returns to step S4 in order to output the same question sentence again, and the question reading unit 17 sends the same question sentence from the speaker 6 via the voice output unit 14. Is uttered.

「前に戻る」の割込制御指示が入力された場合、前回の質問文を出力すべく、質問読出部17は前回読み出した質問情報レコードを質問情報レコード群から読み出し(S13)、ステップS4に戻り、質問読出部17は音声出力部14を介して、スピーカ6から前回の質問文を発話出力するとともに、前回の質問をタッチパネル8に画面出力する。   When the “return to previous” interrupt control instruction is input, the question reading unit 17 reads the previously read question information record from the question information record group to output the previous question sentence (S13), and proceeds to step S4. Returning, the question reading unit 17 utters and outputs the previous question sentence from the speaker 6 via the voice output unit 14, and outputs the previous question to the touch panel 8.

「最初から」の割込制御指示が入力された場合、最初の質問文から出力すべく、質問読出部17は現在の質問群の最初の(質問IDが最も小さい)質問情報レコードを質問情報レコード群から読み出し(S14)、ステップS4に戻り、質問読出部17は音声出力部14を介して、スピーカ6から最初の質問文を発話出力するとともに、最初の質問をタッチパネル8に画面出力する。   When an interrupt control instruction “from the beginning” is input, the question reading unit 17 changes the first question information record (with the smallest question ID) of the current question group to be output from the first question sentence. Reading from the group (S14), returning to step S4, the question reading unit 17 utters and outputs the first question sentence from the speaker 6 via the voice output unit 14, and outputs the first question to the touch panel 8.

ステップS5において、回答が想定回答、割込制御指示以外の想定外回答であった場合には、ガイド出力部22は、その質問文の選択肢の種別に応じて、ガイド情報記憶部21に記憶されたガイド情報を読み出し、当該ガイド情報を音声出力部14によりスピーカ6から発話出力する(S15)。そして、同じ質問文を再度発話出力すべく、ステップS4に戻り、質問読出部17は音声出力部14を介して、スピーカ6から同じ質問文を発話出力する。このように、質問文に対して受診者が想定外の応答をした場合、ガイド出力部22が、質問文に対する正しい選択回答を行うように誘導するためのガイド文を読み上げて、再度の応答を促すため、機械の使用を不得意とする受診者であっても、対話により問診に対する想定された回答を正しく選択するように誘導することが可能となり、問診結果の精度を高めることが可能となる。   In step S5, when the answer is an unexpected answer other than the assumed answer and the interrupt control instruction, the guide output unit 22 is stored in the guide information storage unit 21 according to the type of option of the question sentence. The guide information is read out, and the guide information is uttered from the speaker 6 by the voice output unit 14 (S15). Then, in order to output the same question sentence again, the process returns to step S <b> 4, and the question reading unit 17 outputs the same question sentence from the speaker 6 via the voice output unit 14. As described above, when the examinee makes an unexpected response to the question text, the guide output unit 22 reads out the guide text for guiding the correct selection answer to the question text, and sends a response again. In order to promote, even a patient who is not good at using the machine can be guided to select the expected answer to the interview correctly through dialogue, and the accuracy of the interview result can be improved. .

なお、本実施例においては、質問情報記憶部11及び問診結果記憶部12は、管理サーバ2に設け、ネットワーク5を介して受診者側端末装置4に接続した構成としたが、質問情報記憶部11及び問診結果記憶部12は受診者側端末装置4に設ける構成としてもよい。   In the present embodiment, the question information storage unit 11 and the inquiry result storage unit 12 are provided in the management server 2 and connected to the examinee side terminal device 4 via the network 5, but the question information storage unit 11 and the inquiry result storage unit 12 may be provided in the examinee side terminal device 4.

また、本実施例においては、問診結果は問診結果記憶部12に記憶された問診結果テーブルにリレーショナルデータベースの形式で保存する例を示したが、本発明において問診結果の保存方法はこの方法に限られるものではなく、受診者用に問診の都度作成される問診票ファイルに、問診番号と、問診内容毎の回答(「はい」「いいえ」等)とを書き出して問診結果記憶部12に保存するようにしてもよい。   In the present embodiment, an example is shown in which the inquiry result is stored in the inquiry result table stored in the inquiry result storage unit 12 in the form of a relational database. However, in the present invention, the method for saving the inquiry result is not limited to this method. The interview number and the answer ("Yes", "No", etc.) for each interview content are written and stored in the interview result storage unit 12 in the interview form file created for each interview for the examinee. You may do it.

図11は、本実施例2に係る自動問診システムの機能的な構成を表す図である。尚、本実施例において、ハードウェア的な構成としては、図1と同様のシステムが用いられている。   FIG. 11 is a diagram illustrating a functional configuration of the automatic inquiry system according to the second embodiment. In this embodiment, the same system as in FIG. 1 is used as the hardware configuration.

本実施例の自動問診システム1は、ネットワークを介して接続された管理サーバ2と受信者側端末4とで構成されている。管理サーバ2には、問診結果を格納する問診結果テーブルと、受信者情報を格納する受信者テーブルと、質問情報を格納する質問情報テーブルと、が記憶された問診結果記憶部12を備えている。問診結果テーブル,受信者テーブル,及び質問情報テーブルは、図4と同様のデータ構造であるものとする。   The automatic inquiry system 1 according to this embodiment includes a management server 2 and a receiver side terminal 4 connected via a network. The management server 2 includes an inquiry result storage unit 12 in which an inquiry result table that stores inquiry results, a recipient table that stores recipient information, and a question information table that stores question information are stored. . It is assumed that the inquiry result table, the recipient table, and the question information table have the same data structure as FIG.

受信者側端末4は、スピーカ6、マイク7、タッチパネル8、及びコンピュータ30を備えている。スピーカ6、マイク7、及びタッチパネル8については、実施例1と同様である。   The receiver side terminal 4 includes a speaker 6, a microphone 7, a touch panel 8, and a computer 30. The speaker 6, the microphone 7, and the touch panel 8 are the same as those in the first embodiment.

コンピュータ30は、自動問診システム用のプログラムを実行することにより、図11に示したような各機能ブロックが実現されている。すなわち、コンピュータ30は、認識辞書記憶部31、音声認識部32、処理項目テーブル記憶部33、ネット状態テーブル記憶部34、シナリオ開始部35、回答判別部36、質問文出力部37、回答出力部38、問診結果保存モジュール39、ガイド文出力部40、音声出力モジュール41、接続点・終点処理部44、画面表示モジュール45、及び入力認識モジュール46を備えている。   The computer 30 executes a program for an automatic inquiry system, thereby realizing each functional block as shown in FIG. That is, the computer 30 includes a recognition dictionary storage unit 31, a voice recognition unit 32, a process item table storage unit 33, a net state table storage unit 34, a scenario start unit 35, an answer determination unit 36, a question sentence output unit 37, and an answer output unit. 38, an inquiry result storage module 39, a guide sentence output unit 40, a voice output module 41, a connection point / end point processing unit 44, a screen display module 45, and an input recognition module 46.

認識辞書記憶部31は、音声認識の際に使用する認識辞書が格納されている。音声認識部32は、認識辞書を用いて、マイク7から入力される音声信号をテキストデータに変換する。音声出力モジュール41は、文字データを音声に変換してスピーカ6から出力する。   The recognition dictionary storage unit 31 stores a recognition dictionary used for speech recognition. The voice recognition unit 32 converts a voice signal input from the microphone 7 into text data using a recognition dictionary. The voice output module 41 converts character data into voice and outputs it from the speaker 6.

処理項目テーブル記憶部33は、処理項目テーブルを記憶している。また、ネット状態テーブル記憶部34は、ネット状態テーブルを記憶している。処理項目テーブル及びネット状態テーブルについては、後で詳述する。   The process item table storage unit 33 stores a process item table. The net state table storage unit 34 stores a net state table. The processing item table and the net state table will be described in detail later.

尚、処理項目テーブルは、図14,図15に示したように、多数のレコードの集合から構成されており、これらのレコードは、開始情報レコード群、質問情報レコード群、回答情報レコード群、ガイド情報レコード群、回答出力レコード群、接続点レコード群、及び終点レコード群の各レコード群(レコードの集合)に分類される。それぞれのレコード群の意味については後で詳述する。   The processing item table is composed of a set of a large number of records as shown in FIGS. 14 and 15, and these records include a start information record group, a question information record group, an answer information record group, a guide. The information record group, the answer output record group, the connection point record group, and the end point record group are classified into respective record groups (a set of records). The meaning of each record group will be described in detail later.

シナリオ開始部35及び回答判別部36は、認識情報入力部42の一部を為す。また、質問文出力部37、回答出力部38、ガイド文出力部40、及び接続点・終点処理部44は、選択実行部43の一部を為す。これら各部の機能に関しては、追って説明する。   The scenario start unit 35 and the answer determination unit 36 form part of the recognition information input unit 42. The question sentence output unit 37, the answer output unit 38, the guide sentence output unit 40, and the connection point / end point processing unit 44 constitute a part of the selection execution unit 43. The functions of these units will be described later.

問診結果保存モジュール39は、受診者の問診に対する回答を、問診結果記憶部12に記憶された問診結果テーブルに格納するモジュールである。   The inquiry result storage module 39 is a module for storing answers to the interview of the examinee in an inquiry result table stored in the inquiry result storage unit 12.

画面表示モジュール45は、タッチパネル8の画面に画像を表示する。入力認識モジュール46は、タッチパネル8の画面に指を接触して入力がされた場合、画面上の接触位置からその入力の種別を認識し、認識結果を出力する。   The screen display module 45 displays an image on the screen of the touch panel 8. When an input is made by touching the screen of the touch panel 8 with a finger, the input recognition module 46 recognizes the input type from the contact position on the screen and outputs a recognition result.

次に、本実施例における自動問診システム1が、問診を行う際の、自動問診システム1と受診者との間の対話の進行内容である問診対話シナリオについて説明する。   Next, an inquiry dialogue scenario, which is the progress of dialogue between the automatic inquiry system 1 and the examinee when the automatic inquiry system 1 in this embodiment performs an inquiry, will be described.

自動問診システム1の側からみた問診対話シナリオに沿った対話処理は、図12,図13に示したような遷移図によって表される。図12は、ストレスチェック問診票、健康調査票問診票、HDA尺度問診票、及びTAS−20問診票の問診対話シナリオの遷移図を示す。点線で記された部分は省略した部分である。また、図13は、ストレスチェック問診票の問診対話シナリオの遷移図全体を示す。   Dialogue processing according to the interview dialogue scenario as seen from the side of the automatic inquiry system 1 is represented by transition diagrams as shown in FIGS. FIG. 12 shows a transition diagram of the interview dialogue scenario of the stress check questionnaire, health questionnaire questionnaire, HDA scale questionnaire, and TAS-20 questionnaire. The part indicated by the dotted line is the omitted part. FIG. 13 shows an entire transition diagram of the interview dialog scenario of the stress check questionnaire.

ここで、問診対話シナリオにおける自動問診システム1のそれぞれの情報処理単位を「処理項目」といい、問診対話シナリオに沿った対話プロセスの進行に伴う各処理項目間の遷移関係を「ネット」という。図12,図13においては、四角、菱形、角丸四角、点、箭れい形(長方形の一辺に二等辺三角形を底辺側から結合させた五角形)で示したものが、それぞれの処理項目を表しており、各処理項目を繋ぐ線がネットを表している。   Here, each information processing unit of the automatic inquiry system 1 in the inquiry dialogue scenario is referred to as a “processing item”, and a transition relation between the processing items accompanying the progress of the dialogue process in accordance with the inquiry dialogue scenario is referred to as a “net”. In FIG. 12 and FIG. 13, each processing item is indicated by a square, a rhombus, a rounded square, a point, or a fringe shape (a pentagon in which an isosceles triangle is joined to one side of the rectangle from the bottom side). A line connecting each processing item represents a net.

「FCT」は、音声認識用のXML(Extensible Markup Language)形式で記述された指定キーワードを入力音声から抽出する処理項目を表している。「<FCT>」は、当該FCTに入るためのコーパス(キーワード)を表している。   “FCT” represents a processing item for extracting a specified keyword described in an XML (Extensible Markup Language) format for speech recognition from input speech. “<FCT>” represents a corpus (keyword) for entering the FCT.

「TTS」(Text to Speech)は、テキスト音声合成処理、すなわち、テキストデータを音声に変換してスピーカ6から出力する処理項目を表している。「<SP>」は、当該TTSにおいて読み上げるテキストの内容を表している。「QB」は、指定のXMLを利用して、音声認識部32から出力されるテキストデータから音声単語を抽出し、抽出された音声単語に応じて、対話のフローを分岐させる処理項目を表す。TTSとQBを併用することによって質問が記述される。例えば、TTS2において、「質問1。ちょっとしたことでもイライラする。」と発話させ、これに対する受信者の回答音声の認識を行うQB1では、想定される答え方(この場合、「あてはまる」、「あてはまらない」、「どちらともいえない」、「前に戻る」、「最初から」、「終わる」)を入れたXMLファイルを指定することにより、質問に対する回答の認識処理が実現される。   “TTS” (Text to Speech) represents a text-to-speech process, that is, a process item for converting text data into speech and outputting it from the speaker 6. “<SP>” represents the content of the text read out in the TTS. “QB” represents a processing item for extracting a speech word from text data output from the speech recognition unit 32 using a specified XML and branching the flow of dialogue according to the extracted speech word. Questions are described by using both TTS and QB. For example, in TTS2, in “QB1” that utters “Question 1. Frustrated even a little” and recognizes the answer voice of the receiver to this, the expected answer method (in this case, “applicable”, “not applicable”) ”,“ Neither ”,“ Back to the previous ”,“ From the beginning ”,“ End ”) are specified, thereby realizing the process of recognizing the answer to the question.

「OUT」は、受診者の回答を問診結果テーブルに出力し格納する処理項目を表す。「JA」は、ネットの接続点を表す。「TRM」は終端処理の処理項目を表す。すなわち、TRMにおいてこの問診対話シナリオは終了する。   “OUT” represents a processing item for outputting and storing the answer of the examinee in the inquiry result table. “JA” represents a connection point of the net. “TRM” represents a processing item of termination processing. That is, this inquiry dialogue scenario is completed in TRM.

また、各線(ネット)に付された数字は、そのネットのネットIDを表す。以下、ネットIDがi(iは整数)のネットをNETiと記す。   Also, the number attached to each line (net) represents the net ID of the net. Hereinafter, a net whose net ID is i (i is an integer) is referred to as NETi.

図14及び図15は、処理項目テーブル記憶部33に格納された処理項目テーブルの一例を表す図である。図14及び図15に示した処理項目テーブルは、図13に示したストレスチェック問診票の問診対話シナリオに対するものである。処理項目テーブルは、多数のレコードの集合によって構成されており、各レコードは、「処理項目」、「入力ネット」、「出力ネット」、及び「コーパス」の各フィールドにより構成されている。   14 and 15 are diagrams illustrating an example of the processing item table stored in the processing item table storage unit 33. The processing item tables shown in FIG. 14 and FIG. 15 are for the interview dialog scenario of the stress check questionnaire shown in FIG. The process item table is configured by a set of a large number of records, and each record is configured by fields of “process item”, “input net”, “output net”, and “corpus”.

「処理項目」フィールドには、TTSiやFCTiなどの、そのレコードに対応する処理項目の特定記号(IDでもよい。)が格納される。「入力ネット」フィールドには、その処理項目へ遷移する側のネット(入力ネット)のネットIDが格納される。「出力ネット」フィールドには、その処理項目から遷移する側のネット(出力ネット)のネットIDが格納される。入力ネットや出力ネットは1つでも複数でもよいし、無くてもよい。また、「コーパス」フィールドには、その処理項目に対し必要に応じて設定される発話内容又は受話キーワードを記述するコーパスが格納される。   The “process item” field stores a specific symbol (or ID) of the process item corresponding to the record, such as TTSi or FCTi. The “input net” field stores the net ID of the net (input net) on the transition side to the processing item. The “output net” field stores the net ID of the net (output net) on the transition side from the processing item. The number of input nets and output nets may be one, plural, or none. In the “corpus” field, a corpus that describes utterance contents or reception keywords set as necessary for the processing item is stored.

処理項目テーブルの各レコードは、開始情報レコード群、質問情報レコード群、回答情報レコード群、ガイド情報レコード群、回答出力レコード群、接続点レコード群、及び終点レコード群の各レコード群に分類される。   Each record of the processing item table is classified into a start information record group, a question information record group, an answer information record group, a guide information record group, an answer output record group, a connection point record group, and an end point record group. .

開始情報レコード群は、「コーパス」フィールドに、問診対話シナリオを開始するための開始キーワードが格納され、「出力ネット」フィールドに、問診対話シナリオにおける最初の質問文又はガイド文の発話処理を行う処理項目へ遷移する出力ネットのネットIDが記憶されたレコードの集合である。開始情報レコード群の各レコードにはFCT処理項目がそれぞれ対応する。   In the start information record group, a start keyword for starting the interview dialogue scenario is stored in the “corpus” field, and the first question sentence or guide sentence utterance processing in the interview dialog scenario is stored in the “output net” field. This is a set of records in which the net IDs of output nets transitioning to items are stored. Each record in the start information record group corresponds to an FCT process item.

質問情報レコード群は、自動問診システム1が受診者に対して質問文を発話する処理項目に対応するレコードの集合である。質問情報レコード群の各レコードにはTTS処理項目の一部がそれぞれ対応する。質問情報レコード群の各レコードは、「コーパス」フィールドに、受診者に対する質問文であって複数の選択肢による回答を求める質問文が格納され、「入力ネット」フィールドに、問診対話シナリオにおいて当該質問文への遷移元の処理項目に接続する入力ネットのネットIDが格納され、「出力ネット」フィールドに、問診対話シナリオにおいて当該質問文に対する受診者の回答を判定する処理項目に接続する出力ネットのネットIDが格納されている。   The question information record group is a set of records corresponding to processing items in which the automatic inquiry system 1 utters a question sentence to the examinee. A part of the TTS process items corresponds to each record of the question information record group. In each record of the question information record group, a question sentence that is a question sentence for the examinee and asks for an answer by a plurality of options is stored in the “corpus” field, and the question sentence in the question dialogue dialog scenario is stored in the “input net” field. The net ID of the input net that is connected to the process item that is the source of the transition to is stored, and the net of the output net that is connected to the process item that determines the response of the examinee to the question text in the question dialog scenario in the “output net” field ID is stored.

回答情報レコード群は、質問に対する受診者の回答に応じて処理フローを分岐する処理項目に対応するレコードの集合である。回答情報レコード群の各レコードにはQB処理項目がそれぞれ対応する。回答情報レコード群の各レコードは、「入力ネット」フィールドに、何れかの質問文の処理項目に接続する入力ネットのネットIDが格納され、「コーパス」フィールドに、その質問文に対して受診者が選択する選択回答のキーワードである回答キーワード及び割込制御を指示するための割込制御キーワードが複数格納され、「出力ネット」フィールドに、それらの回答キーワード及び割込制御キーワードに応じて選択される出力ネットのネットID及び想定外回答に対して選択される出力ネットのネットIDが格納される。ここで、「想定外回答」とは、質問に対して想定された回答キーワードを含む回答(想定回答)及び割込制御キーワードを含む回答以外の回答をいう。   The answer information record group is a set of records corresponding to the process items that branch the process flow in accordance with the examinee's answer to the question. Each record in the answer information record group corresponds to a QB process item. Each record of the answer information record group stores the net ID of the input net connected to the processing item of any question text in the “input net” field, and the examinee for the question text in the “corpus” field. A plurality of response keywords and interrupt control keywords for instructing interrupt control are stored, and the “output net” field is selected according to the response keyword and interrupt control keyword. The net ID of the output net and the net ID of the output net selected for the unexpected answer are stored. Here, the “unexpected answer” refers to an answer other than the answer including the answer keyword assumed for the question (assumed answer) and the answer including the interrupt control keyword.

ガイド情報レコード群は、自動問診システム1が受診者に対してガイド文を発話する処理項目に対応するレコードの集合である。ガイド情報レコード群の各レコードにはTTS処理項目の一部がそれぞれ対応する。ガイド情報レコード群の各レコードは、「コーパス」フィールドに、それぞれの質問文に対応してその質問文に対する正しい選択回答を行うように誘導するガイド文及びその他のガイド文が格納され、「入力ネット」フィールドに、問診対話シナリオにおいて当該ガイド文への遷移元の処理項目に接続する入力ネットのネットIDが格納され、「出力ネット」フィールドに、問診対話シナリオにおいて当該ガイド文からの遷移先の処理項目に接続する出力ネットのネットIDが格納される。   The guide information record group is a set of records corresponding to processing items in which the automatic inquiry system 1 utters a guide sentence to the examinee. A part of the TTS process item corresponds to each record of the guide information record group. Each record of the guide information record group stores, in the “corpus” field, a guide sentence and other guide sentences that guide the user to make a correct selection answer corresponding to each question sentence. ”Field stores the net ID of the input net connected to the processing item of the transition to the guide sentence in the interview dialogue scenario, and the“ output net ”field stores the processing of the transition destination from the guide sentence in the interview dialogue scenario. Stores the net ID of the output net connected to the item.

回答出力レコード群は、質問に対する受診者の回答内容を問診結果テーブルに出力し格納する処理項目に対応するレコード群である。回答出力レコード群の各レコードにはOUT処理項目がそれぞれ対応する。回答出力レコード群の各レコードは、「入力ネット」フィールドに、何れかのQB処理項目から遷移する入力ネットのネットIDが格納され、「出力ネット」フィールドに、次のTTS処理項目へ遷移する出力ネットのネットIDが格納される。   The answer output record group is a record group corresponding to a processing item that outputs and stores the contents of the examinee's answer to the question in the inquiry result table. An OUT process item corresponds to each record in the answer output record group. Each record of the answer output record group stores the net ID of the input net that transitions from any QB process item in the “input net” field, and the output that transitions to the next TTS process item in the “output net” field. The net ID of the net is stored.

接続点レコード群は、ネットの接続点を表す処理項目に対応するレコードの集合である。接続点レコード群の各レコードにはJA処理項目がそれぞれ対応する。各接続点においては、特に入出力処理は行われず、単にネットの状態を遷移させる処理のみが行われる。すなわち、接続点においては、入力ネットが活性状態の場合、出力ネットを活性状態として入力状態を非活性状態とする処理が行われる。   The connection point record group is a set of records corresponding to processing items representing the connection point of the net. A JA processing item corresponds to each record in the connection point record group. At each connection point, no input / output process is performed, and only a process for changing the net state is performed. That is, at the connection point, when the input net is in an active state, processing is performed in which the output net is in an active state and the input state is in an inactive state.

終点レコード群は、終端処理の処理項目に対応するレコードの集合である。終点レコード群の各レコードにはTRM処理項目がそれぞれ対応する。   The end record group is a set of records corresponding to the process items of the end process. Each record of the end point record group corresponds to a TRM process item.

図16は、ネット状態テーブル記憶部34に格納されたネット状態テーブルの一例を表す図である。図16に示したネット状態テーブルは、図13に示したストレスチェック問診票の問診対話シナリオに対するものである。ネット状態テーブルは、多数のレコードの集合によって構成されており、各レコードは、「ネット」、「ネット状態」、及び「変更フラグ」の各フィールドにより構成されている。   FIG. 16 is a diagram illustrating an example of a net state table stored in the net state table storage unit 34. The net state table shown in FIG. 16 is for the interview dialogue scenario of the stress check questionnaire shown in FIG. The net state table is composed of a set of a large number of records, and each record is composed of fields of “net”, “net state”, and “change flag”.

「ネット」フィールドには、そのレコードに対応するネットのネットIDが格納される。「ネット状態」フィールドには、そのネットの活性状態を表すネット状態フラグが格納される。ネット状態フラグは「0」又は「1」の値をとり、「0」が非活性状態、「1」が活性状態を表す。「変更フラグ」フィールドには、ネット状態が変更されたか否かを表す変更フラグが格納される。変更フラグは「0」又は「1」の値をとり、「0」が変更無し、「1」が変更ありを表す。   The “net” field stores the net ID of the net corresponding to the record. The “net status” field stores a net status flag indicating the active status of the net. The net state flag takes a value of “0” or “1”, where “0” represents an inactive state and “1” represents an active state. The “change flag” field stores a change flag indicating whether or not the net state has been changed. The change flag takes a value of “0” or “1”, where “0” indicates no change and “1” indicates a change.

以上のように構成された本実施例に係る自動問診システム1について、以下その問診対話処理動作を説明する。尚、本実施例において、受診者が受診者の氏名と受診者IDとを入力する部分については、実施例1と同様であるものとし、この部分の説明は省略する。従って、以下では、受診者の受診者IDは既に設定されているものとして説明する。また、本実施例の自動問診システム1では、音声入出力の他にタッチパネルによる入出力も可能であるが、簡単のため、以下の説明では音声入出力の処理に限定して説明することとする。   The inquiry dialog processing operation of the automatic inquiry system 1 according to the present embodiment configured as described above will be described below. In this embodiment, the part where the examiner inputs the name and the examinee ID of the examinee is the same as that of the first embodiment, and the description of this part is omitted. Accordingly, in the following description, it is assumed that the examinee ID of the examinee is already set. Moreover, in the automatic inquiry system 1 of the present embodiment, input / output using a touch panel is possible in addition to voice input / output. However, for the sake of simplicity, the following description will be limited to voice input / output processing. .

(1)認識情報入力処理に関する動作
図17は、音声認識部32と認識情報入力部42の動作を表すフローチャートである。音声認識部32と認識情報入力部42とは、それぞれ独立して動作している。
(1) Operations Related to Recognition Information Input Processing FIG. 17 is a flowchart showing operations of the speech recognition unit 32 and the recognition information input unit 42. The voice recognition unit 32 and the recognition information input unit 42 operate independently of each other.

(1−1)音声認識部32の動作
まず、ステップS21において、音声認識部32は、マイク7から音声が入力されたか否かを検出する。音声が入力されていなければ、再びステップS21を繰り返す。
(1-1) Operation of Voice Recognition Unit 32 First, in step S21, the voice recognition unit 32 detects whether or not voice is input from the microphone 7. If no voice is input, step S21 is repeated again.

音声が入力された場合、ステップS22において、音声認識部32は、認識辞書記憶部31に記憶された認識辞書を参照して、入力された音声信号をテキストデータに変換し、認識情報入力部42へ出力する。そして、ステップS21へ戻る。   When speech is input, in step S22, the speech recognition unit 32 refers to the recognition dictionary stored in the recognition dictionary storage unit 31, converts the input speech signal into text data, and recognizes the information input unit 42. Output to. Then, the process returns to step S21.

(1−2)認識情報入力部42の動作
まず、ステップS31において、認識情報入力部42は、処理項目テーブル記憶部33に記憶された処理項目テーブルを、最初の処理項目レコードから順番に選択する。最後の処理項目レコードまで選択し終わった場合には、再び最初の処理項目レコードから順番に選択する。
(1-2) Operation of Recognition Information Input Unit 42 First, in step S31, the recognition information input unit 42 selects the processing item table stored in the processing item table storage unit 33 in order from the first processing item record. . When selection has been completed up to the last process item record, selection is again made in order from the first process item record.

次に、ステップS32において、シナリオ開始部35は、選択された処理項目レコードが、FCT処理項目(開始情報レコード群に属する)か否かを検査する。FCT処理項目であれば、ステップS33に遷移し、そうでなければステップS36に遷移する。   Next, in step S <b> 32, the scenario start unit 35 checks whether or not the selected process item record is an FCT process item (belongs to the start information record group). If it is an FCT process item, the process proceeds to step S33, and if not, the process proceeds to step S36.

ステップS33において、シナリオ開始部35は、音声認識部32から音声テキストデータの入力があったか否かを検査する。音声テキストデータの入力がなければ、ステップS31へ戻り、音声テキストデータの入力があれば、次のステップS34に遷移する。   In step S <b> 33, the scenario start unit 35 checks whether or not speech text data has been input from the speech recognition unit 32. If there is no input of speech text data, the process returns to step S31, and if there is input of speech text data, the process proceeds to the next step S34.

ステップS34において、シナリオ開始部35は、選択したFCT処理項目レコードのコーパスに音声テキストデータが一致するか又は音声テキストデータがコーパスを含むか否かを検査する。一致又は含む場合には、次のステップS35に遷移し、そうでない場合はステップS31に戻る。   In step S34, the scenario start unit 35 checks whether the speech text data matches the corpus of the selected FCT process item record or whether the speech text data includes the corpus. If they match or are included, the process proceeds to the next step S35, and if not, the process returns to step S31.

ステップS35において、シナリオ開始部35は、選択したFCT処理項目レコード「出力ネット」フィールドを参照し、出力ネットのネットID(以下「出力ネットID」という。)を取得する。そして、ネット状態テーブル記憶部34に記憶されたネット状態テーブルにおいて、当該出力ネットIDとネットIDが一致するネット状態レコードを選択し、選択したネット状態レコードのネット状態を活性化し、変更フラグを「変更あり(1)」とする。また、選択された問診対話シナリオに対応する問診票IDを取得する。そして、ステップS31へ戻る。   In step S35, the scenario start unit 35 refers to the selected FCT process item record “output net” field, and acquires the net ID of the output net (hereinafter referred to as “output net ID”). Then, in the net state table stored in the net state table storage unit 34, the net state record whose net ID matches the output net ID is selected, the net state of the selected net state record is activated, and the change flag is set to “ There is a change (1) ". Also, an inquiry form ID corresponding to the selected inquiry dialogue scenario is acquired. Then, the process returns to step S31.

一方、ステップS32で選択された処理項目レコードがFCT処理項目ではなかった場合、ステップS36において、回答判別部36は、選択された処理項目レコードが、QB処理項目(回答情報レコード群に属する)か否かを検査する。QB処理項目であった場合には、次のステップS37に遷移し、そうでなければ、ステップS31へ戻る。   On the other hand, if the process item record selected in step S32 is not an FCT process item, in step S36, the answer determination unit 36 determines whether the selected process item record belongs to the QB process item (belongs to the answer information record group). Check for no. If it is a QB process item, the process proceeds to the next step S37, and if not, the process returns to step S31.

ステップS37において、回答判別部36は、選択されたQB処理項目レコードの「入力ネット」フィールドから入力ネットのネットID(以下「入力ネットID」という。)を取得する。そして、ネット状態テーブル記憶部34に記憶されたネット状態テーブルにおいて、当該入力ネットIDとネットIDが一致するネット状態レコードを選択し、その活性状態フラグを検査する。活性状態フラグが活性状態(1)であれば、次のステップS38に遷移し、非活性状態(0)であれば、ステップS31に戻る。   In step S37, the answer determination unit 36 acquires the net ID of the input net (hereinafter referred to as “input net ID”) from the “input net” field of the selected QB process item record. Then, in the net state table stored in the net state table storage unit 34, a net state record whose net ID matches the input net ID is selected, and its active state flag is checked. If the active state flag is the active state (1), the process proceeds to the next step S38. If the active state flag is the inactive state (0), the process returns to step S31.

ステップS38において、回答判別部36は、音声認識部32から音声テキストデータの入力があったか否かを検査する。音声テキストデータの入力がなければ、ステップS31へ戻り、音声テキストデータの入力があれば、次のステップS39に遷移する。   In step S <b> 38, the answer determination unit 36 checks whether or not speech text data has been input from the speech recognition unit 32. If there is no input of speech text data, the process returns to step S31, and if there is input of speech text data, the process proceeds to the next step S39.

ステップS39において、回答判別部36は、選択したQB処理項目レコードのコーパスの何れかに音声テキストデータが一致するか又は音声テキストデータがコーパスを含むか否かを検査する。一致又は含む場合には、次のステップS40に遷移し、そうでない場合はステップS31に戻る。   In step S39, the answer determination unit 36 checks whether the voice text data matches one of the corpuses of the selected QB process item record or whether the voice text data includes the corpus. If they match or are included, the process proceeds to the next step S40, and if not, the process returns to step S31.

ステップS40において、回答判別部36は、「出力ネット」フィールドのネットIDの中から、音声テキストデータに一致(又は含まれる)するコーパスに対応する出力ネットのネットIDを選択する。   In step S40, the answer determination unit 36 selects the net ID of the output net corresponding to the corpus that matches (or is included in) the voice text data from the net IDs in the “output net” field.

ステップS41において、回答判別部36は、ネット状態テーブル記憶部34に記憶されたネット状態テーブルにおいて、当該出力ネットIDとネットIDが一致するネット状態レコードを選択し、選択したネット状態レコードのネット状態を活性化(1)し、変更フラグを「変更あり(1)」とする。また、ネット状態テーブル記憶部34に記憶されたネット状態テーブルにおいて、入力ネットIDとネットIDが一致するネット状態レコードを選択し、選択したネット状態レコードのネット状態を非活性化(0)し、変更フラグを「変更なし(0)」とする。そして、ステップS31へ戻る。   In step S41, the answer determination unit 36 selects a net state record whose net ID matches the output net ID in the net state table stored in the net state table storage unit 34, and the net state of the selected net state record. Is activated (1), and the change flag is set to “changed (1)”. Further, in the net state table stored in the net state table storage unit 34, a net state record whose input net ID and net ID match is selected, the net state of the selected net state record is deactivated (0), The change flag is set to “no change (0)”. Then, the process returns to step S31.

(2)選択実行処理に関する動作
図18は、選択実行部43の動作を示すフローチャートである。選択実行部43は、音声認識部32や認識情報入力部42とは独立に並行して動作する。
(2) Operation Related to Selection Execution Processing FIG. 18 is a flowchart showing the operation of the selection execution unit 43. The selection executing unit 43 operates in parallel with the voice recognition unit 32 and the recognition information input unit 42.

まず、ステップS51において、選択実行部43は、処理項目テーブル記憶部33に記憶された処理項目テーブルを、最初の処理項目レコードから順番に選択する。最後の処理項目レコードまで選択し終わった場合には、再び最初の処理項目レコードから順番に選択する。   First, in step S51, the selection execution unit 43 selects the process item table stored in the process item table storage unit 33 in order from the first process item record. When selection has been completed up to the last process item record, selection is again made in order from the first process item record.

ステップS52において、選択実行部43は、選択された処理項目レコードの「入力ネット」フィールドに格納された入力ネットIDを取得する。そして、ネット状態テーブル記憶部34に記憶されたネット状態テーブルにおいて、当該入力ネットIDとネットIDが一致するネット状態レコードを選択し、選択したネット状態レコードのネット状態が活性状態(1)か否か検査する。活性状態(1)の場合には次のステップS53に遷移し、非活性状態(0)の場合にはステップS51に戻る。   In step S52, the selection execution unit 43 acquires the input net ID stored in the “input net” field of the selected process item record. In the net state table stored in the net state table storage unit 34, a net state record whose net ID matches the input net ID is selected, and whether or not the net state of the selected net state record is the active state (1). Check. In the active state (1), the process proceeds to the next step S53, and in the inactive state (0), the process returns to step S51.

ステップS53において、選択実行部43は、選択された処理項目レコードが、TTS処理項目(質問情報レコード群又はガイド情報レコード群に属する)か否かを検査する。TTS処理項目であれば、ステップS53に遷移し、そうでなければステップS55に遷移する。   In step S53, the selection execution unit 43 checks whether or not the selected process item record is a TTS process item (belongs to a question information record group or a guide information record group). If it is a TTS process item, the process proceeds to step S53, and if not, the process proceeds to step S55.

ステップS54において、選択実行部43は、選択されたTTS処理項目レコードのコーパスを取得し、音声出力モジュール41を介してスピーカ6からコーパスで記述される発話文を音声出力する。   In step S <b> 54, the selection execution unit 43 acquires the corpus of the selected TTS process item record, and outputs the utterance sentence described in the corpus from the speaker 6 via the voice output module 41.

ここで、選択されたTTS処理項目レコードが質問情報レコード群に属する場合には、質問文出力部37がコーパスで記述される質問文を音声出力する。また、選択されたTTS処理項目レコードがガイド情報レコード群に属する場合には、ガイド文出力部40がコーパスで記述されるガイド文を音声出力する。質問文出力部37とガイド文出力部40は、発話内容が異なるだけで機能的には同一であるため、1つのモジュールで構成することも可能である。   Here, when the selected TTS process item record belongs to the question information record group, the question sentence output unit 37 outputs the question sentence described in the corpus by voice. When the selected TTS process item record belongs to the guide information record group, the guide sentence output unit 40 outputs a guide sentence described in the corpus by voice. Since the question sentence output unit 37 and the guide sentence output unit 40 are functionally the same except for the utterance contents, they can be configured by one module.

ステップS55において、選択実行部43は、ネット状態テーブル記憶部34に記憶されたネット状態テーブルにおいて、選択している処理項目レコードの出力ネットIDとネットIDが一致するネット状態レコードを選択し、選択したネット状態レコードのネット状態を活性化(1)し、変更フラグを「変更あり(1)」とする。また、ネット状態テーブル記憶部34に記憶されたネット状態テーブルにおいて、選択している処理項目レコードの入力ネットIDとネットIDが一致するネット状態レコードを選択し、選択したネット状態レコードのネット状態を非活性化(0)し、変更フラグを「変更なし(0)」とする。そして、ステップS31へ戻る。   In step S55, the selection execution unit 43 selects a net state record whose net ID matches the output net ID of the selected processing item record in the net state table stored in the net state table storage unit 34, and selects the selected net state record. The net state of the net state record is activated (1), and the change flag is set to “changed (1)”. Further, in the net state table stored in the net state table storage unit 34, a net state record whose net ID matches the input net ID of the selected process item record is selected, and the net state of the selected net state record is displayed. It is deactivated (0), and the change flag is set to “no change (0)”. Then, the process returns to step S31.

ステップS53において、選択された処理項目レコードがTTS処理項目でなかった場合、ステップS56において、選択実行部43は、選択された処理項目レコードが、OUT処理項目(回答出力レコード群に属する)か否かを検査する。OUT処理項目であれば、ステップS57に遷移し、そうでなければステップS58に遷移する。   In step S53, if the selected process item record is not a TTS process item, in step S56, the selection execution unit 43 determines whether the selected process item record is an OUT process item (belongs to an answer output record group). Inspect. If it is an OUT process item, the process proceeds to step S57, and if not, the process proceeds to step S58.

ステップS57において、回答出力部38は、質問文に対する回答の回答番号を問診結果保存モジュール39を介して問診結果テーブルに保存する。この際、問診結果保存モジュール39は、回答番号と受診者の受診者ID、質問文の質問IDと関連づけて格納する。そして、上述のステップS55に遷移する。   In step S57, the answer output unit 38 stores the answer number of the answer to the question sentence in the inquiry result table via the inquiry result storage module 39. At this time, the inquiry result storage module 39 stores the answer number in association with the examinee ID of the examinee and the question ID of the question sentence. And it changes to the above-mentioned step S55.

ステップS56において、選択された処理項目レコードがOUT処理項目でなかった場合、ステップS58において、接続点・終点処理部44は、選択された処理項目レコードが、JA処理項目(接続点レコード群に属する)か否かを検査する。JA処理項目であれば、ステップS55に遷移し、そうでなければステップS59に遷移する。   In step S56, if the selected process item record is not an OUT process item, in step S58, the connection point / end point processing unit 44 determines that the selected process item record belongs to the JA process item (the connection point record group). ) Or not. If it is a JA processing item, the process proceeds to step S55, and if not, the process proceeds to step S59.

ステップS58において、選択された処理項目レコードがJA処理項目でなかった場合、ステップS59において、接続点・終点処理部44は、選択された処理項目レコードが、OUT処理項目(終点レコード群に属する)か否かを検査する。OUT処理項目であれば、入力ネットのネット状態を非活性化して問診対話処理を終了し、そうでなければステップS51に戻る。   If the selected process item record is not a JA process item in step S58, in step S59, the connection point / end point processing unit 44 determines that the selected process item record is an OUT process item (belongs to the end point record group). Inspect whether or not. If it is an OUT process item, the net state of the input net is deactivated and the inquiry dialogue process is terminated. Otherwise, the process returns to step S51.

以上のようにして、自動問診システム1における問診対話処理が実行される。   As described above, the inquiry dialogue process in the automatic inquiry system 1 is executed.

最後に、一例として、自動問診システム1におけるストレスチェック問診票の対話問診処理について、図13を参照しながら説明する。   Finally, as an example, a dialogue check process of the stress check questionnaire in the automatic inquiry system 1 will be described with reference to FIG.

(シナリオステップ1)
まず、最初に、受診者によりマイク7から「ストレスチェック」という音声が入力される。この音声は音声認識部32によりテキストデータに変換され、認識情報入力部42に入力される。認識情報入力部42は、処理項目テーブルの各処理項目レコードを巡回的に選択しており、上記テキストデータの入力がされると、「ストレスチェック」というキーワードに一致するコーパスを有する処理項目レコードFCT1を選択する。この処理項目レコードFCT1は開始情報レコード群に属するので、シナリオ開始部35は、FCT1の出力ネットNET1を活性化する。
(Scenario step 1)
First, a voice “stress check” is input from the microphone 7 by the examinee. This voice is converted into text data by the voice recognition unit 32 and input to the recognition information input unit 42. The recognition information input unit 42 cyclically selects each processing item record in the processing item table, and when the text data is input, the processing item record FCT1 having a corpus that matches the keyword “stress check”. Select. Since this process item record FCT1 belongs to the start information record group, the scenario start unit 35 activates the output net NET1 of FCT1.

(シナリオステップ2)
一方、選択実行部43は、認識情報入力部42と並行して処理項目テーブルの各処理項目レコードを巡回的に選択しており、NET1が活性化されると、認識情報入力部42はNET1を入力ネットとする処理項目レコードJA1を選択する。この処理項目レコードJA1は接続点レコード群に属するので、接続点・終点処理部44は、JA1の出力ネットNET2を活性化し、入力ネットNET1を非活性化する。
(Scenario step 2)
On the other hand, the selection execution unit 43 cyclically selects each processing item record in the processing item table in parallel with the recognition information input unit 42. When NET1 is activated, the recognition information input unit 42 selects NET1. Select the process item record JA1 as the input net. Since this process item record JA1 belongs to the connection point record group, the connection point / end point processing unit 44 activates the output net NET2 of JA1 and deactivates the input net NET1.

(シナリオステップ3)
次に、NET2が活性化されると、選択実行部43は、NET2を入力ネットとする処理項目レコードTTS1を選択する。この処理項目レコードTTS1はガイド情報レコード群に属するので、ガイド文出力部40は、音声出力モジュール41を介して、TTS1のコーパス「ストレスチェックを始めます。これから13個の質問をしますので、あてはまる、あてはまらない、どちらともいえない、どれか一つでお答えください。答えをこちらで繰り返しますので、答えが違っていた場合は、マイクに向かって『前に戻る』というか、タッチパネルの『前に戻る』ボタンを押してください。それでは始めます。」をスピーカ6から出力する。そして、出力ネットNET3を活性化し、入力ネットNET2を非活性化する。
(Scenario step 3)
Next, when NET2 is activated, the selection execution unit 43 selects a process item record TTS1 having NET2 as an input net. Since this processing item record TTS1 belongs to the guide information record group, the guide sentence output unit 40 starts the corpus “stress check of TTS1 via the voice output module 41. Since 13 questions will be asked from now on, it applies. Please answer with one of them, which doesn't apply.If you answer wrong, say "Back to the front" or "Previous" on the touch panel. Press the “Return” button. Then, the output net NET3 is activated and the input net NET2 is deactivated.

(シナリオステップ4)
次に、NET3が活性化されると、選択実行部43はNET3を入力ネットとする処理項目レコードJA2を選択する。この処理項目レコードJA2は接続点レコード群に属するので、接続点・終点処理部44は、JA2の出力ネットNET4を活性化し、入力ネットNET3を非活性化する。
(Scenario step 4)
Next, when NET3 is activated, the selection execution unit 43 selects a process item record JA2 having NET3 as an input net. Since this process item record JA2 belongs to the connection point record group, the connection point / end point processing unit 44 activates the output net NET4 of JA2 and deactivates the input net NET3.

(シナリオステップ5)
次に、NET4が活性化されると、選択実行部43は、NET4を入力ネットとする処理項目レコードTTS2を選択する。この処理項目レコードTTS2は質問情報レコード群に属するので、質問文出力部37は、音声出力モジュール41を介して、TTS2のコーパス「質問1。ちょっとしたことでもイライラする。」をスピーカ6から出力する。そして、出力ネットNET5を活性化し、入力ネットNET4を非活性化する。
(Scenario step 5)
Next, when NET4 is activated, the selection execution unit 43 selects a process item record TTS2 having NET4 as an input net. Since this processing item record TTS2 belongs to the question information record group, the question sentence output unit 37 outputs the corpus “Question 1. I am frustrated even a little” from the speaker 6 via the voice output module 41. Then, the output net NET5 is activated and the input net NET4 is deactivated.

(シナリオステップ6)
次に、NET5が活性化されると、選択実行部43はNET5を入力ネットとする処理項目レコードJA3を選択する。この処理項目レコードJA3は接続点レコード群に属するので、接続点・終点処理部44は、JA3の出力ネットNET6を活性化し、入力ネットNET5を非活性化する。
(Scenario step 6)
Next, when NET5 is activated, the selection execution unit 43 selects a process item record JA3 having NET5 as an input net. Since this process item record JA3 belongs to the connection point record group, the connection point / end point processing unit 44 activates the output net NET6 of JA3 and deactivates the input net NET5.

(シナリオステップ7)
次に、NET6が活性化されると、認識情報入力部42は、NET6を入力ネットとするQB1を選択する。しかし、ここではまだ受診者により質問に対する回答が入力されていないので、何もしないで、認識情報入力部42は処理項目テーブルの各処理項目レコードを巡回的に選択し続ける。
(Scenario step 7)
Next, when NET6 is activated, the recognition information input unit 42 selects QB1 having NET6 as an input net. However, since the answer to the question has not yet been input by the examinee, the recognition information input unit 42 continues to cyclically select each processing item record in the processing item table without doing anything.

(シナリオステップ8−1)
次に、受診者によりマイク7から質問に対する回答の音声が入力される。例えば、「あてはまる」という音声が入力されたとする。認識情報入力部42は、NET6を入力ネットとするQB1を選択したときに、回答の音声入力がされたと判定すると、その回答に一致するコーパスを検査し、その一致したコーパスに従って出力ネットを選択する。この場合、「あてはまる」というコーパスに対応する出力ネットはNET7である。従って、回答判別部36は、QB1の選択された出力ネットNET7を活性化し、入力ネットNET6を非活性化する。
(Scenario step 8-1)
Next, the voice of the answer to the question is input from the microphone 7 by the examinee. For example, it is assumed that a voice “applicable” is input. When the recognition information input unit 42 selects QB1 with NET6 as an input net and determines that an answer voice is input, the recognition information input unit 42 examines a corpus that matches the answer and selects an output net according to the matching corpus. . In this case, the output net corresponding to the corpus “applicable” is NET7. Accordingly, the answer determination unit 36 activates the selected output net NET7 of QB1 and deactivates the input net NET6.

そして、NET7が活性化されると、選択実行部43はNET7を入力ネットとする処理項目レコードOUT1を選択する。この処理項目レコードOUT1は回答出力レコード群に属するので、回答出力部38は、質問1に対する回答「あてはまる」の回答番号を、問診結果テーブルに格納する。そして、OUT1の出力ネットNET14を活性化し、入力ネットNET7を非活性化する。   When NET7 is activated, the selection execution unit 43 selects a process item record OUT1 having NET7 as an input net. Since this processing item record OUT1 belongs to the answer output record group, the answer output unit 38 stores the answer number of the answer “applicable” to the question 1 in the inquiry result table. Then, the output net NET14 of OUT1 is activated and the input net NET7 is deactivated.

尚、回答音声が「あてはまらない」、「どちらともいえない」の場合も同様に、図13のシナリオに沿って動作する。   In the case where the answer voice is “not applicable” or “cannot be said”, the operation similarly follows the scenario of FIG.

(シナリオステップ8−2)
受診者によりマイク7から質問に対する回答の音声が「前に戻る」であった場合には、回答判別部36は、出力ネットとしてNET11を選択し、QB1の選択された出力ネットNET11を活性化し、入力ネットNET6を非活性化する。そして、NET11が活性化されると、選択実行部43はNET11を入力ネットとする処理項目レコードJA2を選択する。この処理項目レコードJA2は接続点レコード群に属するので、接続点・終点処理部44は、JA2の出力ネットNET6を活性化し、入力ネットNET11を非活性化する。このようにして、シナリオステップ5に戻る。
(Scenario step 8-2)
If the voice of the answer to the question from the microphone 7 by the examinee is “return to the front”, the answer determination unit 36 selects NET11 as the output net, activates the selected output net NET11 of QB1, The input net NET6 is deactivated. When NET11 is activated, the selection execution unit 43 selects a process item record JA2 having NET11 as an input net. Since this process item record JA2 belongs to the connection point record group, the connection point / end point processing unit 44 activates the output net NET6 of JA2 and deactivates the input net NET11. In this way, the process returns to scenario step 5.

(シナリオステップ8−3)
受診者によりマイク7から質問に対する回答の音声が「最初から」であった場合には、回答判別部36は、出力ネットとしてNET12を選択し、QB1の選択された出力ネットNET12を活性化し、入力ネットNET6を非活性化する。そして、NET12が活性化されると、選択実行部43はNET12を入力ネットとする処理項目レコードJA6を選択する。この処理項目レコードJA6は接続点レコード群に属するので、接続点・終点処理部44は、JA6の出力ネットNET19を活性化し、入力ネットNET12を非活性化する。更に、NET19が活性化されると、選択実行部43はNET19を入力ネットとする処理項目レコードJA1を選択する。この処理項目レコードJA1は接続点レコード群に属するので、接続点・終点処理部44は、JA1の出力ネットNET2を活性化し、入力ネットNET19を非活性化する。このようにして、シナリオステップ3に戻る。
(Scenario step 8-3)
When the voice of the answer to the question from the microphone 7 is “from the beginning” by the examinee, the answer determination unit 36 selects NET12 as the output net, activates the selected output net NET12 of QB1, and inputs Deactivate net NET6. When the NET 12 is activated, the selection execution unit 43 selects the process item record JA6 having the NET 12 as an input net. Since this process item record JA6 belongs to the connection point record group, the connection point / end point processing unit 44 activates the output net NET19 of JA6 and deactivates the input net NET12. Further, when the NET 19 is activated, the selection execution unit 43 selects the process item record JA1 having the NET 19 as an input net. Since this processing item record JA1 belongs to the connection point record group, the connection point / end point processing unit 44 activates the output net NET2 of JA1 and deactivates the input net NET19. Thus, it returns to scenario step 3.

(シナリオステップ8−4)
受診者によりマイク7から質問に対する回答の音声が「終わる」であった場合には、回答判別部36は、出力ネットとしてNET213を選択し、QB1の選択された出力ネットNET213を活性化し、入力ネットNET6を非活性化する。そして、NET213が活性化されると、選択実行部43はNET213を入力ネットとする処理項目レコードEND3を選択する。この処理項目レコードEND3は終点レコード群に属するので、接続点・終点処理部44は、入力ネットNET213を非活性化し、問診対話処理を終了する。
(Scenario step 8-4)
When the voice of the answer to the question from the microphone 7 is “finished” by the examinee, the answer determination unit 36 selects the NET 213 as the output net, activates the selected output net NET 213 of QB1, and Deactivate NET6. When the NET 213 is activated, the selection execution unit 43 selects the process item record END3 having the NET 213 as an input net. Since this process item record END3 belongs to the end point record group, the connection point / end point processing unit 44 deactivates the input net NET 213 and ends the inquiry dialogue process.

(シナリオステップ8−5)
受診者によりマイク7から質問に対する回答の音声がQB1のコーパスの何れにも該当しなかった場合、回答判別部36は、出力ネットとしてNET10を選択し、QB1の選択された出力ネットNET10を活性化し、入力ネットNET6を非活性化する。そして、NET10が活性化されると、選択実行部43はNET10を入力ネットとする処理項目レコードTTS3を選択する。この処理項目レコードTTS3はガイド情報レコード群に属するので、ガイド文出力部40は、音声出力モジュール41を介して、TTS3のコーパス「質問に対する回答は、『あてはまる』『あてはまらない』『どちらともいえない』のいずれかで答えてください。」をスピーカ6から出力する。そして、出力ネットNET13を活性化し、入力ネットNET10を非活性化する。次いで、NET13が活性化されると、選択実行部43はNET13を入力ネットとする処理項目レコードJA3を選択する。この処理項目レコードJA3は接続点レコード群に属するので、接続点・終点処理部44は、JA3の出力ネットNET6を活性化し、入力ネットNET13を非活性化する。このようにして、シナリオステップ7に戻る。
(Scenario step 8-5)
When the voice of the answer to the question from the microphone 7 by the examinee does not correspond to any of the corpus of QB1, the answer determination unit 36 selects NET10 as the output net and activates the selected output net NET10 of QB1. The input net NET6 is deactivated. When NET10 is activated, the selection execution unit 43 selects a process item record TTS3 that uses NET10 as an input net. Since this processing item record TTS3 belongs to the guide information record group, the guide sentence output unit 40, via the voice output module 41, the corpus of TTS3 “Answer to the question is“ applicable ”,“ not applicable ”, and“ not applicable ” "Please answer with either of the following." Is output from the speaker 6. Then, the output net NET13 is activated and the input net NET10 is deactivated. Next, when the NET 13 is activated, the selection execution unit 43 selects the process item record JA3 having the NET 13 as an input net. Since this process item record JA3 belongs to the connection point record group, the connection point / end point processing unit 44 activates the output net NET6 of JA3 and deactivates the input net NET13. Thus, the process returns to scenario step 7.

このように、質問に対する受信者の回答が、その質問に対して想定された回答(この場合「あてはまる」、「あてはまらない」、「どちらともいえない」、「前に戻る」、「最初から」、「終わる」)の何れでもない想定外の回答であった場合には、質問文に対する正しい選択回答を行うように誘導するガイド文が音声出力され再度の回答を待つ状態となる。従って、受信者が想定回答をするように正しく誘導することができる。   In this way, the recipient's answer to the question is the expected answer to the question (in this case “applicable”, “not applicable”, “neither”, “return to previous”, “from the beginning” If the answer is an unexpected answer that is neither “End”), a guide sentence that guides the user to make a correct selection answer to the question sentence is output as a voice, and a reply is awaited. Therefore, it is possible to correctly guide the receiver to make an assumed answer.

尚、シナリオステップ8以降は、同様にして、図13の問診対話シナリオに沿って問診対話処理が行われるので、以降の説明は省略する。   In addition, since scenario step 8 and subsequent steps are performed in the same manner in accordance with the interview dialogue scenario of FIG. 13, the subsequent description is omitted.

本発明の実施例1に係る自動問診システムの構成を表す図である。It is a figure showing the structure of the automatic inquiry system which concerns on Example 1 of this invention. 図1の自動問診システムの機能的な構成を表す図である。It is a figure showing the functional structure of the automatic inquiry system of FIG. 質問情報記憶部11に保存されている質問情報レコード群のデータ構造を表す図である。It is a figure showing the data structure of the question information record group preserve | saved at the question information storage part 11. FIG. 問診結果記憶部12に記憶された問診結果テーブル及び受診者テーブルのデータ構造と他のテーブルとの関係を表す図である。It is a figure showing the relationship between the data structure of the inquiry result table and the examinee table stored in the inquiry result storage unit 12, and other tables. 本発明の実施例1に係る自動問診システム1の動作を表すフローチャートである。It is a flowchart showing operation | movement of the automatic inquiry system 1 which concerns on Example 1 of this invention. タッチパネル8の画面上に表示される名前及び受診者IDの入力画面である。It is an input screen for the name and the examinee ID displayed on the screen of the touch panel 8. タッチパネル8の画面上に表示される問診票の選択画面である。It is a selection screen for an inquiry form displayed on the screen of the touch panel 8. タッチパネル8の画面上に表示される質問ガイド画面である。It is a question guide screen displayed on the screen of the touch panel 8. タッチパネル8の画面上に表示される質問ガイド画面である。It is a question guide screen displayed on the screen of the touch panel 8. タッチパネル8の画面上に表示される終了画面である。It is an end screen displayed on the screen of the touch panel 8. 本実施例2に係る自動問診システムの機能的な構成を表す図である。It is a figure showing the functional structure of the automatic inquiry system which concerns on the present Example 2. FIG. ストレスチェック問診票、健康調査票問診票、HDA尺度問診票、及びTAS−20問診票の問診対話シナリオの遷移図の一部である。It is a part of transition diagram of the interview dialogue scenario of a stress check questionnaire, a health survey questionnaire, an HDA scale questionnaire, and a TAS-20 questionnaire. ストレスチェック問診票の問診対話シナリオ全体の遷移図である。It is a transition figure of the whole interview dialog scenario of a stress check questionnaire. 処理項目テーブル記憶部33に格納された処理項目テーブルを表す図である。It is a figure showing the process item table stored in the process item table memory | storage part. 処理項目テーブル記憶部33に格納された処理項目テーブルの一例を表す図である。4 is a diagram illustrating an example of a process item table stored in a process item table storage unit 33. FIG. ネット状態テーブル記憶部34に格納されたネット状態テーブルの一例を表す図である。4 is a diagram illustrating an example of a net state table stored in a net state table storage unit 34. FIG. 音声認識部32と認識情報入力部42の動作を表すフローチャートである。4 is a flowchart showing operations of a voice recognition unit 32 and a recognition information input unit 42. 選択実行部43の動作を示すフローチャートである。5 is a flowchart showing the operation of a selection execution unit 43. 特許文献2に記載の健康管理支援システムの動作を表すフローチャートである。10 is a flowchart showing the operation of the health management support system described in Patent Document 2.

符号の説明Explanation of symbols

自動問診システム1
管理サーバ2
診断者側コンピュータ3
受診者側端末装置4
ネットワーク5
スピーカ6
マイク7
タッチパネル8
質問情報記憶部11
問診結果記憶部12
通信インタフェース13
音声出力部14
音声認識部15
質問群選択部16
質問読出部17
回答判別部18
回答保存部19
割込制御部20
ガイド情報記憶部21
ガイド出力部22
通信インタフェース23
コンピュータ30
認識辞書記憶部31
音声認識部32
処理項目テーブル記憶部33
ネット状態テーブル記憶部34
シナリオ開始部35
回答判別部36
質問文出力部37
回答出力部38
問診結果保存モジュール39
ガイド文出力部40
音声出力モジュール41
認識情報入力部42
選択実行部43
接続点・終点処理部44
画面表示モジュール45
入力認識モジュール46
Automatic inquiry system 1
Management server 2
Diagnostic computer 3
Patient side terminal device 4
Network 5
Speaker 6
Mike 7
Touch panel 8
Question information storage unit 11
Interview result storage unit 12
Communication interface 13
Audio output unit 14
Voice recognition unit 15
Question group selector 16
Question reading unit 17
Answer determination unit 18
Answer storage unit 19
Interrupt control unit 20
Guide information storage unit 21
Guide output unit 22
Communication interface 23
Computer 30
Recognition dictionary storage unit 31
Voice recognition unit 32
Process item table storage unit 33
Net state table storage unit 34
Scenario starter 35
Answer determination unit 36
Question sentence output part 37
Answer output unit 38
Interview result storage module 39
Guide sentence output unit 40
Audio output module 41
Recognition information input unit 42
Selection execution unit 43
Connection point / end point processing unit 44
Screen display module 45
Input recognition module 46

Claims (4)

受診者に対する問診を自動で行う自動問診システムであって、
受診者が音声を入力するマイクと、
受診者に対して音声を出力するスピーカと、
受診者が前記マイクから入力する音声を文字データに変換し出力する音声認識手段と、
文字データを音声に変換して前記スピーカから出力する音声出力手段と、
問診における自動問診システムと受診者との対話の進行内容である問診対話シナリオにおける自動問診システムから受診者に対する質問文であって複数の選択肢による回答を求める質問文の情報である質問情報が記憶された質問情報記憶手段と、
前記質問文に対して受診者が選択する選択回答の情報である回答情報を、前記質問文と関連づけて記憶する問診結果記憶手段と、
前記質問情報記憶手段に記憶された前記質問情報を順次読み出し、前記音声出力手段により前記スピーカから前記質問文を発話出力する質問読出手段と、
前記質問読出手段が前記質問文を発話出力した直後に、受診者が前記マイクから入力し前記音声認識手段により文字情報に変換された回答情報を、直前の前記質問文に対して想定される選択肢を選択する想定回答か、それ以外の想定外回答かを判別する回答判別手段と、
前記各質問文の選択肢の種別に応じて、当該質問文に対する正しい選択回答を行うように誘導するためのガイド文の情報であるガイド情報を記憶するガイド情報記憶手段と、
前記回答判別手段により前記回答情報が前記想定回答であると判別された場合、当該回答情報を、前記問診結果記憶手段に前記質問文と関連づけて保存する回答保存手段と、
前記回答判別手段により前記回答情報が前記想定外回答であると判別された場合、前記質問文の選択肢の種別に応じて、前記ガイド情報記憶手段に記憶されたガイド情報を読み出し、当該ガイド情報を前記音声出力手段により前記スピーカから発話出力するガイド出力手段と、を備えたことを特徴とする自動問診システム。
An automatic interview system that automatically conducts interviews with patients,
A microphone for the examinee to input voice,
A speaker that outputs sound to the examinee;
A voice recognition means for converting the voice inputted by the examinee from the microphone into character data and outputting it;
Voice output means for converting character data into voice and outputting from the speaker;
Stores the question information, which is a question sentence for the question from the automated question system in the question dialogue dialogue scenario, which is the progress of the dialogue between the automated question system and the examinee in the interview, asking for answers from multiple options. Question information storage means,
An inquiry result storage means for storing answer information, which is information of a selected answer selected by the examinee for the question sentence, in association with the question sentence;
Question reading means for sequentially reading the question information stored in the question information storage means, and outputting the question sentence from the speaker by the voice output means;
Immediately after the question reading means utters and outputs the question sentence, the answer information that the examinee inputs from the microphone and is converted into character information by the voice recognition means is assumed for the immediately preceding question sentence. Answer discriminating means for discriminating whether the answer is an expected answer or other unexpected answer;
Guide information storage means for storing guide information that is guide sentence information for guiding to make a correct selection answer to the question sentence according to the type of each question sentence choice;
When the answer determination means determines that the answer information is the assumed answer, the answer storage means for storing the answer information in association with the question text in the inquiry result storage means;
When the answer determination means determines that the answer information is the unexpected answer, the guide information stored in the guide information storage means is read according to the type of option of the question sentence, and the guide information is An automatic inquiry system comprising: guide output means for outputting an utterance from the speaker by the voice output means.
前記回答判別手段は、前記音声出力手段が前記質問情報を発話出力した直後に、受診者が前記マイクから入力し前記音声認識手段により文字情報に変換された回答情報を、直前の前記質問情報に対して規定される選択肢を選択する想定回答か、割込制御指示か、それ以外の想定外回答かを判別するものであり、
前記回答判別手段により前記回答情報が前記割込制御指示であると判別された場合、その割込制御指示により指定される割り込み動作を実行する割込制御手段を備えたことを特徴とする請求項1記載の自動問診システム。
Immediately after the voice output unit utters and outputs the question information, the answer determination unit converts the answer information input from the microphone and converted into character information by the voice recognition unit into the previous question information. It is to determine whether the answer is an assumed answer for selecting the option specified for the interrupt, an interrupt control instruction, or any other unexpected answer.
The interrupt control means for executing an interrupt operation specified by the interrupt control instruction when the answer determination means determines that the answer information is the interrupt control instruction. The automatic inquiry system according to 1.
受診者に対する問診を自動で行う自動問診システムであって、
受診者が音声を入力するマイクと、
受診者に対して音声を出力するスピーカと、
受診者が前記マイクから入力する音声を文字データに変換し出力する音声認識手段と、
文字データを音声に変換して前記スピーカから出力する音声出力手段と、
問診における自動問診システムと受診者との対話の進行内容である問診対話シナリオにおけるシステム側のそれぞれの情報処理単位を処理項目といい、前記問診対話シナリオに沿った対話プロセスの進行に伴う各処理項目間の遷移関係をネットというとき、
前記各処理項目のそれぞれに対してレコードが割り当てられ、前記各レコードには、当該処理項目へ遷移する側の入力ネットを特定する入力ネット情報及び当該処理項目から遷移する側の出力ネットを特定する出力ネット情報並びに当該処理項目に対し必要に応じて設定される発話内容又は受話キーワードを記述するコーパスが格納された処理項目テーブルを記憶する処理項目テーブル記憶手段と、
前記各ネットのそれぞれに対してレコードが割り当てられ、前記各レコードには、当該ネットのネットID、及び当該ネットの活性状態を表すネット状態フラグが格納されたネット状態テーブルを記憶するネット状態テーブル記憶手段と、
問診結果を記憶する問診結果記憶手段と、
を備え、
前記処理項目テーブルは、少なくとも、
前記コーパスとして、前記問診対話シナリオを開始するための開始キーワードが格納され、前記出力ネット情報として、前記問診対話シナリオにおける最初の質問文又はガイド文の発話処理を行う処理項目へ遷移するネットのネットIDが記憶された開始情報レコード群と、
前記コーパスとして、受診者に対する質問文であって複数の選択肢による回答を求める質問文が格納され、前記入力ネット情報として、前記問診対話シナリオにおいて当該質問文への遷移元の処理項目に接続するネットのネットIDが格納され、前記出力ネット情報として、前記問診対話シナリオにおいて当該質問文に対する受診者の回答を判定する処理項目に接続するネットのネットIDが格納された質問情報レコード群と、
前記入力ネット情報として、何れかの前記質問文の処理項目に接続する前記入力ネットのネットIDが記憶され、前記コーパスとして、前記質問文に対して受診者が選択する選択回答のキーワードである回答キーワードが複数格納され、前記出力ネット情報として、それらの前記回答キーワードに応じて選択される前記出力ネットのネットID及び想定外回答に対して選択される前記出力ネットのネットIDが記憶された回答情報レコード群と、
前記コーパスとして、それぞれの前記質問文に対応して当該質問文に対する正しい選択回答を行うように誘導するガイド文及びその他のガイド文が記憶され、前記入力ネット情報として、前記問診対話シナリオにおいて当該ガイド文への遷移元の処理項目に接続するネットのネットIDが格納され、前記出力ネット情報として、前記問診対話シナリオにおいて当該ガイド文からの遷移先の処理項目に接続するネットのネットIDが格納されたガイド情報レコード群と、
を含み、
前記音声認識手段から前記文字データが入力された場合に、前記開始情報レコード群の各レコードのうち前記文字データに一致又は含まれるコーパスを検索し、検索により抽出されるレコードの前記出力ネットの前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得された前記ネットIDに対応するネット状態フラグを活性化するシナリオ開始手段と、
前記質問情報レコード群の全レコードを順次選択し、選択したレコードの前記入力ネットに対応する前記ネット状態テーブルの前記ネット状態フラグが活性状態であれば、当該選択したレコードの前記質問文を前記音声出力手段により出力するとともに、前記ネット状態テーブルの当該選択したレコードの前記入力ネットに対応する前記ネット状態フラグを非活性化、当該選択したレコードの前記出力ネットの前記ネット状態フラグを活性化する質問文出力手段と、
前記音声認識手段から前記文字データが入力された場合に、前記回答情報レコード群の各レコードのうち前記入力ネットに対する前記ネット状態テーブルの前記ネット状態フラグが活性状態にあるレコードを検索し、検索の結果レコードが抽出された場合、そのレコードの何れかの前記回答キーワードが前記文字データに一致又は含まれるか否かを判定し、前記文字データに一致又は含まれる前記回答キーワードがある場合には、その回答キーワードに対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化し、前記入力ネットに対する前記ネット状態フラグを非活性化するとともに、当該回答キーワードの選択結果を前記問診結果記憶手段に格納する一方、前記文字データに一致又は含まれる前記回答キーワードがない場合には、想定外回答に対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化するとともに、前記入力ネットに対する前記ネット状態フラグを非活性化する回答判別手段と、
前記ガイド情報レコード群の全レコードを順次選択し、選択したレコードの前記入力ネットに対応する前記ネット状態テーブルの前記ネット状態フラグが活性状態であれば、当該選択したレコードの前記ガイド文を前記音声出力手段により出力するとともに、前記ネット状態テーブルの当該選択したレコードの前記入力ネットに対応する前記ネット状態フラグを非活性化、当該選択したレコードの前記出力ネットの前記ネット状態フラグを活性化するガイド文出力手段と、
を備えたことを特徴とする自動問診システム。
An automatic interview system that automatically conducts interviews with patients,
A microphone for the examinee to input voice,
A speaker that outputs sound to the examinee;
A voice recognition means for converting the voice inputted by the examinee from the microphone into character data and outputting it;
Voice output means for converting character data into voice and outputting from the speaker;
Each information processing unit on the system side in the interview dialogue scenario, which is the progress of the dialogue between the automatic interview system and the examinee in the interview, is called a processing item, and each processing item that accompanies the progress of the dialog process according to the interview dialog scenario When the transition relationship between them is called a net,
A record is assigned to each of the processing items, and each record specifies input net information for specifying an input net on the transition side to the processing item and an output net on the side of transition from the processing item. A processing item table storage means for storing a processing item table storing a corpus that describes output net information and utterance contents or receiving keywords set as necessary for the processing item;
A record is assigned to each of the nets, and each record has a net state table storage for storing a net state table in which the net ID of the net and a net state flag indicating the active state of the net are stored. Means,
An interrogation result storage means for memorizing interrogation results;
With
The processing item table is at least:
As the corpus, a start keyword for starting the interview dialogue scenario is stored, and as the output net information, a net of a net that transitions to a processing item that performs an utterance process of the first question sentence or guide sentence in the interview dialogue scenario A start information record group in which an ID is stored;
As the corpus, a question sentence that is a question sentence for the examinee and that asks for answers by a plurality of options is stored, and the input net information is a network that is connected to a processing item that is a transition source to the question sentence in the inquiry dialogue scenario. A group of question information records in which the net ID of the net connected to the processing item for determining the answer of the examinee to the question sentence in the inquiry dialogue scenario is stored as the output net information;
As the input net information, a net ID of the input net connected to any of the question sentence processing items is stored, and as the corpus, an answer that is a keyword of a selected answer selected by the examinee for the question sentence A plurality of keywords are stored and, as the output net information, a net ID of the output net selected according to the answer keyword and a net ID of the output net selected for an unexpected answer are stored Information records,
As the corpus, a guide sentence and other guide sentences for guiding a correct selection answer to the question sentence corresponding to each question sentence and other guide sentences are stored, and the guide information in the inquiry dialogue scenario is used as the input net information. The net ID of the net connected to the process item that is the transition source to the sentence is stored, and the net ID of the net that is connected to the process item that is the transition destination from the guide sentence in the inquiry dialogue scenario is stored as the output net information. Guide information record group,
Including
When the character data is input from the voice recognition unit, the corpus that matches or is included in the character data among the records of the start information record group is searched, and the output net of the record extracted by the search Scenario start means for obtaining a net ID and activating a net state flag corresponding to the net ID obtained in the net state table storage means;
If all the records of the question information record group are sequentially selected and the net status flag of the net status table corresponding to the input net of the selected record is active, the question text of the selected record is A question that is output by the output means, deactivates the net status flag corresponding to the input net of the selected record of the net status table, and activates the net status flag of the output net of the selected record Sentence output means;
When the character data is input from the voice recognition means, the record of the net status flag of the net status table for the input net is searched for among the records of the answer information record group, and the search When a result record is extracted, it is determined whether any one of the answer keywords of the record matches or is included in the character data. If there is the answer keyword that matches or is included in the character data, The net ID for the answer keyword is acquired, the net status flag corresponding to the net ID acquired in the net status table storage means is activated, the net status flag for the input net is deactivated, and the answer While storing keyword selection results in the inquiry result storage means, If there is no answer keyword that matches or is included in the written data, the net ID for the unexpected answer is acquired, and the net status flag corresponding to the net ID acquired in the net status table storage means is activated. And answer determination means for deactivating the net status flag for the input net;
If all the records of the guide information record group are sequentially selected and the net status flag of the net status table corresponding to the input net of the selected record is active, the guide sentence of the selected record is converted to the voice. A guide for outputting by the output means, deactivating the net status flag corresponding to the input net of the selected record of the net status table, and activating the net status flag of the output net of the selected record Sentence output means;
Automatic interview system characterized by having
前記回答情報レコード群には、前記入力ネット情報として、何れかの前記質問文の処理項目に接続する前記入力ネットのネットIDが記憶され、前記コーパスとして、複数の前記回答キーワード及び割込制御を指示するための割込制御キーワードが格納され、前記出力ネット情報として、それらの前記回答キーワード及び前記割込制御キーワードに応じて選択される前記出力ネットのネットID及び想定外回答に対して選択される前記出力ネットのネットIDが記憶されており、
前記回答判別手段は、前記音声認識手段から前記文字データが入力された場合に、前記回答情報レコード群の各レコードのうち前記入力ネットに対する前記ネット状態テーブルの前記ネット状態フラグが活性状態にあるレコードを検索し、検索の結果レコードが抽出された場合、そのレコードの何れかの前記回答キーワードが前記文字データに一致又は含まれるか否かを判定し、
前記文字データに一致又は含まれる前記回答キーワードがある場合には、その回答キーワード又はその割込制御キーワードに対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化し、前記入力ネットに対する前記ネット状態フラグを非活性化するとともに、当該回答キーワードの選択結果を前記問診結果記憶手段に格納し、
前記文字データに一致又は含まれる前記割込制御キーワードがある場合には、その割込制御キーワードに対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化するとともに、前記入力ネットに対する前記ネット状態フラグを非活性化し、
前記文字データに一致又は含まれる前記回答キーワードがない場合には、想定外回答に対する前記ネットIDを取得し、前記ネット状態テーブル記憶手段において取得した前記ネットIDに対応するネット状態フラグを活性化するとともに、前記入力ネットに対する前記ネット状態フラグを非活性化する
ことを特徴とする請求項3記載の自動問診システム。
In the answer information record group, as the input net information, a net ID of the input net connected to any of the question sentence processing items is stored, and the corpus includes a plurality of answer keywords and interrupt control. An interrupt control keyword for instructing is stored, and the output net information is selected for the net ID and unexpected response of the output net selected according to the answer keyword and the interrupt control keyword. Net ID of the output net is stored,
The answer discriminating means is a record in which the net status flag of the net status table for the input net is active in each record of the answer information record group when the character data is inputted from the voice recognition means. When a search result record is extracted, it is determined whether or not any of the answer keywords in the record matches or is included in the character data,
If there is an answer keyword that matches or is included in the character data, the net ID corresponding to the answer keyword or the interrupt control keyword is obtained, and the net corresponding to the net ID obtained in the net state table storage means Activate the status flag, deactivate the net status flag for the input net, and store the selection result of the answer keyword in the inquiry result storage means,
If there is the interrupt control keyword that matches or is included in the character data, the net ID for the interrupt control keyword is acquired, and the net status flag corresponding to the net ID acquired in the net status table storage means And deactivating the net status flag for the input net,
If there is no answer keyword that matches or is included in the character data, the net ID for the unexpected answer is acquired, and the net state flag corresponding to the net ID acquired in the net state table storage means is activated. 4. The automatic inquiry system according to claim 3, wherein the net status flag for the input net is deactivated.
JP2008266852A 2008-10-15 2008-10-15 Automatic inquiry system Withdrawn JP2010094243A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008266852A JP2010094243A (en) 2008-10-15 2008-10-15 Automatic inquiry system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008266852A JP2010094243A (en) 2008-10-15 2008-10-15 Automatic inquiry system

Publications (1)

Publication Number Publication Date
JP2010094243A true JP2010094243A (en) 2010-04-30

Family

ID=42256358

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008266852A Withdrawn JP2010094243A (en) 2008-10-15 2008-10-15 Automatic inquiry system

Country Status (1)

Country Link
JP (1) JP2010094243A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2377726A1 (en) 2010-04-15 2011-10-19 Ichikoh Industries, Ltd. Vehicle outside mirror device
JP2012239602A (en) * 2011-05-18 2012-12-10 Toshiyuki Matsui Medical interview device and program
JP2013156844A (en) * 2012-01-30 2013-08-15 Toshiba Tec Corp Medical support device and program
WO2014045546A1 (en) * 2012-09-24 2014-03-27 Necソフト株式会社 Mental health care support device, system, method, and program
JP2014128459A (en) * 2012-12-28 2014-07-10 Kddi Corp User interface device, program and method capable of timely presenting behavior correspondence information
JP2016202798A (en) * 2015-04-28 2016-12-08 鉄彦 堀 Computer system
JP2019040495A (en) * 2017-08-28 2019-03-14 沖電気工業株式会社 Image processor, image processing method, and program
JP2019046132A (en) * 2017-09-01 2019-03-22 シャープ株式会社 Network system, information processing method, server, and device
WO2019111618A1 (en) * 2017-12-08 2019-06-13 日本電気株式会社 Patient status determination device, patient status determination system, patient status determination method, and patient status determination program recording medium
JP2020194202A (en) * 2019-05-24 2020-12-03 株式会社WorkVision Inquiry information input device, method, and program
JP2021162929A (en) * 2020-03-30 2021-10-11 東京瓦斯株式会社 Nursing support system, nursing support method, medical support system, medical support method, and program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2377726A1 (en) 2010-04-15 2011-10-19 Ichikoh Industries, Ltd. Vehicle outside mirror device
JP2012239602A (en) * 2011-05-18 2012-12-10 Toshiyuki Matsui Medical interview device and program
JP2013156844A (en) * 2012-01-30 2013-08-15 Toshiba Tec Corp Medical support device and program
WO2014045546A1 (en) * 2012-09-24 2014-03-27 Necソフト株式会社 Mental health care support device, system, method, and program
JPWO2014045546A1 (en) * 2012-09-24 2016-08-18 Necソリューションイノベータ株式会社 Mental health care support device, system, method and program
JP2014128459A (en) * 2012-12-28 2014-07-10 Kddi Corp User interface device, program and method capable of timely presenting behavior correspondence information
JP2016202798A (en) * 2015-04-28 2016-12-08 鉄彦 堀 Computer system
JP2019040495A (en) * 2017-08-28 2019-03-14 沖電気工業株式会社 Image processor, image processing method, and program
JP2019046132A (en) * 2017-09-01 2019-03-22 シャープ株式会社 Network system, information processing method, server, and device
WO2019111618A1 (en) * 2017-12-08 2019-06-13 日本電気株式会社 Patient status determination device, patient status determination system, patient status determination method, and patient status determination program recording medium
JPWO2019111618A1 (en) * 2017-12-08 2020-11-26 日本電気株式会社 Patient condition determination device, patient condition determination system, patient condition determination method, and patient condition determination program
JP7064227B2 (en) 2017-12-08 2022-05-10 日本電気株式会社 Patient condition determination device, patient condition determination system, patient condition determination method, and patient condition determination program
JP2020194202A (en) * 2019-05-24 2020-12-03 株式会社WorkVision Inquiry information input device, method, and program
JP2021162929A (en) * 2020-03-30 2021-10-11 東京瓦斯株式会社 Nursing support system, nursing support method, medical support system, medical support method, and program

Similar Documents

Publication Publication Date Title
JP2010094243A (en) Automatic inquiry system
US6434547B1 (en) Data capture and verification system
CN113287175B (en) Interactive health state assessment method and system thereof
US20130158434A1 (en) Apparatus for voice assisted medical diagnosis
US10657960B2 (en) Interactive system, terminal, method of controlling dialog, and program for causing computer to function as interactive system
Rodger et al. A field study of the impact of gender and user's technical experience on the performance of voice-activated medical tracking application
Giorgino et al. Automated spoken dialogue system for hypertensive patient home management
CN107910073A (en) A kind of emergency treatment previewing triage method and device
US20190297033A1 (en) Techniques for improving turn-based automated counseling to alter behavior
US9864838B2 (en) Clinically intelligent parsing
US10978209B2 (en) Method of an interactive health status assessment and system thereof
JPWO2014080585A1 (en) Cognitive distortion correction support system, user awareness information extraction method, and program therefor
Georgila et al. The MATCH corpus: a corpus of older and younger users’ interactions with spoken dialogue systems
JP6729923B1 (en) Deafness determination device, deafness determination system, computer program, and cognitive function level correction method
JP2023048799A (en) Medical care system including online medical care
JP2017219845A (en) Speech promotion apparatus and speech promotion program
US11547345B2 (en) Dynamic neuropsychological assessment tool
JP2010054549A (en) Answer voice-recognition system
US20230148945A1 (en) Dynamic neuropsychological assessment tool
JP6290111B2 (en) Electronic record recording support apparatus and electronic record recording support method
US20230018077A1 (en) Medical information processing system, medical information processing method, and storage medium
JP2017083819A (en) Information processing device and program
JPWO2019181008A1 (en) Dialogue support devices, dialogue support methods, and programs
CN110767282B (en) Health record generation method and device and computer readable storage medium
CN112908362B (en) System based on acquisition robot terminal, method and medium

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120110