JP2020144676A - Information linking system, information linking server, voice i/o device, information linking method, and program - Google Patents

Information linking system, information linking server, voice i/o device, information linking method, and program Download PDF

Info

Publication number
JP2020144676A
JP2020144676A JP2019041660A JP2019041660A JP2020144676A JP 2020144676 A JP2020144676 A JP 2020144676A JP 2019041660 A JP2019041660 A JP 2019041660A JP 2019041660 A JP2019041660 A JP 2019041660A JP 2020144676 A JP2020144676 A JP 2020144676A
Authority
JP
Japan
Prior art keywords
information
voice
unit
text
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019041660A
Other languages
Japanese (ja)
Inventor
奈津子 山口
Natsuko Yamaguchi
奈津子 山口
久子 森田
Hisako Morita
久子 森田
雅樹 近野
Masaki Konno
雅樹 近野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2019041660A priority Critical patent/JP2020144676A/en
Publication of JP2020144676A publication Critical patent/JP2020144676A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

To provide a technique that allows for recording necessary information through natural dialogue without having to perform special manipulation.SOLUTION: An information linking system is provided, comprising: a plurality of voice input/output devices for receiving utterance voice; a symptom information storage unit for storing medical record information including biological information of patients; a voice recognition unit for converting entered utterance voice into text; a symptom information generation unit configured to extract at least biological information of a patient from the text and store the extracted information in the symptom information storage unit; and an output generation unit configured to send the biological information to the voice input/output device having key information associated with each other to let the voice input/output devices output the biological information.SELECTED DRAWING: Figure 1

Description

本発明は、情報連携システム、情報連携サーバー、音声入出力装置、情報連携方法およびプログラムに関するものである。 The present invention relates to an information linkage system, an information linkage server, a voice input / output device, an information linkage method and a program.

特許文献1には、「情報を入力するための入力エリアを入力画面に表示するアプリケーションソフトウェアに対して、音声入力機能を追加する入力支援装置であって、前記入力エリアの表示位置と、当該入力エリアを表す読みを特定する第1の情報と、を対応付けた画面構成テーブルを格納する画面構成テーブル格納部と、発話音声に対する音声認識処理の結果を表す第2の情報を取得し、取得した前記第2の情報に対応する前記入力エリアの表示位置を、前記画面構成テーブルを参照して特定し、特定した前記表示位置を選択する操作情報を、前記アプリケーションソフトウェアに入力する入力情報生成部と、を有する入力支援装置」と記載されている。 Patent Document 1 describes "an input support device that adds a voice input function to application software that displays an input area for inputting information on an input screen, and the display position of the input area and the input. The screen configuration table storage unit that stores the screen configuration table associated with the first information that specifies the reading that represents the area, and the second information that represents the result of the voice recognition processing for the spoken voice are acquired and acquired. With reference to the screen configuration table, the display position of the input area corresponding to the second information is specified, and the operation information for selecting the specified display position is input to the application software with the input information generation unit. , Is described as "input support device having."

特開2013−061793号公報Japanese Unexamined Patent Publication No. 2013-061793

上記技術は、入力エリアを発声により操作するものであり、項目名を発声後入力内容を発声することで入力できるが、自然な対話から適切に入力することはできない。 In the above technique, the input area is operated by utterance, and the item name can be input by uttering the input content after uttering, but it cannot be properly input from a natural dialogue.

本発明の目的は、特別な操作をせずに自然な対話により必要な情報を記録することにある。 An object of the present invention is to record necessary information by natural dialogue without any special operation.

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。本発明の一態様に係る情報連携システムは、発話音声を受け付ける複数の音声入出力装置と、患者の生体情報を含むカルテ情報を記憶する症状情報記憶部と、入力された発話音声をテキスト化する音声認識部と、上記テキストから少なくとも上記患者の上記生体情報を抽出して上記症状情報記憶部に記憶させる症状情報作成部と、上記生体情報を互いに関連付けられたキー情報を有する上記音声入出力装置に送信して出力させる出力作成部と、を有する。 The present application includes a plurality of means for solving at least a part of the above problems, and examples thereof are as follows. The information linkage system according to one aspect of the present invention converts a plurality of voice input / output devices that receive spoken voice, a symptom information storage unit that stores chart information including biological information of a patient, and input spoken voice into text. A voice recognition unit, a symptom information creation unit that extracts at least the biological information of the patient from the text and stores it in the symptom information storage unit, and the voice input / output device having key information associated with each other. It has an output creation unit for transmitting and outputting to.

また、発明の別の態様にかかる情報連携システムは、複数の音声入出力装置と上記音声入出力装置とネットワークを介して通信可能に接続される情報連携サーバー装置と、を備え、上記音声入出力装置は、それぞれ、入力された発話音声をテキスト化して所定のキー情報とともに上記情報連携サーバー装置に対して送信する制御部を備え、上記情報連携サーバー装置は、患者の生体情報を含む情報を記憶する症状情報記憶部と、上記テキストから少なくとも上記患者の上記生体情報を抽出して上記症状情報記憶部に記憶させる症状情報作成部と、上記生体情報を互いに関連付けられた上記キー情報を有する上記音声入出力装置に送信して出力させる出力作成部と、を有する。 Further, the information linkage system according to another aspect of the present invention includes a plurality of voice input / output devices and an information linkage server device that is communicably connected to the voice input / output device via a network, and includes the voice input / output device. Each device includes a control unit that converts the input speech voice into text and transmits it to the information cooperation server device together with predetermined key information, and the information cooperation server device stores information including biometric information of the patient. The symptom information storage unit, the symptom information creation unit that extracts at least the biological information of the patient from the text and stores the biological information in the symptom information storage unit, and the voice having the key information associated with each other. It has an output creation unit for transmitting and outputting to an input / output device.

また、上述の情報連携システムであって、上記音声入出力装置のうち少なくとも一つは緊急車両に設けられ、上記患者は上記緊急車両に収容した患者であってもよい。 Further, in the above-mentioned information cooperation system, at least one of the above-mentioned voice input / output devices may be provided in the emergency vehicle, and the above-mentioned patient may be a patient housed in the above-mentioned emergency vehicle.

また、上述の情報連携システムであって、上記音声入出力装置のうち少なくとも一つは医療従事者が医療行為を行う救急室に設けられ、上記音声入出力装置は、少なくとも上記生体情報を表示するディスプレイ装置を備える、ことを特徴とするものであってもよい。 Further, in the above-mentioned information linkage system, at least one of the above-mentioned voice input / output devices is provided in an emergency room where a medical worker performs medical treatment, and the above-mentioned voice input / output device displays at least the above-mentioned biological information. It may be characterized by including a display device.

また、上述の情報連携システムであって、上記音声入出力装置の制御部は、上記発話音声をテキスト化する処理において、上記発話音声を認識する音声認識処理を行い、該処理では、上記患者の上記生体情報に関する所定の用語については近似する語への変換を行わない、ことを特徴とするものであってもよい。 Further, in the above-mentioned information cooperation system, the control unit of the above-mentioned voice input / output device performs a voice recognition process for recognizing the above-mentioned uttered voice in the process of converting the uttered voice into text, and in the process, the above-mentioned patient's The predetermined terms related to the biometric information may be characterized in that they are not converted into similar terms.

また、上述の情報連携システムであって、上記情報連携サーバー装置は、上記テキストを互いに共通する上記キー情報を有する上記音声入出力装置に送信して時系列に共有させる時系列会話処理部を備え、上記音声入出力装置の一つから新たな患者に関する発話がなされると、上記キー情報を発行して、該音声入出力装置とは異なる他の音声入出力装置の少なくとも一つと該キー情報を関連付ける、ことを特徴とするものであってもよい。 Further, in the above-mentioned information cooperation system, the above-mentioned information cooperation server device includes a time-series conversation processing unit that transmits the above-mentioned texts to the above-mentioned voice input / output device having the above-mentioned key information common to each other and shares them in time series. When an utterance about a new patient is made from one of the voice input / output devices, the key information is issued, and the key information is transmitted to at least one of the other voice input / output devices different from the voice input / output device. It may be characterized by associating.

また、上述の情報連携システムであって、上記出力作成部は、上記生体情報とともに、上記テキストを時系列に表示する画面情報を作成して互いに関連付けられた上記キー情報を有する上記音声入出力装置に出力させる、ことを特徴とするものであってもよい。 Further, in the above-mentioned information cooperation system, the above-mentioned output creation unit creates the above-mentioned screen information for displaying the above-mentioned text in time series together with the above-mentioned biometric information, and has the above-mentioned key information associated with each other. It may be characterized in that it is output to.

また、上述の情報連携システムであって、所定の機器の稼働状態に関するログ情報を収集するログ収集部を備え、上記出力作成部は、当該稼働状態と発話のあった時刻とを時系列に並べた情報を生成する、ことを特徴とするものであってもよい。 Further, the above-mentioned information linkage system is provided with a log collecting unit that collects log information regarding the operating state of a predetermined device, and the output creating unit arranges the operating state and the time of utterance in chronological order. It may be characterized in that it generates information.

また、発明の別の態様に係る情報連携サーバー装置は、複数の音声入出力装置から、入力された発話音声をテキスト化した情報と、キー情報とをネットワークを介して受信する通信部と、患者の生体情報を含む情報を記憶する症状情報記憶部と、上記テキストから少なくとも上記患者の上記生体情報を抽出して上記症状情報記憶部に記憶させる症状情報作成部と、上記生体情報を互いに関連付けられた上記キー情報を有する上記音声入出力装置に送信して出力させる出力作成部と、を有する。 Further, the information linkage server device according to another aspect of the invention includes a communication unit that receives textualized information of spoken voice input from a plurality of voice input / output devices and key information via a network, and a patient. The symptom information storage unit that stores information including the biological information of the above, the symptom information creation unit that extracts at least the biological information of the patient from the text and stores the biological information in the symptom information storage unit, and the biological information are associated with each other. It also has an output creation unit that transmits and outputs to the audio input / output device having the key information.

また、上述の情報連携サーバー装置であって、上記音声入出力装置のうち少なくとも一つは緊急車両に設けられ、上記患者は上記緊急車両に収容した患者である、ことを特徴とするものであってもよい。 Further, the above-mentioned information linkage server device is characterized in that at least one of the above-mentioned voice input / output devices is provided in an emergency vehicle, and the above-mentioned patient is a patient housed in the above-mentioned emergency vehicle. You may.

また、上述の情報連携サーバー装置であって、上記音声入出力装置のうち少なくとも一つは医療従事者が医療行為を行う救急室に設けられ、上記音声入出力装置は、少なくとも上記生体情報を表示するディスプレイ装置を備える、ことを特徴とするものであってもよい。 Further, in the above-mentioned information linkage server device, at least one of the above-mentioned voice input / output devices is provided in an emergency room where a medical worker performs medical treatment, and the above-mentioned voice input / output device displays at least the above-mentioned biometric information. It may be characterized in that it is provided with a display device.

また、上述の情報連携サーバー装置であって、上記テキストを互いに関連付けられた上記キー情報を有する上記音声入出力装置に送信して時系列に共有させる時系列会話処理部を備え、上記音声入出力装置の一つから新たな患者に関する発話がなされると、上記キー情報を発行して、該音声入出力装置とは異なる他の音声入出力装置の少なくとも一つと該キー情報を関連付ける、ことを特徴とするものであってもよい。 Further, the above-mentioned information linkage server device includes a time-series conversation processing unit that transmits the above-mentioned texts to the above-mentioned voice input / output device having the above-mentioned key information associated with each other and shares them in a time-series manner. When a new patient is spoken from one of the devices, the key information is issued to associate the key information with at least one of other voice input / output devices different from the voice input / output device. It may be.

また、上述の情報連携サーバー装置であって、上記出力作成部は、上記生体情報とともに、上記テキストを時系列に表示する画面情報を作成して互いに関連付けられた上記キー情報を有する上記音声入出力装置に送信して出力させる、ことを特徴とするものであっても良い。 Further, in the above-mentioned information linkage server device, the above-mentioned output creation unit creates the above-mentioned screen information for displaying the above-mentioned text in chronological order together with the above-mentioned biometric information, and has the above-mentioned key information associated with each other. It may be characterized in that it is transmitted to an apparatus and output.

また、発明の別の態様に係る情報連携サーバー装置は、複数の音声入出力装置から、入力された発話音声情報と、キー情報とをネットワークを介して受信する通信部と、患者の生体情報を含む情報を記憶する症状情報記憶部と、上記発話音声情報をテキスト化する音声認識部と、上記テキストから少なくとも上記患者の上記生体情報を抽出して上記症状情報記憶部に記憶させる症状情報作成部と、上記生体情報を互いに関連付けられた上記キー情報を有する上記音声入出力装置に送信して出力させる出力作成部と、を有する。 Further, the information linkage server device according to another aspect of the invention receives input spoken voice information and key information from a plurality of voice input / output devices via a network, a communication unit, and a patient's biological information. A symptom information storage unit that stores information including the information, a voice recognition unit that converts the spoken voice information into text, and a symptom information creation unit that extracts at least the biological information of the patient from the text and stores it in the symptom information storage unit. And an output creation unit that transmits and outputs the biometric information to the voice input / output device having the key information associated with each other.

また、発明の別の態様に係る情報連携システムは、複数の音声入出力装置と、上記音声入出力装置とネットワークを介して通信可能に接続される情報連携サーバー装置と、を備え、上記音声入出力装置は、それぞれ、入力された発話音声を受け付けて所定のキー情報とともに上記情報連携サーバー装置に対して送信する制御部を備え、上記情報連携サーバー装置は、患者の生体情報を含む情報を記憶する症状情報記憶部と、上記発話音声を受信してテキスト化する音声認識部と、上記テキストから少なくとも上記患者の上記生体情報を抽出して上記症状情報記憶部に記憶させる症状情報作成部と、上記生体情報を互いに関連付けられた上記キー情報を有する上記音声入出力装置に送信して出力させる出力作成部と、を有する。 Further, the information linkage system according to another aspect of the present invention includes a plurality of voice input / output devices and an information linkage server device that is communicably connected to the voice input / output device via a network. Each output device includes a control unit that receives the input spoken voice and transmits it to the information linkage server device together with predetermined key information, and the information linkage server device stores information including biometric information of the patient. A symptom information storage unit, a voice recognition unit that receives the spoken voice and converts it into a text, a symptom information creation unit that extracts at least the biological information of the patient from the text and stores it in the symptom information storage unit. It has an output creation unit that transmits and outputs the biometric information to the voice input / output device having the key information associated with each other.

また、発明の別の態様に係る音声入出力装置は、所定の情報連携サーバー装置とネットワークを介して通信可能に接続する通信部と、入力された発話音声をテキスト化して所定のキー情報とともに上記情報連携サーバー装置に対して送信する制御部と、を備え、上記制御部は、生体情報を上記情報連携サーバー装置から受信すると、該生体情報を出力させる、ことを特徴とする。 Further, the voice input / output device according to another aspect of the invention includes a communication unit that connects to a predetermined information linkage server device so as to be communicable via a network, and the input spoken voice is converted into text and together with predetermined key information. The control unit includes a control unit for transmitting to the information cooperation server device, and the control unit outputs the biometric information when the biometric information is received from the information cooperation server device.

また、上述の音声入出力装置であって、少なくとも上記生体情報を表示するディスプレイ装置を備える、ことを特徴とするものであっても良い。 Further, the above-mentioned voice input / output device may be characterized by including at least a display device for displaying the above-mentioned biological information.

また、上述の音声入出力装置であって、上記制御部は、上記発話音声をテキスト化する処理において、上記発話音声を認識する音声認識処理を行い、該処理では、生体情報に関する所定の用語については近似する語への変換を行わない、ことを特徴とするものであってもよい。 Further, in the above-mentioned voice input / output device, the above-mentioned control unit performs a voice recognition process for recognizing the above-mentioned utterance sound in a process of converting the above-mentioned utterance sound into text, and in the process, a predetermined term relating to biological information is used. May be characterized in that it does not convert to an approximate word.

また、発明の別の態様に係る情報連係方法は、情報連携システムによる情報連携方法であって、上記情報連携システムは、発話音声を受け付ける複数の音声入出力装置と、患者の生体情報を含む情報を記憶する症状情報記憶部と、制御部と、を備え、上記制御部は、入力された発話音声をテキスト化する音声認識ステップと、上記テキストから少なくとも上記患者の上記生体情報を抽出して上記症状情報記憶部に記憶させる症状情報作成ステップと、上記生体情報を互いに関連付けられたキー情報を有する上記音声入出力装置に送信して出力させる出力作成ステップと、を実施する。 Further, the information linkage method according to another aspect of the invention is an information linkage method by an information linkage system, in which the information linkage system includes a plurality of voice input / output devices for receiving spoken voice and information including biometric information of a patient. The control unit includes a symptom information storage unit and a control unit that memorize the above, and the control unit extracts at least the biometric information of the patient from the text and a voice recognition step for converting the input spoken voice into text. A symptom information creation step to be stored in the symptom information storage unit and an output creation step to transmit and output the biological information to the voice input / output device having key information associated with each other are performed.

また、発明の別の態様に係るプログラムは、コンピュータに情報連携をさせるプログラムであって、上記コンピュータを、複数の音声入出力装置から、入力された発話音声をテキスト化した情報と、キー情報と、をネットワークを介して受信する通信部と、制御部と、患者の生体情報を含む情報を記憶する症状情報記憶部として機能させ、上記制御部に、上記テキストから少なくとも上記患者の上記生体情報を抽出して上記症状情報記憶部に記憶させる症状情報作成ステップと、上記生体情報を互いに関連付けられた上記キー情報を有する上記音声入出力装置に送信して出力させる出力作成ステップと、を実施させることを特徴とする。 Further, the program according to another aspect of the invention is a program for causing a computer to link information, and the computer is provided with information obtained by converting spoken voice input from a plurality of voice input / output devices into text and key information. , A communication unit that receives the above information via a network, a control unit, and a symptom information storage unit that stores information including the biometric information of the patient, and the control unit receives at least the biometric information of the patient from the text. A symptom information creation step of extracting and storing the symptom information storage unit and an output creation step of transmitting the biological information to the voice input / output device having the key information associated with each other and outputting the information are performed. It is characterized by.

本発明によると、特別な操作をせずに自然な対話により必要な情報を記録する技術を提供することができる。上記した以外の課題、構成および効果は、以下の実施形態の説明により明らかにされる。 According to the present invention, it is possible to provide a technique for recording necessary information through natural dialogue without any special operation. Issues, configurations and effects other than those described above will be clarified by the description of the following embodiments.

緊急情報連携システムの構成図である。It is a block diagram of an emergency information cooperation system. 用語記憶部のデータ構造例を示す図である。It is a figure which shows the example of the data structure of a term storage part. 利用者声紋記憶部のデータ構造例を示す図である。It is a figure which shows the data structure example of the user voiceprint storage part. 所属ルーム記憶部のデータ構造例を示す図である。It is a figure which shows the example of the data structure of the belonging room storage part. 症状情報記憶部のデータ構造例を示す図である。It is a figure which shows the example of the data structure of the symptom information storage part. 発話履歴記憶部のデータ構造例を示す図である。It is a figure which shows the example of the data structure of the utterance history storage part. スマートスピーカーのハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of a smart speaker. 緊急情報連携サーバー装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of the emergency information cooperation server apparatus. 緊急搬送時処理(ルーム開始まで)のフローの例を示す図である。It is a figure which shows the example of the flow of the process at the time of emergency transportation (until the start of a room). 緊急搬送時処理(症状情報追加)のフローの例を示す図である。It is a figure which shows the example of the flow of the emergency transport processing (addition of symptom information). 出力画面の例を示す図である。It is a figure which shows the example of the output screen. 緊急情報連携システムの構成図である。It is a block diagram of an emergency information cooperation system. 周辺機器稼働ログ記憶部のデータ構造例を示す図である。It is a figure which shows the example of the data structure of the peripheral device operation log storage part. 出力画面の例を示す図である。It is a figure which shows the example of the output screen. 緊急情報連携システムの構成図である。It is a block diagram of an emergency information cooperation system. 緊急搬送時処理(ルーム開始まで)のフローの例を示す図である。It is a figure which shows the example of the flow of the process at the time of emergency transportation (until the start of a room). 緊急搬送時処理(症状情報追加)のフローの例を示す図である。It is a figure which shows the example of the flow of the emergency transport processing (addition of symptom information).

以下に、本発明の一態様に係る実施形態を適用した緊急情報連携システムについて、図面を参照して説明する。以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。 Hereinafter, an emergency information linkage system to which an embodiment of the present invention is applied will be described with reference to the drawings. In the following embodiments, when necessary for convenience, the description will be divided into a plurality of sections or embodiments, but unless otherwise specified, they are not unrelated to each other, and one is the other. It is related to some or all of the modified examples, details, supplementary explanations, etc.

また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。 In addition, in the following embodiments, when the number of elements (including the number, numerical value, quantity, range, etc.) is referred to, when it is specified in particular, or when it is clearly limited to a specific number in principle, etc. Except, the number is not limited to the specific number, and may be more than or less than the specific number.

さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。 Furthermore, in the following embodiments, the components (including element steps, etc.) are not necessarily essential unless otherwise specified or clearly considered to be essential in principle. Needless to say.

同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。 Similarly, in the following embodiments, when referring to the shape, positional relationship, etc. of a component or the like, the shape is substantially the same except when it is clearly stated or when it is considered that it is not so clearly in principle. Etc., etc. shall be included. This also applies to the above numerical values and ranges.

また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。 Further, in all the drawings for explaining the embodiment, the same members are, in principle, given the same reference numerals, and the repeated description thereof will be omitted.

図1は、本実施形態に係る緊急情報連携システムのブロック図である。緊急情報連携システム1は、緊急情報連携サーバー装置200と、緊急情報連携サーバー装置200とネットワーク50を介して通信可能に接続された複数のスマートスピーカー100、300とを含む。複数の利用者がスマートスピーカー100、300を用いて対話を行い、その対話(音声)に含まれる生体情報を検出して症状情報を構成する。また、緊急情報連携システム1は、複数の利用者がスマートスピーカー100、300を用いた対話における時系列の発言(音声)の履歴をテキスト(文字)に変換し、後に簡便に参照できるように記憶させる。それぞれのスマートスピーカー100、300は、緊急情報連携サーバー装置200に接続して利用する。 FIG. 1 is a block diagram of an emergency information linkage system according to this embodiment. The emergency information cooperation system 1 includes an emergency information cooperation server device 200, and a plurality of smart speakers 100 and 300 that are communicably connected to the emergency information cooperation server device 200 via a network 50. A plurality of users have a dialogue using the smart speakers 100 and 300, detect biological information included in the dialogue (voice), and configure symptom information. In addition, the emergency information linkage system 1 converts the history of time-series remarks (voices) in dialogues using the smart speakers 100 and 300 into texts (characters), and stores them so that they can be easily referred to later. Let me. Each of the smart speakers 100 and 300 is used by connecting to the emergency information cooperation server device 200.

なお、スマートスピーカー100、300から緊急情報連携サーバー装置200に接続する際には、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット、携帯電話網等、あるいはこれらが複合した通信網であるネットワーク50を介して接続される。なお、当該ネットワーク50は、携帯電話通信網等の無線通信網上のVPN(Virtual Private Network)等であってもよい。 When connecting from the smart speakers 100 and 300 to the emergency information linkage server device 200, a LAN (Local Area Network), WAN (Wide Area Network), the Internet, a mobile phone network, or a communication network in which these are combined is used. It is connected via a certain network 50. The network 50 may be a VPN (Virtual Private Network) or the like on a wireless communication network such as a mobile phone communication network.

スマートスピーカー100、300は、典型的には、救急車等の緊急車両および病院の救急室に配置され、それぞれの配置場所にて業務を行う職員による音声入力を受け付ける。例えば、緊急車両には救急隊員(救急救命士等)や消防士等の職員が配置されて救命業務を行い、救急室には医師や看護師等の職員が配置されて救急対応業務を行う。スマートスピーカー100、300は、これらの職員の発話音声を入力として受け取り、緊急情報連携サーバー装置200へ送信する。 The smart speakers 100 and 300 are typically arranged in an emergency vehicle such as an ambulance and an emergency room in a hospital, and receive voice input by a staff member who works at each location. For example, emergency personnel (emergency paramedics, etc.) and firefighters are assigned to the emergency vehicle to perform lifesaving work, and doctors, nurses, and other staff are assigned to the emergency room to perform emergency response work. The smart speakers 100 and 300 receive the spoken voices of these staff members as inputs and transmit them to the emergency information cooperation server device 200.

ここで、救急車等に患者が搬入されると、救急車等から近隣の病院の緊急窓口等に救急要請がなされ、それぞれの職員の音声による対話を通じて患者の容態や処置の状況について連携がなされる。また、患者の観察所見等の生体情報が病院前救護記録や傷病者引継書等の所定のフォーマットの書類に記入されて救急車から病院へ申し送られる。 Here, when a patient is brought into an ambulance or the like, an ambulance or the like makes an emergency request to an emergency counter or the like of a nearby hospital, and the patient's condition and treatment status are coordinated through a voice dialogue of each staff member. In addition, biometric information such as patient observation findings is entered in documents in a predetermined format such as pre-hospital rescue records and pre-hospital trauma transfer forms, and is sent from the ambulance to the hospital.

この連携においては、対話と書面とが齟齬する可能性や、対話における連携が不明瞭である可能性、あるいは書面の記載の不明確性等により情報が十分に共有されない場合も多い。また、緊急車両の救急隊員は救命行為と並行して救護記録等の書類を早急かつ正確に作成する必要があり、救命行為と両立することに困難性がある場合もある。 In this cooperation, there are many cases where information is not sufficiently shared due to the possibility that the dialogue and the document are inconsistent, the cooperation in the dialogue is unclear, or the description in the document is unclear. In addition, emergency personnel in emergency vehicles need to prepare documents such as rescue records promptly and accurately in parallel with the lifesaving action, and it may be difficult to be compatible with the lifesaving action.

スマートスピーカー100、300が発話を受け付けると、緊急情報連携システム1は、入力された発話音声をテキスト化する音声認識処理を行い、テキストから少なくとも患者の生体情報を抽出してカルテ情報とも言える症状情報を作成する処理を行い、生体情報を互いに関連付けられたキー情報を有するスマートスピーカー100、300に送信して出力させる処理を行う。 When the smart speakers 100 and 300 receive utterances, the emergency information linkage system 1 performs voice recognition processing for converting the input utterance voice into text, extracts at least the patient's biological information from the text, and is symptom information that can be said to be chart information. Is performed, and biometric information is transmitted to smart speakers 100 and 300 having key information associated with each other for output.

具体的には、スマートスピーカー100、300は、救急隊員等や医療従事者による発話を受け付けると、入力された発話音声をテキスト化して所定のキー情報とともに緊急情報連携サーバー装置200に対してネットワーク50を介して送信する。なお、所定のキー情報は、初回は保持していないために、空情報を送信する。 Specifically, when the smart speakers 100 and 300 receive utterances by emergency personnel or medical staff, the input utterance voice is converted into text and the network 50 is connected to the emergency information cooperation server device 200 together with predetermined key information. Send via. Since the predetermined key information is not held for the first time, empty information is transmitted.

また、スマートスピーカー100、300は、利用者の声紋情報を予め記憶しており、発話音声から声紋を判定して発話者を特定する。 Further, the smart speakers 100 and 300 store the voiceprint information of the user in advance, determine the voiceprint from the spoken voice, and identify the speaker.

緊急情報連携サーバー装置200が発話音声のテキストを受け付けると、救急室に設置されたスマートスピーカー300のいずれかと共有する仮想ルームを識別するIDを発行し、以降はそのIDをキー情報として使用するようスマートスピーカー100、300のいずれにも送付する。所定のキー情報と共にテキストを受け付けた場合には、仮想ルームを識別するIDの発行は行わず、当該所定のキー情報を、仮想ルームを識別するIDとして用いる。 When the emergency information linkage server device 200 receives the text of the utterance voice, it issues an ID that identifies the virtual room shared with any of the smart speakers 300 installed in the emergency room, and thereafter uses that ID as key information. It will be sent to both smart speakers 100 and 300. When the text is received together with the predetermined key information, the ID for identifying the virtual room is not issued, and the predetermined key information is used as the ID for identifying the virtual room.

なお、仮想ルームを識別するIDに、有効時間を予め付与するようにしても良い。例えば、発言の追加が有効になる時間(例えば、IDの発行から30分以内)と、参照のみが有効になる時間(例えば、IDの発行から3時間以内)とを分けて付与するようにしてもよい。その場合には、発言の追加が有効になる時間内(例えば、IDの発行から30分以内)にテキスト情報と共に当該IDを受け付けた場合には、緊急情報連携サーバー装置200は、仮想ルームに発言を追加し、生体情報に情報の追加を行う。発言の追加が有効になる時間内でないが参照のみが有効になる時間内(例えば、IDの発行から30分経過後3時間以内)にテキスト情報と共に当該IDを受け付けた場合には、緊急情報連携サーバー装置200は、送信元のスマートスピーカーへ仮想ルームの発話の履歴および生体情報を送信する。 The ID that identifies the virtual room may be given an effective time in advance. For example, the time during which the addition of remarks is valid (for example, within 30 minutes from the issuance of the ID) and the time during which only the reference is valid (for example, within 3 hours after the issuance of the ID) are given separately. May be good. In that case, if the ID is received together with the text information within the time when the addition of the remark becomes effective (for example, within 30 minutes from the issuance of the ID), the emergency information linkage server device 200 speaks to the virtual room. Is added, and information is added to the biometric information. If the ID is accepted together with the text information within the time when the addition of remarks becomes effective but only the reference becomes effective (for example, within 3 hours after 30 minutes have passed from the issuance of the ID), emergency information linkage The server device 200 transmits the utterance history and biometric information of the virtual room to the smart speaker of the transmission source.

発言の追加が有効になる時間内でなく、参照のみが有効になる時間内でもない時間(例えば、IDの発行から3時間経過後)にテキスト情報と共に当該IDを受け付けた場合、またはテキスト情報のみを受け付けた場合には、緊急情報連携サーバー装置200は、送信元のスマートスピーカー100へスマートスピーカー300と共有する仮想ルームを識別するIDを発行しスマートスピーカー100、300のいずれにも送付する。 When the ID is accepted together with the text information within the time when the addition of the remark becomes effective and not within the time when only the reference becomes effective (for example, 3 hours after the issuance of the ID), or only the text information When the message is received, the emergency information linkage server device 200 issues an ID for identifying the virtual room shared with the smart speaker 300 to the source smart speaker 100 and sends it to both the smart speaker 100 and 300.

このように仮想ルームに有効化される時間制限を設けることで、1件の救急出動(患者)に対する情報を手間無く整理し、搬送された先の病院からも参照することができる。 By setting the time limit activated in the virtual room in this way, the information for one emergency dispatch (patient) can be organized without hassle and can be referred to from the hospital to which the patient was transported.

緊急情報連携サーバー装置200は、発話音声のテキストを受け付けると、該テキストから少なくとも患者の生体情報(例えば、脈拍、血圧等の数値化された情報や、出血の有無、痛みの有無、痛みの位置、意識レベル、対処状況等のいずれかまたは複数の情報)を抽出してカルテ情報とも言える症状情報を作成する処理を行う。そして、その情報を互いに関連付けられたキー情報を有するスマートスピーカー100、300に送信して出力させる出力作成処理と、を実施する。 When the emergency information linkage server device 200 receives the text of the spoken voice, at least the patient's biological information (for example, quantified information such as pulse and blood pressure, presence / absence of bleeding, presence / absence of pain, position of pain) is received from the text. , Awareness level, coping status, etc., or multiple pieces of information) to create symptom information that can be called medical record information. Then, an output creation process of transmitting the information to the smart speakers 100 and 300 having key information associated with each other and outputting the information is performed.

ここで、患者の生体情報を抽出するために、緊急情報連携サーバー装置200は、発話を解析する。例えば、この解析には、言語に関する機械学習等を行って構築された学習済みモデルを用いることができるが、これに限られるものではなく、一般的に人工知能といわれる各種の演算処理により解析することも可能であるし、ルールベースエンジンを用いた演算処理により処理することも可能である。 Here, in order to extract the biological information of the patient, the emergency information cooperation server device 200 analyzes the utterance. For example, a trained model constructed by performing machine learning related to a language can be used for this analysis, but the analysis is not limited to this, and analysis is performed by various arithmetic processes generally called artificial intelligence. It is also possible to process it by arithmetic processing using a rule-based engine.

また、緊急情報連携サーバー装置200は、発話音声のテキストとともにその発話者を受け付けて、仮想ルームごとに時系列に発話者と発話内容とを対応付けて記憶する。 Further, the emergency information linkage server device 200 receives the utterance voice together with the text of the utterance voice, and stores the utterance person and the utterance content in chronological order for each virtual room.

図1に示すように、スマートスピーカー100には、記憶部110と、制御部120と、通信部130と、音声入力部140と、音声出力部150と、が含まれる。記憶部110には、用語記憶部111と、利用者声紋記憶部112と、所属ルーム記憶部113と、が含まれる。 As shown in FIG. 1, the smart speaker 100 includes a storage unit 110, a control unit 120, a communication unit 130, a voice input unit 140, and a voice output unit 150. The storage unit 110 includes a term storage unit 111, a user voiceprint storage unit 112, and a belonging room storage unit 113.

図2は、用語記憶部のデータ構造例を示す図である。用語記憶部111には、用語識別子111Aと、用語111Bと、発音情報111Cと、品詞111Dと、が含まれる。用語識別子111Aは、他の用語と区別可能な識別子である。用語111Bは、医療用語、救急救命業務における各種の用語、略語、方言等である。発音情報111Cは、用語111Bで特定される語を所定の発音記号等により示した情報、あるいは音声情報そのものである。品詞111Dは、用語111Bで特定される語の品詞を特定する情報である。 FIG. 2 is a diagram showing an example of a data structure of a term storage unit. The term storage unit 111 includes a term identifier 111A, a term 111B, pronunciation information 111C, and a part of speech 111D. Term identifier 111A is an identifier that can be distinguished from other terms. Term 111B is a medical term, various terms, abbreviations, dialects, etc. in emergency lifesaving work. The pronunciation information 111C is information indicating the word specified by the term 111B by a predetermined phonetic symbol or the like, or voice information itself. Part of speech 111D is information that identifies the part of speech of the word specified by term 111B.

図3は、利用者声紋記憶部のデータ構造例を示す図である。利用者声紋記憶部112には、利用者ID112Aと、氏名112Bと、生年月日112Cと、性別112Dと、声紋情報112Eと、が含まれる。利用者ID112Aは、利用者すなわち医療関係者の識別子である。氏名112Bは、利用者ID112Aで特定される利用者の氏名を特定する情報である。生年月日112Cは、利用者ID112Aで特定される利用者の生年月日を特定する情報である。性別112Dは、利用者ID112Aで特定される利用者の性別を特定する情報である。声紋情報112Eは、利用者ID112Aで特定される利用者の声紋を特定する情報である。 FIG. 3 is a diagram showing an example of a data structure of the user voiceprint storage unit. The user voiceprint storage unit 112 includes a user ID 112A, a name 112B, a date of birth 112C, a gender 112D, and voiceprint information 112E. The user ID 112A is an identifier of the user, that is, a medical person. The name 112B is information that identifies the name of the user specified by the user ID 112A. The date of birth 112C is information that identifies the date of birth of the user specified by the user ID 112A. The gender 112D is information that identifies the gender of the user specified by the user ID 112A. The voiceprint information 112E is information that identifies the voiceprint of the user specified by the user ID 112A.

図4は、所属ルーム記憶部のデータ構造例を示す図である。所属ルーム記憶部113には、所属ルーム113Aが含まれ、ある時点での当該スマートスピーカー100が属する仮想ルームを特定する仮想ルームIDが格納される。 FIG. 4 is a diagram showing an example of a data structure of the belonging room storage unit. The affiliation room storage unit 113 includes the affiliation room 113A, and stores a virtual room ID that identifies the virtual room to which the smart speaker 100 belongs at a certain point in time.

制御部120には、音声認識部121と、用語特定部122と、利用者特定部123と、ルーム指定部124と、が含まれる。音声認識部121は、入力された発話音声を対象としてテキスト化を行う。音声認識部121は、音素解析、形態素解析、構文解析、意味解析等の各種の言語依存処理を行い、発話内容を特定し、テキスト化する。または、音声認識部121は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、入力された発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 The control unit 120 includes a voice recognition unit 121, a term identification unit 122, a user identification unit 123, and a room designation unit 124. The voice recognition unit 121 converts the input spoken voice into text. The voice recognition unit 121 performs various language-dependent processes such as phoneme analysis, morphological analysis, parsing, and semantic analysis, identifies the utterance content, and converts it into text. Alternatively, the voice recognition unit 121 transmits the input spoken voice information in order to delegate the voice recognition process to a predetermined external voice recognition server that can be connected via the network, and the text information of the recognized result. To get.

用語特定部122は、音声認識部121が認識できなかった発話について、認識できなかった部分について発音情報あるいは用語の共通性から用語を推定し、当該用語についてはそのまま解釈を加えずに認識する。例えば、音声認識部121が認識に失敗する単語があると、それが用語として用語記憶部111に格納されている場合にはその用語そのままの表記、意味として扱うよう音声認識部121に伝える。 The term specifying unit 122 estimates the utterance that the voice recognition unit 121 could not recognize from the pronunciation information or the commonality of the terms for the unrecognized part, and recognizes the term as it is without any interpretation. For example, if there is a word that the voice recognition unit 121 fails to recognize, if it is stored in the term storage unit 111 as a term, the voice recognition unit 121 is told to treat the term as it is as a notation or meaning.

利用者特定部123は、発話音声の音韻的特徴から声紋を抽出し、利用者声紋記憶部112を参照して声紋の一致度合いから推定して利用者を特定する。 The user identification unit 123 extracts a voiceprint from the phonological characteristics of the spoken voice, and identifies the user by estimating from the degree of coincidence of the voiceprints with reference to the user voiceprint storage unit 112.

ルーム指定部124は、緊急情報連携サーバー装置200に情報を送信する場合に、いずれかの仮想ルームに属している場合には仮想ルームのIDをキー情報として、当該情報とともに送信する。ルーム指定部124は、いずれの仮想ルームにも属していない場合には、空情報を仮想ルームのIDとして送信する。 When transmitting information to the emergency information linkage server device 200, the room designation unit 124 transmits the information together with the virtual room ID as key information if it belongs to any of the virtual rooms. If the room designation unit 124 does not belong to any of the virtual rooms, the room designation unit 124 transmits the empty information as the ID of the virtual room.

通信部130は、ネットワーク50を介して他の装置である緊急情報連携サーバー装置200との通信を行う。 The communication unit 130 communicates with the emergency information cooperation server device 200, which is another device, via the network 50.

音声入力部140は、利用者からの音声入力を受け付ける。音声出力部150は、緊急情報連携サーバー装置200から利用者への発声命令があると、音声出力を行う。出力される情報は、生体情報や発話の履歴等の各種出力情報である。 The voice input unit 140 receives voice input from the user. The voice output unit 150 outputs voice when there is a voice command from the emergency information cooperation server device 200 to the user. The output information is various output information such as biological information and utterance history.

なお、スマートスピーカー300は、スマートスピーカー100と略同様の構成を備える。 The smart speaker 300 has substantially the same configuration as the smart speaker 100.

緊急情報連携サーバー装置200には、記憶部210と、制御部220と、通信部230と、が含まれる。 The emergency information cooperation server device 200 includes a storage unit 210, a control unit 220, and a communication unit 230.

記憶部210には、症状情報記憶部211と、発話履歴記憶部212と、が含まれる。 The storage unit 210 includes a symptom information storage unit 211 and an utterance history storage unit 212.

図5は、症状情報記憶部のデータ構造例を示す図である。症状情報記憶部211には、症状の対象となる患者を特定する患者氏名211A、患者性別211B、患者年齢211C、脈拍211D、主訴211E、処置211F、患者ルーム211Gが含まれる。 FIG. 5 is a diagram showing an example of a data structure of the symptom information storage unit. The symptom information storage unit 211 includes a patient name 211A, a patient gender 211B, a patient age 211C, a pulse 211D, a chief complaint 211E, a treatment 211F, and a patient room 211G that identify a patient to be symptomatic.

患者氏名211Aは、患者の氏名であり、患者性別211Bは、患者の性別であり、患者年齢211Cは、患者の年齢である。これらの情報の組み合わせにより、特定の個人を特定しうる情報といえる。脈拍211Dは、患者の生体情報の一つである脈拍の計測値である。主訴211Eは、患者が訴える主たる症状である。処置211Fは、患者に対して行った処置を自然言語で説明する情報である。患者ルーム211Gは、患者の救急出動時の仮想ルームを特定するキー情報である。 The patient name 211A is the patient's name, the patient gender 211B is the patient's gender, and the patient age 211C is the patient's age. By combining these pieces of information, it can be said that the information can identify a specific individual. The pulse 211D is a measured value of the pulse, which is one of the biometric information of the patient. Chief complaint 211E is the main symptom complained by the patient. Treatment 211F is information for explaining the treatment performed on the patient in natural language. The patient room 211G is key information for identifying the virtual room at the time of emergency dispatch of the patient.

図6は、発話履歴記憶部のデータ構造例を示す図である。発話履歴記憶部212には、患者ルーム212Aと、発話者212Bと、発話時刻212Cと、発話内容212Dと、が含まれる。 FIG. 6 is a diagram showing an example of a data structure of the utterance history storage unit. The utterance history storage unit 212 includes a patient room 212A, a speaker 212B, an utterance time 212C, and an utterance content 212D.

患者ルーム212Aは、仮想ルームを特定するキー情報である。発話者212Bは、発言を行った発話者を特定する利用者IDの情報であり、通常は予め声紋を登録された救急隊員や病院の医療従事者が発話者となるが、声紋の登録がなされていなくとも匿名の発話者として一時的な利用者IDが割り振られるものであってもよい。 The patient room 212A is key information for identifying the virtual room. Speaker 212B is information on a user ID that identifies the speaker who made a statement. Normally, an ambulance crew or a hospital medical worker whose voiceprint is registered in advance is the speaker, but the voiceprint is registered. Even if it is not, a temporary user ID may be assigned as an anonymous speaker.

発話時刻212Cは、発言が行われた時刻を特定する情報である。例えば、発話時刻212Cは、YYYY/MM/DD hh:mm形式で示される時刻情報である。発話内容212Dは、テキスト化された発話音声の記録である。 The utterance time 212C is information that identifies the time when the speech was made. For example, the utterance time 212C is time information indicated in the YYYY / MM / DD hh: mm format. The utterance content 212D is a record of the utterance voice converted into text.

制御部220には、症状情報作成部221と、時系列会話処理部222と、出力作成部223と、が含まれる。 The control unit 220 includes a symptom information creation unit 221, a time-series conversation processing unit 222, and an output creation unit 223.

症状情報作成部221は、発話内容に含まれる情報を用いて、患者の症状に関する情報を所定の項目ごとに整理して症状情報記憶部211に格納する。この症状情報作成部221は、特にカルテ等の医学用語に関する機械学習等を行って構築された学習済みモデルにより実現することができる。しかし、これに限られるものではなく、一般的に人工知能といわれる各種の演算処理により解析することも可能であるし、ルールベースエンジンを用いた演算処理により処理することも可能である。 The symptom information creation unit 221 organizes information on the patient's symptom into predetermined items and stores it in the symptom information storage unit 211 using the information included in the utterance content. This symptom information creation unit 221 can be realized by a learned model constructed by performing machine learning or the like particularly related to medical terms such as medical records. However, the present invention is not limited to this, and it is possible to analyze by various arithmetic processes generally called artificial intelligence, and it is also possible to process by arithmetic processing using a rule-based engine.

時系列会話処理部222は、テキスト化された発話内容を、発話がなされた仮想ルームと、発話者と、発話時刻と、に対応付けて発話履歴記憶部212に格納する。 The time-series conversation processing unit 222 stores the utterance content converted into text in the utterance history storage unit 212 in association with the virtual room in which the utterance was made, the speaker, and the utterance time.

出力作成部223は、仮想ルームごとに、テキスト化された発話内容を、発話履歴記憶部212から発話者と、発話時刻と、に対応付けて読み出し、所定のデザインの出力画面情報を構成してスマートスピーカー100あるいは300等に送信する。ただし、スマートスピーカー100あるいは300等にディスプレイが設けられていない場合には、この限りではない。 The output creation unit 223 reads the utterance content converted into text for each virtual room from the utterance history storage unit 212 in association with the speaker and the utterance time, and configures output screen information of a predetermined design. It is transmitted to the smart speaker 100 or 300 or the like. However, this does not apply when the smart speaker 100 or 300 or the like is not provided with a display.

通信部230は、ネットワーク50を介して他の装置であるスマートスピーカー100あるいは300との通信を行う。 The communication unit 230 communicates with another device, the smart speaker 100 or 300, via the network 50.

スマートスピーカー300は、基本的にスマートスピーカー100と同様の構成を備える。すなわち、スマートスピーカー300は、記憶部310と、制御部320と、通信部330と、音声入力部340と、音声出力部350と、を備える。また、記憶部310には、用語記憶部311と、利用者声紋記憶部312と、所属ルーム記憶部313と、が含まれ、制御部320には、音声認識部321と、用語特定部322と、利用者特定部323と、ルーム指定部324と、が含まれる。 The smart speaker 300 basically has the same configuration as the smart speaker 100. That is, the smart speaker 300 includes a storage unit 310, a control unit 320, a communication unit 330, an audio input unit 340, and an audio output unit 350. Further, the storage unit 310 includes a term storage unit 311, a user voiceprint storage unit 312, and an affiliation room storage unit 313, and the control unit 320 includes a voice recognition unit 321 and a term identification unit 322. , A user identification unit 323 and a room designation unit 324 are included.

図7は、スマートスピーカーのハードウェア構成例を示す図である。スマートスピーカー100および300は、いわゆる処理能力を備えたスピーカー装置、パーソナルコンピュータ、スマートフォンあるいはタブレット端末の筐体により実現されるハードウェア構成を備える。スマートスピーカー100および300は、演算装置101と、主記憶装置102と、補助記憶装置103と、音声入力装置104と、音声出力装置105と、表示装置106と、通信装置107と、各装置をつなぐバス108と、を備える。また他に、スマートスピーカー100および300は、タッチパネルやディスプレイ等の入出力装置を備えるものであってもよい。 FIG. 7 is a diagram showing a hardware configuration example of the smart speaker. The smart speakers 100 and 300 include a hardware configuration realized by a speaker device having so-called processing power, a personal computer, a smartphone, or a tablet terminal housing. The smart speakers 100 and 300 connect the arithmetic unit 101, the main storage device 102, the auxiliary storage device 103, the voice input device 104, the voice output device 105, the display device 106, the communication device 107, and the respective devices. It includes a bus 108. In addition, the smart speakers 100 and 300 may be provided with input / output devices such as a touch panel and a display.

演算装置101は、例えばCPU(Central Processing Unit)などの演算装置である。 The arithmetic unit 101 is, for example, an arithmetic unit such as a CPU (Central Processing Unit).

主記憶装置102は、例えばRAM(Random Access Memory)などのメモリ装置である。 The main storage device 102 is, for example, a memory device such as a RAM (Random Access Memory).

補助記憶装置103は、デジタル情報を記憶可能な、いわゆるハードディスク(Hard Disk Drive)やSSD(Solid State Drive)あるいはフラッシュメモリなどの不揮発性記憶装置である。 The auxiliary storage device 103 is a non-volatile storage device such as a so-called hard disk (Hard Disk Drive), SSD (Solid State Drive), or flash memory that can store digital information.

音声入力装置104は、マイクロフォン等の集音装置である。音声出力装置105は、スピーカー等の発音装置である。表示装置106は、液晶や有機EL(Electro−Luminescence)等のディスプレイ装置である。通信装置107は、ネットワークインターフェースカード(NIC)等である。 The voice input device 104 is a sound collecting device such as a microphone. The voice output device 105 is a sounding device such as a speaker. The display device 106 is a display device such as a liquid crystal display or an organic EL (Electro-Luminence). The communication device 107 is a network interface card (NIC) or the like.

上記したスマートスピーカー100および300の音声認識部121と、用語特定部122と、利用者特定部123と、ルーム指定部124とは、演算装置101に処理を行わせるプログラムによって実現される。このプログラムは、主記憶装置102、補助記憶装置103または図示しないROM装置内に記憶され、実行にあたって主記憶装置102上にロードされ、演算装置101により実行される。 The voice recognition unit 121, the term identification unit 122, the user identification unit 123, and the room designation unit 124 of the smart speakers 100 and 300 described above are realized by a program that causes the arithmetic unit 101 to perform processing. This program is stored in the main storage device 102, the auxiliary storage device 103, or a ROM device (not shown), is loaded on the main storage device 102 for execution, and is executed by the arithmetic unit 101.

また、スマートスピーカー100および300の記憶部110は、主記憶装置102及び補助記憶装置103により実現される。また、通信部130、音声入力部140および音声出力部150は、通信装置107音声入力装置104、音声出力装置105のそれぞれにより実現される。以上が、スマートスピーカー100および300のハードウェア構成例である。 Further, the storage unit 110 of the smart speakers 100 and 300 is realized by the main storage device 102 and the auxiliary storage device 103. Further, the communication unit 130, the voice input unit 140, and the voice output unit 150 are realized by the communication device 107 voice input device 104 and the voice output device 105, respectively. The above is a hardware configuration example of the smart speakers 100 and 300.

スマートスピーカー100および300の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。 The configurations of the smart speakers 100 and 300 can be further classified into more components depending on the processing content. It can also be categorized so that one component performs more processing.

また、各制御部(音声認識部121と、用語特定部122と、利用者特定部123と、ルーム指定部124)は、それぞれの機能を実現する専用のハードウェア(ASIC、GPUなど)により構築されてもよい。また、各制御部の処理が一つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。 Further, each control unit (voice recognition unit 121, term identification unit 122, user identification unit 123, room designation unit 124) is constructed by dedicated hardware (ASIC, GPU, etc.) that realizes each function. May be done. Further, the processing of each control unit may be executed by one hardware or may be executed by a plurality of hardware.

図8は、緊急情報連携サーバー装置200のハードウェア構成例を示す図である。緊急情報連携サーバー装置200は、いわゆるワークステーション、パーソナルコンピュータ、スマートフォンあるいはタブレット端末の筐体により実現されるハードウェア構成を備える。緊急情報連携サーバー装置200は、演算装置201と、主記憶装置202と、補助記憶装置203と、通信装置204と、各装置をつなぐバス205と、を備える。通信装置204は、ネットワークを介して他の装置であるスマートスピーカー100および300と通信する。 FIG. 8 is a diagram showing a hardware configuration example of the emergency information linkage server device 200. The emergency information linkage server device 200 includes a hardware configuration realized by a housing of a so-called workstation, personal computer, smartphone or tablet terminal. The emergency information cooperation server device 200 includes an arithmetic unit 201, a main storage device 202, an auxiliary storage device 203, a communication device 204, and a bus 205 connecting each device. The communication device 204 communicates with other devices, the smart speakers 100 and 300, via a network.

演算装置201は、例えばCPUなどの演算装置であり、主記憶装置202は、例えばRAMなどのメモリ装置である。また、補助記憶装置203は、デジタル情報を記憶可能な、いわゆるハードディスクやSSDあるいはフラッシュメモリなどの不揮発性記憶装置である。通信装置204は、ネットワークインターフェースカード(NIC)等である。以上が、緊急情報連携サーバー装置200のハードウェア構成例である。 The arithmetic unit 201 is an arithmetic unit such as a CPU, and the main storage device 202 is a memory device such as a RAM. Further, the auxiliary storage device 203 is a non-volatile storage device such as a so-called hard disk, SSD, or flash memory that can store digital information. The communication device 204 is a network interface card (NIC) or the like. The above is a hardware configuration example of the emergency information linkage server device 200.

緊急情報連携サーバー装置200の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。 The configuration of the emergency information linkage server device 200 can be further classified into more components according to the processing content. It can also be categorized so that one component performs more processing.

次に、本実施形態における緊急情報連携システム1の動作を説明する。 Next, the operation of the emergency information linkage system 1 in this embodiment will be described.

図9は、緊急搬送時処理(ルーム開始まで)のフローの例を示す図である。緊急搬送時処理(ルーム開始まで)は、緊急車両に搭載されたスマートスピーカー100からの開始指示に応じて起動される。 FIG. 9 is a diagram showing an example of a flow of processing during emergency transportation (until the start of the room). The emergency transport processing (until the start of the room) is activated in response to a start instruction from the smart speaker 100 mounted on the emergency vehicle.

まず、音声認識部121は、発声を受け付ける(ステップS001)。そして、利用者特定部123は、利用者声紋記憶部112を用いて、利用者を特定する。そして、利用者を発話者として緊急情報連携サーバー装置200に送信する(ステップS002)。 First, the voice recognition unit 121 receives the utterance (step S001). Then, the user identification unit 123 identifies the user by using the user voiceprint storage unit 112. Then, the user is transmitted to the emergency information linkage server device 200 as the speaker (step S002).

発話者の情報を受信した時系列会話処理部222は、仮想ルームの準備を行う(ステップS003)。具体的には、時系列会話処理部222は、新たにキー情報となる仮想ルームIDを割り振り、割り振った仮想ルームIDをルームIDとしてスマートスピーカー100へ通知する。 The time-series conversation processing unit 222 that has received the speaker information prepares the virtual room (step S003). Specifically, the time-series conversation processing unit 222 newly allocates a virtual room ID as key information, and notifies the smart speaker 100 of the assigned virtual room ID as a room ID.

そして、音声認識部121は、音声を認識してテキスト化する(ステップS004)。具体的には、音声認識部121は、学習済みモデルを用いて、音声認識を行う。または、音声認識部121は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、入力された発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 Then, the voice recognition unit 121 recognizes the voice and converts it into text (step S004). Specifically, the voice recognition unit 121 performs voice recognition using the trained model. Alternatively, the voice recognition unit 121 transmits the input spoken voice information in order to delegate the voice recognition process to a predetermined external voice recognition server that can be connected via the network, and the text information of the recognized result. To get.

そして、用語特定部122は、用語を特定する(ステップS005)。具体的には、用語特定部122は、学習済みモデルと用語記憶部111とを用いて、所定のアルゴリズムでステップS004にて得られたテキストを対象として医学用語、略語、通称、俗称、方言等の表現の揺らぎを考慮した用語特定を行い、用語についてはそのまま採用し、変換処理を行わないで意味を解釈する。そして、ルーム指定部124は、ルームIDと、発話テキストとを緊急情報連携サーバー装置200へと送信する。 Then, the term identification unit 122 specifies the term (step S005). Specifically, the term identification unit 122 uses the trained model and the term storage unit 111 to target the text obtained in step S004 by a predetermined algorithm, and uses medical terms, abbreviations, common names, common names, dialects, and the like. The term is specified in consideration of the fluctuation of the expression of, the term is adopted as it is, and the meaning is interpreted without conversion processing. Then, the room designation unit 124 transmits the room ID and the utterance text to the emergency information cooperation server device 200.

そして、時系列会話処理部222は、時系列に会話を記録する(ステップS006)。具体的には、時系列会話処理部222は、ステップS005で受信したルームIDと発話テキストと、ステップS002で受信した発話者の情報とを、それぞれ発話履歴記憶部212の患者ルーム212Aと、発話内容212Dと、発話者212Bと、に対応付けて記憶させる。また、処理時点を特定する時刻情報を、発話時刻212Cに記憶させる。 Then, the time-series conversation processing unit 222 records the conversation in a time-series manner (step S006). Specifically, the time-series conversation processing unit 222 utters the room ID and the utterance text received in step S005 and the utterance information received in step S002 with the patient room 212A of the utterance history storage unit 212, respectively. The content 212D and the speaker 212B are stored in association with each other. Further, the time information for specifying the processing time point is stored in the utterance time 212C.

そして、症状情報作成部221は、症状情報を作成する(ステップS007)。具体的には、症状情報作成部221は、ステップS006で記録した発話テキストを、学習済みモデルを用いて解析して、症状情報記憶部211に設定された項目ごとにその値を特定して症状情報記憶部211に格納する。具体的には、症状情報作成部221は、患者氏名、患者性別、患者年齢、脈拍、主訴、処置等の情報を発話テキストから抽出して症状情報記憶部211に格納するとともに、患者ルーム211GにルームIDを格納する。 Then, the symptom information creation unit 221 creates symptom information (step S007). Specifically, the symptom information creation unit 221 analyzes the utterance text recorded in step S006 using the learned model, specifies the value for each item set in the symptom information storage unit 211, and causes the symptom. It is stored in the information storage unit 211. Specifically, the symptom information creation unit 221 extracts information such as the patient name, patient gender, patient age, pulse, chief complaint, and treatment from the utterance text and stores it in the symptom information storage unit 211, and also stores it in the patient room 211G. Store the room ID.

そして、時系列会話処理部222は、スマートスピーカー300に対して、ルームへ招待する(ステップS008)。具体的には、時系列会話処理部222は、所定のアルゴリズムにより、病院の救急室を引き当てて(例えば、救急外来が営業中の病院を検索して)救急室に存在するスマートスピーカー300に対して、ルームIDを招待情報と共に送信する。 Then, the time-series conversation processing unit 222 invites the smart speaker 300 to the room (step S008). Specifically, the time-series conversation processing unit 222 allocates a hospital emergency room by a predetermined algorithm (for example, searches for a hospital in which the emergency department is open) to the smart speaker 300 existing in the emergency room. And send the room ID along with the invitation information.

そして、スマートスピーカー300の音声認識部321は、救急室の医療従事者の発声を受け付ける(ステップS009)。 Then, the voice recognition unit 321 of the smart speaker 300 receives the utterance of the medical staff in the emergency room (step S009).

そして、利用者特定部323は、利用者声紋記憶部312を用いて、利用者を特定する。そして、利用者を発話者として緊急情報連携サーバー装置200に送信する(ステップS010)。これを受けた緊急情報連携サーバー装置200の時系列会話処理部222は、当該ルームIDに発話者を追加する(ステップS011)。 Then, the user identification unit 323 identifies the user by using the user voiceprint storage unit 312. Then, the user is transmitted to the emergency information linkage server device 200 as the speaker (step S010). In response to this, the time-series conversation processing unit 222 of the emergency information linkage server device 200 adds a speaker to the room ID (step S011).

そして、音声認識部321は、音声を認識してテキスト化する(ステップS012)。具体的には、音声認識部321は、学習済みモデルを用いて、音声認識を行う。または、音声認識部321は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、入力された発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 Then, the voice recognition unit 321 recognizes the voice and converts it into text (step S012). Specifically, the voice recognition unit 321 performs voice recognition using the trained model. Alternatively, the voice recognition unit 321 transmits the input spoken voice information in order to delegate the voice recognition process to a predetermined external voice recognition server that can be connected via the network, and the text information of the recognized result. To get.

そして、用語特定部322は、用語を特定する(ステップS013)。具体的には、用語特定部322は、学習済みモデルと用語記憶部311とを用いて、所定のアルゴリズムでステップS011にて得られたテキストを対象として医学用語、略語、通称、俗称、方言等の表現の揺らぎを考慮した用語特定を行い、用語についてはそのまま採用し、変換処理を行わないで意味を解釈する。そして、ルーム指定部324は、ルームIDと、発話テキストとを緊急情報連携サーバー装置200へと送信する。 Then, the term specifying unit 322 specifies the term (step S013). Specifically, the term identification unit 322 uses the trained model and the term storage unit 311 to target the text obtained in step S011 by a predetermined algorithm, and uses medical terms, abbreviations, common names, common names, dialects, and the like. The term is specified in consideration of the fluctuation of the expression of, the term is adopted as it is, and the meaning is interpreted without conversion processing. Then, the room designation unit 324 transmits the room ID and the utterance text to the emergency information cooperation server device 200.

そして、時系列会話処理部222は、時系列に会話を記録する(ステップS014)。具体的には、時系列会話処理部222は、ステップS012で受信したルームIDと発話テキストと、ステップS010で受信した発話者の情報とを、それぞれ発話履歴記憶部212の患者ルーム212Aと、発話内容212Dと、発話者212Bと、に対応付けて記憶させる。また、処理時点を特定する時刻情報を、発話時刻212Cに記憶させる。 Then, the time-series conversation processing unit 222 records the conversation in a time-series manner (step S014). Specifically, the time-series conversation processing unit 222 utters the room ID and the utterance text received in step S012 and the utterance information received in step S010 to the patient room 212A of the utterance history storage unit 212 and the utterance, respectively. The content 212D and the speaker 212B are stored in association with each other. Further, the time information for specifying the processing time point is stored in the utterance time 212C.

以上が、緊急搬送時処理(ルーム開始まで)のフローの例である。緊急搬送時処理(ルーム開始まで)のフローによれば、スマートスピーカーが音声入力を受け付けて、緊急情報連携サーバー装置200上で仮想ルームを作成して他のスマートスピーカーと仮想ルームのキー情報を共有することができる。また、発話内容から自動的に症状情報を作成することができる。これにより、共有するキー情報を有するスマートスピーカー同士が仮想ルームにおいて発話のテキスト情報および患者の症状の情報を共有することができる。 The above is an example of the flow of processing during emergency transportation (until the start of the room). According to the flow of emergency transport processing (until the room starts), the smart speaker accepts voice input, creates a virtual room on the emergency information linkage server device 200, and shares the key information of the virtual room with other smart speakers. can do. In addition, symptom information can be automatically created from the utterance content. As a result, smart speakers having shared key information can share utterance text information and patient symptom information in a virtual room.

図10は、緊急搬送時処理(症状情報追加)のフローの例を示す図である。緊急搬送時処理(症状情報追加)は、緊急搬送時処理(ルーム開始まで)の処理後に起動される。 FIG. 10 is a diagram showing an example of a flow of processing during emergency transportation (addition of symptom information). The emergency transport process (addition of symptom information) is activated after the emergency transport process (until the room starts).

まず、スマートスピーカー300の音声認識部321は、救急室の医療従事者の発声を受け付ける(ステップS101)。 First, the voice recognition unit 321 of the smart speaker 300 receives the utterance of the medical staff in the emergency room (step S101).

そして、利用者特定部323は、利用者声紋記憶部312を用いて、利用者を特定する(ステップS102)。 Then, the user identification unit 323 identifies the user by using the user voiceprint storage unit 312 (step S102).

そして、音声認識部321は、音声を認識してテキスト化する(ステップS103)。具体的には、音声認識部321は、学習済みモデルを用いて、音声認識を行う。または、音声認識部321は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、入力された発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 Then, the voice recognition unit 321 recognizes the voice and converts it into text (step S103). Specifically, the voice recognition unit 321 performs voice recognition using the trained model. Alternatively, the voice recognition unit 321 transmits the input spoken voice information in order to delegate the voice recognition process to an external predetermined voice recognition server that can be connected via the network, and the text information of the recognized result. To get.

そして、用語特定部322は、用語を特定する(ステップS104)。具体的には、用語特定部322は、学習済みモデルと用語記憶部311とを用いて、所定のアルゴリズムでステップS103にて得られたテキストを対象として医学用語、略語、通称、俗称、方言等の表現の揺らぎを考慮した用語特定を行い、用語についてはそのまま採用し、変換処理を行わないで意味を解釈する。そして、ルーム指定部324は、ルームIDと、発話テキストとを緊急情報連携サーバー装置200へと送信する。 Then, the term specifying unit 322 specifies the term (step S104). Specifically, the term identification unit 322 uses the trained model and the term storage unit 311 to target the text obtained in step S103 by a predetermined algorithm, and targets medical terms, abbreviations, common names, common names, dialects, and the like. The term is specified in consideration of the fluctuation of the expression of, the term is adopted as it is, and the meaning is interpreted without conversion processing. Then, the room designation unit 324 transmits the room ID and the utterance text to the emergency information cooperation server device 200.

そして、時系列会話処理部222は、時系列に会話を記録する(ステップS105)。具体的には、時系列会話処理部222は、ステップS104で受信したルームIDと発話テキストと、発話者の情報とを、それぞれ発話履歴記憶部212の患者ルーム212Aと、発話内容212Dと、発話者212Bと、に対応付けて記憶させる。また、処理時点を特定する時刻情報を、発話時刻212Cに記憶させる。 Then, the time-series conversation processing unit 222 records the conversation in a time-series manner (step S105). Specifically, the time-series conversation processing unit 222 uses the room ID, the utterance text, and the utterance information received in step S104 as the patient room 212A of the utterance history storage unit 212, the utterance content 212D, and the utterance. It is stored in association with the person 212B. Further, the time information for specifying the processing time point is stored in the utterance time 212C.

そして、症状情報作成部221は、症状関連項目を特定する(ステップS106)。具体的には、症状情報作成部221は、ステップS105で記録した発話テキストを、学習済みモデルを用いて解析して、症状情報記憶部211に設定された項目のいずれかについての質問であるか否かを判定する。症状情報記憶部211に設定された項目のいずれかについての質問でない場合には、症状情報作成部221は、緊急搬送時処理(症状情報追加)のフローを終了させる。 Then, the symptom information creation unit 221 specifies a symptom-related item (step S106). Specifically, the symptom information creation unit 221 analyzes the utterance text recorded in step S105 using the learned model, and asks a question about any of the items set in the symptom information storage unit 211. Judge whether or not. If the question is not about any of the items set in the symptom information storage unit 211, the symptom information creation unit 221 ends the flow of emergency transport processing (addition of symptom information).

症状情報記憶部211に設定された項目のいずれかについての質問である場合には、その項目について、発話テキストを質問命令として、また特定した症状関連項目としてスマートスピーカー100に送信する(ステップS107)。 When the question is about any of the items set in the symptom information storage unit 211, the utterance text is transmitted to the smart speaker 100 as a question command and as a specified symptom-related item for that item (step S107). ..

スマートスピーカー100の音声認識部121は、質問命令に応じた質問文を出力する(ステップS108)。 The voice recognition unit 121 of the smart speaker 100 outputs a question sentence in response to the question command (step S108).

そして、スマートスピーカー100の音声認識部121は、緊急車両の救急隊員の発声を受け付ける(ステップS109)。 Then, the voice recognition unit 121 of the smart speaker 100 receives the utterance of the emergency personnel of the emergency vehicle (step S109).

そして、利用者特定部123は、利用者声紋記憶部112を用いて、利用者を特定する(ステップS110)。 Then, the user identification unit 123 identifies the user by using the user voiceprint storage unit 112 (step S110).

そして、音声認識部121は、音声を認識してテキスト化する(ステップS111)。具体的には、音声認識部121は、学習済みモデルを用いて、音声認識を行う。または、音声認識部121は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、入力された発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 Then, the voice recognition unit 121 recognizes the voice and converts it into text (step S111). Specifically, the voice recognition unit 121 performs voice recognition using the trained model. Alternatively, the voice recognition unit 121 transmits the input spoken voice information in order to delegate the voice recognition process to a predetermined external voice recognition server that can be connected via the network, and the text information of the recognized result. To get.

そして、用語特定部122は、用語を特定する(ステップS112)。具体的には、用語特定部122は、学習済みモデルと用語記憶部111とを用いて、所定のアルゴリズムでステップS111にて得られたテキストを対象として医学用語、略語、通称、俗称、方言等の表現の揺らぎを考慮した用語特定を行い、用語についてはそのまま採用し、変換処理を行わないで意味を解釈する。そして、ルーム指定部124は、ルームIDと、発話テキストと、発話者の情報とを緊急情報連携サーバー装置200へと送信する。 Then, the term identification unit 122 specifies the term (step S112). Specifically, the term identification unit 122 uses the trained model and the term storage unit 111 to target the text obtained in step S111 by a predetermined algorithm, and targets medical terms, abbreviations, common names, common names, dialects, and the like. The term is specified in consideration of the fluctuation of the expression of, the term is adopted as it is, and the meaning is interpreted without conversion processing. Then, the room designation unit 124 transmits the room ID, the utterance text, and the information of the speaker to the emergency information cooperation server device 200.

そして、時系列会話処理部222は、時系列に会話を記録する(ステップS113)。具体的には、時系列会話処理部222は、ステップS112で受信したルームIDと発話テキストと、発話者の情報とを、それぞれ発話履歴記憶部212の患者ルーム212Aと、発話内容212Dと、発話者212Bと、に対応付けて記憶させる。また、処理時点を特定する時刻情報を、発話時刻212Cに記憶させる。 Then, the time-series conversation processing unit 222 records the conversation in a time-series manner (step S113). Specifically, the time-series conversation processing unit 222 uses the room ID, the utterance text, and the utterance information received in step S112 in the patient room 212A of the utterance history storage unit 212, the utterance content 212D, and the utterance. It is stored in association with the person 212B. Further, the time information for specifying the processing time point is stored in the utterance time 212C.

そして、症状情報作成部221は、症状情報を作成する(ステップS114)。具体的には、症状情報作成部221は、ステップS113で記録した発話テキストを、学習済みモデルを用いて解析して、症状情報記憶部211に設定された項目ごとにその値を特定して症状情報記憶部211に格納する。具体的には、症状情報作成部221は、患者氏名、患者性別、患者年齢、脈拍、主訴、処置等の情報を発話テキストから抽出し、症状情報記憶部211の患者ルーム211Gに格納されたルームIDが一致する患者の情報として格納する。 Then, the symptom information creation unit 221 creates symptom information (step S114). Specifically, the symptom information creation unit 221 analyzes the utterance text recorded in step S113 using the learned model, specifies the value for each item set in the symptom information storage unit 211, and causes the symptom. It is stored in the information storage unit 211. Specifically, the symptom information creation unit 221 extracts information such as patient name, patient gender, patient age, pulse, chief complaint, and treatment from the spoken text, and stores the information in the patient room 211G of the symptom information storage unit 211. It is stored as information on patients whose IDs match.

以上が、緊急搬送時処理(症状情報追加)のフローの例である。緊急搬送時処理(症状情報追加)のフローによれば、スマートスピーカーが音声入力を受け付けて、仮想ルームのキー情報を共有する他のスマートスピーカーへ症状の情報を要求することで、発話内容から自動的に症状情報を作成することができる。 The above is an example of the flow of emergency transportation processing (addition of symptom information). According to the flow of emergency transport processing (addition of symptom information), the smart speaker accepts voice input and requests symptom information from other smart speakers that share the key information of the virtual room, and automatically starts from the utterance content. It is possible to create symptom information.

図11は、出力画面の例を示す図である。出力画面400は、発話履歴記憶部212の情報が更新されると、更新された仮想ルームに属するスマートスピーカー100および300の全てに対して緊急情報連携サーバー装置200から送信される。ただし、ディスプレイ装置を備えないスマートスピーカーについては、この限りではない。 FIG. 11 is a diagram showing an example of an output screen. When the information in the utterance history storage unit 212 is updated, the output screen 400 is transmitted from the emergency information linkage server device 200 to all of the smart speakers 100 and 300 belonging to the updated virtual room. However, this does not apply to smart speakers that do not have a display device.

出力画面400には、発話者を示すアイコン401と、発話内容のテキスト情報402と、発話時刻403と、が発話時刻403の時系列に垂直方向へ並べて表示される。すなわち、画面上方になるほど発話時刻が古い発言となるよう表示される。これにより、発話の経緯を仮想ルームIDが共通する端末を用いて参照することができるようになり、誰が何をどういう順序や経緯で発言したのか、という履歴を知ることができるようになる。これは、例えば医療従事者が適切な指示を行ったか否か、あるいは救急隊員が必要な情報を適切に医療従事者へ伝えたか、を確認する客観的な情報となりうることを示す。 On the output screen 400, the icon 401 indicating the speaker, the text information 402 of the utterance content, and the utterance time 403 are displayed side by side in the time series of the utterance time 403 in the vertical direction. That is, the higher the screen, the older the utterance time is displayed. As a result, the process of utterance can be referred to using a terminal having a common virtual room ID, and it becomes possible to know the history of who said what and in what order and process. This can be objective information, for example, to confirm whether the health care worker has given appropriate instructions, or whether the ambulance crew has properly communicated the necessary information to the health care worker.

また、出力画面400では、所定の基準に従って重要な情報はハイライトや大きさを大きくする等、強調表示するようにしても良い。この強調対象の選択および強調処理については、出力作成部223が行う。例えば、生体情報に関する文字を太字表記し、医師からの指示についてはハイライトするようにしてもよい。また、テキストを表示するのみならず、自動音声読み上げ処理等により、質疑応答に限られず、確認、指示、報告等について音声出力を行うようにしてもよい。 Further, on the output screen 400, important information may be highlighted or highlighted according to a predetermined standard, such as by increasing the highlight or size. The output creation unit 223 performs the selection and emphasis processing of the emphasis target. For example, the characters related to biometric information may be written in bold and the instructions from the doctor may be highlighted. In addition to displaying the text, the automatic voice reading process or the like may be used to output voice for confirmation, instruction, report, etc., not limited to the question and answer session.

また、出力画面400には、所定のフォーマットに従って症状情報記憶部211の患者ルーム211Gに格納されたルームIDが一致する患者の情報を出力するようにしても良い。フォーマットは、緊急車両の管轄や病院の管轄範囲に応じて異なるものである場合も多く、各種のフォーマットを選択可能とするようにしても良い。 Further, the output screen 400 may output patient information having the same room ID stored in the patient room 211G of the symptom information storage unit 211 according to a predetermined format. The format is often different depending on the jurisdiction of the emergency vehicle and the jurisdiction of the hospital, and various formats may be selectable.

以上が、第一の実施形態に係る緊急情報連携システム1である。このシステムによれば、特別な操作をせずに自然な対話により必要な情報を記録することができる。 The above is the emergency information cooperation system 1 according to the first embodiment. According to this system, necessary information can be recorded by natural dialogue without any special operation.

本発明は、上記の実施形態に制限されない。上記の実施形態は、本発明の技術的思想の範囲内で様々な変形が可能である。例えば、上記の実施形態においては、会話の情報のみ共有されているが、これに限られない。例えば、緊急車両に搭載された救命機器(例えば、AEDとするが、これに限られず、心電図モニター等各種の機器であっても構わない。)から稼働状況を特定しうる情報を得て、稼働状況を示すものであってもよい。このようにした場合、意識不明で救急搬送された場合や、重大な疾患があると認められた場合等に、いつどのような処置を行ったか、そのプロセスに不備は無かったのか等、より細やかな情報の確認を、客観性を持って行うことができる。 The present invention is not limited to the above embodiments. The above embodiments can be variously modified within the scope of the technical idea of the present invention. For example, in the above embodiment, only conversation information is shared, but the present invention is not limited to this. For example, the life-saving device mounted on the emergency vehicle (for example, AED, but not limited to this, various devices such as an electrocardiogram monitor may be used) obtains information that can specify the operating status and operates. It may indicate the situation. If you do this, if you are unconscious and ambulance transported, or if you are found to have a serious illness, what kind of treatment was taken, whether there were any deficiencies in the process, etc. Information can be confirmed objectively.

このような例を、第二の実施形態として図12〜図14を用いて説明する。第二の実施形態に係る緊急情報連携システム1´は、基本的に第一の実施形態に係る緊急情報連携システム1と略同様であるが、一部において異なる。この相違点を中心に、説明する。 Such an example will be described with reference to FIGS. 12 to 14 as the second embodiment. The emergency information cooperation system 1 ′ according to the second embodiment is basically the same as the emergency information cooperation system 1 according to the first embodiment, but is partially different. This difference will be mainly described.

図12は、緊急情報連携システムの構成図である。緊急情報連携システム1´では、スマートスピーカー100´の記憶部110´に、周辺機器稼働ログ記憶部114が含まれる。また、制御部120´には、周辺機器を制御する周辺機器制御部125が含まれる。そして、スマートスピーカー100´には、AED(Automated External Defibrillator:自動体外式除細動器)等の周辺機器160が接続されている。スマートスピーカー300´も同様の構成である。 FIG. 12 is a configuration diagram of an emergency information cooperation system. In the emergency information linkage system 1', the storage unit 110'of the smart speaker 100' includes the peripheral device operation log storage unit 114. Further, the control unit 120'includes a peripheral device control unit 125 that controls the peripheral device. A peripheral device 160 such as an AED (Automated External Defibrillator) is connected to the smart speaker 100'. The smart speaker 300'has the same configuration.

図13は、周辺機器稼働ログ記憶部のデータ構造例を示す図である。周辺機器稼働ログ記憶部114および314には、周辺機器ID114Aと、機器名114Bと、時刻114Cと、稼働内容114Dと、が含まれる。周辺機器ID114Aは、周辺機器160または360の個体を識別する情報である。機器名114Bは、周辺機器160または360のモデルを特定する情報である。時刻114Cは、周辺機器160または360の稼働イベントが発生した時刻を特定する情報である。稼働内容114Dは、周辺機器160または360のイベントを特定する情報である。すなわち、周辺機器稼働ログ記憶部114または314には、周辺機器160または360の稼働ログが集積される。 FIG. 13 is a diagram showing an example of a data structure of the peripheral device operation log storage unit. The peripheral device operation log storage units 114 and 314 include a peripheral device ID 114A, a device name 114B, a time 114C, and an operation content 114D. Peripheral device ID 114A is information for identifying an individual of peripheral device 160 or 360. The device name 114B is information that identifies the model of the peripheral device 160 or 360. The time 114C is information for specifying the time when the operation event of the peripheral device 160 or 360 occurs. The operation content 114D is information for identifying an event of the peripheral device 160 or 360. That is, the operation logs of the peripheral devices 160 or 360 are accumulated in the peripheral device operation log storage unit 114 or 314.

周辺機器制御部125および325は、接続される周辺機器160または360の稼働の制御を行う。例えば、周辺機器制御部125および325は、起動開始、準備、診断開始、診断制御、診断結果判断、実施等の各種の動作を制御する。また、その動作時の記録についても周辺機器制御部125および325が自動的に実施して、周辺機器稼働ログ記憶部114または314へ格納する。さらに、周辺機器制御部125および325は、仮想ルームに接続されている間はルーム指定部124を介して緊急情報連携サーバー装置200´に所定のタイミングで、周辺機器稼働ログ記憶部114あるいは314へ格納された稼働ログをルームIDと対応付けて送信する。 Peripheral device control units 125 and 325 control the operation of the connected peripheral device 160 or 360. For example, the peripheral device control units 125 and 325 control various operations such as start-up start, preparation, diagnosis start, diagnosis control, diagnosis result determination, and execution. In addition, the peripheral device control units 125 and 325 automatically record the operation time, and store the records in the peripheral device operation log storage unit 114 or 314. Further, the peripheral device control units 125 and 325 are connected to the peripheral device operation log storage unit 114 or 314 at a predetermined timing to the emergency information linkage server device 200'via the room designation unit 124 while connected to the virtual room. The stored operation log is transmitted in association with the room ID.

また、緊急情報連携サーバー装置200´の記憶部210´には、機材稼働情報記憶部213が含まれる。そして、制御部220´には、連動情報作成部224が含まれる。 Further, the storage unit 210'of the emergency information cooperation server device 200' includes the equipment operation information storage unit 213. The control unit 220'includes an interlocking information creation unit 224.

機材稼働情報記憶部213には、周辺機器稼働ログ記憶部114あるいは314と同様のデータ構造を有するデータが格納される。連動情報作成部224は、周辺機器制御部125および325が送信した稼働ログを受信すると、ルームIDごとに機材稼働情報記憶部213に格納する。 The equipment operation information storage unit 213 stores data having the same data structure as the peripheral equipment operation log storage unit 114 or 314. When the interlocking information creation unit 224 receives the operation log transmitted by the peripheral device control units 125 and 325, the interlocking information creation unit 224 stores each room ID in the device operation information storage unit 213.

また、連動情報作成部224は、出力作成部223が出力画面を作成する処理において、該当する時刻帯に当該仮想ルームのルームIDと対応付けられた機材(周辺機器)の稼働ログ情報を出力作成部223に受け渡す。出力作成部223は、時系列に発話と稼働ログ情報とを出力するよう出力画面を構成する。 In addition, the interlocking information creation unit 224 outputs and creates the operation log information of the equipment (peripheral equipment) associated with the room ID of the virtual room at the corresponding time zone in the process of the output creation unit 223 creating the output screen. Hand over to department 223. The output creation unit 223 configures an output screen so as to output utterances and operation log information in chronological order.

図14は、出力画面の例を示す図である。出力画面400´は、基本的には出力画面400と同様であるが、さらに、周辺機器の稼働ログであるログ情報404表示される点で相違する。図14の例では、ログ情報404として、「12:04 緊急車両のAEDが開始されました」、「12:04 緊急車両のAEDの準備が完了しました」、「12:05 緊急車両のAEDの診断が開始されました」等の情報がテキスト表示される。 FIG. 14 is a diagram showing an example of an output screen. The output screen 400'is basically the same as the output screen 400, but is different in that the log information 404, which is the operation log of the peripheral device, is displayed. In the example of FIG. 14, as the log information 404, "12:04 emergency vehicle AED has started", "12:04 emergency vehicle AED is ready", "12:05 emergency vehicle AED". Information such as "Diagnosis has started" is displayed as text.

以上が、第二の実施形態に係る緊急情報連携システム1´である。第二の実施形態に係る緊急情報連携システム1´では、上述の出力画面400´が表示されることで、救急室の医療従事者は、確実に患者にAEDが用いられていることを確認することができる。また、意識不明で救急搬送された場合や、重大な疾患があると認められた場合等に、いつどのような処置を行ったか、そのプロセスに不備は無かったのか等、より細やかな情報の確認を、客観性を持って行うことができる。 The above is the emergency information linkage system 1'related to the second embodiment. In the emergency information linkage system 1'according to the second embodiment, the above-mentioned output screen 400' is displayed, so that the medical staff in the emergency room surely confirms that the AED is used for the patient. be able to. In addition, if you are unconscious and are transported by ambulance, or if you are found to have a serious illness, you can check more detailed information such as when and what kind of treatment was taken, and whether there were any deficiencies in the process. Can be done objectively.

また例えば、上記した第一の実施形態および第二の実施形態に係る緊急情報連携システムでは、スマートスピーカーが発話を受け付けてテキスト化していたが、テキスト化を緊急情報連携サーバー装置200´´で行うようにしてもよい。 Further, for example, in the emergency information cooperation system according to the first embodiment and the second embodiment described above, the smart speaker receives the utterance and converts it into text, but the text is converted by the emergency information cooperation server device 200 ″. You may do so.

このような例を、第三の実施形態として図15〜図17を用いて説明する。第三の実施形態に係る緊急情報連携システム1´´は、基本的に第一の実施形態に係る緊急情報連携システム1と略同様であるが、一部において異なる。この相違点を中心に、説明する。 Such an example will be described with reference to FIGS. 15 to 17 as the third embodiment. The emergency information cooperation system 1 ″ according to the third embodiment is basically the same as the emergency information cooperation system 1 according to the first embodiment, but is partially different. This difference will be mainly described.

図15は、緊急情報連携システムの構成図である。緊急情報連携システム1´´では、スマートスピーカー100´´の記憶部110´´には、所属ルーム記憶部113が含まれる。第一の実施形態に係る記憶部110に含まれていた用語記憶部111と利用者声紋記憶部112とは、緊急情報連携サーバー装置200´´の記憶部210´´に、用語記憶部215および利用者声紋記憶部216として含まれる。 FIG. 15 is a configuration diagram of an emergency information cooperation system. In the emergency information linkage system 1 ″, the storage unit 110 ″ of the smart speaker 100 ″ includes the belonging room storage unit 113. The term storage unit 111 and the user voiceprint storage unit 112 included in the storage unit 110 according to the first embodiment are the term storage unit 215 and the term storage unit 215 in the storage unit 210 ″ of the emergency information linkage server device 200 ″. It is included as a user voiceprint storage unit 216.

また、スマートスピーカー100´´の制御部120´´には、ルーム指定部124が含まれる。第一の実施形態に係る制御部120に含まれていた音声認識部121と、用語特定部122と、利用者特定部123とは、緊急情報連携サーバー装置200´´の制御部220´´に、音声認識部227と、用語特定部228と、利用者特定部229として含まれる。 Further, the control unit 120 ″ of the smart speaker 100 ″ includes a room designation unit 124. The voice recognition unit 121, the term identification unit 122, and the user identification unit 123 included in the control unit 120 according to the first embodiment are combined with the control unit 220 ″ of the emergency information cooperation server device 200 ″. , Voice recognition unit 227, term identification unit 228, and user identification unit 229.

スマートスピーカー300´´についても、スマートスピーカー100´´と同様である。 The smart speaker 300 ″ is the same as the smart speaker 100 ″.

図16は、第三の実施形態における緊急搬送時処理(ルーム開始まで)のフローの例を示す図である。緊急搬送時処理(ルーム開始まで)は、緊急車両に搭載されたスマートスピーカー100´´からの開始指示に応じて起動される。 FIG. 16 is a diagram showing an example of a flow of emergency transport processing (until the start of the room) in the third embodiment. The emergency transport processing (until the start of the room) is activated in response to a start instruction from the smart speaker 100 ″ mounted on the emergency vehicle.

まず、スマートスピーカー100´´の音声入力部140は、発声を受け付ける。そして、該発話音声の情報は制御部120´´が緊急情報連携サーバー装置200´´へ送信する(ステップS001´)。 First, the voice input unit 140 of the smart speaker 100 ″ receives the utterance. Then, the control unit 120 ″ transmits the utterance voice information to the emergency information cooperation server device 200 ″ (step S001 ″).

そして、利用者特定部229は、利用者声紋記憶部216を用いて、利用者を特定する(ステップS002´)。 Then, the user identification unit 229 identifies the user by using the user voiceprint storage unit 216 (step S002').

発話者を特定した時系列会話処理部222は、仮想ルームの準備を行う(ステップS003)。具体的には、時系列会話処理部222は、新たに仮想ルームIDを割り振る。 The time-series conversation processing unit 222 that identifies the speaker prepares the virtual room (step S003). Specifically, the time-series conversation processing unit 222 newly allocates a virtual room ID.

そして、音声認識部227は、音声を認識してテキスト化する(ステップS004´)。具体的には、音声認識部227は、学習済みモデルを用いて、音声認識を行う。または、音声認識部227は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、受け付けた発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 Then, the voice recognition unit 227 recognizes the voice and converts it into a text (step S004'). Specifically, the voice recognition unit 227 performs voice recognition using the trained model. Alternatively, the voice recognition unit 227 transmits the received utterance voice information in order to delegate the voice recognition process to an external predetermined voice recognition server that can be connected via the network, and transmits the text information of the recognized result. get.

そして、用語特定部228は、用語を特定する(ステップS005´)。具体的には、用語特定部228は、学習済みモデルと用語記憶部215とを用いて、所定のアルゴリズムでステップS004´にて得られたテキストを対象として医学用語、略語、通称、俗称、方言等の表現の揺らぎを考慮した用語特定を行い、用語についてはそのまま採用し、変換処理を行わないで意味を解釈する。 Then, the term identification unit 228 identifies the term (step S005'). Specifically, the term identification unit 228 uses the trained model and the term storage unit 215 to target the text obtained in step S004'by a predetermined algorithm, and uses medical terms, abbreviations, common names, common names, and dialects. The terms are specified in consideration of the fluctuation of expressions such as, etc., the terms are adopted as they are, and the meaning is interpreted without conversion processing.

そして、時系列会話処理部222は、時系列に会話を記録する(ステップS006)。具体的には、時系列会話処理部222は、ステップS003にて割り振ったルームIDと、ステップS004´にて得られた発話テキストと、ステップS002´で特定した発話者の情報とを、それぞれ発話履歴記憶部212の患者ルーム212Aと、発話内容212Dと、発話者212Bと、に対応付けて記憶させる。また、処理時点を特定する時刻情報を、発話時刻212Cに記憶させる。 Then, the time-series conversation processing unit 222 records the conversation in a time-series manner (step S006). Specifically, the time-series conversation processing unit 222 utters the room ID assigned in step S003, the utterance text obtained in step S004', and the information of the speaker specified in step S002', respectively. The patient room 212A of the history storage unit 212, the utterance content 212D, and the speaker 212B are stored in association with each other. Further, the time information for specifying the processing time point is stored in the utterance time 212C.

そして、症状情報作成部221は、症状情報を作成する(ステップS007´)。具体的には、症状情報作成部221は、ステップS006´で記録した発話テキストを、学習済みモデルを用いて解析して、症状情報記憶部211に設定された項目ごとにその値を特定して症状情報記憶部211に格納する。具体的には、症状情報作成部221は、患者氏名、患者性別、患者年齢、脈拍、主訴、処置等の情報を発話テキストから抽出して症状情報記憶部211に格納するとともに、患者ルーム211GにルームIDを格納する。 Then, the symptom information creation unit 221 creates symptom information (step S007'). Specifically, the symptom information creation unit 221 analyzes the utterance text recorded in step S006'using the learned model, and specifies the value for each item set in the symptom information storage unit 211. It is stored in the symptom information storage unit 211. Specifically, the symptom information creation unit 221 extracts information such as the patient name, patient gender, patient age, pulse, chief complaint, and treatment from the utterance text and stores it in the symptom information storage unit 211, and also stores it in the patient room 211G. Store the room ID.

そして、時系列会話処理部222は、スマートスピーカー100´´および300´´に対して、ルームへ招待する(ステップS008´)。具体的には、時系列会話処理部222は、所定のアルゴリズムにより、病院の救急室を引き当てて(例えば、救急外来が営業中の病院を検索して)救急室に存在するスマートスピーカー300´´に対して、ルームIDを招待情報と共に送信する。また、時系列会話処理部222は、割り振った仮想ルームIDをルームIDとしてスマートスピーカー100´´へ通知する。 Then, the time-series conversation processing unit 222 invites the smart speakers 100 ″ and 300 ″ to the room (step S008 ′). Specifically, the time-series conversation processing unit 222 allocates a hospital emergency room by a predetermined algorithm (for example, searches for a hospital in which the emergency department is open), and the smart speaker 300 ″ 300 ″ existing in the emergency room. The room ID is sent together with the invitation information. Further, the time-series conversation processing unit 222 notifies the smart speaker 100 ″ of the assigned virtual room ID as the room ID.

そして、スマートスピーカー300´´の音声入力部140が医療従事者の発声を受け付ける。そして、該発話音声の情報は、ルーム指定部324を介してルームIDと対応付けられて、制御部320´´により緊急情報連携サーバー装置200´´へ送信される(ステップS009´)。 Then, the voice input unit 140 of the smart speaker 300 ″ receives the utterance of the medical worker. Then, the utterance voice information is associated with the room ID via the room designation unit 324 and transmitted to the emergency information cooperation server device 200 ″ by the control unit 320 ″ (step S009 ″).

そして、利用者特定部229は、発話者を一人仮想ルームに追加する(ステップS020)。そして、利用者特定部229は、利用者声紋記憶部216を用いて、利用者を特定する。(ステップS010´)。 Then, the user identification unit 229 adds one speaker to the virtual room (step S020). Then, the user identification unit 229 identifies the user by using the user voiceprint storage unit 216. (Step S010').

そして、音声認識部227は、音声を認識してテキスト化する(ステップS012´)。具体的には、音声認識部227は、学習済みモデルを用いて、音声認識を行う。または、音声認識部227は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、受け付けた発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 Then, the voice recognition unit 227 recognizes the voice and converts it into text (step S012'). Specifically, the voice recognition unit 227 performs voice recognition using the trained model. Alternatively, the voice recognition unit 227 transmits the received utterance voice information in order to delegate the voice recognition process to an external predetermined voice recognition server that can be connected via the network, and transmits the text information of the recognized result. get.

そして、用語特定部228は、用語を特定する(ステップS013´)。具体的には、用語特定部228は、学習済みモデルと用語記憶部215とを用いて、所定のアルゴリズムでステップS011´にて得られたテキストを対象として医学用語、略語、通称、俗称、方言等の表現の揺らぎを考慮した用語特定を行い、用語についてはそのまま採用し、変換処理を行わないで意味を解釈する。 Then, the term identification unit 228 identifies the term (step S013'). Specifically, the term identification unit 228 uses the trained model and the term storage unit 215 to target the text obtained in step S011'by a predetermined algorithm, and uses medical terms, abbreviations, common names, common names, and dialects. The terms are specified in consideration of the fluctuation of expressions such as, etc., the terms are adopted as they are, and the meaning is interpreted without conversion processing.

そして、時系列会話処理部222は、時系列に会話を記録する(ステップS014)。具体的には、時系列会話処理部222は、ステップS009´で受信したルームIDと発話テキストと、ステップS010´で特定した発話者の情報とを、それぞれ発話履歴記憶部212の患者ルーム212Aと、発話内容212Dと、発話者212Bと、に対応付けて記憶させる。また、処理時点を特定する時刻情報を、発話時刻212Cに記憶させる。 Then, the time-series conversation processing unit 222 records the conversation in a time-series manner (step S014). Specifically, the time-series conversation processing unit 222 transfers the room ID and the utterance text received in step S009'and the information of the speaker identified in step S010' to the patient room 212A of the utterance history storage unit 212, respectively. , The utterance content 212D and the speaker 212B are stored in association with each other. Further, the time information for specifying the processing time point is stored in the utterance time 212C.

以上が、第三の実施形態に係る緊急搬送時処理(ルーム開始まで)のフローの例である。緊急搬送時処理(ルーム開始まで)のフローによれば、スマートスピーカーが音声入力を受け付けて、緊急情報連携サーバー装置上でテキスト化することで、スマートスピーカーに要求される処理能力を抑えることができるため、スマートスピーカーを簡便な構成とすることができる。 The above is an example of the flow of emergency transportation processing (until the start of the room) according to the third embodiment. According to the flow of processing during emergency transportation (until the room starts), the smart speaker accepts voice input and converts it into text on the emergency information linkage server device, so that the processing capacity required for the smart speaker can be suppressed. Therefore, the smart speaker can be configured in a simple manner.

図17は、第三の実施形態に係る緊急搬送時処理(症状情報追加)のフローの例を示す図である。緊急搬送時処理(症状情報追加)は、緊急搬送時処理(ルーム開始まで)の処理後に起動される。 FIG. 17 is a diagram showing an example of a flow of emergency transport processing (addition of symptom information) according to the third embodiment. The emergency transport process (addition of symptom information) is activated after the emergency transport process (until the room starts).

まず、スマートスピーカー300´´の音声入力部340が救急室の医療従事者の発声を受け付ける。そして、該発話音声の情報は、ルーム指定部324を介してルームIDと対応付けられて、制御部320´´により緊急情報連携サーバー装置200´´へ送信される(ステップS101´)。 First, the voice input unit 340 of the smart speaker 300 ″ receives the utterance of the medical staff in the emergency room. Then, the utterance voice information is associated with the room ID via the room designation unit 324 and transmitted to the emergency information cooperation server device 200 ″ by the control unit 320 ″ (step S101 ″).

そして、利用者特定部229は、利用者声紋記憶部216を用いて、利用者を特定する(ステップS102´)。 Then, the user identification unit 229 identifies the user by using the user voiceprint storage unit 216 (step S102').

そして、音声認識部227は、音声を認識してテキスト化する(ステップS103´)。具体的には、音声認識部227は、学習済みモデルを用いて、音声認識を行う。または、音声認識部227は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、受け付けた発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 Then, the voice recognition unit 227 recognizes the voice and converts it into text (step S103'). Specifically, the voice recognition unit 227 performs voice recognition using the trained model. Alternatively, the voice recognition unit 227 transmits the received utterance voice information in order to delegate the voice recognition process to an external predetermined voice recognition server that can be connected via the network, and transmits the text information of the recognized result. get.

そして、用語特定部228は、用語を特定する(ステップS104´)。具体的には、用語特定部228は、学習済みモデルと用語記憶部215とを用いて、所定のアルゴリズムでステップS103´にて得られたテキストを対象として医学用語、略語、通称、俗称、方言等の表現の揺らぎを考慮した用語特定を行い、用語についてはそのまま採用し、変換処理を行わないで意味を解釈する。 Then, the term identification unit 228 identifies the term (step S104'). Specifically, the term identification unit 228 uses the trained model and the term storage unit 215 to target the text obtained in step S103'by a predetermined algorithm, and uses medical terms, abbreviations, common names, common names, and dialects. The terms are specified in consideration of the fluctuation of expressions such as, etc., the terms are adopted as they are, and the meaning is interpreted without conversion processing.

そして、時系列会話処理部222は、時系列に会話を記録する(ステップS105)。具体的には、時系列会話処理部222は、ステップS101´で受信したルームIDと発話テキストと、発話者の情報とを、それぞれ発話履歴記憶部212の患者ルーム212Aと、発話内容212Dと、発話者212Bと、に対応付けて記憶させる。また、処理時点を特定する時刻情報を、発話時刻212Cに記憶させる。 Then, the time-series conversation processing unit 222 records the conversation in a time-series manner (step S105). Specifically, the time-series conversation processing unit 222 uses the room ID, the utterance text, and the speaker's information received in step S101'in the patient room 212A of the utterance history storage unit 212, the utterance content 212D, and the utterance content 212D, respectively. It is stored in association with the speaker 212B. Further, the time information for specifying the processing time point is stored in the utterance time 212C.

そして、症状情報作成部221は、症状関連項目を特定する(ステップS106)。具体的には、症状情報作成部221は、ステップS105で記録した発話テキストを、学習済みモデルを用いて解析して、症状情報記憶部211に設定された項目のいずれかについての質問であるか否かを判定する。症状情報記憶部211に設定された項目のいずれかについての質問でない場合には、症状情報作成部221は、緊急搬送時処理(症状情報追加)のフローを終了させる。 Then, the symptom information creation unit 221 specifies a symptom-related item (step S106). Specifically, the symptom information creation unit 221 analyzes the utterance text recorded in step S105 using the learned model, and asks a question about any of the items set in the symptom information storage unit 211. Judge whether or not. If the question is not about any of the items set in the symptom information storage unit 211, the symptom information creation unit 221 ends the flow of emergency transport processing (addition of symptom information).

症状情報記憶部211に設定された項目のいずれかについての質問である場合には、その項目について、発話テキストを質問命令として、また特定した症状関連項目として音声化してスマートスピーカー100´´に送信する(ステップS107´)。 If the question is about any of the items set in the symptom information storage unit 211, the utterance text is converted into a voice as a question command and as a specified symptom-related item and transmitted to the smart speaker 100 ″. (Step S107').

スマートスピーカー100´´は、質問命令および症状関連項目を音声出力する(ステップS108´)。 The smart speaker 100 ″ outputs a question command and symptom-related items by voice (step S108 ′).

そして、スマートスピーカー100´´の音声入力装置は、緊急車両の救急隊員の発声を受け付ける。そして、該発話音声の情報は、ルーム指定部124を介してルームIDと対応付けられて、緊急情報連携サーバー装置200´´へ送信される(ステップS109´)。 Then, the voice input device of the smart speaker 100 ″ receives the utterance of the emergency personnel of the emergency vehicle. Then, the utterance voice information is associated with the room ID via the room designation unit 124 and transmitted to the emergency information cooperation server device 200 ″ (step S109 ″).

そして、利用者特定部229は、利用者声紋記憶部216を用いて、利用者を特定する(ステップS110´)。 Then, the user identification unit 229 identifies the user by using the user voiceprint storage unit 216 (step S110').

そして、音声認識部227は、音声を認識してテキスト化する(ステップS111´)。具体的には、音声認識部227は、学習済みモデルを用いて、音声認識を行う。または、音声認識部227は、ネットワークを介して接続可能な外部の所定の音声認識サーバーに音声認識処理を委譲するために、受け付けた発話音声の情報を送信し、認識された結果のテキスト情報を取得する。 Then, the voice recognition unit 227 recognizes the voice and converts it into text (step S111'). Specifically, the voice recognition unit 227 performs voice recognition using the trained model. Alternatively, the voice recognition unit 227 transmits the received utterance voice information in order to delegate the voice recognition process to an external predetermined voice recognition server that can be connected via the network, and transmits the text information of the recognized result. get.

そして、用語特定部228は、用語を特定する(ステップS112´)。具体的には、用語特定部228は、学習済みモデルと用語記憶部215とを用いて、所定のアルゴリズムでステップS111´にて得られたテキストを対象として医学用語、略語、通称、俗称、方言等の表現の揺らぎを考慮した用語特定を行い、用語についてはそのまま採用し、変換処理を行わないで意味を解釈する。 Then, the term identification unit 228 identifies the term (step S112'). Specifically, the term identification unit 228 uses the trained model and the term storage unit 215 to target the text obtained in step S111'by a predetermined algorithm, and uses medical terms, abbreviations, common names, common names, and dialects. The terms are specified in consideration of the fluctuation of expressions such as, etc., the terms are adopted as they are, and the meaning is interpreted without conversion processing.

そして、時系列会話処理部222は、時系列に会話を記録する(ステップS113)。具体的には、時系列会話処理部222は、ステップS109´で受信したルームIDと発話テキストと、発話者の情報とを、それぞれ発話履歴記憶部212の患者ルーム212Aと、発話内容212Dと、発話者212Bと、に対応付けて記憶させる。また、処理時点を特定する時刻情報を、発話時刻212Cに記憶させる。 Then, the time-series conversation processing unit 222 records the conversation in a time-series manner (step S113). Specifically, the time-series conversation processing unit 222 uses the room ID, the utterance text, and the speaker's information received in step S109'in the patient room 212A of the utterance history storage unit 212, the utterance content 212D, and the utterance content 212D, respectively. It is stored in association with the speaker 212B. Further, the time information for specifying the processing time point is stored in the utterance time 212C.

そして、症状情報作成部221は、症状情報を作成する(ステップS114)。具体的には、症状情報作成部221は、ステップS113で記録した発話テキストを、学習済みモデルを用いて解析して、症状情報記憶部211に設定された項目ごとにその値を特定して症状情報記憶部211に格納する。具体的には、症状情報作成部221は、患者氏名、患者性別、患者年齢、脈拍、主訴、処置等の情報を発話テキストから抽出し、症状情報記憶部211の患者ルーム211Gに格納されたルームIDが一致する患者の情報として格納する。 Then, the symptom information creation unit 221 creates symptom information (step S114). Specifically, the symptom information creation unit 221 analyzes the utterance text recorded in step S113 using the learned model, specifies the value for each item set in the symptom information storage unit 211, and causes the symptom. It is stored in the information storage unit 211. Specifically, the symptom information creation unit 221 extracts information such as patient name, patient gender, patient age, pulse, chief complaint, and treatment from the spoken text, and stores the information in the patient room 211G of the symptom information storage unit 211. It is stored as information on patients whose IDs match.

以上が、第三の実施形態に係る緊急搬送時処理(症状情報追加)のフローの例である。緊急搬送時処理(症状情報追加)のフローによれば、スマートスピーカーが音声入力を受け付けて、仮想ルームのキー情報を共有する他のスマートスピーカーへ症状の情報を要求することで、発話内容から自動的に症状情報を作成することができる。 The above is an example of the flow of emergency transport processing (addition of symptom information) according to the third embodiment. According to the flow of emergency transport processing (addition of symptom information), the smart speaker accepts voice input and requests symptom information from other smart speakers that share the key information of the virtual room, and automatically starts from the utterance content. It is possible to create symptom information.

また、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。 Further, the technical elements of the above-described embodiment may be applied independently, or may be applied separately in a plurality of parts such as a program component and a hardware component.

また、上記した発話の解析には、全て、学習済みモデルを適用してもよいし、キーワードの一致度合いに応じて尤度を算出することで意味を推定するようにしてもよいし、単に含まれる単語のルールベースで対応する項目の特定を行うようにしてもよい。以上、本発明について、実施形態を中心に説明した。 Further, the trained model may be applied to all the analysis of the above-mentioned utterances, the likelihood may be estimated by calculating the likelihood according to the degree of matching of the keywords, or simply included. The corresponding item may be specified based on the rule base of the word. The present invention has been described above with a focus on embodiments.

1・・・緊急情報連携システム、50・・・ネットワーク、100,300・・・スマートスピーカー、110,310・・・記憶部、111,311・・・用語記憶部、112,312・・・利用者声紋記憶部、113,313・・・所属ルーム記憶部、114,314・・・周辺機器稼働ログ記憶部、120,320・・・制御部、121,321・・・音声認識部、122,322・・・用語特定部、123,323・・・利用者特定部、124,324・・・ルーム指定部、125,325・・・周辺機器制御部、130,330・・・通信部、140,340・・・音声入力部、150,350・・・音声出力部、200・・・緊急情報連携サーバー装置、210・・・記憶部、211・・・症状情報記憶部、212・・・発話履歴記憶部、213・・・機材稼働情報記憶部、215・・・用語記憶部、216・・・利用者声紋記憶部、220・・・制御部、221・・・症状情報作成部、222・・・時系列会話処理部、223・・・出力作成部、227・・・音声認識部、228・・・用語特定部、229・・・利用者特定部、230・・・通信部。 1 ... Emergency information linkage system, 50 ... Network, 100, 300 ... Smart speaker, 110, 310 ... Storage unit, 111, 311 ... Term storage unit, 112, 312 ... Use Person voice pattern storage unit, 113,313 ... Affiliation room storage unit, 114,314 ... Peripheral device operation log storage unit, 120,320 ... Control unit, 121,321 ... Voice recognition unit, 122, 322 ... Term identification unit, 123, 323 ... User identification unit, 124,324 ... Room designation unit, 125,325 ... Peripheral device control unit, 130, 330 ... Communication unit, 140 , 340 ... Voice input unit, 150, 350 ... Voice output unit, 200 ... Emergency information linkage server device, 210 ... Storage unit, 211 ... Symptom information storage unit, 212 ... Speaking History storage unit, 213 ... Equipment operation information storage unit, 215 ... Term storage unit, 216 ... User voice print storage unit, 220 ... Control unit, 221 ... Symptom information creation unit, 222. .. Time-series conversation processing unit, 223 ... Output creation unit, 227 ... Voice recognition unit, 228 ... Term identification unit, 229 ... User identification unit, 230 ... Communication unit.

Claims (20)

発話音声を受け付ける複数の音声入出力装置と、
患者の生体情報を含むカルテ情報を記憶する症状情報記憶部と、
入力された発話音声をテキスト化する音声認識部と、
前記テキストから少なくとも前記患者の前記生体情報を抽出して前記症状情報記憶部に記憶させる症状情報作成部と、
前記生体情報を互いに関連付けられたキー情報を有する前記音声入出力装置に送信して出力させる出力作成部と、
を有することを特徴とする情報連携システム。
Multiple voice input / output devices that accept spoken voice,
A symptom information storage unit that stores medical record information including the patient's biological information,
A voice recognition unit that converts the input utterance voice into text,
A symptom information creation unit that extracts at least the biological information of the patient from the text and stores it in the symptom information storage unit.
An output creation unit that transmits and outputs the biometric information to the audio input / output device having key information associated with each other.
An information linkage system characterized by having.
複数の音声入出力装置と、
前記音声入出力装置とネットワークを介して通信可能に接続される情報連携サーバー装置と、を備え、
前記音声入出力装置は、それぞれ、入力された発話音声をテキスト化して所定のキー情報とともに前記情報連携サーバー装置に対して送信する制御部を備え、
前記情報連携サーバー装置は、
患者の生体情報を含む情報を記憶する症状情報記憶部と、
前記テキストから少なくとも前記患者の前記生体情報を抽出して前記症状情報記憶部に記憶させる症状情報作成部と、
前記生体情報を互いに関連付けられた前記キー情報を有する前記音声入出力装置に送信して出力させる出力作成部と、
を有することを特徴とする情報連携システム。
With multiple audio input / output devices
The voice input / output device is provided with an information linkage server device that is communicably connected via a network.
Each of the voice input / output devices includes a control unit that converts the input spoken voice into text and transmits it to the information linkage server device together with predetermined key information.
The information linkage server device is
A symptom information storage unit that stores information including the patient's biological information,
A symptom information creation unit that extracts at least the biological information of the patient from the text and stores it in the symptom information storage unit.
An output creation unit that transmits and outputs the biometric information to the voice input / output device having the key information associated with each other.
An information linkage system characterized by having.
請求項1または2に記載の情報連携システムであって、
前記音声入出力装置のうち少なくとも一つは緊急車両に設けられ、
前記患者は前記緊急車両に収容した患者である、
ことを特徴とする情報連携システム。
The information linkage system according to claim 1 or 2.
At least one of the voice input / output devices is provided in an emergency vehicle.
The patient is a patient housed in the emergency vehicle,
An information linkage system characterized by this.
請求項1〜3のいずれか一項に記載の情報連携システムであって、
前記音声入出力装置のうち少なくとも一つは医療従事者が医療行為を行う救急室に設けられ、
前記音声入出力装置は、少なくとも前記生体情報を表示するディスプレイ装置を備える、
ことを特徴とする情報連携システム。
The information linkage system according to any one of claims 1 to 3.
At least one of the voice input / output devices is installed in an emergency room where medical staff perform medical treatment.
The audio input / output device includes at least a display device that displays the biological information.
An information linkage system characterized by this.
請求項1〜4のいずれか一項に記載の情報連携システムであって、
前記音声入出力装置の制御部は、前記発話音声をテキスト化する処理において、前記発話音声を認識する音声認識処理を行い、該処理では、前記患者の前記生体情報に関する所定の用語については近似する語への変換を行わない、
ことを特徴とする情報連携システム。
The information linkage system according to any one of claims 1 to 4.
The control unit of the voice input / output device performs a voice recognition process for recognizing the spoken voice in the process of converting the spoken voice into text, and in the process, the predetermined terms related to the biological information of the patient are approximated. Do not convert to words,
An information linkage system characterized by this.
請求項2に記載の情報連携システムであって、
前記情報連携サーバー装置は、
前記テキストを互いに共通する前記キー情報を有する前記音声入出力装置に送信して時系列に共有させる時系列会話処理部を備え、
前記音声入出力装置の一つから新たな患者に関する発話がなされると、前記キー情報を発行して、該音声入出力装置とは異なる他の音声入出力装置の少なくとも一つと該キー情報を関連付ける、
ことを特徴とする情報連携システム。
The information linkage system according to claim 2.
The information linkage server device is
A time-series conversation processing unit is provided, which transmits the text to the voice input / output device having the key information common to each other and shares the text in a time series.
When one of the voice input / output devices makes an utterance about a new patient, the key information is issued to associate the key information with at least one of other voice input / output devices different from the voice input / output device. ,
An information linkage system characterized by this.
請求項1〜6のいずれか一項に記載の情報連携システムであって、
前記出力作成部は、前記生体情報とともに、前記テキストを時系列に表示する画面情報を作成して互いに関連付けられた前記キー情報を有する前記音声入出力装置に出力させる、
ことを特徴とする情報連携システム。
The information linkage system according to any one of claims 1 to 6.
The output creation unit creates screen information for displaying the text in time series together with the biometric information, and outputs the screen information to the voice input / output device having the key information associated with each other.
An information linkage system characterized by this.
請求項1〜7のいずれか一項に記載の情報連携システムであって、
所定の機器の稼働状態に関するログ情報を収集するログ収集部を備え、
前記出力作成部は、当該稼働状態と発話のあった時刻とを時系列に並べた情報を生成する、
ことを特徴とする情報連携システム。
The information linkage system according to any one of claims 1 to 7.
Equipped with a log collection unit that collects log information related to the operating status of a given device
The output creation unit generates information in which the operating state and the time of the utterance are arranged in chronological order.
An information linkage system characterized by this.
複数の音声入出力装置から、入力された発話音声をテキスト化した情報と、キー情報とをネットワークを介して受信する通信部と、
患者の生体情報を含む情報を記憶する症状情報記憶部と、
前記テキストから少なくとも前記患者の前記生体情報を抽出して前記症状情報記憶部に記憶させる症状情報作成部と、
前記生体情報を互いに関連付けられた前記キー情報を有する前記音声入出力装置に送信して出力させる出力作成部と、
を有することを特徴とする情報連携サーバー装置。
A communication unit that receives textualized voice information and key information input from multiple voice input / output devices via a network.
A symptom information storage unit that stores information including the patient's biological information,
A symptom information creation unit that extracts at least the biological information of the patient from the text and stores it in the symptom information storage unit.
An output creation unit that transmits and outputs the biometric information to the voice input / output device having the key information associated with each other.
An information linkage server device characterized by having.
請求項9に記載の情報連携サーバー装置であって、
前記音声入出力装置のうち少なくとも一つは緊急車両に設けられ、
前記患者は前記緊急車両に収容した患者である、
ことを特徴とする情報連携サーバー装置。
The information linkage server device according to claim 9.
At least one of the voice input / output devices is provided in an emergency vehicle.
The patient is a patient housed in the emergency vehicle,
An information linkage server device characterized by this.
請求項9または10に記載の情報連携サーバー装置であって、
前記音声入出力装置のうち少なくとも一つは医療従事者が医療行為を行う救急室に設けられ、
前記音声入出力装置は、少なくとも前記生体情報を表示するディスプレイ装置を備える、
ことを特徴とする情報連携サーバー装置。
The information linkage server device according to claim 9 or 10.
At least one of the voice input / output devices is installed in an emergency room where medical staff perform medical treatment.
The audio input / output device includes at least a display device that displays the biological information.
An information linkage server device characterized by this.
請求項9〜11のいずれか一項に記載の情報連携サーバー装置であって、
前記テキストを互いに関連付けられた前記キー情報を有する前記音声入出力装置に送信して時系列に共有させる時系列会話処理部を備え、
前記音声入出力装置の一つから新たな患者に関する発話がなされると、前記キー情報を発行して、該音声入出力装置とは異なる他の音声入出力装置の少なくとも一つと該キー情報を関連付ける、
ことを特徴とする情報連携サーバー装置。
The information linkage server device according to any one of claims 9 to 11.
A time-series conversation processing unit is provided, which transmits the text to the voice input / output device having the key information associated with each other and shares the text in a time series.
When one of the voice input / output devices makes an utterance about a new patient, the key information is issued to associate the key information with at least one of other voice input / output devices different from the voice input / output device. ,
An information linkage server device characterized by this.
請求項9〜12のいずれか一項に記載の情報連携サーバー装置であって、
前記出力作成部は、前記生体情報とともに、前記テキストを時系列に表示する画面情報を作成して互いに関連付けられた前記キー情報を有する前記音声入出力装置に送信して出力させる、
ことを特徴とする情報連携サーバー装置。
The information linkage server device according to any one of claims 9 to 12.
The output creation unit creates screen information for displaying the text in time series together with the biometric information, and transmits the screen information to the audio input / output device having the key information associated with each other for output.
An information linkage server device characterized by this.
複数の音声入出力装置から、入力された発話音声情報と、キー情報とをネットワークを介して受信する通信部と、
患者の生体情報を含む情報を記憶する症状情報記憶部と、
前記発話音声情報をテキスト化する音声認識部と、
前記テキストから少なくとも前記患者の前記生体情報を抽出して前記症状情報記憶部に記憶させる症状情報作成部と、
前記生体情報を互いに関連付けられた前記キー情報を有する前記音声入出力装置に送信して出力させる出力作成部と、
を有することを特徴とする情報連携サーバー装置。
A communication unit that receives input voice information and key information from multiple voice input / output devices via a network.
A symptom information storage unit that stores information including the patient's biological information,
A voice recognition unit that converts the spoken voice information into text,
A symptom information creation unit that extracts at least the biological information of the patient from the text and stores it in the symptom information storage unit.
An output creation unit that transmits and outputs the biometric information to the voice input / output device having the key information associated with each other.
An information linkage server device characterized by having.
複数の音声入出力装置と、
前記音声入出力装置とネットワークを介して通信可能に接続される情報連携サーバー装置と、を備え、
前記音声入出力装置は、それぞれ、入力された発話音声を受け付けて所定のキー情報とともに前記情報連携サーバー装置に対して送信する制御部を備え、
前記情報連携サーバー装置は、
患者の生体情報を含む情報を記憶する症状情報記憶部と、
前記発話音声を受信してテキスト化する音声認識部と、
前記テキストから少なくとも前記患者の前記生体情報を抽出して前記症状情報記憶部に記憶させる症状情報作成部と、
前記生体情報を互いに関連付けられた前記キー情報を有する前記音声入出力装置に送信して出力させる出力作成部と、
を有することを特徴とする情報連携システム。
With multiple audio input / output devices
The voice input / output device is provided with an information linkage server device that is communicably connected via a network.
Each of the voice input / output devices includes a control unit that receives the input voice and transmits it to the information linkage server device together with predetermined key information.
The information linkage server device is
A symptom information storage unit that stores information including the patient's biological information,
A voice recognition unit that receives the spoken voice and converts it into text,
A symptom information creation unit that extracts at least the biological information of the patient from the text and stores it in the symptom information storage unit.
An output creation unit that transmits and outputs the biometric information to the voice input / output device having the key information associated with each other.
An information linkage system characterized by having.
所定の情報連携サーバー装置とネットワークを介して通信可能に接続する通信部と、
入力された発話音声をテキスト化して所定のキー情報とともに前記情報連携サーバー装置に対して送信する制御部と、を備え、
前記制御部は、生体情報を前記情報連携サーバー装置から受信すると、該生体情報を出力させる、
ことを特徴とする音声入出力装置。
A communication unit that connects to a predetermined information linkage server device so that it can communicate via a network,
It is equipped with a control unit that converts the input utterance voice into text and transmits it to the information linkage server device together with predetermined key information.
When the control unit receives the biometric information from the information linkage server device, the control unit outputs the biometric information.
An audio input / output device characterized by this.
請求項16に記載の音声入出力装置であって、
少なくとも前記生体情報を表示するディスプレイ装置を備える、
ことを特徴とする音声入出力装置。
The audio input / output device according to claim 16.
A display device for displaying at least the biometric information is provided.
An audio input / output device characterized by this.
請求項16または17に記載の音声入出力装置であって、
前記制御部は、前記発話音声をテキスト化する処理において、前記発話音声を認識する音声認識処理を行い、該処理では、生体情報に関する所定の用語については近似する語への変換を行わない、
ことを特徴とする音声入出力装置。
The audio input / output device according to claim 16 or 17.
The control unit performs a voice recognition process for recognizing the uttered voice in the process of converting the uttered voice into text, and does not convert a predetermined word related to biological information into an approximate word in the process.
An audio input / output device characterized by this.
情報連携システムによる情報連携方法であって、
前記情報連携システムは、
発話音声を受け付ける複数の音声入出力装置と、
患者の生体情報を含む情報を記憶する症状情報記憶部と、制御部と、を備え、
前記制御部は、
入力された発話音声をテキスト化する音声認識ステップと、
前記テキストから少なくとも前記患者の前記生体情報を抽出して前記症状情報記憶部に記憶させる症状情報作成ステップと、
前記生体情報を互いに関連付けられたキー情報を有する前記音声入出力装置に送信して出力させる出力作成ステップと、
を実施することを特徴とする情報連携方法。
It is an information linkage method using an information linkage system.
The information linkage system is
Multiple voice input / output devices that accept spoken voice,
It is equipped with a symptom information storage unit that stores information including biological information of the patient and a control unit.
The control unit
A voice recognition step that converts the input utterance voice into text,
A symptom information creation step of extracting at least the biological information of the patient from the text and storing it in the symptom information storage unit.
An output creation step of transmitting and outputting the biometric information to the voice input / output device having key information associated with each other.
An information linkage method characterized by carrying out.
コンピュータに情報連携をさせるプログラムであって、
前記コンピュータを、複数の音声入出力装置から、入力された発話音声をテキスト化した情報と、キー情報と、をネットワークを介して受信する通信部と、制御部と、患者の生体情報を含む情報を記憶する症状情報記憶部として機能させ、
前記制御部に、
前記テキストから少なくとも前記患者の前記生体情報を抽出して前記症状情報記憶部に記憶させる症状情報作成ステップと、
前記生体情報を互いに関連付けられた前記キー情報を有する前記音声入出力装置に送信して出力させる出力作成ステップと、
を実施させることを特徴とするプログラム。
A program that lets a computer link information
Information including a communication unit, a control unit, and a patient's biological information for receiving textualized information and key information of spoken voice input from a plurality of voice input / output devices on the computer via a network. To function as a symptom information storage unit to memorize
In the control unit
A symptom information creation step of extracting at least the biological information of the patient from the text and storing it in the symptom information storage unit.
An output creation step of transmitting and outputting the biometric information to the voice input / output device having the key information associated with each other.
A program characterized by having the program implemented.
JP2019041660A 2019-03-07 2019-03-07 Information linking system, information linking server, voice i/o device, information linking method, and program Pending JP2020144676A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019041660A JP2020144676A (en) 2019-03-07 2019-03-07 Information linking system, information linking server, voice i/o device, information linking method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019041660A JP2020144676A (en) 2019-03-07 2019-03-07 Information linking system, information linking server, voice i/o device, information linking method, and program

Publications (1)

Publication Number Publication Date
JP2020144676A true JP2020144676A (en) 2020-09-10

Family

ID=72355568

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019041660A Pending JP2020144676A (en) 2019-03-07 2019-03-07 Information linking system, information linking server, voice i/o device, information linking method, and program

Country Status (1)

Country Link
JP (1) JP2020144676A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6995275B1 (en) 2021-02-10 2022-01-14 株式会社エクサウィザーズ Business support methods, systems and programs

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6995275B1 (en) 2021-02-10 2022-01-14 株式会社エクサウィザーズ Business support methods, systems and programs
JP2022122809A (en) * 2021-02-10 2022-08-23 株式会社エクサウィザーズ Business support method and system, and program

Similar Documents

Publication Publication Date Title
US11881302B2 (en) Virtual medical assistant methods and apparatus
US11776669B2 (en) System and method for synthetic interaction with user and devices
KR101986867B1 (en) Speaker verification in a health monitoring system
US8046226B2 (en) System and methods for reporting
US8286071B1 (en) Insertion of standard text in transcriptions
US20120158432A1 (en) Patient Information Documentation And Management System
CN109003648B (en) Oral outpatient speech electronic medical record generation method and computer readable storage medium
US20210298711A1 (en) Audio biomarker for virtual lung function assessment and auscultation
US20230291728A1 (en) System and method for a patient initiated medical interview using a voice-based medical history questionnaire
CN107480450A (en) A kind of intelligence point examines method and system
CN106251865A (en) A kind of medical treatment & health record Auto-writing method based on speech recognition
CN111933291A (en) Medical information recommendation device, method, system, equipment and readable storage medium
JP2010094243A (en) Automatic inquiry system
US11869509B1 (en) Document generation from conversational sources
WO2020004556A1 (en) Patient assessment support device, patient assessment support method, and recording medium
KR101868404B1 (en) Emergency Dispatch System and Method based on Korean Speech Recognition Technology
JP2020144676A (en) Information linking system, information linking server, voice i/o device, information linking method, and program
JP7388450B2 (en) Conversation support device, conversation support system, conversation support method, and recording medium
JP2021064284A (en) Cognitive function evaluation system, cognitive function evaluation method, and program
JP2020144681A (en) Information linking system, information linking server, voice i/o device, information linking method, and program
WO2023015287A1 (en) Systems and methods for automated medical data capture and caregiver guidance
CN115083557A (en) Intelligent generation system and method for medical record
CN110767282B (en) Health record generation method and device and computer readable storage medium
Meier et al. Speech-based Documentation in Emergency Medical Services with the Electronic Language Interface for Ambulance Services
Abdelwahap et al. Applications Of Natural Language Processing In Healthcare Systems