JP2012194928A - Information providing program, information providing device and information providing method - Google Patents

Information providing program, information providing device and information providing method Download PDF

Info

Publication number
JP2012194928A
JP2012194928A JP2011059936A JP2011059936A JP2012194928A JP 2012194928 A JP2012194928 A JP 2012194928A JP 2011059936 A JP2011059936 A JP 2011059936A JP 2011059936 A JP2011059936 A JP 2011059936A JP 2012194928 A JP2012194928 A JP 2012194928A
Authority
JP
Japan
Prior art keywords
character string
image
document data
conversion
interpretation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011059936A
Other languages
Japanese (ja)
Other versions
JP5644607B2 (en
Inventor
Daiki Sakata
大樹 坂田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2011059936A priority Critical patent/JP5644607B2/en
Publication of JP2012194928A publication Critical patent/JP2012194928A/en
Application granted granted Critical
Publication of JP5644607B2 publication Critical patent/JP5644607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Medical Treatment And Welfare Office Work (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide easy-to-understand information about the situation of an object to a person to whom the information is provided.SOLUTION: A read image P1 is a target image of image reading and an image of an object. Observation document data Dt is document data of observation for the read image P1. Explanation document data Dv is document data converted from explanation voice data of an explanation for the read image P1. Here, a medical term in the observation document data Dt is converted into a general term. Then, from character strings in the observation document data Dt after conversion, a character string that matches a character string in the explanation document data Dv is extracted. The extracted matching character string is printed in the column of a keyword provided on the read image P1 and output as a read image for patient P2. Thus, the read image for patient P2 attached with the general term is created.

Description

本発明は、情報提供プログラム、情報提供装置および情報提供方法に関する。   The present invention relates to an information providing program, an information providing apparatus, and an information providing method.

医療機関では、読影医により読影される患者などの被写体の撮影画像と、読影医が撮影画像を読影した結果である所見を基に、診療科の医師によって診察がおこなわれることがある。なお、以下、読影医が読影する撮影画像を読影画像という。また、読影画像が大量であることから、読影医は、読影画像のうち、診療科の医師が特に注意してみるべき画像を指定する。指定された画像を指定画像とよぶ。医師は、例えば、指定画像と所見とを参考にして診断を行い、診断結果を患者や患者の関係者に説明する。一方、読影画像を、読影医により入力された所見の文字列とともに出力する技術が開示されている。   In a medical institution, a doctor in a medical department may perform a diagnosis based on a captured image of a subject such as a patient that is interpreted by an interpreting doctor and a finding that is a result of interpreting the captured image by the interpreting doctor. Hereinafter, a captured image that is interpreted by an interpreting doctor is referred to as an interpretation image. In addition, since there are a large number of interpretation images, the interpretation doctor designates an image among the interpretation images that the doctor in the medical department should pay particular attention to. The specified image is called the specified image. For example, the doctor makes a diagnosis with reference to the designated image and the findings, and explains the diagnosis result to the patient and the patient concerned. On the other hand, a technique for outputting an interpretation image together with a character string of findings input by an interpretation doctor is disclosed.

特開2007−72649号公報JP 2007-72649 A

ここで、インフォームドコンセントなどの観点から、医師は、例えば、患者などに対して、撮影画像の一部(指定画像等)を提供することが考えられる。そして、撮影画像とともに、所見等も提供することで、患者へ検査結果を知らせる。しかしながら、被提供者は、提供された撮影画像から被写体の状態に関する情報を読み取ることができないことがあるという問題があった。例えば、所見は、医師や看護師などの医療関係者を対象として作成されるため、医学用語が用いられることがある。この場合、医学用語に関する知識の乏しい被提供者は、提供された読影画像に含まれる所見の内容を理解できないことがある。   Here, from the viewpoint of informed consent or the like, it is conceivable that a doctor provides a part of a captured image (designated image or the like) to a patient or the like, for example. Then, by providing the findings along with the photographed image, the patient is informed of the test result. However, there is a problem that the recipient may not be able to read information on the state of the subject from the provided captured image. For example, since the findings are created for medical personnel such as doctors and nurses, medical terms may be used. In this case, a recipient who lacks knowledge about medical terms may not understand the findings contained in the provided interpretation image.

本発明は、上述した従来技術による問題点を解消するため、被提供者に対して被写体の状態についてわかりやすい情報を提供することのできる情報提供プログラム、情報提供装置および情報提供方法を提供することを目的とする。   The present invention provides an information providing program, an information providing apparatus, and an information providing method capable of providing easy-to-understand information about the state of a subject to a recipient in order to solve the above-described problems caused by the prior art. Objective.

上述した課題を解決し、目的を達成するため、本発明の一側面によれば、被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得し、文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、取得された前記文書データに含まれる該文字列を該他の文字列に変換し、変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出し、抽出された前記一致文字列を、前記画像とともに出力する情報提供プログラム、情報提供装置および情報提供方法が提案される。   In order to solve the above-described problems and achieve the object, according to one aspect of the present invention, an image of a subject, document data indicating findings input to the image, and audio data for the image are audio. The description document data converted by recognition is acquired, and the character string included in the acquired document data is obtained by referring to the conversion master in which the character string is associated with another character string related to the character string. Is converted into the other character string, the converted document data is compared with the explanatory document data, a matching character string is extracted, and the extracted matching character string is output together with the image A providing program, an information providing apparatus, and an information providing method are proposed.

本発明の一側面によれば、被提供者に対して被写体の状態についてわかりやすい情報を提供することができるという効果を奏する。   According to one aspect of the present invention, it is possible to provide easy-to-understand information about the state of a subject to a recipient.

図1は、実施の形態1にかかる情報提供例を示す説明図(その1)である。FIG. 1 is an explanatory diagram (part 1) of an example of providing information according to the first embodiment. 図2は、実施の形態1にかかる情報提供例を示す説明図(その2)である。FIG. 2 is an explanatory diagram (part 2) of the information providing example according to the first embodiment. 図3は、実施の形態1にかかる情報提供例を示す説明図(その3)である。FIG. 3 is an explanatory diagram (part 3) of an information providing example according to the first embodiment. 図4は、実施の形態1にかかる情報提供例を示す説明図(その4)である。FIG. 4 is an explanatory diagram (part 4) of an example of providing information according to the first embodiment. 図5は、実施の形態1にかかる情報提供システムの一例を示す説明図である。FIG. 5 is an explanatory diagram of an example of the information providing system according to the first embodiment. 図6は、実施の形態1にかかる主治医用端末のハードウェア構成例を示すブロック図である。FIG. 6 is a block diagram of a hardware configuration example of the attending medical terminal according to the first embodiment. 図7は、変換マスタの記憶内容の一例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of the contents stored in the conversion master. 図8−1は、電子カルテDBの記憶内容の一例を示す説明図(その1)である。FIG. 8A is an explanatory diagram (part 1) of an example of the contents stored in the electronic medical record DB. 図8−2は、電子カルテDBの記憶内容の一例を示す説明図(その2)である。FIG. 8-2 is an explanatory diagram (part 2) of an example of the contents stored in the electronic medical record DB. 図9は、所見DBの記憶内容の一例を示す説明図である。FIG. 9 is an explanatory diagram showing an example of the contents stored in the finding DB. 図10は、画像データのタグ情報の一例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of tag information of image data. 図11は、主治医用端末のディスプレイの表示例を示す説明図である。FIG. 11 is an explanatory diagram showing a display example of the display of the attending medical terminal. 図12は、主治医用端末の機能的構成を示すブロック図である。FIG. 12 is a block diagram showing a functional configuration of the attending medical terminal. 図13は、実施の形態1にかかる主治医用端末の情報提供処理手順の一例を示すフローチャートである。FIG. 13 is a flowchart of an example of an information providing process procedure of the attending medical terminal according to the first embodiment. 図14は、実施の形態2にかかる情報提供例を示す説明図(その1)である。FIG. 14 is an explanatory diagram (part 1) of an example of providing information according to the second embodiment. 図15は、実施の形態2にかかる情報提供例を示す説明図(その2)である。FIG. 15 is an explanatory diagram (part 2) of an example of providing information according to the second embodiment. 図16は、実施の形態2における説明文書データの一例を示す説明図である。FIG. 16 is an explanatory diagram illustrating an example of explanatory document data according to the second embodiment. 図17は、実施の形態2にかかる主治医用端末の情報提供処理手順の一例を示すフローチャートである。FIG. 17 is a flowchart of an example of an information providing process procedure of the attending medical terminal according to the second embodiment.

以下に添付図面を参照して、本発明にかかる情報提供プログラム、情報提供装置および情報提供方法の実施の形態を詳細に説明する。   Exemplary embodiments of an information providing program, an information providing apparatus, and an information providing method according to the present invention will be described below in detail with reference to the accompanying drawings.

<実施の形態1>
まず、本発明にかかる情報提供プログラム、情報提供装置および情報提供方法の実施の形態1について説明する。実施の形態1では、読影画像の所見の文字列のうち、医師により平易な表現にて説明がされた文字列を付加した読影画像が出力される。これにより、読影画像が提供される被提供者に対して、被写体の状態についてわかりやすい情報を提供することができる。
<Embodiment 1>
First, Embodiment 1 of an information providing program, an information providing apparatus, and an information providing method according to the present invention will be described. In the first embodiment, an interpretation image to which a character string explained in plain expression by a doctor is added among the character strings of the findings of the interpretation image is output. Thereby, it is possible to provide easy-to-understand information about the state of the subject to the recipient who is provided with the interpretation image.

(情報提供例)
図1〜図4は、実施の形態1にかかる情報提供例を示す説明図である。図1〜図4において、読影画像P1と所見文書データDtと説明文書データDvとから、患者に提供される患者用読影画像P2が作成される。
(Information provision example)
1 to 4 are explanatory diagrams illustrating examples of providing information according to the first embodiment. 1 to 4, a patient interpretation image P2 provided to a patient is created from the interpretation image P1, the finding document data Dt, and the explanation document data Dv.

図1を用いて、患者用読影画像P2の出力例について説明する。図1においては、読影画像の所見の単語のうち、医師により平易な表現にて説明された単語が付加された読影画像が出力されるまでの過程について説明する。   An output example of the patient interpretation image P2 will be described with reference to FIG. In FIG. 1, a description will be given of a process until an interpretation image to which a word explained in a plain expression by a doctor is added among the words in the findings of the interpretation image is output.

読影画像P1は、読影の対象の画像であり、被写体である生体の画像である。被写体(生体)は、人であってもよいし、また、人以外の動物であってもよい。読影画像P1は、人の腹部のCT(Computed Tomography)画像であるが、これに限るものではない。例えば、MRI(Magnetic Resonance Imagine)画像や、RI(Radioisotope)画像などであってもよい。また、撮影対象部位は体内に限るものではなく、例えば、皮膚などであってもよい。また、読影画像P1は、平面画像であってもよいし、立体画像であってもよい。また、読影画像P1は、読影医から指定された指定画像である。   The interpretation image P1 is an image to be interpreted, and is a living body image that is a subject. The subject (living body) may be a person or an animal other than a person. The interpretation image P1 is a CT (Computed Tomography) image of a person's abdomen, but is not limited to this. For example, an MRI (Magnetic Resonance Image) image or an RI (Radioisotope) image may be used. Further, the imaging target region is not limited to the body, and may be, for example, the skin. The interpretation image P1 may be a flat image or a stereoscopic image. The interpretation image P1 is a designated image designated by an interpretation doctor.

所見文書データDtは、読影画像P1に対する所見の文書データである。所見とは、例えば、読影画像P1に対する読影医による診断や意見などである。所見文書データDtの文字列には、主に医学用語が用いられている。医学用語は、例えば、「コロン」、「病的意義」、「腹水」、「シャッテン」などである。   The finding document data Dt is the finding document data for the interpretation image P1. The findings are, for example, diagnosis or opinion by an interpreting doctor on the interpretation image P1. Medical terms are mainly used in the character string of the observation document data Dt. Medical terms include, for example, “colon”, “pathological significance”, “ascites”, “schatten”, and the like.

説明文書データDvは、読影画像P1に対する説明の説明音声データから変換された文書データである。読影画像P1に対する説明とは、例えば、読影画像P1および所見文書データDtを参考にした、主治医から患者に対する口頭による説明である。また、例えば、読影画像P1に対する説明とは、患者の状態や症状などについての説明である。説明文書データDvの文字列には、主に一般的な用語が用いられている。一般的な用語は、患者にとって医学用語よりも平易な用語が好ましい。例えば、一般的な用語とは、「大腸」、「小腸」、「薬」、「食事」などである。   The explanation document data Dv is document data converted from the explanation voice data for the interpretation of the interpretation image P1. The explanation for the interpretation image P1 is, for example, an oral explanation from the attending physician to the patient with reference to the interpretation image P1 and the finding document data Dt. Further, for example, the explanation for the interpretation image P1 is an explanation of the patient's condition and symptoms. General terms are mainly used in the character string of the explanatory document data Dv. Common terms are preferred for patients because they are simpler than medical terms. For example, common terms include “large intestine”, “small intestine”, “medicine”, “meal”, and the like.

ここで、図1における患者用読影画像P2が出力されるまでの過程の一例について説明する。まず、所見文書データDtにおける医学用語が一般的な用語に変換される。例えば、医学用語である「コロン」は、「コロン」と同義である一般的な用語の「大腸」へ変換される。つぎに、変換後の所見文書データDtの文字列から、説明文書データDvの文字列と一致する一致文字列が抽出される。例えば、一致文字列として「大腸」が抽出される。   Here, an example of a process until the patient interpretation image P2 in FIG. 1 is output will be described. First, medical terms in the finding document data Dt are converted into general terms. For example, the medical term “colon” is converted to the general term “colon” which is synonymous with “colon”. Next, a matching character string that matches the character string of the explanatory document data Dv is extracted from the character string of the converted finding document data Dt. For example, “colon” is extracted as the matching character string.

そして、抽出された一致文字列が読影画像P1に設けられたキーワードの欄に添付され、患者用読影画像P2として出力される。このとき、一致文字列が添付される位置は、読影画像P1を含む画像データ中であればよく、読影画像P1上に限るものではない。また、図1の例では、読影画像P1上に一致文字列が添付された患者用読影画像P2が出力されるが、これに限るものではなく、例えば、一致文字列の文書データと読影画像P1の画像データとが、異なるデータとして出力されるものであってもよい。このように、読影画像P1に関する一般的な用語による説明が付加された患者用読影画像P2が出力される。   Then, the extracted matching character string is attached to the keyword column provided in the interpretation image P1, and is output as a patient interpretation image P2. At this time, the position to which the matching character string is attached may be in the image data including the interpretation image P1, and is not limited to the interpretation image P1. In the example of FIG. 1, the patient interpretation image P2 with the matching character string attached on the interpretation image P1 is output. However, the present invention is not limited to this. For example, the document data of the matching character string and the interpretation image P1. The image data may be output as different data. In this way, the patient interpretation image P2 to which explanations in general terms relating to the interpretation image P1 are added is output.

つぎに、図2を用いて、部位の位置情報を含む患者用読影画像P2の出力例について説明する。図2においては、読影画像の所見における部位の名称の単語のうち、医師により平易な表現にて説明された部位の名称の単語が、該部位の位置情報とともに付加された読影画像が出力されるまでの過程について説明する。   Next, an output example of the patient interpretation image P2 including the position information of the part will be described with reference to FIG. In FIG. 2, an interpretation image in which a part name word explained in a plain expression by a doctor, together with position information of the part, is output among the words of the part name in the findings of the interpretation image. The process up to will be described.

読影画像P1には、読影画像P1に含まれる被写体の部位の名称と、読影画像P1における部位の位置情報とが関連付けられている。部位の名称には、主に医学用語が用いられる。例えば、部位の名称は、「コロン」や、「ストマック」や、「腎」などである。部位の位置情報とは、例えば、読影画像の所定の位置を原点とした座標による位置情報である。具体的に、例えば、読影画像P1においては、点P0を原点とし、X軸とY軸から成る平面座標が設定されており、「コロン」には、X=X1、Y=Y1の位置情報が関連付けられている。   In the interpretation image P1, the name of the part of the subject included in the interpretation image P1 and the position information of the part in the interpretation image P1 are associated. Medical terms are mainly used for the names of the parts. For example, the names of the parts are “colon”, “stomack”, “kidney”, and the like. The position information of the part is, for example, position information based on coordinates with a predetermined position of the interpretation image as an origin. Specifically, for example, in the interpretation image P1, a plane coordinate composed of the X axis and the Y axis is set with the point P0 as the origin, and the position information of X = X1 and Y = Y1 is set in the “colon”. Associated.

ここで、図2における患者用読影画像P2が出力されるまでの過程の一例について説明する。一致文字列が抽出されるまでの過程については、図1に示した過程と同様である。一致文字列に対応する医学用語の文字列が部位の名称である場合、該名称に対応する部位の位置情報が抽出される。そして、抽出された一致文字列が、位置情報に対応する読影画像P1上の位置を指し示すように添付され、患者用読影画像P2として出力される。このように、読影画像P1に関する一般的な用語による説明と位置情報とが付加された患者用読影画像P2が出力される。   Here, an example of a process until the patient interpretation image P2 in FIG. 2 is output will be described. The process until the matching character string is extracted is the same as the process shown in FIG. When the character string of the medical term corresponding to the matched character string is a part name, the position information of the part corresponding to the name is extracted. The extracted matching character string is attached so as to indicate the position on the interpretation image P1 corresponding to the position information, and is output as the patient interpretation image P2. In this way, the patient interpretation image P2 to which the explanation in general terms relating to the interpretation image P1 and the position information are added is output.

つぎに、図3を用いて、医学用語および一般的な用語による所見を含む患者用読影画像P2の出力例について説明する。図3においては、読影画像の所見における部位の名称の単語のうち、医師により平易な表現にて説明された部位の名称の単語と、所見における部位の名称の単語とが、部位の位置情報とともに付加された読影画像が出力されるまでの過程について説明する。   Next, an output example of the patient interpretation image P2 including findings in medical terms and general terms will be described with reference to FIG. In FIG. 3, among the words of the part names in the findings of the interpretation image, the part name words explained in plain expression by the doctor and the part name words in the findings together with the position information of the parts A process until the added interpretation image is output will be described.

ここで、図3における患者用読影画像P2が出力されるまでの過程の一例について説明する。一致文字列が抽出されるまでの過程については、図1に示した過程と同様である。抽出された一致文字列と、一致文字列に対応する所見文書データDtの文字列とが、読影画像P1とともに出力される。このように、医学用語および一般的な用語による所見が付加された患者用読影画像P2が出力され、医学用語と一般的な用語の対応関係を被提供者に理解させることができる。   Here, an example of a process until the patient interpretation image P2 in FIG. 3 is output will be described. The process until the matching character string is extracted is the same as the process shown in FIG. The extracted matching character string and the character string of the finding document data Dt corresponding to the matching character string are output together with the interpretation image P1. In this way, the patient interpretation image P2 to which findings based on medical terms and general terms are added is output, and the recipient can understand the correspondence between the medical terms and the general terms.

つぎに、図4を用いて、文章による所見を含む患者用読影画像P2の出力例について説明する。図4においては、読影画像P1の所見における文章の文字列のうち、医師により平易な表現にて説明された文章の文字列が付加された読影画像が出力されるまでの過程について説明する。   Next, with reference to FIG. 4, an output example of the patient interpretation image P2 including the findings by text will be described. In FIG. 4, a description will be given of a process until an interpretation image to which a character string of a sentence explained in a plain expression by a doctor is added among sentence character strings in the findings of the interpretation image P <b> 1 is output.

所見文書データDtの文字列には、医学用語が用いられた文章が含まれている。また、説明文書データDvの文字列には、一般的な用語が用いられた文章が含まれている。   The character string of the observation document data Dt includes a sentence using medical terms. In addition, the character string of the explanatory document data Dv includes a sentence using general terms.

ここで、図4における患者用読影画像P2が出力されるまでの過程の一例について説明する。まず、所見文書データDt中の文字列の医学用語が一般的な用語に変換される。例えば、医学用語である「コロン」は「コロン」と同義である一般的な用語の「大腸」へ変換される。同様に、医学用語である「腹水」は「腹水」と同義である一般的な用語の「影」へ、医学用語である「病的意義」は「病的意義」と同義である一般的な用語の「異常」へ、それぞれ変換される。   Here, an example of a process until the patient interpretation image P2 in FIG. 4 is output will be described. First, medical terms in a character string in the finding document data Dt are converted into general terms. For example, the medical term “colon” is converted to the general term “colon” which is synonymous with “colon”. Similarly, the medical term “ascites” is synonymous with “ascites” and the general term “shadow”, and the medical term “pathological significance” is synonymous with “pathological significance”. Each is converted to the term “abnormal”.

つぎに、変換後の所見文書データDtの文字列の文章から、説明文書データDvの文字列の文章と一致する一致文章が抽出される。その際、具体的には、例えば、主語と述語と修飾語とが一致している文章が抽出される。例えば、一致文章として「大腸に影がありますが異常はありません」が抽出される。   Next, a matching sentence that matches the sentence of the character string of the explanatory document data Dv is extracted from the sentence of the character string of the finding document data Dt after conversion. At that time, specifically, for example, a sentence in which the subject, the predicate, and the modifier match is extracted. For example, “having a shadow in the large intestine but no abnormality” is extracted as a matching sentence.

また、一致文章に対応する医学用語の文字列に部位の名称が含まれる場合、該名称に対応する部位の位置情報が抽出される。そして、抽出された一致文章と位置情報とが、読影画像P1とともに出力される。このように、読影画像P1に関する一般的な用語による説明の文章が付加された患者用読影画像P2が出力される。   When the name of a part is included in the character string of the medical term corresponding to the matching sentence, the position information of the part corresponding to the name is extracted. Then, the extracted matching sentence and position information are output together with the interpretation image P1. In this way, the patient interpretation image P2 to which the explanatory text in general terms relating to the interpretation image P1 is added is output.

(情報提供システムの一例)
図5は、実施の形態1にかかる情報提供システムの一例を示す説明図である。図5において、情報提供システム500は、主治医用端末510と、電子カルテサーバ520と、読影医用端末530と、読影医用システム540とが、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などのネットワーク550を介して接続されている。
(Example of information provision system)
FIG. 5 is an explanatory diagram of an example of the information providing system according to the first embodiment. In FIG. 5, an information providing system 500 includes an attending medical terminal 510, an electronic medical record server 520, an interpretation medical terminal 530, and an interpretation medical system 540, including the Internet, a LAN (Local Area Network), and a WAN (Wide Area Network). Or the like via a network 550.

主治医用端末510は、主治医によって操作されるコンピュータである。主治医用端末510は、音声入力装置511と変換マスタ512とを有する。音声入力装置511は、音声を入力し、入力された音声を音声データとして主治医用端末510へ送信する装置である。また、主治医用端末510は、音声データを音声入力装置511から取得した場合、電子カルテサーバ520へ送信する。変換マスタ512とは、医学用語を一般的な用語に変換するために用いられる規則が記憶されているテーブルである。変換マスタ512の詳細は、図7に後述する。   The attending physician terminal 510 is a computer operated by the attending physician. The attending medical terminal 510 includes a voice input device 511 and a conversion master 512. The voice input device 511 is a device that inputs voice and transmits the input voice to the primary medical terminal 510 as voice data. Further, when acquiring the voice data from the voice input device 511, the attending medical terminal 510 transmits the voice data to the electronic medical record server 520. The conversion master 512 is a table in which rules used for converting medical terms into general terms are stored. Details of the conversion master 512 will be described later with reference to FIG.

電子カルテサーバ520は、電子カルテDB521を有する。電子カルテDB521には、患者ID毎に電子化されたカルテが記憶されている。患者IDとは、患者毎に設定されている識別番号である。また、電子カルテDB521には、主治医用端末510から送信された説明音声データが説明文書データDvに変換されて記憶されている。具体的に、電子カルテサーバ520は、音声認識機能によって説明音声データを説明文書データDvに変換し、電子カルテDB521に記憶する。電子カルテDB521の詳細は、図8−1および図8−2に後述する。   The electronic medical record server 520 has an electronic medical record DB 521. The electronic medical record DB 521 stores a digitalized medical record for each patient ID. Patient ID is an identification number set for each patient. In the electronic medical record DB 521, the explanation voice data transmitted from the attending medical terminal 510 is converted into explanation document data Dv and stored. Specifically, the electronic medical record server 520 converts the explanatory voice data into the explanatory document data Dv by the voice recognition function, and stores it in the electronic medical chart DB 521. Details of the electronic medical record DB 521 will be described later with reference to FIGS.

読影医用端末530は、主に読影医によって操作されるコンピュータである。読影医とは、主治医からの依頼に応じて撮影された読影画像P1に対する所見を作成する医師である。読影医用端末530は、例えば、読影医から文字列が入力されることにより、所見文書データDtを作成する。   Interpretation medical terminal 530 is a computer operated mainly by an interpreting physician. The interpretation doctor is a doctor who creates a finding on the interpretation image P1 taken in response to a request from the attending physician. The interpretation medical terminal 530 creates the finding document data Dt by inputting a character string from the interpretation doctor, for example.

読影医用システム540は、読影医用サーバ541と撮影装置542とを有する。読影医用サーバ541は、読影医用システムDB543を有する。撮影装置542には、例えば、CT機器や、MRI機器や、RI機器などがある。この撮影装置542は、例えば、読影医から依頼を受けた放射線技師によって操作される。   The interpretation medical system 540 includes an interpretation medical server 541 and an imaging device 542. The interpretation medical server 541 has an interpretation medical system DB 543. Examples of the imaging device 542 include CT equipment, MRI equipment, RI equipment, and the like. This imaging device 542 is operated by, for example, a radiologist who has received a request from an interpreting doctor.

読影医用システムDB543は、画像DB544と所見DB545とを含む。画像DB544は、撮影装置542によって撮影された画像データが、付加情報(タグ情報)とともに記憶されている。タグ情報は、例えば、画像データに含まれる被写体の部位の名称や、部位の位置情報などである。タグ情報の詳細は、図10に後述する。   The interpretation medical system DB 543 includes an image DB 544 and an observation DB 545. In the image DB 544, image data photographed by the photographing device 542 is stored together with additional information (tag information). The tag information is, for example, the name of the part of the subject included in the image data, the position information of the part, and the like. Details of the tag information will be described later with reference to FIG.

所見DB545は、読影医用端末530により作成された所見文書データDtがオーダ番号に関連付いて記憶されている。オーダ番号は、主治医によって撮影依頼が作成された際に設定される一意的な番号である。所見DB545の詳細は、図9に後述する。   The finding DB 545 stores the finding document data Dt created by the interpretation medical terminal 530 in association with the order number. The order number is a unique number that is set when an imaging request is created by the attending physician. Details of the finding DB 545 will be described later with reference to FIG.

情報提供システム500において、主治医用端末510が患者用読影画像P2の出力要求を受け付けた場合、主治医用端末510は、以下の処理を実行する。まず、主治医用端末510は、読影画像P1の画像データおよび所見文書データDtを、画像DB544および所見DB545から取得する。   In the information providing system 500, when the primary medical terminal 510 receives an output request for the patient interpretation image P2, the primary medical terminal 510 performs the following processing. First, the attending physician's terminal 510 acquires the image data of the interpretation image P1 and the finding document data Dt from the image DB 544 and the finding DB 545.

具体的に、例えば、主治医用端末510は、電子カルテサーバ520に対してオーダ番号とともに画像データおよび所見文書データDtの取得要求を送信する。オーダ番号および取得要求を受信した電子カルテサーバ520は、読影医用サーバ541に対して、オーダ番号および取得要求を出力することにより、読影医用サーバ541から画像データおよび所見文書データDtを取得する。そして、主治医用端末510は、電子カルテサーバ520から画像データおよび所見文書データDtを取得する。   Specifically, for example, the attending medical terminal 510 transmits an acquisition request for image data and finding document data Dt together with the order number to the electronic medical record server 520. The electronic medical record server 520 that has received the order number and the acquisition request acquires the image data and the finding document data Dt from the interpretation medical server 541 by outputting the order number and the acquisition request to the interpretation medical server 541. Then, the attending medical terminal 510 acquires image data and finding document data Dt from the electronic medical record server 520.

つぎに、主治医用端末510は、説明文書データDvを電子カルテDB521から取得する。具体的に、例えば、主治医用端末510は、電子カルテサーバ520に対してオーダ番号とともに説明文書データDvの取得要求を送信することにより、説明文書データDvを電子カルテDB521から取得する。そして、主治医用端末510は、変換マスタ512を参照して、取得した所見文書データDtの文字列内の医学用語を一般的な用語に変換する。例えば、図1〜図4に示した例を挙げると、医学用語である「コロン」を一般的な用語である「大腸」に変換する。   Next, the attending medical terminal 510 obtains the explanatory document data Dv from the electronic medical record DB 521. Specifically, for example, the attending medical terminal 510 acquires the explanatory document data Dv from the electronic medical record DB 521 by transmitting an acquisition request for the explanatory document data Dv together with the order number to the electronic medical record server 520. Then, the attending medical terminal 510 refers to the conversion master 512 and converts the medical term in the character string of the acquired finding document data Dt into a general term. For example, in the example shown in FIGS. 1 to 4, the medical term “colon” is converted to the general term “colon”.

その後、主治医用端末510は、一般的な用語に変換された所見文書データDtと説明文書データDvとを比較し、変換された所見文書データDtの文字列のうち、説明文書データDvの文字列と一致する一致文字列を抽出する。その際、変換された所見文書データDtの文字列の文章のうち、説明文書データDvの文字列の文章と一致する一致文章がある場合、主治医用端末510は、一致文章を抽出する。   Thereafter, the attending medical terminal 510 compares the finding document data Dt converted into general terms with the explanation document data Dv, and among the character strings of the converted finding document data Dt, the character string of the explanation document data Dv. The matching character string that matches is extracted. At this time, if there is a matching sentence that matches the sentence of the character string of the explanatory document data Dv among the converted text of the finding document data Dt, the attending medical terminal 510 extracts the matching sentence.

また、その際、主治医用端末510は、説明文書データDvの文字列内の医学用語を一般的な用語に変換し、変換された説明文書データDvと、変換された所見文書データDtとを比較することとしてもよい。   At that time, the attending medical terminal 510 converts medical terms in the character string of the explanatory document data Dv into general terms, and compares the converted explanatory document data Dv with the converted finding document data Dt. It is good to do.

そして、主治医用端末510は、一致文字列が部位の名称である場合、画像データに付加されているタグ情報に基づいて、部位に対応する位置情報を抽出する。具体的には、例えば、主治医用端末510は、タグ情報として記憶されている部位の名称に、一致文字列と一致する単語があるか否かを判定し、一致する単語がある場合に、該一致する単語に関連付けられている位置情報を、画像データから抽出する。主治医用端末510は、抽出した一致文字列と位置情報とを、取得した画像データとともに出力する。ここで、出力先としては、例えば、ディスプレイや、プリンタや、メモリなどを挙げることができる。   Then, when the matching character string is the name of the part, the attending medical terminal 510 extracts position information corresponding to the part based on the tag information added to the image data. Specifically, for example, the attending medical terminal 510 determines whether or not there is a word that matches the matching character string in the name of the part stored as the tag information, and if there is a matching word, Position information associated with the matching word is extracted from the image data. The attending medical terminal 510 outputs the extracted matched character string and position information together with the acquired image data. Here, examples of the output destination include a display, a printer, and a memory.

(主治医用端末510のハードウェア構成例)
図6は、実施の形態1にかかる主治医用端末のハードウェア構成例を示すブロック図である。図6において、主治医用端末510は、CPU(Central Processing Unit)601と、ROM(Read‐Only Memory)602と、RAM(Random Access Memory)603と、磁気ディスクドライブ604と、磁気ディスク605と、光ディスクドライブ606と、光ディスク607と、I/F(Interface)608と、を備えている。また、各構成部はバス600によってそれぞれ接続されている。
(Hardware configuration example of primary medical doctor terminal 510)
FIG. 6 is a block diagram of a hardware configuration example of the attending medical terminal according to the first embodiment. In FIG. 6, the attending medical terminal 510 includes a CPU (Central Processing Unit) 601, a ROM (Read-Only Memory) 602, a RAM (Random Access Memory) 603, a magnetic disk drive 604, a magnetic disk 605, and an optical disk. A drive 606, an optical disk 607, and an I / F (Interface) 608 are provided. Each component is connected by a bus 600.

ここで、CPU601は、主治医用端末510の全体の制御を司る。ROM602は、ブートプログラムなどのプログラムを記憶している。RAM603は、CPU601のワークエリアとして使用される。磁気ディスクドライブ604は、CPU601の制御にしたがって磁気ディスク605に対するデータのリード/ライトを制御する。磁気ディスク605は、磁気ディスクドライブ604の制御で書き込まれたデータを記憶する。   Here, the CPU 601 controls the entire medical doctor terminal 510. The ROM 602 stores programs such as a boot program. The RAM 603 is used as a work area for the CPU 601. The magnetic disk drive 604 controls the reading / writing of the data with respect to the magnetic disk 605 according to control of CPU601. The magnetic disk 605 stores data written under the control of the magnetic disk drive 604.

光ディスクドライブ606は、CPU601の制御にしたがって光ディスク607に対するデータのリード/ライトを制御する。光ディスク607は、光ディスクドライブ606の制御で書き込まれたデータを記憶したり、光ディスク607に記憶されたデータをコンピュータに読み取らせたりする。   The optical disk drive 606 controls the reading / writing of the data with respect to the optical disk 607 according to control of CPU601. The optical disk 607 stores data written under the control of the optical disk drive 606, and causes the computer to read data stored on the optical disk 607.

インターフェース(以下、「I/F」と略する。)608は、通信回線を通じてLAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどのネットワーク550に接続され、このネットワーク550を介して他の装置に接続される。そして、I/F608は、ネットワーク550と内部のインターフェースを司り、外部装置からのデータの入出力を制御する。I/F608には、例えばモデムやLANアダプタなどを採用することができる。   An interface (hereinafter abbreviated as “I / F”) 608 is connected to a network 550 such as a LAN (Local Area Network), a WAN (Wide Area Network), and the Internet through a communication line, and the other via the network 550. Connected to other devices. The I / F 608 controls an internal interface with the network 550 and controls input / output of data from an external device. For example, a modem or a LAN adapter can be used as the I / F 608.

つぎに、変換マスタ512の記憶内容について説明する。変換マスタ512は、例えば、図6に示した主治医用端末510のROM602と、RAM603、磁気ディスク605、光ディスク607などの記憶装置により実現される。   Next, the contents stored in the conversion master 512 will be described. The conversion master 512 is realized by a storage device such as the ROM 602 of the medical doctor terminal 510 shown in FIG. 6, the RAM 603, the magnetic disk 605, and the optical disk 607, for example.

(変換マスタ512の記憶内容)
図7は、変換マスタの記憶内容の一例を示す説明図である。図7において、変換マスタ512は、変換後文字列および変換前文字列のフィールドを有する。各フィールドに情報を設定することで、変換特性データ513−1〜513−nがレコードとして記憶されている。
(Storage contents of conversion master 512)
FIG. 7 is an explanatory diagram showing an example of the contents stored in the conversion master. In FIG. 7, the conversion master 512 has fields for a post-conversion character string and a pre-conversion character string. By setting information in each field, conversion characteristic data 513-1 to 513-n are stored as records.

ここで、変換後文字列は、一般的な用語の文字列である。変換前文字列は、変換後文字列の同義語であり、主に医学用語である。また、変換前文字列は、変換後文字列の同義語であれば、変換後文字列における言語と異なる言語であってもよい。例えば、変換前文字列に英語やドイツ語の文字列が含まれ、変換後文字列に日本語の文字列が含まれるものであってもよい。主治医用端末510は、変換マスタ512を参照することにより、所見文書データDtや説明文書データDvの文字列に変換前文字列が含まれている場合に、変換前文字列から変換後文字列に変換する。   Here, the converted character string is a character string of general terms. The pre-conversion character string is a synonym for the post-conversion character string and is mainly a medical term. Further, the pre-conversion character string may be a language different from the language in the post-conversion character string as long as it is a synonym for the post-conversion character string. For example, the pre-conversion character string may include an English or German character string, and the post-conversion character string may include a Japanese character string. By referring to the conversion master 512, the attending medical terminal 510 converts the pre-conversion character string from the pre-conversion character string to the post-conversion character string when the character strings of the observation document data Dt and the explanation document data Dv are included. Convert.

一例として、変換特性データ513−1を例に挙げると、変換後文字列「影」、変換前文字列「覆水」、「影」、「シャッテン」、「Schatten」が記憶されている。すなわち、主治医用端末510は、変換マスタ512を参照することにより、所見文書データDtや説明文書データDvの文字列における「覆水」、「影」、「シャッテン」、「Schatten」を、「影」に変換する。   As an example, when the conversion characteristic data 513-1 is taken as an example, a post-conversion character string “shadow”, a pre-conversion character string “covered”, “shadow”, “Schatten”, and “Schatten” are stored. That is, by referring to the conversion master 512, the attending medical terminal 510 converts “covered water”, “shadow”, “Shatten”, and “Schatten” in the character strings of the finding document data Dt and the explanatory document data Dv to “shadow”. Convert to

つぎに、図8−1および図8−2を用いて、電子カルテDBの記憶内容について説明する。電子カルテDBは、例えば、電子カルテサーバ520のROM、RAM、磁気ディスク、光ディスクなどの記憶装置により実現される。   Next, the contents stored in the electronic medical record DB will be described with reference to FIGS. 8A and 8B. The electronic medical record DB is realized by a storage device such as a ROM, a RAM, a magnetic disk, and an optical disk of the electronic medical record server 520, for example.

(電子カルテDB521の記憶内容)
図8−1および図8−2は、電子カルテDBの記憶内容の一例を示す説明図である。図8−1および図8−2において、電子カルテDB521は、患者ID、氏名、性別、年齢、オーダ番号、撮影内容、所見ポインタ、画像ポインタおよび説明内容のフィールドを有する。各フィールドに情報を設定することで、電子カルテ特性データ522−1〜522−mがレコードとして記憶されている。
(Storage contents of electronic medical record DB 521)
8A and 8B are explanatory diagrams illustrating an example of the contents stored in the electronic medical record DB. 8A and 8B, the electronic medical record DB 521 includes fields for patient ID, name, sex, age, order number, imaging content, finding pointer, image pointer, and description content. By setting information in each field, electronic medical record characteristic data 522-1 to 522-m is stored as a record.

ここで、氏名は、患者の姓名である。性別は、患者の性をあらわす種別である。年齢は、患者が生まれてから経過した年数を示す数値である。撮影内容は、主治医による撮影依頼の内容であり、たとえば、撮影箇所と撮影方法とを含む。撮影箇所とは、患者を撮影した位置や部位を示し、具体的には、例えば、頭部、胸部、腹部、などである。撮影方法とは、撮影方式の種別を示し、例えば、CT、MRIなどである。患者ID、氏名、年齢、オーダ番号、撮影内容は、例えば、主治医用端末510が主治医による撮影要求を受け付けた場合に発行され、主治医用端末510から電子カルテサーバ520が受信する。   Here, the name is the patient's full name. The sex is a type representing the sex of the patient. Age is a numerical value indicating the number of years that have passed since the patient was born. The imaging content is the content of the imaging request by the attending physician, and includes, for example, an imaging location and an imaging method. An imaging | photography location shows the position and site | part which image | photographed the patient, and, specifically, is a head, a chest, an abdomen, etc., for example. The imaging method indicates the type of imaging method, such as CT or MRI. The patient ID, name, age, order number, and imaging content are issued, for example, when the primary medical terminal 510 receives an imaging request from the primary physician, and is received by the electronic medical record server 520 from the primary medical terminal 510.

また、所見ポインタは、オーダ番号に対応した所見文書データDtが格納されている読影医用システムDB543内のアドレスを示している。電子カルテサーバ520は、主治医用端末510から所見文書データDtの取得要求を受信した場合に、所見ポインタを参照して読影医用サーバ541から所見文書データDtを取得する。そして、電子カルテサーバ520は、取得した所見文書データDtを主治医用端末510へ送信する。所見ポインタは、読影医用サーバ541によって所見文書データDtが記憶された際に、読影医用サーバ541から電子カルテサーバ520へ送信され、記憶される。   The finding pointer indicates an address in the interpretation medical system DB 543 in which the finding document data Dt corresponding to the order number is stored. When receiving an acquisition request for finding document data Dt from the attending medical terminal 510, the electronic medical record server 520 acquires the finding document data Dt from the interpretation medical server 541 with reference to the finding pointer. Then, the electronic medical record server 520 transmits the acquired finding document data Dt to the attending medical terminal 510. The finding pointer is transmitted from the interpretation medical server 541 to the electronic medical record server 520 and stored when the finding document data Dt is stored by the interpretation medical server 541.

画像ポインタは、オーダ番号に対応した画像データが格納されている読影医用システムDB543内のアドレスを示している。電子カルテサーバ520は、主治医用端末510から画像データの取得要求を受信した場合に、画像ポインタを参照して読影医用サーバ541から画像データを取得する。そして、電子カルテサーバ520は、取得した画像データを主治医用端末510へ送信する。画像ポインタは、読影医用サーバ541によって画像データが記憶された際に、読影医用サーバ541から電子カルテサーバ520へ送信され、記憶される。説明内容は、説明文書データDvの文字列である。   The image pointer indicates an address in the interpretation medical system DB 543 in which image data corresponding to the order number is stored. When receiving an image data acquisition request from the attending medical terminal 510, the electronic medical record server 520 acquires image data from the interpretation medical server 541 with reference to the image pointer. Then, the electronic medical record server 520 transmits the acquired image data to the attending medical terminal 510. The image pointer is transmitted from the interpretation medical server 541 to the electronic medical record server 520 and stored when the image data is stored by the interpretation medical server 541. The explanation content is a character string of the explanation document data Dv.

一例として、電子カルテ特性データ522−1を例に挙げると、患者ID「000000001」、氏名「トウキョウ キョウコ」、性別「女」、年齢「54」、オーダ番号「#000000001」、撮影内容「腹部、CT」、所見ポインタ「s/2011/2/1/ct/#1」、画像ポインタ「g/2011/2/1/ct/#1」、説明内容「今日は、左胸部と子宮と尿管について、CT撮影を行いました。撮った画像から、左胸部に影が見受けられましたが、無害性であるので、異常ありません。念のため、お薬をお出ししますね。」が記憶されている。   As an example, taking electronic medical record characteristic data 522-1 as an example, patient ID “000000001”, name “Tokyo Kyoko”, gender “female”, age “54”, order number “# 000000001”, photographing content “abdomen, CT ”, finding pointer“ s / 2011/2/1 / ct / # 1 ”, image pointer“ g / 2011/2/1 / ct / # 1 ”, explanation“ today, left chest, uterus and ureter A shadow was seen on the left chest from the image taken, but it is harmless, so there is no anomaly. ing.

つぎに、所見DB545の記憶内容について説明する。所見DB545は、例えば、読影医用サーバ541のROM、RAM、磁気ディスク、光ディスクなどの記憶装置により実現される。   Next, the contents stored in the finding DB 545 will be described. The findings DB 545 is realized by a storage device such as a ROM, a RAM, a magnetic disk, and an optical disk of the interpretation medical server 541, for example.

(所見DB545の記憶内容)
図9は、所見DBの記憶内容の一例を示す説明図である。図9において、所見DB545は、オーダ番号および所見内容のフィールドを有する。各フィールドに情報を設定することで、所見特性データ900−1〜900−lがレコードとして記憶されている。
(Contents stored in the finding DB 545)
FIG. 9 is an explanatory diagram showing an example of the contents stored in the finding DB. In FIG. 9, the finding DB 545 includes fields for order numbers and finding contents. By setting information in each field, the observation characteristic data 900-1 to 900-l are stored as records.

ここで、オーダ番号は、読影医用端末530によって所見内容が書き込まれる際に記憶される。所見内容は、オーダ番号毎に記憶されている所見文書データDtの文字列である。所見内容は、所見DB545が読影医用端末530から所見文書データDtを受信する際に記憶される。   Here, the order number is stored when the findings are written by the interpretation medical terminal 530. The finding content is a character string of finding document data Dt stored for each order number. The findings are stored when the findings DB 545 receives the findings document data Dt from the interpretation medical terminal 530.

一例として、所見特性データ900−1を例に挙げると、オーダ番号「#000000001」、所見内容「1)腎・尿管に異常ありません。2)左胸部に少量の腹水がありますが、病的意義はありません。」が記憶されている。   As an example, taking the case characteristic data 900-1 as an example, order number “# 000000001”, findings “1) No abnormality in the kidneys and ureters. 2) There is a small amount of ascites in the left chest. Is not stored. "

つぎに、画像DB544に記憶される画像データのタグ情報の一例について説明する。画像DB544は、例えば、読影医用サーバ541のROM、RAM、磁気ディスク、光ディスクなどの記憶装置により実現される。   Next, an example of tag information of image data stored in the image DB 544 will be described. The image DB 544 is realized by a storage device such as a ROM, a RAM, a magnetic disk, or an optical disk of the interpretation medical server 541, for example.

(画像データのタグ情報)
図10は、画像データのタグ情報の一例を示す説明図である。図10において、タグ情報1000は、タグ毎に項目が設定されており、項目に応じた情報が記憶されている。例えば、タグ情報1000には、オーダ番号や、シリーズインスタンスUIDや、検査インスタンスUIDや、検査部位や、名称(位置)などの項目の情報が含まれる。
(Tag information of image data)
FIG. 10 is an explanatory diagram illustrating an example of tag information of image data. In FIG. 10, the tag information 1000 has items set for each tag, and information corresponding to the items is stored. For example, the tag information 1000 includes information on items such as an order number, a series instance UID, an inspection instance UID, an inspection part, and a name (position).

シリーズインスタンスUIDは、画像データ毎に設定された識別番号である。検査インスタンスUIDは、複数の画像データからグループ化されたグループ毎の識別番号である。検査部位とは、撮影対象となる部位であり、例えば、頭部、胸部、腹部などがある。名称(位置)は、画像に含まれる部位の名称と、その位置情報を示している。例えば、名称(位置)がコロン(x43/y53)である場合、画像に設けられた座標においてX=43、Y=53の位置がコロンであることを示している。名称(位置)の情報は、例えば、主治医用端末510によって患者用読影画像P2が出力される際に参照される情報である。また、名称(位置)の情報は、例えば、画像データが作成された際に、色の濃淡などが解析されることにより決定されるものである。   The series instance UID is an identification number set for each image data. The inspection instance UID is an identification number for each group grouped from a plurality of image data. The examination region is a region to be imaged, and includes, for example, the head, chest, and abdomen. The name (position) indicates the name of the part included in the image and its position information. For example, when the name (position) is a colon (x43 / y53), it indicates that the position of X = 43 and Y = 53 in the coordinates provided in the image is a colon. The name (position) information is, for example, information that is referred to when the patient interpretation image P2 is output by the attending medical terminal 510. Further, the name (position) information is determined by, for example, analyzing color shading when image data is created.

(主治医用端末510のディスプレイの表示例)
図11は、主治医用端末のディスプレイの表示例を示す説明図である。図11に示す表示例1100は、主治医用端末510が所見文書データDtを取得した際に主治医用端末510のディスプレイ(不図示)に表示される画像である。
(Display example of the display of the attending doctor's terminal 510)
FIG. 11 is an explanatory diagram showing a display example of the display of the attending medical terminal. A display example 1100 shown in FIG. 11 is an image displayed on the display (not shown) of the attending medical terminal 510 when the attending medical terminal 510 acquires the finding document data Dt.

表示例1100には、画像ボタン1101が含まれる。主治医用端末510は、例えば、画像ボタン1101にカーソルが合わされた状態にてマウスに対する操作を受け付けることにより、表示中の所見文書データDtに対応するオーダ番号と画像データの取得要求とを電子カルテサーバ520へ出力する。そして、主治医用端末510は、電子カルテサーバ520から取得した画像データをディスプレイに出力する。   The display example 1100 includes an image button 1101. For example, the attending medical terminal 510 receives an operation on the mouse while the cursor is positioned on the image button 1101, thereby obtaining an order number corresponding to the displayed observation document data Dt and an image data acquisition request from the electronic medical record server. Output to 520. Then, the attending medical terminal 510 outputs the image data acquired from the electronic medical record server 520 to the display.

また、表示例1100には、受付時刻、撮影室、検査名、指示項目、撮影方向、フィルム、分割数などの撮影情報と、所見文字列と、が含まれる。主治医は、例えば、画像データと撮影情報と所見文字列とを参考にして、患者に対して説明を行う。この際に、主治医用端末510は、説明音声データを作成する。   Further, the display example 1100 includes photographing information such as reception time, photographing room, examination name, instruction item, photographing direction, film, number of divisions, and observation character string. The attending physician gives an explanation to the patient with reference to, for example, image data, imaging information, and finding character strings. At this time, the attending medical terminal 510 creates explanatory voice data.

(主治医用端末510の機能的構成例)
つぎに、主治医用端末510の機能的構成例について説明する。図12は、主治医用端末の機能的構成を示すブロック図である。主治医用端末510は、取得部1201と、変換部1202と、文字列抽出部1203と、出力部1204と、位置抽出部1205とを含む。この制御部となる機能(取得部1201〜位置抽出部1205)は、具体的には、例えば、図6に示したROM602、RAM603、磁気ディスク605、光ディスク607などの記憶装置に記憶されたプログラムをCPU601に実行させることにより、または、I/F608により、その機能を実現する。
(Functional configuration example of primary medical doctor terminal 510)
Next, a functional configuration example of the attending medical doctor terminal 510 will be described. FIG. 12 is a block diagram showing a functional configuration of the attending medical terminal. The attending medical terminal 510 includes an acquisition unit 1201, a conversion unit 1202, a character string extraction unit 1203, an output unit 1204, and a position extraction unit 1205. Specifically, the functions (acquisition unit 1201 to position extraction unit 1205) serving as the control unit are, for example, programs stored in a storage device such as the ROM 602, the RAM 603, the magnetic disk 605, and the optical disk 607 illustrated in FIG. The function is realized by causing the CPU 601 to execute it or by using the I / F 608.

取得部1201は、被写体の画像と、画像に対する所見の文書データと、画像に対する音声データから変換された説明文書データDvとを取得する。被写体の画像とは、例えば、読影画像P1である。画像に対する所見の文書データとは、例えば、上述した所見文書データDtである。また、画像に対する音声データとは、例えば、上述した説明音声データである。例えば、取得部1201は、図1〜図4に上述した読影画像P1と所見文書データDtと説明文書データDvとを取得する。   The acquisition unit 1201 acquires an image of a subject, document data of findings for the image, and explanatory document data Dv converted from audio data for the image. The subject image is, for example, an interpretation image P1. The document data of findings on the image is, for example, the above-described finding document data Dt. The audio data for the image is, for example, the explanation audio data described above. For example, the acquisition unit 1201 acquires the interpretation image P1, the observation document data Dt, and the explanation document data Dv described above with reference to FIGS.

具体的には、例えば、取得部1201が、被写体の画像と、画像に対する所見の文書データと、画像に対する音声データから変換された説明文書データDvとが登録されている端末に対して、各データの取得要求を送信することで、各データを取得する。実施の形態1においては、取得部1201が、電子カルテサーバ520へ取得要求を送信することにより、被写体の画像と、画像に対する所見の文書データと、画像に対する音声データから変換された説明文書データDvとを取得する。   Specifically, for example, the acquisition unit 1201 transmits each data to a terminal in which an image of a subject, document data of findings for the image, and explanatory document data Dv converted from audio data for the image are registered. Each data is acquired by sending an acquisition request. In the first embodiment, the acquisition unit 1201 transmits an acquisition request to the electronic medical record server 520, whereby the image of the subject, the document data of the findings regarding the image, and the explanatory document data Dv converted from the audio data of the image. And get.

また、取得部1201は、電子カルテサーバ520によって音声データから変換された説明文書データDvを取得するがこれに限るものではない。例えば、取得部1201は、読影医用端末530や読影医用サーバ541によって音声データから変換された説明文書データDvを取得することとしてもよい。また、例えば、取得部1201は、主治医用端末510によって音声データから変換された説明文書データDvを取得することとしてもよい。   Further, the acquisition unit 1201 acquires the explanatory document data Dv converted from the voice data by the electronic medical record server 520, but is not limited thereto. For example, the acquisition unit 1201 may acquire the explanatory document data Dv converted from the voice data by the interpretation medical terminal 530 or the interpretation medical server 541. For example, the acquisition unit 1201 may acquire the explanatory document data Dv converted from the audio data by the attending medical terminal 510.

変換部1202は、文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、取得部1201によって取得された文書データに含まれる該文字列を該他の文字列に変換する。文字列とは、実施の形態1における医学用語である。また、該文字列に関連する他の文字列とは、実施の形態1における医学用語の同義語の一般的な用語である。また、文字列と該文字列に関連する他の文字列とは、異なる言語であってもよい。変換マスタとは、文字列と該文字列に関連する他の文字列が関連付けられたマスタであり、例えば、上述した変換マスタ512である。例えば、変換部1202は、図1〜図3に上述したように、医学用語の「コロン」を翻訳語の「大腸」に変換する。また、例えば、変換部1202は、図4に上述したように医学用語の「コロン」を翻訳語の「大腸」に、医学用語の「腹水」を翻訳語の「影」に、医学用語の「病的意義」を翻訳語の「異常」に、それぞれ変換する。   The conversion unit 1202 refers to the conversion master in which the character string is associated with another character string related to the character string, and converts the character string included in the document data acquired by the acquisition unit 1201 to the other character. Convert to column. The character string is a medical term in the first embodiment. Further, the other character strings related to the character string are general terms that are synonymous with medical terms in the first embodiment. Further, the character string and other character strings related to the character string may be in different languages. The conversion master is a master in which a character string is associated with another character string related to the character string, for example, the conversion master 512 described above. For example, the conversion unit 1202 converts the medical term “colon” into the translated word “colon” as described above with reference to FIGS. Further, for example, as described above with reference to FIG. 4, the conversion unit 1202 converts the medical term “colon” into the translated word “colon”, the medical term “ascites” into the translated word “shadow”, and the medical term “ “Pathological significance” is converted into “abnormality” in the translation.

文字列抽出部1203は、変換部1202による変換後の所見の文書データの文字列のうち、説明文書データDvの文字列に一致する一致文字列を抽出する。具体的には、例えば、文字列抽出部1203が、所見文書データDtの文字列と説明文書データDvの文字列とを比較することにより、一致文字列を抽出する。例えば、文字列抽出部1203は、図1〜図3に上述したように、「大腸」を一致文字列として抽出する。   The character string extraction unit 1203 extracts a matching character string that matches the character string of the explanatory document data Dv from the character strings of the document data of the findings after conversion by the conversion unit 1202. Specifically, for example, the character string extraction unit 1203 extracts the matching character string by comparing the character string of the finding document data Dt and the character string of the explanatory document data Dv. For example, as described above with reference to FIGS. 1 to 3, the character string extraction unit 1203 extracts “colon” as a matching character string.

出力部1204は、文字列抽出部1203によって抽出された一致文字列を、画像とともに出力する。具体的に、例えば、出力部1204が、プリンタや、記憶媒体や、ディスプレイなどに、一致文字列と読影画像P1とを出力する。すなわち、出力部1204が、患者用読影画像P2を出力する。例えば、出力部1204は、図1〜図4に上述したように、一致文字列を読影画像P1とともに、患者用読影画像P2として出力する。   The output unit 1204 outputs the matching character string extracted by the character string extraction unit 1203 together with the image. Specifically, for example, the output unit 1204 outputs the matching character string and the interpretation image P1 to a printer, a storage medium, a display, or the like. That is, the output unit 1204 outputs the patient interpretation image P2. For example, as described above with reference to FIGS. 1 to 4, the output unit 1204 outputs the matching character string together with the interpretation image P1 as the patient interpretation image P2.

また、出力された患者用読影画像P2は患者に提供されるものとするが、これに限るものではなく、例えば、患者の関係者などに提供されることとしてもよい。また、読影画像P1の被写体がペットである場合、患者用読影画像P2が被写体のペットの飼い主などに提供されるものであってもよい。   In addition, the patient interpretation image P2 that is output is provided to the patient, but is not limited thereto, and may be provided to, for example, a patient concerned. Further, when the subject of the interpretation image P1 is a pet, the patient interpretation image P2 may be provided to the owner of the subject pet.

また、取得部1201は、被写体の画像と、画像に含まれる被写体の部位の名称と、画像における部位の位置情報とが関連付けられた画像データと、画像に対する所見の文書データと、画像に対する音声データから変換された説明文書データDvとを取得することとしてもよい。画像データは、実施の形態1における画像およびタグ情報である。例えば、取得部1201は、図2〜図4に上述した読影画像P1と所見文書データDtと説明文書データDvと位置情報とを取得する。   The acquisition unit 1201 also includes image data in which the subject image, the name of the part of the subject included in the image, and the position information of the part in the image are associated with each other, the document data of the findings for the image, and the audio data for the image It is good also as acquiring the description document data Dv converted from (1). The image data is the image and tag information in the first embodiment. For example, the acquisition unit 1201 acquires the interpretation image P1, the observation document data Dt, the description document data Dv, and the position information described above with reference to FIGS.

位置抽出部1205は、変換部1202による変換前の所見の文書データと画像データとに基づいて、一致文字列に対応する位置情報を抽出する。具体的には、例えば、位置抽出部1205が、変換前の所見の文書データの文字列に含まれる部位の名称に応じた位置情報を、一致文字列に対応する位置情報として抽出する。例えば、位置抽出部1205は、図2〜図4に上述した一文字列に対応する位置情報としてX=X1、Y=Y1を抽出する。   The position extraction unit 1205 extracts position information corresponding to the matching character string based on the document data and image data of the findings before conversion by the conversion unit 1202. Specifically, for example, the position extraction unit 1205 extracts position information corresponding to the name of the part included in the character string of the document data of the finding before conversion as position information corresponding to the matching character string. For example, the position extraction unit 1205 extracts X = X1 and Y = Y1 as position information corresponding to one character string described above with reference to FIGS.

出力部1204は、一致文字列に対応する位置情報と一致文字列とを、画像とともに出力する。具体的に、例えば、出力部1204が、画像上の部位の位置を指し示すように一致文字情報を表示するよう出力する。例えば、出力部1204は、図2〜図4に上述したように、X=X1、Y=Y1の位置情報と一文字列とを出力する。また、出力部1204が、一致文字列と位置情報とを文字列として表記するよう画像とともに出力することとしてもよい。   The output unit 1204 outputs the position information corresponding to the matching character string and the matching character string together with the image. Specifically, for example, the output unit 1204 outputs the matching character information so as to display the position of the part on the image. For example, as described above with reference to FIGS. 2 to 4, the output unit 1204 outputs position information and one character string of X = X1, Y = Y1. Further, the output unit 1204 may output the matching character string and the position information together with the image so as to be expressed as a character string.

また、文字列抽出部1203は、変換部1202によって翻訳語に変換された所見の文書データの文字列のうち、説明文書データDvの文字列に一致する文章の文字列を抽出する。具体的に、例えば、文字列抽出部1203が、主語と述語と修飾語とが一致する文字列を抽出する。例えば、文字列抽出部1203は、図4に上述したように、「大腸に影がありますが異常はありません。」を一致文字列として抽出する。そして、出力部1204は、文字列抽出部1203によって抽出された文章の文字列を、取得部1201によって取得された画像とともに出力する。例えば、出力部1204は、図4に上述したように、「大腸に影がありますが異常はありません。」を読影画像P1とともに出力する。   Further, the character string extraction unit 1203 extracts a character string of a sentence that matches the character string of the explanatory document data Dv from the character strings of the document data of the findings converted into translated words by the conversion unit 1202. Specifically, for example, the character string extraction unit 1203 extracts a character string in which the subject, the predicate, and the modifier match. For example, as described above with reference to FIG. 4, the character string extraction unit 1203 extracts “the large intestine has a shadow but no abnormality” as a matched character string. Then, the output unit 1204 outputs the character string of the sentence extracted by the character string extraction unit 1203 together with the image acquired by the acquisition unit 1201. For example, as described above with reference to FIG. 4, the output unit 1204 outputs “There is a shadow in the large intestine but there is no abnormality” together with the interpretation image P1.

また、主治医用端末510が各部(取得部1201〜位置抽出部1205)を有することとしたが、これに限るものではない。例えば、電子カルテサーバ520や、読影医用端末530や、読影医用サーバ541が各部を有するものであってもよい。   In addition, although the attending medical terminal 510 includes each unit (acquisition unit 1201 to position extraction unit 1205), the present invention is not limited to this. For example, the electronic medical record server 520, the interpretation medical terminal 530, or the interpretation medical server 541 may have each unit.

(主治医用端末510のファイル情報提供処理手順)
図13は、実施の形態1にかかる主治医用端末の情報提供処理手順の一例を示すフローチャートである。情報提供処理は、CPU601によって実行される処理である。情報提供処理において、主治医用端末510は、まず、患者用読影画像P2の出力要求をユーザから受け付けたか否かを判定し(ステップS1301)、受け付けない場合(ステップS1301:No)、受け付けるまで待機する。
(File information provision processing procedure of the attending physician's terminal 510)
FIG. 13 is a flowchart of an example of an information providing process procedure of the attending medical terminal according to the first embodiment. The information providing process is a process executed by the CPU 601. In the information providing process, the attending medical terminal 510 first determines whether or not an output request for the patient interpretation image P2 has been received from the user (step S1301), and if not received (step S1301: No), waits until it is received. .

ステップS1301において、患者用読影画像P2の出力要求をユーザから受け付けた場合(ステップS1301:Yes)、取得部1201により、読影画像P1の画像データを取得する(ステップS1302)。そして、取得部1201により、所見文書データDtを取得する(ステップS1303)。その後、変換部1202により、変換マスタ512を参照して、取得した所見文書データDtの文字列の医学用語を、一般的な用語に変換する(ステップS1304)。   In step S1301, when an output request for the patient interpretation image P2 is received from the user (step S1301: Yes), the acquisition unit 1201 acquires image data of the interpretation image P1 (step S1302). Then, the finding document data Dt is obtained by the obtaining unit 1201 (step S1303). Thereafter, the conversion unit 1202 refers to the conversion master 512 to convert the medical term of the character string of the acquired finding document data Dt into a general term (step S1304).

その後、取得部1201により、説明文書データDvを取得し(ステップS1305)、変換部1202により、変換マスタ512を参照して、説明文書データDvの文字列を、一般的な用語に変換する(ステップS1306)。そして、文字列抽出部1203により、ステップS1304において変換された所見文書データDtの文字列と、ステップS1306において変換された説明文書データDvの文字列とを比較する(ステップS1307)。   Thereafter, the acquisition unit 1201 acquires the description document data Dv (step S1305), and the conversion unit 1202 converts the character string of the description document data Dv into a general term with reference to the conversion master 512 (step S1305). S1306). Then, the character string extraction unit 1203 compares the character string of the finding document data Dt converted in step S1304 with the character string of the explanatory document data Dv converted in step S1306 (step S1307).

そして、文字列抽出部1203により、ステップS1304において変換された所見文書データDtの文字列と、ステップS1306において変換された説明文書データDvの文字列とに、一致する文章があるか否かを判定する(ステップS1308)。一致する文章がある場合(ステップS1308:Yes)、文字列抽出部1203により、一致する文章を抽出する(ステップS1309)。   Then, the character string extraction unit 1203 determines whether there is a sentence that matches the character string of the finding document data Dt converted in step S1304 and the character string of the explanatory document data Dv converted in step S1306. (Step S1308). If there is a matching sentence (step S1308: Yes), the character string extraction unit 1203 extracts the matching sentence (step S1309).

その後、文字列抽出部1203により、ステップS1304において変換された所見文書データDtの文字列と、ステップS1306において変換された説明文書データDvの文字列との一致する単語を抽出する(ステップS1310)。その際、ステップS1309を経由してステップS1310を行う場合、文字列抽出部1203により、文章として抽出されていない文字列から、一致する単語を抽出する。また、ステップS1308において、一致する文章がないと判定された場合(ステップS1308:No)、主治医用端末510は、ステップS1310へ移行する。   Thereafter, the character string extraction unit 1203 extracts words that match the character string of the finding document data Dt converted in step S1304 and the character string of the explanatory document data Dv converted in step S1306 (step S1310). In that case, when performing step S1310 via step S1309, the character string extraction unit 1203 extracts a matching word from a character string not extracted as a sentence. If it is determined in step S1308 that there is no matching sentence (step S1308: No), the attending medical terminal 510 proceeds to step S1310.

その後、位置抽出部1205により、抽出した文字列に対する位置情報を抽出する(ステップS1311)。そして、出力部1204により、抽出した文字列と位置情報とを、画像データとともにプリンタやメモリへ出力し、すなわち、患者用読影画像P2を出力し(ステップS1312)、本フローチャートによる一連の処理を終了する。   Thereafter, the position extraction unit 1205 extracts position information for the extracted character string (step S1311). Then, the output unit 1204 outputs the extracted character string and position information to the printer or memory together with the image data, that is, outputs the patient interpretation image P2 (step S1312), and ends the series of processing according to this flowchart. To do.

以上説明した実施の形態1にかかる主治医用端末510によれば、所見文書データDtの文字列の医学用語から変換された一般的な用語のうち、説明文書データDvと一致する一致文字列を読影画像P1とともに出力することができる。すなわち、所見文書データDtの文字列のうち、医師により平易な表現にて説明がされた文字列を付加した患者用読影画像P2を出力することができる。これにより、患者用読影画像P2が提供された被提供者は、医学用語に対する知識に乏しくても、患者用読影画像P2に含まれる情報を容易に読み取ることができる。   According to the medical doctor terminal 510 according to the first embodiment described above, among the general terms converted from the medical terms of the character string of the finding document data Dt, the matching character string that matches the explanatory document data Dv is interpreted. It can be output together with the image P1. That is, it is possible to output the patient interpretation image P2 to which the character string explained in a plain expression by the doctor among the character strings of the finding document data Dt is added. As a result, the recipient who has been provided with the patient interpretation image P2 can easily read the information contained in the patient interpretation image P2 even if he / she lacks knowledge of medical terms.

ここで、所見データを全て患者に提供する場合は、患者に提供される情報量が膨大になってしまう。通常、読影医が入力する所見は、さまざまな読影結果が記載されるためである。また、説明文書データを全て患者に提供する場合は、提供される情報量が膨大になるとともに、説明文書データには質疑応答や他のトピックについての音声も反映される。説明文書データが膨大になると、患者にとっては、どの部分が重要であるのかの判断が難しい情報となる。   Here, when all the findings data are provided to the patient, the amount of information provided to the patient becomes enormous. Usually, the findings input by the interpretation doctor are because various interpretation results are described. When all the explanatory document data is provided to the patient, the amount of information to be provided becomes enormous, and the explanatory document data also reflects questions and answers and voices about other topics. When the explanatory document data is enormous, it is difficult for the patient to determine which part is important.

一方、本実施例では、変換された所見文書データと説明文書データとを用い、両者に共通する部分を特定することができる。つまり、共通する部分は、所見にも説明音声にも用いられた部分であって、重要であると推測される部分を患者へ提供することができる。よって、画像と共に、両者に共通する文字列を提供することで、検査結果に対する患者の理解を助けることができる。   On the other hand, in the present embodiment, it is possible to specify a portion common to both by using the converted finding document data and the explanation document data. That is, the common part is a part used for the observation and the explanation voice, and the part that is assumed to be important can be provided to the patient. Therefore, by providing a character string common to both images together with the image, it is possible to help the patient understand the test result.

また、主治医用端末510によれば、一致文字列と該一致文字列に含まれる部位の位置情報とを読影画像P1とともに出力することができる。すなわち、主治医用端末510は、医師により平易な表現にて説明がされた部位と、該部位の位置情報が付加された患者用読影画像P2を出力することができる。これにより、被提供者は、医学用語に対する知識に乏しくても、部位の名称と位置を容易に理解することができる。   Further, according to the attending medical terminal 510, it is possible to output the matching character string and the position information of the part included in the matching character string together with the interpretation image P1. That is, the attending physician terminal 510 can output a patient interpretation image P2 to which a part explained by a doctor in plain expression and position information of the part are added. As a result, the recipient can easily understand the name and position of the part even if he / she lacks knowledge of medical terms.

また、主治医用端末510によれば、所見文書データDtにおける医学用語から変換された一般的な用語を用いた文章の文字列のうち、説明文書データDvと一致する文章の一致文字列を読影画像P1とともに出力することとした。すなわち、主治医用端末510は、医師により平易な表現にて説明がされた文章の文字列を付加した患者用読影画像P2を出力することができる。これにより、被提供者は、医学用語に対する知識に乏しくても、被写体の状態の詳細についての理解を促進することができる。   In addition, according to the medical doctor terminal 510, the matching character string of the sentence that matches the explanatory document data Dv among the character strings of the sentence using the general terms converted from the medical terms in the finding document data Dt is the interpretation image. Output with P1. That is, the attending physician's terminal 510 can output a patient interpretation image P2 to which a character string of a sentence explained in a plain expression by a doctor is added. Thereby, even if the recipient has little knowledge of medical terms, the recipient can promote understanding of the details of the state of the subject.

また、実施の形態1において、主治医用端末510は、所見文書データDtと説明文書データDvとで文章の一致文字列がある場合、文章の一致文字列を抽出した後に、文章の一致文字列以外の単語の一致文字列を抽出するものとするが、これに限るものではない。例えば、主治医用端末510は、所見文書データDtと説明文書データDvとで文章の一致文字列がある場合、単語の一致文字列を抽出しないものであってもよい。また、主治医用端末510は、所見文書データDtと説明文書データDvとで文章の一致文字列がない場合に、単語の一致文字列を抽出するものであってもよい。   In the first embodiment, if there is a sentence matching character string in the finding document data Dt and the explanatory document data Dv, the attending medical terminal 510 extracts a sentence matching character string and then extracts a sentence matching character string. However, the present invention is not limited to this. For example, when there is a matching character string of text between the finding document data Dt and the explanatory document data Dv, the attending medical doctor terminal 510 may not extract the word matching character string. Further, the attending medical terminal 510 may extract a word matched character string when there is no sentence matched character string between the finding document data Dt and the explanatory document data Dv.

また、実施の形態1において、主治医用端末510は、説明文書データDvの文字列と比較する文字列を、所見文書データDtの文字列のみとしたが、これに限るものではない。例えば、所見文書データDtの文字列と、読影画像P1を撮影した際の検査情報の文字列との医学用語を翻訳語に変換し、変換後の検査情報の文字列のうち、説明文書データDvの文字列に一致する一致文字列を読影画像P1とともに出力することとしてもよい。検査情報とは、読影画像P1の撮影時に設定される情報であり、例えば、検査名や、検査場所や、撮影方法などである。   In the first embodiment, the primary medical terminal 510 uses only the character string of the finding document data Dt as the character string to be compared with the character string of the explanatory document data Dv. However, the present invention is not limited to this. For example, medical terms of the character string of the finding document data Dt and the character string of the examination information when the interpretation image P1 is photographed are converted into translated words, and the explanatory document data Dv among the character strings of the examination information after conversion. A matching character string that matches the character string may be output together with the interpretation image P1. The examination information is information set at the time of photographing the interpretation image P1, and is, for example, the examination name, the examination place, the photographing method, and the like.

<実施の形態2>
つぎに、実施の形態2について説明する。実施の形態1では、所見の文字列のうち、平易な表現にて説明された文字列を付加した患者用読影画像P2が出力されることとしたが、実施の形態2では、付加された文字列に対応する説明音声データの再生時刻を更に付加した患者用読影画像P2が出力される。また、実施の形態1では、患者用読影画像P2のみを患者や患者の関係者に提供することとしたが、実施の形態2では、患者用読影画像P2および説明音声データを、患者や患者の関係者に提供する。これにより、説明音声データのうち患者用読影画像P2に該当する箇所を、探す手間をかけることなく再生することができる。なお、実施の形態1で説明した箇所と同一箇所については説明を省略する。
<Embodiment 2>
Next, a second embodiment will be described. In the first embodiment, the patient interpretation image P2 to which the character string described in plain expression is added among the character strings of the findings is output. However, in the second embodiment, the added character is added. A patient interpretation image P2 to which the reproduction time of the explanation voice data corresponding to the column is further added is output. In the first embodiment, only the patient interpretation image P2 is provided to the patient and the patient concerned. However, in the second embodiment, the patient interpretation image P2 and the explanation voice data are obtained from the patient and the patient. Provide to interested parties. As a result, a portion corresponding to the patient interpretation image P2 in the explanation voice data can be reproduced without taking the trouble of searching. In addition, description is abbreviate | omitted about the location same as the location demonstrated in Embodiment 1. FIG.

図14および図15は、実施の形態2にかかる情報提供例を示す説明図である。図14および図15において、説明文書データDvは、文字列毎に説明音声データの再生時刻の情報が関連付けられている。   14 and 15 are explanatory diagrams illustrating an example of providing information according to the second embodiment. 14 and 15, the explanation document data Dv is associated with the reproduction time information of the explanation voice data for each character string.

図14においては、読影画像P1の所見における部位の名称の単語のうち、医師により平易な表現にて説明された部位の名称の単語が、説明音声データの再生時刻の情報とともに付加された患者用読影画像P2が出力されるまでの過程について説明する。図14において、読影画像P1には、読影画像P1に含まれる被写体の部位の名称と、読影画像P1における部位の位置情報とが関係付けられている。ここで、図14における患者用読影画像P2が出力されるまでの過程の一例について説明する。一致文字列が抽出されるまでの過程については、図1に示した過程と同様である。   In FIG. 14, among the part name words in the findings of the interpretation image P <b> 1, the part name words explained in plain expression by the doctor are added together with the information of the reproduction time of the explanation voice data. A process until the interpretation image P2 is output will be described. In FIG. 14, in the interpretation image P1, the name of the part of the subject included in the interpretation image P1 and the position information of the part in the interpretation image P1 are related. Here, an example of a process until the patient interpretation image P2 in FIG. 14 is output will be described. The process until the matching character string is extracted is the same as the process shown in FIG.

まず、抽出された一致文字列に対応する再生時刻が抽出される。そして、抽出された一致文字列と再生時刻と読影画像P1とが、患者用読影画像P2として出力される。このように、読影画像P1に関する一般的な用語による説明が、説明音声データの再生時刻とともに付加された患者用読影画像P2が出力される。   First, the reproduction time corresponding to the extracted matched character string is extracted. Then, the extracted matched character string, reproduction time, and interpretation image P1 are output as a patient interpretation image P2. In this way, the patient interpretation image P2 to which explanations in general terms relating to the interpretation image P1 are added together with the reproduction time of the explanation audio data is output.

この再生時刻の情報が付加された患者用読影画像P2は、例えば、説明音声データとともに主治医から被提供者へ提供される。これにより、被提供者は、説明音声データにおける患者用読影画像P2に関する説明がおこなわれる箇所を、探すことなく、容易に再生することができる。したがって、被提供者は、説明音声データおよび患者用読影画像P2による相乗的な被写体の状態への理解を、容易に深めることができる。   The patient interpretation image P2 to which the reproduction time information is added is provided from the attending physician to the recipient along with the explanation voice data, for example. As a result, the recipient can easily reproduce the location where the explanation regarding the patient interpretation image P2 in the explanation voice data is performed without searching for the location. Therefore, the recipient can easily deepen the understanding of the synergistic subject state by the explanation voice data and the patient interpretation image P2.

また、図15に示すように、抽出された一致文字列に対応する医学用語と一般的な用語と再生時刻とが、読影画像P1とともに出力されることとしてもよい。その場合、患者用読影画像P2の被提供者は、説明音声データにおける患者用読影画像P2に関する説明がおこなわれる箇所を探すことなく、容易に再生することができる。したがって、被提供者は、説明音声データおよび患者用読影画像P2により、被写体の状態と、医学用語と一般的な用語の対応関係とを容易に深めることができる。   Further, as shown in FIG. 15, medical terms, general terms, and reproduction times corresponding to the extracted matched character strings may be output together with the interpretation image P1. In this case, the recipient of the patient interpretation image P2 can easily reproduce it without searching for a location where the explanation regarding the patient interpretation image P2 is performed in the explanation voice data. Therefore, the recipient can easily deepen the state of the subject and the correspondence between medical terms and general terms using the explanation voice data and the patient interpretation image P2.

ここで、実施の形態2において、電子カルテDB521が説明音声データを記憶することとする。そして、患者用読影画像P2の出力要求を主治医用端末510が取得した場合に、主治医用端末510が電子カルテサーバ520から説明音声データを受信し、音声認識機能を用いて、説明音声データから説明文書データDvへ変換することとする。その際、具体的には、主治医用端末510は、説明音声データの再生時刻の情報を付加した説明文書データDvを作成する。図16を用いて、再生時刻の情報が付加された説明文書データの一例について説明する。   Here, in Embodiment 2, the electronic medical record DB 521 stores the explanation voice data. Then, when the primary medical terminal 510 receives an output request for the patient interpretation image P2, the primary medical terminal 510 receives the explanation voice data from the electronic medical record server 520, and uses the voice recognition function to explain from the explanation voice data. It is assumed that the document data Dv is converted. At that time, specifically, the attending medical terminal 510 creates explanatory document data Dv to which information on the reproduction time of the explanatory voice data is added. An example of explanatory document data to which reproduction time information is added will be described with reference to FIG.

(説明文書データDvの一例)
図16は、実施の形態2における説明文書データの一例を示す説明図である。図16に示す説明文書データDvは、再生時刻毎の文字列が含まれる。
(Example of explanatory document data Dv)
FIG. 16 is an explanatory diagram illustrating an example of explanatory document data according to the second embodiment. The explanatory document data Dv shown in FIG. 16 includes a character string for each reproduction time.

例えば、説明文書データDvには、0分0秒〜0分5秒の再生時刻に対する文字列として、「今日は、左胸部と子宮と尿管について、」が記憶されている。また、同様に、説明文書データDvには、0分5秒〜0分10秒の再生時刻に対する文字列として、「CT撮影を行いました。撮った画像から、左胸部に影が」が記憶されている。   For example, in the explanation document data Dv, “Today is the left chest, uterus, and ureter” is stored as a character string corresponding to a reproduction time of 0 minutes 0 seconds to 0 minutes 5 seconds. Similarly, in the explanatory document data Dv, “CT was taken. A shadow on the left chest from the photographed image” is stored as a character string for the playback time of 0 minutes 5 seconds to 0 minutes 10 seconds. Has been.

(主治医用端末510の情報提供処理手順)
図17は、実施の形態2にかかる主治医用端末の情報提供処理手順の一例を示すフローチャートである。情報提供処理は、CPU601によって実行される処理である。情報提供処理において、主治医用端末510は、まず、患者用読影画像P2の出力要求をユーザから受け付けたか否かを判定し(ステップS1701)、受け付けない場合(ステップS1701:No)、受け付けるまで待機する。
(Information provision processing procedure of the attending physician's terminal 510)
FIG. 17 is a flowchart of an example of an information providing process procedure of the attending medical terminal according to the second embodiment. The information providing process is a process executed by the CPU 601. In the information providing process, the attending medical terminal 510 first determines whether or not an output request for the patient interpretation image P2 has been received from the user (step S1701). If not received (step S1701: No), it waits until it is received. .

ステップS1701において、患者用読影画像P2の出力要求をユーザから受け付けた場合(ステップS1701:Yes)、取得部1201により、読影画像P1の画像データを取得する(ステップS1702)。そして、取得部1201により、所見文書データDtを取得する(ステップS1703)。その後、変換部1202により、変換マスタ512を参照して、取得した所見文書データDtの文字列の医学用語を、一般的な用語に変換する(ステップS1704)。   In step S1701, when an output request for the patient interpretation image P2 is received from the user (step S1701: Yes), the acquisition unit 1201 acquires image data of the interpretation image P1 (step S1702). Then, the obtaining unit 1201 obtains the finding document data Dt (step S1703). Thereafter, the conversion unit 1202 refers to the conversion master 512, and converts the medical term of the character string of the acquired finding document data Dt into a general term (step S1704).

その後、取得部1201により、説明音声データを取得する(ステップS1705)。そして、主治医用端末510は、取得した説明音声データを説明文書データDvへ変換する(ステップS1706)。そして、変換部1202により、変換マスタ512を参照して、説明文書データDvの文字列を、一般的な用語に変換する(ステップS1707)。そして、文字列抽出部1203により、ステップS1704において変換された所見文書データDtの文字列と、ステップS1707において変換された説明文書データDvの文字列とを比較する(ステップS1708)。   Thereafter, the explanation voice data is obtained by the obtaining unit 1201 (step S1705). The attending medical terminal 510 converts the acquired explanation voice data into the explanation document data Dv (step S1706). Then, the conversion unit 1202 converts the character string of the explanatory document data Dv into a general term with reference to the conversion master 512 (step S1707). Then, the character string extraction unit 1203 compares the character string of the finding document data Dt converted in step S1704 with the character string of the explanatory document data Dv converted in step S1707 (step S1708).

そして、文字列抽出部1203により、ステップS1704において変換された所見文書データDtの文字列と、ステップS1707において変換された説明文書データDvの文字列とに、一致する文章があるか否かを判定する(ステップS1709)。一致する文章がある場合(ステップS1709:Yes)、文字列抽出部1203により、一致する文章を抽出する(ステップS1710)。   Then, the character string extraction unit 1203 determines whether there is a sentence that matches the character string of the finding document data Dt converted in step S1704 and the character string of the explanatory document data Dv converted in step S1707. (Step S1709). If there is a matching sentence (step S1709: YES), the character string extraction unit 1203 extracts the matching sentence (step S1710).

その後、文字列抽出部1203により、ステップS1704において変換された所見文書データDtの文字列と、ステップS1707において変換された説明文書データDvの文字列との一致する単語を抽出する(ステップS1711)。その際、ステップS1710を経由してステップS1711を行う場合、文字列抽出部1203により、文章として抽出されていない文字列から、一致する単語を抽出する。また、ステップS1709において、一致する文章がないと判定された場合(ステップS1709:No)、主治医用端末510は、ステップS1711へ移行する。   Thereafter, the character string extraction unit 1203 extracts words that match the character string of the finding document data Dt converted in step S1704 and the character string of the explanatory document data Dv converted in step S1707 (step S1711). In that case, when performing step S1711 via step S1710, the character string extraction unit 1203 extracts a matching word from a character string not extracted as a sentence. If it is determined in step S1709 that there is no matching sentence (step S1709: NO), the attending medical terminal 510 proceeds to step S1711.

その後、位置抽出部1205により、抽出した文字列に対する位置情報を抽出する(ステップS1712)。そして、出力部1204により、抽出した文字列と位置情報とを、画像データとともにプリンタやメモリへ出力し、すなわち、患者用読影画像P2を出力し(ステップS1713)、本フローチャートによる一連の処理を終了する。   Thereafter, the position extraction unit 1205 extracts position information for the extracted character string (step S1712). Then, the output unit 1204 outputs the extracted character string and position information to the printer and the memory together with the image data, that is, outputs the patient interpretation image P2 (step S1713), and ends the series of processing according to this flowchart. To do.

以上説明した実施の形態2にかかる主治医用端末510によれば、一致文字列と説明音声データの再生時刻とを、読影画像P1とともに、患者用読影画像P2として出力することができる。この患者用読影画像P2と説明音声データとが提供された患者は、説明音声データのうち一致文字列に関する説明箇所を、手間をかけることなく容易に再生することができる。   According to the medical doctor terminal 510 according to the second embodiment described above, the matching character string and the reproduction time of the explanation voice data can be output as the patient interpretation image P2 together with the interpretation image P1. The patient who is provided with the patient interpretation image P2 and the explanation voice data can easily reproduce the explanation portion related to the matching character string in the explanation voice data without taking time and effort.

これにより、被提供者は、医学用語に対する知識に乏しくても、患者用読影画像P2に含まれる情報を容易に読み取ることができるとともに、説明音声データのうち患者用読影画像P2に該当する箇所を、探す手間をかけることなく再生することができる。したがって、主治医用端末510によれば、被提供者による被写体の状態の理解の短縮化を図ることができる。   As a result, the recipient can easily read the information included in the patient interpretation image P2 even if he / she has little knowledge of medical terms, and the portion corresponding to the patient interpretation image P2 in the explanation voice data can be read. , It can be played without the hassle of searching. Therefore, according to the attending medical terminal 510, it is possible to shorten the understanding of the state of the subject by the recipient.

また、実施の形態2において、説明文書データDvには、5秒毎の再生時刻に文字列が含まれることとしたが、これに限るものではない。例えば、説明文書データDvには、1秒毎の再生時刻に文字列が含まれることとしてもよいし、単語毎に個別の再生時刻が対応付けられるものとしてもよい。具体的には、説明文書データDvには、「CT撮影」の文字列に対応する再生時刻として「12分23秒」が含まれることとしてもよい。また、一つの文字列が複数回ある場合、複数の再生時刻が対応付けられることとしてもよい。   In the second embodiment, the description document data Dv includes a character string at the reproduction time every 5 seconds. However, the present invention is not limited to this. For example, the explanatory document data Dv may include a character string at the reproduction time per second, or may be associated with an individual reproduction time for each word. Specifically, the explanation document data Dv may include “12 minutes 23 seconds” as the reproduction time corresponding to the character string “CT imaging”. Moreover, when one character string exists a plurality of times, a plurality of reproduction times may be associated with each other.

なお、実施の形態で説明した情報提供方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本情報提供プログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また本情報提供プログラムは、インターネット等のネットワークを介して配布してもよい。   The information providing method described in the embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. The information providing program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The information providing program may be distributed through a network such as the Internet.

上述した実施の形態に関し、さらに以下の付記を開示する。   The following additional notes are disclosed with respect to the embodiment described above.

(付記1)被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得処理と、
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、前記取得処理によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換処理と、
前記変換処理による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出処理と、
前記文字列抽出処理によって抽出された前記一致文字列を、前記画像とともに出力する出力処理と、
をコンピュータに実行させることを特徴とする情報提供プログラム。
(Supplementary Note 1) An acquisition process for acquiring an image of a subject, document data indicating the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
The character string included in the document data acquired by the acquisition process is converted into the other character string with reference to a conversion master in which the character string and another character string related to the character string are associated with each other. Conversion process,
A character string extraction process for comparing the document data after conversion by the conversion process with the explanatory document data and extracting a matching character string;
An output process for outputting the matched character string extracted by the character string extraction process together with the image;
An information providing program for causing a computer to execute.

(付記2)前記取得処理において、前記被写体の画像とともに、前記画像に含まれる前記被写体の部位の名称と、前記画像における前記部位の位置情報とが関連付けられた画像データを取得し、
前記コンピュータに、さらに、
前記文書データと前記画像データとに基づいて、前記一致文字列に対応する前記位置情報を抽出する位置抽出処理と、
前記一致文字列に対応する前記位置情報と前記一致文字列とを、前記画像とともに出力する出力処理と、
を実行させることを特徴とする付記1に記載の情報提供プログラム。
(Supplementary Note 2) In the acquisition process, together with the image of the subject, acquire the image data in which the name of the part of the subject included in the image and the position information of the part in the image are associated,
In addition to the computer,
A position extraction process for extracting the position information corresponding to the matching character string based on the document data and the image data;
An output process for outputting the position information corresponding to the matched character string and the matched character string together with the image;
The information providing program according to appendix 1, wherein the information providing program is executed.

(付記3)前記文字列抽出処理は、前記変換処理によって前記他の文字列に変換された他の文書データと、前記説明文書データとを比較し、前記一致文字列として文章を抽出し、
前記出力処理は、前記文字列抽出処理によって抽出された前記文章を、前記取得処理によって取得された前記画像とともに出力する
ことを特徴とする付記1または2に記載の情報提供プログラム。
(Additional remark 3) The said character string extraction process compares the said document data with the other document data converted into the said other character string by the said conversion process, and extracts a text as the said matching character string,
The information providing program according to appendix 1 or 2, wherein the output process outputs the sentence extracted by the character string extraction process together with the image acquired by the acquisition process.

(付記4)前記出力処理は、前記文字列抽出処理によって抽出された前記一致文字列を前記画像とともに印刷する命令を、プリンタへ出力する
ことを特徴とする付記1〜3のいずれか一つに記載の情報提供プログラム。
(Supplementary note 4) In any one of Supplementary notes 1 to 3, the output process outputs a command for printing the matched character string extracted by the character string extraction process together with the image to a printer. The information provision program described.

(付記5)前記出力処理は、前記文字列抽出処理によって抽出された文字列を前記画像とともに記憶媒体へ記憶する
ことを特徴とする付記1〜3のいずれか一つに記載の情報提供プログラム。
(Additional remark 5) The said output process memorize | stores the character string extracted by the said character string extraction process to a storage medium with the said image. The information provision program as described in any one of additional marks 1-3 characterized by the above-mentioned.

(付記6)被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得部と、
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、前記取得部によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換部と、
前記変換部による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出部と、
前記文字列抽出部によって抽出された前記一致文字列を、前記画像とともに出力する出力部と、
を備えることを特徴とする情報提供装置。
(Additional remark 6) The acquisition part which acquires the image of a to-be-photographed object, the document data which shows the finding content input with respect to the said image, and the explanatory document data by which the audio | voice data with respect to the said image were converted by voice recognition,
The character string included in the document data acquired by the acquisition unit is converted into the other character string with reference to a conversion master in which the character string and another character string related to the character string are associated with each other. A conversion unit;
A character string extraction unit that compares the document data converted by the conversion unit with the explanatory document data and extracts a matching character string;
An output unit that outputs the matching character string extracted by the character string extraction unit together with the image;
An information providing apparatus comprising:

(付記7)文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを記憶するコンピュータが、
被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得処理と、
前記変換マスタを参照して、前記取得処理によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換処理と、
前記変換処理による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出処理と、
前記文字列抽出処理によって抽出された前記一致文字列を、前記画像とともに出力する出力処理と、
を実行することを特徴とする情報提供方法。
(Additional remark 7) The computer which memorize | stores the conversion master with which the character string and the other character string relevant to this character string were linked | related,
An acquisition process for acquiring an image of a subject, document data indicating the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
A conversion process for referring to the conversion master and converting the character string included in the document data acquired by the acquisition process into the other character string;
A character string extraction process for comparing the document data after conversion by the conversion process with the explanatory document data and extracting a matching character string;
An output process for outputting the matched character string extracted by the character string extraction process together with the image;
To provide information.

510 主治医用端末
511 音声入力装置
512 変換マスタ
520 電子カルテサーバ
521 電子カルテDB
530 読影医用端末
540 読影医用システム
541 読影医用サーバ
542 撮影装置
543 読影医用システムDB
1201 取得部
1202 変換部
1203 文字列抽出部
1204 出力部
1205 位置抽出部
510 medical doctor terminal 511 voice input device 512 conversion master 520 electronic medical record server 521 electronic medical record DB
530 Interpretation medical terminal 540 Interpretation medical system 541 Interpretation medical server 542 Imaging device 543 Interpretation medical system DB
1201 Acquisition unit 1202 Conversion unit 1203 Character string extraction unit 1204 Output unit 1205 Position extraction unit

Claims (5)

被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得処理と、
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、前記取得処理によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換処理と、
前記変換処理による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出処理と、
前記文字列抽出処理によって抽出された前記一致文字列を、前記画像とともに出力する出力処理と、
をコンピュータに実行させることを特徴とする情報提供プログラム。
An acquisition process for acquiring an image of a subject, document data indicating the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
The character string included in the document data acquired by the acquisition process is converted into the other character string with reference to a conversion master in which the character string and another character string related to the character string are associated with each other. Conversion process,
A character string extraction process for comparing the document data after conversion by the conversion process with the explanatory document data and extracting a matching character string;
An output process for outputting the matched character string extracted by the character string extraction process together with the image;
An information providing program for causing a computer to execute.
前記取得処理において、前記被写体の画像とともに、前記画像に含まれる前記被写体の部位の名称と、前記画像における前記部位の位置情報とが関連付けられた画像データを取得し、
前記コンピュータに、さらに、
前記文書データと前記画像データとに基づいて、前記一致文字列に対応する前記位置情報を抽出する位置抽出処理と、
前記一致文字列に対応する前記位置情報と前記一致文字列とを、前記画像とともに出力する出力処理と、
を実行させることを特徴とする請求項1に記載の情報提供プログラム。
In the acquisition process, together with the image of the subject, obtains image data in which the name of the part of the subject included in the image and the position information of the part in the image are associated with each other,
In addition to the computer,
A position extraction process for extracting the position information corresponding to the matching character string based on the document data and the image data;
An output process for outputting the position information corresponding to the matched character string and the matched character string together with the image;
The information providing program according to claim 1, wherein:
前記文字列抽出処理は、前記変換処理によって前記他の文字列に変換された他の文書データと、前記説明文書データとを比較し、前記一致文字列として文章を抽出し、
前記出力処理は、前記文字列抽出処理によって抽出された前記文章を、前記取得処理によって取得された前記画像とともに出力する
ことを特徴とする請求項1または2に記載の情報提供プログラム。
The character string extraction process compares the description document data with other document data converted into the other character string by the conversion process, and extracts a sentence as the matching character string,
The information providing program according to claim 1, wherein the output process outputs the sentence extracted by the character string extraction process together with the image acquired by the acquisition process.
被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得部と、
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、前記取得部によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換部と、
前記変換部による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出部と、
前記文字列抽出部によって抽出された前記一致文字列を、前記画像とともに出力する出力部と、
を備えることを特徴とする情報提供装置。
An acquisition unit that acquires an image of a subject, document data indicating the content of the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
The character string included in the document data acquired by the acquisition unit is converted into the other character string with reference to a conversion master in which the character string and another character string related to the character string are associated with each other. A conversion unit;
A character string extraction unit that compares the document data converted by the conversion unit with the explanatory document data and extracts a matching character string;
An output unit that outputs the matching character string extracted by the character string extraction unit together with the image;
An information providing apparatus comprising:
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを記憶するコンピュータが、
被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得処理と、
前記変換マスタを参照して、前記取得処理によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換処理と、
前記変換処理による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出処理と、
前記文字列抽出処理によって抽出された前記一致文字列を、前記画像とともに出力する出力処理と、
を実行することを特徴とする情報提供方法。
A computer that stores a conversion master in which a character string and another character string related to the character string are associated with each other.
An acquisition process for acquiring an image of a subject, document data indicating the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
A conversion process for referring to the conversion master and converting the character string included in the document data acquired by the acquisition process into the other character string;
A character string extraction process for comparing the document data after conversion by the conversion process with the explanatory document data and extracting a matching character string;
An output process for outputting the matched character string extracted by the character string extraction process together with the image;
To provide information.
JP2011059936A 2011-03-17 2011-03-17 Information providing program, information providing apparatus, and information providing method Active JP5644607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011059936A JP5644607B2 (en) 2011-03-17 2011-03-17 Information providing program, information providing apparatus, and information providing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011059936A JP5644607B2 (en) 2011-03-17 2011-03-17 Information providing program, information providing apparatus, and information providing method

Publications (2)

Publication Number Publication Date
JP2012194928A true JP2012194928A (en) 2012-10-11
JP5644607B2 JP5644607B2 (en) 2014-12-24

Family

ID=47086722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011059936A Active JP5644607B2 (en) 2011-03-17 2011-03-17 Information providing program, information providing apparatus, and information providing method

Country Status (1)

Country Link
JP (1) JP5644607B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017051591A (en) * 2015-09-09 2017-03-16 キヤノン株式会社 Information processing device and method thereof, information processing system, and computer program
JP2017111756A (en) * 2015-12-18 2017-06-22 日本電気株式会社 Medical information processor, information processing method therefor, and program
WO2020031739A1 (en) * 2018-08-09 2020-02-13 ソニー株式会社 Information processing device and information processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366648A (en) * 2001-06-12 2002-12-20 Hitachi Ltd Receipt processing system
JP2008136646A (en) * 2006-12-01 2008-06-19 Toshiba Corp Medical supporting device
JP2009110081A (en) * 2007-10-26 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> Document relevancy analyzing device, method, and program
JP2009288880A (en) * 2008-05-27 2009-12-10 Toshiba Corp Health management support device and health examination system
JP2010122883A (en) * 2008-11-19 2010-06-03 Fuji Xerox Co Ltd Summary creation support device, summary creation support system and summary creation support program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002366648A (en) * 2001-06-12 2002-12-20 Hitachi Ltd Receipt processing system
JP2008136646A (en) * 2006-12-01 2008-06-19 Toshiba Corp Medical supporting device
JP2009110081A (en) * 2007-10-26 2009-05-21 Nippon Telegr & Teleph Corp <Ntt> Document relevancy analyzing device, method, and program
JP2009288880A (en) * 2008-05-27 2009-12-10 Toshiba Corp Health management support device and health examination system
JP2010122883A (en) * 2008-11-19 2010-06-03 Fuji Xerox Co Ltd Summary creation support device, summary creation support system and summary creation support program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017051591A (en) * 2015-09-09 2017-03-16 キヤノン株式会社 Information processing device and method thereof, information processing system, and computer program
JP2017111756A (en) * 2015-12-18 2017-06-22 日本電気株式会社 Medical information processor, information processing method therefor, and program
WO2020031739A1 (en) * 2018-08-09 2020-02-13 ソニー株式会社 Information processing device and information processing method

Also Published As

Publication number Publication date
JP5644607B2 (en) 2014-12-24

Similar Documents

Publication Publication Date Title
US20220199230A1 (en) Context driven summary view of radiology findings
JP6749835B2 (en) Context-sensitive medical data entry system
CN104350494B (en) Method, device and system for providing assistance with reporting
US10762168B2 (en) Report viewer using radiological descriptors
RU2711305C2 (en) Binding report/image
JP5178119B2 (en) Image processing apparatus and image processing method
US20110075901A1 (en) Medical image processing apparatus and method and computer-readable recording medium
US20070198250A1 (en) Information retrieval and reporting method system
CN102612696A (en) Medical information system with report validator and report augmenter
JP7258772B2 (en) holistic patient radiology viewer
JP2018509689A (en) Context generation of report content for radiation reports
JP5098314B2 (en) Document creation support system, document creation support method, and computer program
JP2014016990A (en) Device and method for generating survey report
US20200243177A1 (en) Medical report generating device and medical report generating method
US10235360B2 (en) Generation of pictorial reporting diagrams of lesions in anatomical structures
US20120316874A1 (en) Radiology verification system and method
CN113656706A (en) Information pushing method and device based on multi-mode deep learning model
JP5644607B2 (en) Information providing program, information providing apparatus, and information providing method
JP2024009342A (en) Document preparation supporting device, method, and program
JP5501491B2 (en) Diagnosis support apparatus and control method
JP2007257110A (en) Information processing system, server apparatus and program
JP2004102509A (en) Medical document preparation support device and its program
CN110709888B (en) Information processing apparatus and method for controlling the same
Kalokyri et al. MI-Common Data Model: Extending Observational Medical Outcomes Partnership-Common Data Model (OMOP-CDM) for Registering Medical Imaging Metadata and Subsequent Curation Processes
TW202145248A (en) Medical image analyzing and processing system effectively improving operation efficiency of browsing and reducing error rate possibly caused from manual work

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131129

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140715

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141007

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141020

R150 Certificate of patent or registration of utility model

Ref document number: 5644607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150