JP2012194928A - Information providing program, information providing device and information providing method - Google Patents
Information providing program, information providing device and information providing method Download PDFInfo
- Publication number
- JP2012194928A JP2012194928A JP2011059936A JP2011059936A JP2012194928A JP 2012194928 A JP2012194928 A JP 2012194928A JP 2011059936 A JP2011059936 A JP 2011059936A JP 2011059936 A JP2011059936 A JP 2011059936A JP 2012194928 A JP2012194928 A JP 2012194928A
- Authority
- JP
- Japan
- Prior art keywords
- character string
- image
- document data
- conversion
- interpretation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 73
- 238000006243 chemical reaction Methods 0.000 claims abstract description 81
- 238000000605 extraction Methods 0.000 claims description 49
- 239000000284 extract Substances 0.000 claims description 27
- 238000010586 diagram Methods 0.000 description 27
- 210000001072 colon Anatomy 0.000 description 19
- 238000003384 imaging method Methods 0.000 description 17
- 230000003287 optical effect Effects 0.000 description 12
- 210000000038 chest Anatomy 0.000 description 7
- 238000002591 computed tomography Methods 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 206010003445 Ascites Diseases 0.000 description 5
- 230000005856 abnormality Effects 0.000 description 5
- 210000001015 abdomen Anatomy 0.000 description 4
- 238000003745 diagnosis Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 210000002429 large intestine Anatomy 0.000 description 4
- 230000001575 pathological effect Effects 0.000 description 4
- 238000007689 inspection Methods 0.000 description 3
- 210000000626 ureter Anatomy 0.000 description 3
- 210000003734 kidney Anatomy 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 210000004291 uterus Anatomy 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 235000012054 meals Nutrition 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000000813 small intestine Anatomy 0.000 description 1
- 208000024891 symptom Diseases 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Landscapes
- Medical Treatment And Welfare Office Work (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Description
本発明は、情報提供プログラム、情報提供装置および情報提供方法に関する。 The present invention relates to an information providing program, an information providing apparatus, and an information providing method.
医療機関では、読影医により読影される患者などの被写体の撮影画像と、読影医が撮影画像を読影した結果である所見を基に、診療科の医師によって診察がおこなわれることがある。なお、以下、読影医が読影する撮影画像を読影画像という。また、読影画像が大量であることから、読影医は、読影画像のうち、診療科の医師が特に注意してみるべき画像を指定する。指定された画像を指定画像とよぶ。医師は、例えば、指定画像と所見とを参考にして診断を行い、診断結果を患者や患者の関係者に説明する。一方、読影画像を、読影医により入力された所見の文字列とともに出力する技術が開示されている。 In a medical institution, a doctor in a medical department may perform a diagnosis based on a captured image of a subject such as a patient that is interpreted by an interpreting doctor and a finding that is a result of interpreting the captured image by the interpreting doctor. Hereinafter, a captured image that is interpreted by an interpreting doctor is referred to as an interpretation image. In addition, since there are a large number of interpretation images, the interpretation doctor designates an image among the interpretation images that the doctor in the medical department should pay particular attention to. The specified image is called the specified image. For example, the doctor makes a diagnosis with reference to the designated image and the findings, and explains the diagnosis result to the patient and the patient concerned. On the other hand, a technique for outputting an interpretation image together with a character string of findings input by an interpretation doctor is disclosed.
ここで、インフォームドコンセントなどの観点から、医師は、例えば、患者などに対して、撮影画像の一部(指定画像等)を提供することが考えられる。そして、撮影画像とともに、所見等も提供することで、患者へ検査結果を知らせる。しかしながら、被提供者は、提供された撮影画像から被写体の状態に関する情報を読み取ることができないことがあるという問題があった。例えば、所見は、医師や看護師などの医療関係者を対象として作成されるため、医学用語が用いられることがある。この場合、医学用語に関する知識の乏しい被提供者は、提供された読影画像に含まれる所見の内容を理解できないことがある。 Here, from the viewpoint of informed consent or the like, it is conceivable that a doctor provides a part of a captured image (designated image or the like) to a patient or the like, for example. Then, by providing the findings along with the photographed image, the patient is informed of the test result. However, there is a problem that the recipient may not be able to read information on the state of the subject from the provided captured image. For example, since the findings are created for medical personnel such as doctors and nurses, medical terms may be used. In this case, a recipient who lacks knowledge about medical terms may not understand the findings contained in the provided interpretation image.
本発明は、上述した従来技術による問題点を解消するため、被提供者に対して被写体の状態についてわかりやすい情報を提供することのできる情報提供プログラム、情報提供装置および情報提供方法を提供することを目的とする。 The present invention provides an information providing program, an information providing apparatus, and an information providing method capable of providing easy-to-understand information about the state of a subject to a recipient in order to solve the above-described problems caused by the prior art. Objective.
上述した課題を解決し、目的を達成するため、本発明の一側面によれば、被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得し、文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、取得された前記文書データに含まれる該文字列を該他の文字列に変換し、変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出し、抽出された前記一致文字列を、前記画像とともに出力する情報提供プログラム、情報提供装置および情報提供方法が提案される。 In order to solve the above-described problems and achieve the object, according to one aspect of the present invention, an image of a subject, document data indicating findings input to the image, and audio data for the image are audio. The description document data converted by recognition is acquired, and the character string included in the acquired document data is obtained by referring to the conversion master in which the character string is associated with another character string related to the character string. Is converted into the other character string, the converted document data is compared with the explanatory document data, a matching character string is extracted, and the extracted matching character string is output together with the image A providing program, an information providing apparatus, and an information providing method are proposed.
本発明の一側面によれば、被提供者に対して被写体の状態についてわかりやすい情報を提供することができるという効果を奏する。 According to one aspect of the present invention, it is possible to provide easy-to-understand information about the state of a subject to a recipient.
以下に添付図面を参照して、本発明にかかる情報提供プログラム、情報提供装置および情報提供方法の実施の形態を詳細に説明する。 Exemplary embodiments of an information providing program, an information providing apparatus, and an information providing method according to the present invention will be described below in detail with reference to the accompanying drawings.
<実施の形態1>
まず、本発明にかかる情報提供プログラム、情報提供装置および情報提供方法の実施の形態1について説明する。実施の形態1では、読影画像の所見の文字列のうち、医師により平易な表現にて説明がされた文字列を付加した読影画像が出力される。これにより、読影画像が提供される被提供者に対して、被写体の状態についてわかりやすい情報を提供することができる。
<
First,
(情報提供例)
図1〜図4は、実施の形態1にかかる情報提供例を示す説明図である。図1〜図4において、読影画像P1と所見文書データDtと説明文書データDvとから、患者に提供される患者用読影画像P2が作成される。
(Information provision example)
1 to 4 are explanatory diagrams illustrating examples of providing information according to the first embodiment. 1 to 4, a patient interpretation image P2 provided to a patient is created from the interpretation image P1, the finding document data Dt, and the explanation document data Dv.
図1を用いて、患者用読影画像P2の出力例について説明する。図1においては、読影画像の所見の単語のうち、医師により平易な表現にて説明された単語が付加された読影画像が出力されるまでの過程について説明する。 An output example of the patient interpretation image P2 will be described with reference to FIG. In FIG. 1, a description will be given of a process until an interpretation image to which a word explained in a plain expression by a doctor is added among the words in the findings of the interpretation image is output.
読影画像P1は、読影の対象の画像であり、被写体である生体の画像である。被写体(生体)は、人であってもよいし、また、人以外の動物であってもよい。読影画像P1は、人の腹部のCT(Computed Tomography)画像であるが、これに限るものではない。例えば、MRI(Magnetic Resonance Imagine)画像や、RI(Radioisotope)画像などであってもよい。また、撮影対象部位は体内に限るものではなく、例えば、皮膚などであってもよい。また、読影画像P1は、平面画像であってもよいし、立体画像であってもよい。また、読影画像P1は、読影医から指定された指定画像である。 The interpretation image P1 is an image to be interpreted, and is a living body image that is a subject. The subject (living body) may be a person or an animal other than a person. The interpretation image P1 is a CT (Computed Tomography) image of a person's abdomen, but is not limited to this. For example, an MRI (Magnetic Resonance Image) image or an RI (Radioisotope) image may be used. Further, the imaging target region is not limited to the body, and may be, for example, the skin. The interpretation image P1 may be a flat image or a stereoscopic image. The interpretation image P1 is a designated image designated by an interpretation doctor.
所見文書データDtは、読影画像P1に対する所見の文書データである。所見とは、例えば、読影画像P1に対する読影医による診断や意見などである。所見文書データDtの文字列には、主に医学用語が用いられている。医学用語は、例えば、「コロン」、「病的意義」、「腹水」、「シャッテン」などである。 The finding document data Dt is the finding document data for the interpretation image P1. The findings are, for example, diagnosis or opinion by an interpreting doctor on the interpretation image P1. Medical terms are mainly used in the character string of the observation document data Dt. Medical terms include, for example, “colon”, “pathological significance”, “ascites”, “schatten”, and the like.
説明文書データDvは、読影画像P1に対する説明の説明音声データから変換された文書データである。読影画像P1に対する説明とは、例えば、読影画像P1および所見文書データDtを参考にした、主治医から患者に対する口頭による説明である。また、例えば、読影画像P1に対する説明とは、患者の状態や症状などについての説明である。説明文書データDvの文字列には、主に一般的な用語が用いられている。一般的な用語は、患者にとって医学用語よりも平易な用語が好ましい。例えば、一般的な用語とは、「大腸」、「小腸」、「薬」、「食事」などである。 The explanation document data Dv is document data converted from the explanation voice data for the interpretation of the interpretation image P1. The explanation for the interpretation image P1 is, for example, an oral explanation from the attending physician to the patient with reference to the interpretation image P1 and the finding document data Dt. Further, for example, the explanation for the interpretation image P1 is an explanation of the patient's condition and symptoms. General terms are mainly used in the character string of the explanatory document data Dv. Common terms are preferred for patients because they are simpler than medical terms. For example, common terms include “large intestine”, “small intestine”, “medicine”, “meal”, and the like.
ここで、図1における患者用読影画像P2が出力されるまでの過程の一例について説明する。まず、所見文書データDtにおける医学用語が一般的な用語に変換される。例えば、医学用語である「コロン」は、「コロン」と同義である一般的な用語の「大腸」へ変換される。つぎに、変換後の所見文書データDtの文字列から、説明文書データDvの文字列と一致する一致文字列が抽出される。例えば、一致文字列として「大腸」が抽出される。 Here, an example of a process until the patient interpretation image P2 in FIG. 1 is output will be described. First, medical terms in the finding document data Dt are converted into general terms. For example, the medical term “colon” is converted to the general term “colon” which is synonymous with “colon”. Next, a matching character string that matches the character string of the explanatory document data Dv is extracted from the character string of the converted finding document data Dt. For example, “colon” is extracted as the matching character string.
そして、抽出された一致文字列が読影画像P1に設けられたキーワードの欄に添付され、患者用読影画像P2として出力される。このとき、一致文字列が添付される位置は、読影画像P1を含む画像データ中であればよく、読影画像P1上に限るものではない。また、図1の例では、読影画像P1上に一致文字列が添付された患者用読影画像P2が出力されるが、これに限るものではなく、例えば、一致文字列の文書データと読影画像P1の画像データとが、異なるデータとして出力されるものであってもよい。このように、読影画像P1に関する一般的な用語による説明が付加された患者用読影画像P2が出力される。 Then, the extracted matching character string is attached to the keyword column provided in the interpretation image P1, and is output as a patient interpretation image P2. At this time, the position to which the matching character string is attached may be in the image data including the interpretation image P1, and is not limited to the interpretation image P1. In the example of FIG. 1, the patient interpretation image P2 with the matching character string attached on the interpretation image P1 is output. However, the present invention is not limited to this. For example, the document data of the matching character string and the interpretation image P1. The image data may be output as different data. In this way, the patient interpretation image P2 to which explanations in general terms relating to the interpretation image P1 are added is output.
つぎに、図2を用いて、部位の位置情報を含む患者用読影画像P2の出力例について説明する。図2においては、読影画像の所見における部位の名称の単語のうち、医師により平易な表現にて説明された部位の名称の単語が、該部位の位置情報とともに付加された読影画像が出力されるまでの過程について説明する。 Next, an output example of the patient interpretation image P2 including the position information of the part will be described with reference to FIG. In FIG. 2, an interpretation image in which a part name word explained in a plain expression by a doctor, together with position information of the part, is output among the words of the part name in the findings of the interpretation image. The process up to will be described.
読影画像P1には、読影画像P1に含まれる被写体の部位の名称と、読影画像P1における部位の位置情報とが関連付けられている。部位の名称には、主に医学用語が用いられる。例えば、部位の名称は、「コロン」や、「ストマック」や、「腎」などである。部位の位置情報とは、例えば、読影画像の所定の位置を原点とした座標による位置情報である。具体的に、例えば、読影画像P1においては、点P0を原点とし、X軸とY軸から成る平面座標が設定されており、「コロン」には、X=X1、Y=Y1の位置情報が関連付けられている。 In the interpretation image P1, the name of the part of the subject included in the interpretation image P1 and the position information of the part in the interpretation image P1 are associated. Medical terms are mainly used for the names of the parts. For example, the names of the parts are “colon”, “stomack”, “kidney”, and the like. The position information of the part is, for example, position information based on coordinates with a predetermined position of the interpretation image as an origin. Specifically, for example, in the interpretation image P1, a plane coordinate composed of the X axis and the Y axis is set with the point P0 as the origin, and the position information of X = X1 and Y = Y1 is set in the “colon”. Associated.
ここで、図2における患者用読影画像P2が出力されるまでの過程の一例について説明する。一致文字列が抽出されるまでの過程については、図1に示した過程と同様である。一致文字列に対応する医学用語の文字列が部位の名称である場合、該名称に対応する部位の位置情報が抽出される。そして、抽出された一致文字列が、位置情報に対応する読影画像P1上の位置を指し示すように添付され、患者用読影画像P2として出力される。このように、読影画像P1に関する一般的な用語による説明と位置情報とが付加された患者用読影画像P2が出力される。 Here, an example of a process until the patient interpretation image P2 in FIG. 2 is output will be described. The process until the matching character string is extracted is the same as the process shown in FIG. When the character string of the medical term corresponding to the matched character string is a part name, the position information of the part corresponding to the name is extracted. The extracted matching character string is attached so as to indicate the position on the interpretation image P1 corresponding to the position information, and is output as the patient interpretation image P2. In this way, the patient interpretation image P2 to which the explanation in general terms relating to the interpretation image P1 and the position information are added is output.
つぎに、図3を用いて、医学用語および一般的な用語による所見を含む患者用読影画像P2の出力例について説明する。図3においては、読影画像の所見における部位の名称の単語のうち、医師により平易な表現にて説明された部位の名称の単語と、所見における部位の名称の単語とが、部位の位置情報とともに付加された読影画像が出力されるまでの過程について説明する。 Next, an output example of the patient interpretation image P2 including findings in medical terms and general terms will be described with reference to FIG. In FIG. 3, among the words of the part names in the findings of the interpretation image, the part name words explained in plain expression by the doctor and the part name words in the findings together with the position information of the parts A process until the added interpretation image is output will be described.
ここで、図3における患者用読影画像P2が出力されるまでの過程の一例について説明する。一致文字列が抽出されるまでの過程については、図1に示した過程と同様である。抽出された一致文字列と、一致文字列に対応する所見文書データDtの文字列とが、読影画像P1とともに出力される。このように、医学用語および一般的な用語による所見が付加された患者用読影画像P2が出力され、医学用語と一般的な用語の対応関係を被提供者に理解させることができる。 Here, an example of a process until the patient interpretation image P2 in FIG. 3 is output will be described. The process until the matching character string is extracted is the same as the process shown in FIG. The extracted matching character string and the character string of the finding document data Dt corresponding to the matching character string are output together with the interpretation image P1. In this way, the patient interpretation image P2 to which findings based on medical terms and general terms are added is output, and the recipient can understand the correspondence between the medical terms and the general terms.
つぎに、図4を用いて、文章による所見を含む患者用読影画像P2の出力例について説明する。図4においては、読影画像P1の所見における文章の文字列のうち、医師により平易な表現にて説明された文章の文字列が付加された読影画像が出力されるまでの過程について説明する。 Next, with reference to FIG. 4, an output example of the patient interpretation image P2 including the findings by text will be described. In FIG. 4, a description will be given of a process until an interpretation image to which a character string of a sentence explained in a plain expression by a doctor is added among sentence character strings in the findings of the interpretation image P <b> 1 is output.
所見文書データDtの文字列には、医学用語が用いられた文章が含まれている。また、説明文書データDvの文字列には、一般的な用語が用いられた文章が含まれている。 The character string of the observation document data Dt includes a sentence using medical terms. In addition, the character string of the explanatory document data Dv includes a sentence using general terms.
ここで、図4における患者用読影画像P2が出力されるまでの過程の一例について説明する。まず、所見文書データDt中の文字列の医学用語が一般的な用語に変換される。例えば、医学用語である「コロン」は「コロン」と同義である一般的な用語の「大腸」へ変換される。同様に、医学用語である「腹水」は「腹水」と同義である一般的な用語の「影」へ、医学用語である「病的意義」は「病的意義」と同義である一般的な用語の「異常」へ、それぞれ変換される。 Here, an example of a process until the patient interpretation image P2 in FIG. 4 is output will be described. First, medical terms in a character string in the finding document data Dt are converted into general terms. For example, the medical term “colon” is converted to the general term “colon” which is synonymous with “colon”. Similarly, the medical term “ascites” is synonymous with “ascites” and the general term “shadow”, and the medical term “pathological significance” is synonymous with “pathological significance”. Each is converted to the term “abnormal”.
つぎに、変換後の所見文書データDtの文字列の文章から、説明文書データDvの文字列の文章と一致する一致文章が抽出される。その際、具体的には、例えば、主語と述語と修飾語とが一致している文章が抽出される。例えば、一致文章として「大腸に影がありますが異常はありません」が抽出される。 Next, a matching sentence that matches the sentence of the character string of the explanatory document data Dv is extracted from the sentence of the character string of the finding document data Dt after conversion. At that time, specifically, for example, a sentence in which the subject, the predicate, and the modifier match is extracted. For example, “having a shadow in the large intestine but no abnormality” is extracted as a matching sentence.
また、一致文章に対応する医学用語の文字列に部位の名称が含まれる場合、該名称に対応する部位の位置情報が抽出される。そして、抽出された一致文章と位置情報とが、読影画像P1とともに出力される。このように、読影画像P1に関する一般的な用語による説明の文章が付加された患者用読影画像P2が出力される。 When the name of a part is included in the character string of the medical term corresponding to the matching sentence, the position information of the part corresponding to the name is extracted. Then, the extracted matching sentence and position information are output together with the interpretation image P1. In this way, the patient interpretation image P2 to which the explanatory text in general terms relating to the interpretation image P1 is added is output.
(情報提供システムの一例)
図5は、実施の形態1にかかる情報提供システムの一例を示す説明図である。図5において、情報提供システム500は、主治医用端末510と、電子カルテサーバ520と、読影医用端末530と、読影医用システム540とが、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)などのネットワーク550を介して接続されている。
(Example of information provision system)
FIG. 5 is an explanatory diagram of an example of the information providing system according to the first embodiment. In FIG. 5, an
主治医用端末510は、主治医によって操作されるコンピュータである。主治医用端末510は、音声入力装置511と変換マスタ512とを有する。音声入力装置511は、音声を入力し、入力された音声を音声データとして主治医用端末510へ送信する装置である。また、主治医用端末510は、音声データを音声入力装置511から取得した場合、電子カルテサーバ520へ送信する。変換マスタ512とは、医学用語を一般的な用語に変換するために用いられる規則が記憶されているテーブルである。変換マスタ512の詳細は、図7に後述する。
The attending
電子カルテサーバ520は、電子カルテDB521を有する。電子カルテDB521には、患者ID毎に電子化されたカルテが記憶されている。患者IDとは、患者毎に設定されている識別番号である。また、電子カルテDB521には、主治医用端末510から送信された説明音声データが説明文書データDvに変換されて記憶されている。具体的に、電子カルテサーバ520は、音声認識機能によって説明音声データを説明文書データDvに変換し、電子カルテDB521に記憶する。電子カルテDB521の詳細は、図8−1および図8−2に後述する。
The electronic
読影医用端末530は、主に読影医によって操作されるコンピュータである。読影医とは、主治医からの依頼に応じて撮影された読影画像P1に対する所見を作成する医師である。読影医用端末530は、例えば、読影医から文字列が入力されることにより、所見文書データDtを作成する。
Interpretation
読影医用システム540は、読影医用サーバ541と撮影装置542とを有する。読影医用サーバ541は、読影医用システムDB543を有する。撮影装置542には、例えば、CT機器や、MRI機器や、RI機器などがある。この撮影装置542は、例えば、読影医から依頼を受けた放射線技師によって操作される。
The interpretation
読影医用システムDB543は、画像DB544と所見DB545とを含む。画像DB544は、撮影装置542によって撮影された画像データが、付加情報(タグ情報)とともに記憶されている。タグ情報は、例えば、画像データに含まれる被写体の部位の名称や、部位の位置情報などである。タグ情報の詳細は、図10に後述する。
The interpretation
所見DB545は、読影医用端末530により作成された所見文書データDtがオーダ番号に関連付いて記憶されている。オーダ番号は、主治医によって撮影依頼が作成された際に設定される一意的な番号である。所見DB545の詳細は、図9に後述する。
The finding
情報提供システム500において、主治医用端末510が患者用読影画像P2の出力要求を受け付けた場合、主治医用端末510は、以下の処理を実行する。まず、主治医用端末510は、読影画像P1の画像データおよび所見文書データDtを、画像DB544および所見DB545から取得する。
In the
具体的に、例えば、主治医用端末510は、電子カルテサーバ520に対してオーダ番号とともに画像データおよび所見文書データDtの取得要求を送信する。オーダ番号および取得要求を受信した電子カルテサーバ520は、読影医用サーバ541に対して、オーダ番号および取得要求を出力することにより、読影医用サーバ541から画像データおよび所見文書データDtを取得する。そして、主治医用端末510は、電子カルテサーバ520から画像データおよび所見文書データDtを取得する。
Specifically, for example, the attending
つぎに、主治医用端末510は、説明文書データDvを電子カルテDB521から取得する。具体的に、例えば、主治医用端末510は、電子カルテサーバ520に対してオーダ番号とともに説明文書データDvの取得要求を送信することにより、説明文書データDvを電子カルテDB521から取得する。そして、主治医用端末510は、変換マスタ512を参照して、取得した所見文書データDtの文字列内の医学用語を一般的な用語に変換する。例えば、図1〜図4に示した例を挙げると、医学用語である「コロン」を一般的な用語である「大腸」に変換する。
Next, the attending
その後、主治医用端末510は、一般的な用語に変換された所見文書データDtと説明文書データDvとを比較し、変換された所見文書データDtの文字列のうち、説明文書データDvの文字列と一致する一致文字列を抽出する。その際、変換された所見文書データDtの文字列の文章のうち、説明文書データDvの文字列の文章と一致する一致文章がある場合、主治医用端末510は、一致文章を抽出する。
Thereafter, the attending
また、その際、主治医用端末510は、説明文書データDvの文字列内の医学用語を一般的な用語に変換し、変換された説明文書データDvと、変換された所見文書データDtとを比較することとしてもよい。
At that time, the attending
そして、主治医用端末510は、一致文字列が部位の名称である場合、画像データに付加されているタグ情報に基づいて、部位に対応する位置情報を抽出する。具体的には、例えば、主治医用端末510は、タグ情報として記憶されている部位の名称に、一致文字列と一致する単語があるか否かを判定し、一致する単語がある場合に、該一致する単語に関連付けられている位置情報を、画像データから抽出する。主治医用端末510は、抽出した一致文字列と位置情報とを、取得した画像データとともに出力する。ここで、出力先としては、例えば、ディスプレイや、プリンタや、メモリなどを挙げることができる。
Then, when the matching character string is the name of the part, the attending
(主治医用端末510のハードウェア構成例)
図6は、実施の形態1にかかる主治医用端末のハードウェア構成例を示すブロック図である。図6において、主治医用端末510は、CPU(Central Processing Unit)601と、ROM(Read‐Only Memory)602と、RAM(Random Access Memory)603と、磁気ディスクドライブ604と、磁気ディスク605と、光ディスクドライブ606と、光ディスク607と、I/F(Interface)608と、を備えている。また、各構成部はバス600によってそれぞれ接続されている。
(Hardware configuration example of primary medical doctor terminal 510)
FIG. 6 is a block diagram of a hardware configuration example of the attending medical terminal according to the first embodiment. In FIG. 6, the attending
ここで、CPU601は、主治医用端末510の全体の制御を司る。ROM602は、ブートプログラムなどのプログラムを記憶している。RAM603は、CPU601のワークエリアとして使用される。磁気ディスクドライブ604は、CPU601の制御にしたがって磁気ディスク605に対するデータのリード/ライトを制御する。磁気ディスク605は、磁気ディスクドライブ604の制御で書き込まれたデータを記憶する。
Here, the
光ディスクドライブ606は、CPU601の制御にしたがって光ディスク607に対するデータのリード/ライトを制御する。光ディスク607は、光ディスクドライブ606の制御で書き込まれたデータを記憶したり、光ディスク607に記憶されたデータをコンピュータに読み取らせたりする。
The
インターフェース(以下、「I/F」と略する。)608は、通信回線を通じてLAN(Local Area Network)、WAN(Wide Area Network)、インターネットなどのネットワーク550に接続され、このネットワーク550を介して他の装置に接続される。そして、I/F608は、ネットワーク550と内部のインターフェースを司り、外部装置からのデータの入出力を制御する。I/F608には、例えばモデムやLANアダプタなどを採用することができる。
An interface (hereinafter abbreviated as “I / F”) 608 is connected to a
つぎに、変換マスタ512の記憶内容について説明する。変換マスタ512は、例えば、図6に示した主治医用端末510のROM602と、RAM603、磁気ディスク605、光ディスク607などの記憶装置により実現される。
Next, the contents stored in the
(変換マスタ512の記憶内容)
図7は、変換マスタの記憶内容の一例を示す説明図である。図7において、変換マスタ512は、変換後文字列および変換前文字列のフィールドを有する。各フィールドに情報を設定することで、変換特性データ513−1〜513−nがレコードとして記憶されている。
(Storage contents of conversion master 512)
FIG. 7 is an explanatory diagram showing an example of the contents stored in the conversion master. In FIG. 7, the
ここで、変換後文字列は、一般的な用語の文字列である。変換前文字列は、変換後文字列の同義語であり、主に医学用語である。また、変換前文字列は、変換後文字列の同義語であれば、変換後文字列における言語と異なる言語であってもよい。例えば、変換前文字列に英語やドイツ語の文字列が含まれ、変換後文字列に日本語の文字列が含まれるものであってもよい。主治医用端末510は、変換マスタ512を参照することにより、所見文書データDtや説明文書データDvの文字列に変換前文字列が含まれている場合に、変換前文字列から変換後文字列に変換する。
Here, the converted character string is a character string of general terms. The pre-conversion character string is a synonym for the post-conversion character string and is mainly a medical term. Further, the pre-conversion character string may be a language different from the language in the post-conversion character string as long as it is a synonym for the post-conversion character string. For example, the pre-conversion character string may include an English or German character string, and the post-conversion character string may include a Japanese character string. By referring to the
一例として、変換特性データ513−1を例に挙げると、変換後文字列「影」、変換前文字列「覆水」、「影」、「シャッテン」、「Schatten」が記憶されている。すなわち、主治医用端末510は、変換マスタ512を参照することにより、所見文書データDtや説明文書データDvの文字列における「覆水」、「影」、「シャッテン」、「Schatten」を、「影」に変換する。
As an example, when the conversion characteristic data 513-1 is taken as an example, a post-conversion character string “shadow”, a pre-conversion character string “covered”, “shadow”, “Schatten”, and “Schatten” are stored. That is, by referring to the
つぎに、図8−1および図8−2を用いて、電子カルテDBの記憶内容について説明する。電子カルテDBは、例えば、電子カルテサーバ520のROM、RAM、磁気ディスク、光ディスクなどの記憶装置により実現される。
Next, the contents stored in the electronic medical record DB will be described with reference to FIGS. 8A and 8B. The electronic medical record DB is realized by a storage device such as a ROM, a RAM, a magnetic disk, and an optical disk of the electronic
(電子カルテDB521の記憶内容)
図8−1および図8−2は、電子カルテDBの記憶内容の一例を示す説明図である。図8−1および図8−2において、電子カルテDB521は、患者ID、氏名、性別、年齢、オーダ番号、撮影内容、所見ポインタ、画像ポインタおよび説明内容のフィールドを有する。各フィールドに情報を設定することで、電子カルテ特性データ522−1〜522−mがレコードとして記憶されている。
(Storage contents of electronic medical record DB 521)
8A and 8B are explanatory diagrams illustrating an example of the contents stored in the electronic medical record DB. 8A and 8B, the electronic
ここで、氏名は、患者の姓名である。性別は、患者の性をあらわす種別である。年齢は、患者が生まれてから経過した年数を示す数値である。撮影内容は、主治医による撮影依頼の内容であり、たとえば、撮影箇所と撮影方法とを含む。撮影箇所とは、患者を撮影した位置や部位を示し、具体的には、例えば、頭部、胸部、腹部、などである。撮影方法とは、撮影方式の種別を示し、例えば、CT、MRIなどである。患者ID、氏名、年齢、オーダ番号、撮影内容は、例えば、主治医用端末510が主治医による撮影要求を受け付けた場合に発行され、主治医用端末510から電子カルテサーバ520が受信する。
Here, the name is the patient's full name. The sex is a type representing the sex of the patient. Age is a numerical value indicating the number of years that have passed since the patient was born. The imaging content is the content of the imaging request by the attending physician, and includes, for example, an imaging location and an imaging method. An imaging | photography location shows the position and site | part which image | photographed the patient, and, specifically, is a head, a chest, an abdomen, etc., for example. The imaging method indicates the type of imaging method, such as CT or MRI. The patient ID, name, age, order number, and imaging content are issued, for example, when the primary
また、所見ポインタは、オーダ番号に対応した所見文書データDtが格納されている読影医用システムDB543内のアドレスを示している。電子カルテサーバ520は、主治医用端末510から所見文書データDtの取得要求を受信した場合に、所見ポインタを参照して読影医用サーバ541から所見文書データDtを取得する。そして、電子カルテサーバ520は、取得した所見文書データDtを主治医用端末510へ送信する。所見ポインタは、読影医用サーバ541によって所見文書データDtが記憶された際に、読影医用サーバ541から電子カルテサーバ520へ送信され、記憶される。
The finding pointer indicates an address in the interpretation
画像ポインタは、オーダ番号に対応した画像データが格納されている読影医用システムDB543内のアドレスを示している。電子カルテサーバ520は、主治医用端末510から画像データの取得要求を受信した場合に、画像ポインタを参照して読影医用サーバ541から画像データを取得する。そして、電子カルテサーバ520は、取得した画像データを主治医用端末510へ送信する。画像ポインタは、読影医用サーバ541によって画像データが記憶された際に、読影医用サーバ541から電子カルテサーバ520へ送信され、記憶される。説明内容は、説明文書データDvの文字列である。
The image pointer indicates an address in the interpretation
一例として、電子カルテ特性データ522−1を例に挙げると、患者ID「000000001」、氏名「トウキョウ キョウコ」、性別「女」、年齢「54」、オーダ番号「#000000001」、撮影内容「腹部、CT」、所見ポインタ「s/2011/2/1/ct/#1」、画像ポインタ「g/2011/2/1/ct/#1」、説明内容「今日は、左胸部と子宮と尿管について、CT撮影を行いました。撮った画像から、左胸部に影が見受けられましたが、無害性であるので、異常ありません。念のため、お薬をお出ししますね。」が記憶されている。 As an example, taking electronic medical record characteristic data 522-1 as an example, patient ID “000000001”, name “Tokyo Kyoko”, gender “female”, age “54”, order number “# 000000001”, photographing content “abdomen, CT ”, finding pointer“ s / 2011/2/1 / ct / # 1 ”, image pointer“ g / 2011/2/1 / ct / # 1 ”, explanation“ today, left chest, uterus and ureter A shadow was seen on the left chest from the image taken, but it is harmless, so there is no anomaly. ing.
つぎに、所見DB545の記憶内容について説明する。所見DB545は、例えば、読影医用サーバ541のROM、RAM、磁気ディスク、光ディスクなどの記憶装置により実現される。
Next, the contents stored in the finding
(所見DB545の記憶内容)
図9は、所見DBの記憶内容の一例を示す説明図である。図9において、所見DB545は、オーダ番号および所見内容のフィールドを有する。各フィールドに情報を設定することで、所見特性データ900−1〜900−lがレコードとして記憶されている。
(Contents stored in the finding DB 545)
FIG. 9 is an explanatory diagram showing an example of the contents stored in the finding DB. In FIG. 9, the finding
ここで、オーダ番号は、読影医用端末530によって所見内容が書き込まれる際に記憶される。所見内容は、オーダ番号毎に記憶されている所見文書データDtの文字列である。所見内容は、所見DB545が読影医用端末530から所見文書データDtを受信する際に記憶される。
Here, the order number is stored when the findings are written by the interpretation
一例として、所見特性データ900−1を例に挙げると、オーダ番号「#000000001」、所見内容「1)腎・尿管に異常ありません。2)左胸部に少量の腹水がありますが、病的意義はありません。」が記憶されている。 As an example, taking the case characteristic data 900-1 as an example, order number “# 000000001”, findings “1) No abnormality in the kidneys and ureters. 2) There is a small amount of ascites in the left chest. Is not stored. "
つぎに、画像DB544に記憶される画像データのタグ情報の一例について説明する。画像DB544は、例えば、読影医用サーバ541のROM、RAM、磁気ディスク、光ディスクなどの記憶装置により実現される。
Next, an example of tag information of image data stored in the
(画像データのタグ情報)
図10は、画像データのタグ情報の一例を示す説明図である。図10において、タグ情報1000は、タグ毎に項目が設定されており、項目に応じた情報が記憶されている。例えば、タグ情報1000には、オーダ番号や、シリーズインスタンスUIDや、検査インスタンスUIDや、検査部位や、名称(位置)などの項目の情報が含まれる。
(Tag information of image data)
FIG. 10 is an explanatory diagram illustrating an example of tag information of image data. In FIG. 10, the
シリーズインスタンスUIDは、画像データ毎に設定された識別番号である。検査インスタンスUIDは、複数の画像データからグループ化されたグループ毎の識別番号である。検査部位とは、撮影対象となる部位であり、例えば、頭部、胸部、腹部などがある。名称(位置)は、画像に含まれる部位の名称と、その位置情報を示している。例えば、名称(位置)がコロン(x43/y53)である場合、画像に設けられた座標においてX=43、Y=53の位置がコロンであることを示している。名称(位置)の情報は、例えば、主治医用端末510によって患者用読影画像P2が出力される際に参照される情報である。また、名称(位置)の情報は、例えば、画像データが作成された際に、色の濃淡などが解析されることにより決定されるものである。
The series instance UID is an identification number set for each image data. The inspection instance UID is an identification number for each group grouped from a plurality of image data. The examination region is a region to be imaged, and includes, for example, the head, chest, and abdomen. The name (position) indicates the name of the part included in the image and its position information. For example, when the name (position) is a colon (x43 / y53), it indicates that the position of X = 43 and Y = 53 in the coordinates provided in the image is a colon. The name (position) information is, for example, information that is referred to when the patient interpretation image P2 is output by the attending
(主治医用端末510のディスプレイの表示例)
図11は、主治医用端末のディスプレイの表示例を示す説明図である。図11に示す表示例1100は、主治医用端末510が所見文書データDtを取得した際に主治医用端末510のディスプレイ(不図示)に表示される画像である。
(Display example of the display of the attending doctor's terminal 510)
FIG. 11 is an explanatory diagram showing a display example of the display of the attending medical terminal. A display example 1100 shown in FIG. 11 is an image displayed on the display (not shown) of the attending
表示例1100には、画像ボタン1101が含まれる。主治医用端末510は、例えば、画像ボタン1101にカーソルが合わされた状態にてマウスに対する操作を受け付けることにより、表示中の所見文書データDtに対応するオーダ番号と画像データの取得要求とを電子カルテサーバ520へ出力する。そして、主治医用端末510は、電子カルテサーバ520から取得した画像データをディスプレイに出力する。
The display example 1100 includes an image button 1101. For example, the attending
また、表示例1100には、受付時刻、撮影室、検査名、指示項目、撮影方向、フィルム、分割数などの撮影情報と、所見文字列と、が含まれる。主治医は、例えば、画像データと撮影情報と所見文字列とを参考にして、患者に対して説明を行う。この際に、主治医用端末510は、説明音声データを作成する。
Further, the display example 1100 includes photographing information such as reception time, photographing room, examination name, instruction item, photographing direction, film, number of divisions, and observation character string. The attending physician gives an explanation to the patient with reference to, for example, image data, imaging information, and finding character strings. At this time, the attending
(主治医用端末510の機能的構成例)
つぎに、主治医用端末510の機能的構成例について説明する。図12は、主治医用端末の機能的構成を示すブロック図である。主治医用端末510は、取得部1201と、変換部1202と、文字列抽出部1203と、出力部1204と、位置抽出部1205とを含む。この制御部となる機能(取得部1201〜位置抽出部1205)は、具体的には、例えば、図6に示したROM602、RAM603、磁気ディスク605、光ディスク607などの記憶装置に記憶されたプログラムをCPU601に実行させることにより、または、I/F608により、その機能を実現する。
(Functional configuration example of primary medical doctor terminal 510)
Next, a functional configuration example of the attending
取得部1201は、被写体の画像と、画像に対する所見の文書データと、画像に対する音声データから変換された説明文書データDvとを取得する。被写体の画像とは、例えば、読影画像P1である。画像に対する所見の文書データとは、例えば、上述した所見文書データDtである。また、画像に対する音声データとは、例えば、上述した説明音声データである。例えば、取得部1201は、図1〜図4に上述した読影画像P1と所見文書データDtと説明文書データDvとを取得する。
The
具体的には、例えば、取得部1201が、被写体の画像と、画像に対する所見の文書データと、画像に対する音声データから変換された説明文書データDvとが登録されている端末に対して、各データの取得要求を送信することで、各データを取得する。実施の形態1においては、取得部1201が、電子カルテサーバ520へ取得要求を送信することにより、被写体の画像と、画像に対する所見の文書データと、画像に対する音声データから変換された説明文書データDvとを取得する。
Specifically, for example, the
また、取得部1201は、電子カルテサーバ520によって音声データから変換された説明文書データDvを取得するがこれに限るものではない。例えば、取得部1201は、読影医用端末530や読影医用サーバ541によって音声データから変換された説明文書データDvを取得することとしてもよい。また、例えば、取得部1201は、主治医用端末510によって音声データから変換された説明文書データDvを取得することとしてもよい。
Further, the
変換部1202は、文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、取得部1201によって取得された文書データに含まれる該文字列を該他の文字列に変換する。文字列とは、実施の形態1における医学用語である。また、該文字列に関連する他の文字列とは、実施の形態1における医学用語の同義語の一般的な用語である。また、文字列と該文字列に関連する他の文字列とは、異なる言語であってもよい。変換マスタとは、文字列と該文字列に関連する他の文字列が関連付けられたマスタであり、例えば、上述した変換マスタ512である。例えば、変換部1202は、図1〜図3に上述したように、医学用語の「コロン」を翻訳語の「大腸」に変換する。また、例えば、変換部1202は、図4に上述したように医学用語の「コロン」を翻訳語の「大腸」に、医学用語の「腹水」を翻訳語の「影」に、医学用語の「病的意義」を翻訳語の「異常」に、それぞれ変換する。
The conversion unit 1202 refers to the conversion master in which the character string is associated with another character string related to the character string, and converts the character string included in the document data acquired by the
文字列抽出部1203は、変換部1202による変換後の所見の文書データの文字列のうち、説明文書データDvの文字列に一致する一致文字列を抽出する。具体的には、例えば、文字列抽出部1203が、所見文書データDtの文字列と説明文書データDvの文字列とを比較することにより、一致文字列を抽出する。例えば、文字列抽出部1203は、図1〜図3に上述したように、「大腸」を一致文字列として抽出する。
The character
出力部1204は、文字列抽出部1203によって抽出された一致文字列を、画像とともに出力する。具体的に、例えば、出力部1204が、プリンタや、記憶媒体や、ディスプレイなどに、一致文字列と読影画像P1とを出力する。すなわち、出力部1204が、患者用読影画像P2を出力する。例えば、出力部1204は、図1〜図4に上述したように、一致文字列を読影画像P1とともに、患者用読影画像P2として出力する。
The
また、出力された患者用読影画像P2は患者に提供されるものとするが、これに限るものではなく、例えば、患者の関係者などに提供されることとしてもよい。また、読影画像P1の被写体がペットである場合、患者用読影画像P2が被写体のペットの飼い主などに提供されるものであってもよい。 In addition, the patient interpretation image P2 that is output is provided to the patient, but is not limited thereto, and may be provided to, for example, a patient concerned. Further, when the subject of the interpretation image P1 is a pet, the patient interpretation image P2 may be provided to the owner of the subject pet.
また、取得部1201は、被写体の画像と、画像に含まれる被写体の部位の名称と、画像における部位の位置情報とが関連付けられた画像データと、画像に対する所見の文書データと、画像に対する音声データから変換された説明文書データDvとを取得することとしてもよい。画像データは、実施の形態1における画像およびタグ情報である。例えば、取得部1201は、図2〜図4に上述した読影画像P1と所見文書データDtと説明文書データDvと位置情報とを取得する。
The
位置抽出部1205は、変換部1202による変換前の所見の文書データと画像データとに基づいて、一致文字列に対応する位置情報を抽出する。具体的には、例えば、位置抽出部1205が、変換前の所見の文書データの文字列に含まれる部位の名称に応じた位置情報を、一致文字列に対応する位置情報として抽出する。例えば、位置抽出部1205は、図2〜図4に上述した一文字列に対応する位置情報としてX=X1、Y=Y1を抽出する。
The
出力部1204は、一致文字列に対応する位置情報と一致文字列とを、画像とともに出力する。具体的に、例えば、出力部1204が、画像上の部位の位置を指し示すように一致文字情報を表示するよう出力する。例えば、出力部1204は、図2〜図4に上述したように、X=X1、Y=Y1の位置情報と一文字列とを出力する。また、出力部1204が、一致文字列と位置情報とを文字列として表記するよう画像とともに出力することとしてもよい。
The
また、文字列抽出部1203は、変換部1202によって翻訳語に変換された所見の文書データの文字列のうち、説明文書データDvの文字列に一致する文章の文字列を抽出する。具体的に、例えば、文字列抽出部1203が、主語と述語と修飾語とが一致する文字列を抽出する。例えば、文字列抽出部1203は、図4に上述したように、「大腸に影がありますが異常はありません。」を一致文字列として抽出する。そして、出力部1204は、文字列抽出部1203によって抽出された文章の文字列を、取得部1201によって取得された画像とともに出力する。例えば、出力部1204は、図4に上述したように、「大腸に影がありますが異常はありません。」を読影画像P1とともに出力する。
Further, the character
また、主治医用端末510が各部(取得部1201〜位置抽出部1205)を有することとしたが、これに限るものではない。例えば、電子カルテサーバ520や、読影医用端末530や、読影医用サーバ541が各部を有するものであってもよい。
In addition, although the attending
(主治医用端末510のファイル情報提供処理手順)
図13は、実施の形態1にかかる主治医用端末の情報提供処理手順の一例を示すフローチャートである。情報提供処理は、CPU601によって実行される処理である。情報提供処理において、主治医用端末510は、まず、患者用読影画像P2の出力要求をユーザから受け付けたか否かを判定し(ステップS1301)、受け付けない場合(ステップS1301:No)、受け付けるまで待機する。
(File information provision processing procedure of the attending physician's terminal 510)
FIG. 13 is a flowchart of an example of an information providing process procedure of the attending medical terminal according to the first embodiment. The information providing process is a process executed by the
ステップS1301において、患者用読影画像P2の出力要求をユーザから受け付けた場合(ステップS1301:Yes)、取得部1201により、読影画像P1の画像データを取得する(ステップS1302)。そして、取得部1201により、所見文書データDtを取得する(ステップS1303)。その後、変換部1202により、変換マスタ512を参照して、取得した所見文書データDtの文字列の医学用語を、一般的な用語に変換する(ステップS1304)。
In step S1301, when an output request for the patient interpretation image P2 is received from the user (step S1301: Yes), the
その後、取得部1201により、説明文書データDvを取得し(ステップS1305)、変換部1202により、変換マスタ512を参照して、説明文書データDvの文字列を、一般的な用語に変換する(ステップS1306)。そして、文字列抽出部1203により、ステップS1304において変換された所見文書データDtの文字列と、ステップS1306において変換された説明文書データDvの文字列とを比較する(ステップS1307)。
Thereafter, the
そして、文字列抽出部1203により、ステップS1304において変換された所見文書データDtの文字列と、ステップS1306において変換された説明文書データDvの文字列とに、一致する文章があるか否かを判定する(ステップS1308)。一致する文章がある場合(ステップS1308:Yes)、文字列抽出部1203により、一致する文章を抽出する(ステップS1309)。
Then, the character
その後、文字列抽出部1203により、ステップS1304において変換された所見文書データDtの文字列と、ステップS1306において変換された説明文書データDvの文字列との一致する単語を抽出する(ステップS1310)。その際、ステップS1309を経由してステップS1310を行う場合、文字列抽出部1203により、文章として抽出されていない文字列から、一致する単語を抽出する。また、ステップS1308において、一致する文章がないと判定された場合(ステップS1308:No)、主治医用端末510は、ステップS1310へ移行する。
Thereafter, the character
その後、位置抽出部1205により、抽出した文字列に対する位置情報を抽出する(ステップS1311)。そして、出力部1204により、抽出した文字列と位置情報とを、画像データとともにプリンタやメモリへ出力し、すなわち、患者用読影画像P2を出力し(ステップS1312)、本フローチャートによる一連の処理を終了する。
Thereafter, the
以上説明した実施の形態1にかかる主治医用端末510によれば、所見文書データDtの文字列の医学用語から変換された一般的な用語のうち、説明文書データDvと一致する一致文字列を読影画像P1とともに出力することができる。すなわち、所見文書データDtの文字列のうち、医師により平易な表現にて説明がされた文字列を付加した患者用読影画像P2を出力することができる。これにより、患者用読影画像P2が提供された被提供者は、医学用語に対する知識に乏しくても、患者用読影画像P2に含まれる情報を容易に読み取ることができる。
According to the
ここで、所見データを全て患者に提供する場合は、患者に提供される情報量が膨大になってしまう。通常、読影医が入力する所見は、さまざまな読影結果が記載されるためである。また、説明文書データを全て患者に提供する場合は、提供される情報量が膨大になるとともに、説明文書データには質疑応答や他のトピックについての音声も反映される。説明文書データが膨大になると、患者にとっては、どの部分が重要であるのかの判断が難しい情報となる。 Here, when all the findings data are provided to the patient, the amount of information provided to the patient becomes enormous. Usually, the findings input by the interpretation doctor are because various interpretation results are described. When all the explanatory document data is provided to the patient, the amount of information to be provided becomes enormous, and the explanatory document data also reflects questions and answers and voices about other topics. When the explanatory document data is enormous, it is difficult for the patient to determine which part is important.
一方、本実施例では、変換された所見文書データと説明文書データとを用い、両者に共通する部分を特定することができる。つまり、共通する部分は、所見にも説明音声にも用いられた部分であって、重要であると推測される部分を患者へ提供することができる。よって、画像と共に、両者に共通する文字列を提供することで、検査結果に対する患者の理解を助けることができる。 On the other hand, in the present embodiment, it is possible to specify a portion common to both by using the converted finding document data and the explanation document data. That is, the common part is a part used for the observation and the explanation voice, and the part that is assumed to be important can be provided to the patient. Therefore, by providing a character string common to both images together with the image, it is possible to help the patient understand the test result.
また、主治医用端末510によれば、一致文字列と該一致文字列に含まれる部位の位置情報とを読影画像P1とともに出力することができる。すなわち、主治医用端末510は、医師により平易な表現にて説明がされた部位と、該部位の位置情報が付加された患者用読影画像P2を出力することができる。これにより、被提供者は、医学用語に対する知識に乏しくても、部位の名称と位置を容易に理解することができる。
Further, according to the attending
また、主治医用端末510によれば、所見文書データDtにおける医学用語から変換された一般的な用語を用いた文章の文字列のうち、説明文書データDvと一致する文章の一致文字列を読影画像P1とともに出力することとした。すなわち、主治医用端末510は、医師により平易な表現にて説明がされた文章の文字列を付加した患者用読影画像P2を出力することができる。これにより、被提供者は、医学用語に対する知識に乏しくても、被写体の状態の詳細についての理解を促進することができる。
In addition, according to the
また、実施の形態1において、主治医用端末510は、所見文書データDtと説明文書データDvとで文章の一致文字列がある場合、文章の一致文字列を抽出した後に、文章の一致文字列以外の単語の一致文字列を抽出するものとするが、これに限るものではない。例えば、主治医用端末510は、所見文書データDtと説明文書データDvとで文章の一致文字列がある場合、単語の一致文字列を抽出しないものであってもよい。また、主治医用端末510は、所見文書データDtと説明文書データDvとで文章の一致文字列がない場合に、単語の一致文字列を抽出するものであってもよい。
In the first embodiment, if there is a sentence matching character string in the finding document data Dt and the explanatory document data Dv, the attending
また、実施の形態1において、主治医用端末510は、説明文書データDvの文字列と比較する文字列を、所見文書データDtの文字列のみとしたが、これに限るものではない。例えば、所見文書データDtの文字列と、読影画像P1を撮影した際の検査情報の文字列との医学用語を翻訳語に変換し、変換後の検査情報の文字列のうち、説明文書データDvの文字列に一致する一致文字列を読影画像P1とともに出力することとしてもよい。検査情報とは、読影画像P1の撮影時に設定される情報であり、例えば、検査名や、検査場所や、撮影方法などである。
In the first embodiment, the primary
<実施の形態2>
つぎに、実施の形態2について説明する。実施の形態1では、所見の文字列のうち、平易な表現にて説明された文字列を付加した患者用読影画像P2が出力されることとしたが、実施の形態2では、付加された文字列に対応する説明音声データの再生時刻を更に付加した患者用読影画像P2が出力される。また、実施の形態1では、患者用読影画像P2のみを患者や患者の関係者に提供することとしたが、実施の形態2では、患者用読影画像P2および説明音声データを、患者や患者の関係者に提供する。これにより、説明音声データのうち患者用読影画像P2に該当する箇所を、探す手間をかけることなく再生することができる。なお、実施の形態1で説明した箇所と同一箇所については説明を省略する。
<
Next, a second embodiment will be described. In the first embodiment, the patient interpretation image P2 to which the character string described in plain expression is added among the character strings of the findings is output. However, in the second embodiment, the added character is added. A patient interpretation image P2 to which the reproduction time of the explanation voice data corresponding to the column is further added is output. In the first embodiment, only the patient interpretation image P2 is provided to the patient and the patient concerned. However, in the second embodiment, the patient interpretation image P2 and the explanation voice data are obtained from the patient and the patient. Provide to interested parties. As a result, a portion corresponding to the patient interpretation image P2 in the explanation voice data can be reproduced without taking the trouble of searching. In addition, description is abbreviate | omitted about the location same as the location demonstrated in
図14および図15は、実施の形態2にかかる情報提供例を示す説明図である。図14および図15において、説明文書データDvは、文字列毎に説明音声データの再生時刻の情報が関連付けられている。 14 and 15 are explanatory diagrams illustrating an example of providing information according to the second embodiment. 14 and 15, the explanation document data Dv is associated with the reproduction time information of the explanation voice data for each character string.
図14においては、読影画像P1の所見における部位の名称の単語のうち、医師により平易な表現にて説明された部位の名称の単語が、説明音声データの再生時刻の情報とともに付加された患者用読影画像P2が出力されるまでの過程について説明する。図14において、読影画像P1には、読影画像P1に含まれる被写体の部位の名称と、読影画像P1における部位の位置情報とが関係付けられている。ここで、図14における患者用読影画像P2が出力されるまでの過程の一例について説明する。一致文字列が抽出されるまでの過程については、図1に示した過程と同様である。 In FIG. 14, among the part name words in the findings of the interpretation image P <b> 1, the part name words explained in plain expression by the doctor are added together with the information of the reproduction time of the explanation voice data. A process until the interpretation image P2 is output will be described. In FIG. 14, in the interpretation image P1, the name of the part of the subject included in the interpretation image P1 and the position information of the part in the interpretation image P1 are related. Here, an example of a process until the patient interpretation image P2 in FIG. 14 is output will be described. The process until the matching character string is extracted is the same as the process shown in FIG.
まず、抽出された一致文字列に対応する再生時刻が抽出される。そして、抽出された一致文字列と再生時刻と読影画像P1とが、患者用読影画像P2として出力される。このように、読影画像P1に関する一般的な用語による説明が、説明音声データの再生時刻とともに付加された患者用読影画像P2が出力される。 First, the reproduction time corresponding to the extracted matched character string is extracted. Then, the extracted matched character string, reproduction time, and interpretation image P1 are output as a patient interpretation image P2. In this way, the patient interpretation image P2 to which explanations in general terms relating to the interpretation image P1 are added together with the reproduction time of the explanation audio data is output.
この再生時刻の情報が付加された患者用読影画像P2は、例えば、説明音声データとともに主治医から被提供者へ提供される。これにより、被提供者は、説明音声データにおける患者用読影画像P2に関する説明がおこなわれる箇所を、探すことなく、容易に再生することができる。したがって、被提供者は、説明音声データおよび患者用読影画像P2による相乗的な被写体の状態への理解を、容易に深めることができる。 The patient interpretation image P2 to which the reproduction time information is added is provided from the attending physician to the recipient along with the explanation voice data, for example. As a result, the recipient can easily reproduce the location where the explanation regarding the patient interpretation image P2 in the explanation voice data is performed without searching for the location. Therefore, the recipient can easily deepen the understanding of the synergistic subject state by the explanation voice data and the patient interpretation image P2.
また、図15に示すように、抽出された一致文字列に対応する医学用語と一般的な用語と再生時刻とが、読影画像P1とともに出力されることとしてもよい。その場合、患者用読影画像P2の被提供者は、説明音声データにおける患者用読影画像P2に関する説明がおこなわれる箇所を探すことなく、容易に再生することができる。したがって、被提供者は、説明音声データおよび患者用読影画像P2により、被写体の状態と、医学用語と一般的な用語の対応関係とを容易に深めることができる。 Further, as shown in FIG. 15, medical terms, general terms, and reproduction times corresponding to the extracted matched character strings may be output together with the interpretation image P1. In this case, the recipient of the patient interpretation image P2 can easily reproduce it without searching for a location where the explanation regarding the patient interpretation image P2 is performed in the explanation voice data. Therefore, the recipient can easily deepen the state of the subject and the correspondence between medical terms and general terms using the explanation voice data and the patient interpretation image P2.
ここで、実施の形態2において、電子カルテDB521が説明音声データを記憶することとする。そして、患者用読影画像P2の出力要求を主治医用端末510が取得した場合に、主治医用端末510が電子カルテサーバ520から説明音声データを受信し、音声認識機能を用いて、説明音声データから説明文書データDvへ変換することとする。その際、具体的には、主治医用端末510は、説明音声データの再生時刻の情報を付加した説明文書データDvを作成する。図16を用いて、再生時刻の情報が付加された説明文書データの一例について説明する。
Here, in
(説明文書データDvの一例)
図16は、実施の形態2における説明文書データの一例を示す説明図である。図16に示す説明文書データDvは、再生時刻毎の文字列が含まれる。
(Example of explanatory document data Dv)
FIG. 16 is an explanatory diagram illustrating an example of explanatory document data according to the second embodiment. The explanatory document data Dv shown in FIG. 16 includes a character string for each reproduction time.
例えば、説明文書データDvには、0分0秒〜0分5秒の再生時刻に対する文字列として、「今日は、左胸部と子宮と尿管について、」が記憶されている。また、同様に、説明文書データDvには、0分5秒〜0分10秒の再生時刻に対する文字列として、「CT撮影を行いました。撮った画像から、左胸部に影が」が記憶されている。
For example, in the explanation document data Dv, “Today is the left chest, uterus, and ureter” is stored as a character string corresponding to a reproduction time of 0
(主治医用端末510の情報提供処理手順)
図17は、実施の形態2にかかる主治医用端末の情報提供処理手順の一例を示すフローチャートである。情報提供処理は、CPU601によって実行される処理である。情報提供処理において、主治医用端末510は、まず、患者用読影画像P2の出力要求をユーザから受け付けたか否かを判定し(ステップS1701)、受け付けない場合(ステップS1701:No)、受け付けるまで待機する。
(Information provision processing procedure of the attending physician's terminal 510)
FIG. 17 is a flowchart of an example of an information providing process procedure of the attending medical terminal according to the second embodiment. The information providing process is a process executed by the
ステップS1701において、患者用読影画像P2の出力要求をユーザから受け付けた場合(ステップS1701:Yes)、取得部1201により、読影画像P1の画像データを取得する(ステップS1702)。そして、取得部1201により、所見文書データDtを取得する(ステップS1703)。その後、変換部1202により、変換マスタ512を参照して、取得した所見文書データDtの文字列の医学用語を、一般的な用語に変換する(ステップS1704)。
In step S1701, when an output request for the patient interpretation image P2 is received from the user (step S1701: Yes), the
その後、取得部1201により、説明音声データを取得する(ステップS1705)。そして、主治医用端末510は、取得した説明音声データを説明文書データDvへ変換する(ステップS1706)。そして、変換部1202により、変換マスタ512を参照して、説明文書データDvの文字列を、一般的な用語に変換する(ステップS1707)。そして、文字列抽出部1203により、ステップS1704において変換された所見文書データDtの文字列と、ステップS1707において変換された説明文書データDvの文字列とを比較する(ステップS1708)。
Thereafter, the explanation voice data is obtained by the obtaining unit 1201 (step S1705). The attending
そして、文字列抽出部1203により、ステップS1704において変換された所見文書データDtの文字列と、ステップS1707において変換された説明文書データDvの文字列とに、一致する文章があるか否かを判定する(ステップS1709)。一致する文章がある場合(ステップS1709:Yes)、文字列抽出部1203により、一致する文章を抽出する(ステップS1710)。
Then, the character
その後、文字列抽出部1203により、ステップS1704において変換された所見文書データDtの文字列と、ステップS1707において変換された説明文書データDvの文字列との一致する単語を抽出する(ステップS1711)。その際、ステップS1710を経由してステップS1711を行う場合、文字列抽出部1203により、文章として抽出されていない文字列から、一致する単語を抽出する。また、ステップS1709において、一致する文章がないと判定された場合(ステップS1709:No)、主治医用端末510は、ステップS1711へ移行する。
Thereafter, the character
その後、位置抽出部1205により、抽出した文字列に対する位置情報を抽出する(ステップS1712)。そして、出力部1204により、抽出した文字列と位置情報とを、画像データとともにプリンタやメモリへ出力し、すなわち、患者用読影画像P2を出力し(ステップS1713)、本フローチャートによる一連の処理を終了する。
Thereafter, the
以上説明した実施の形態2にかかる主治医用端末510によれば、一致文字列と説明音声データの再生時刻とを、読影画像P1とともに、患者用読影画像P2として出力することができる。この患者用読影画像P2と説明音声データとが提供された患者は、説明音声データのうち一致文字列に関する説明箇所を、手間をかけることなく容易に再生することができる。
According to the
これにより、被提供者は、医学用語に対する知識に乏しくても、患者用読影画像P2に含まれる情報を容易に読み取ることができるとともに、説明音声データのうち患者用読影画像P2に該当する箇所を、探す手間をかけることなく再生することができる。したがって、主治医用端末510によれば、被提供者による被写体の状態の理解の短縮化を図ることができる。
As a result, the recipient can easily read the information included in the patient interpretation image P2 even if he / she has little knowledge of medical terms, and the portion corresponding to the patient interpretation image P2 in the explanation voice data can be read. , It can be played without the hassle of searching. Therefore, according to the attending
また、実施の形態2において、説明文書データDvには、5秒毎の再生時刻に文字列が含まれることとしたが、これに限るものではない。例えば、説明文書データDvには、1秒毎の再生時刻に文字列が含まれることとしてもよいし、単語毎に個別の再生時刻が対応付けられるものとしてもよい。具体的には、説明文書データDvには、「CT撮影」の文字列に対応する再生時刻として「12分23秒」が含まれることとしてもよい。また、一つの文字列が複数回ある場合、複数の再生時刻が対応付けられることとしてもよい。 In the second embodiment, the description document data Dv includes a character string at the reproduction time every 5 seconds. However, the present invention is not limited to this. For example, the explanatory document data Dv may include a character string at the reproduction time per second, or may be associated with an individual reproduction time for each word. Specifically, the explanation document data Dv may include “12 minutes 23 seconds” as the reproduction time corresponding to the character string “CT imaging”. Moreover, when one character string exists a plurality of times, a plurality of reproduction times may be associated with each other.
なお、実施の形態で説明した情報提供方法は、予め用意されたプログラムをパーソナル・コンピュータやワークステーション等のコンピュータで実行することにより実現することができる。本情報提供プログラムは、ハードディスク、フレキシブルディスク、CD−ROM、MO、DVD等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行される。また本情報提供プログラムは、インターネット等のネットワークを介して配布してもよい。 The information providing method described in the embodiments can be realized by executing a program prepared in advance on a computer such as a personal computer or a workstation. The information providing program is recorded on a computer-readable recording medium such as a hard disk, a flexible disk, a CD-ROM, an MO, and a DVD, and is executed by being read from the recording medium by the computer. The information providing program may be distributed through a network such as the Internet.
上述した実施の形態に関し、さらに以下の付記を開示する。 The following additional notes are disclosed with respect to the embodiment described above.
(付記1)被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得処理と、
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、前記取得処理によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換処理と、
前記変換処理による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出処理と、
前記文字列抽出処理によって抽出された前記一致文字列を、前記画像とともに出力する出力処理と、
をコンピュータに実行させることを特徴とする情報提供プログラム。
(Supplementary Note 1) An acquisition process for acquiring an image of a subject, document data indicating the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
The character string included in the document data acquired by the acquisition process is converted into the other character string with reference to a conversion master in which the character string and another character string related to the character string are associated with each other. Conversion process,
A character string extraction process for comparing the document data after conversion by the conversion process with the explanatory document data and extracting a matching character string;
An output process for outputting the matched character string extracted by the character string extraction process together with the image;
An information providing program for causing a computer to execute.
(付記2)前記取得処理において、前記被写体の画像とともに、前記画像に含まれる前記被写体の部位の名称と、前記画像における前記部位の位置情報とが関連付けられた画像データを取得し、
前記コンピュータに、さらに、
前記文書データと前記画像データとに基づいて、前記一致文字列に対応する前記位置情報を抽出する位置抽出処理と、
前記一致文字列に対応する前記位置情報と前記一致文字列とを、前記画像とともに出力する出力処理と、
を実行させることを特徴とする付記1に記載の情報提供プログラム。
(Supplementary Note 2) In the acquisition process, together with the image of the subject, acquire the image data in which the name of the part of the subject included in the image and the position information of the part in the image are associated,
In addition to the computer,
A position extraction process for extracting the position information corresponding to the matching character string based on the document data and the image data;
An output process for outputting the position information corresponding to the matched character string and the matched character string together with the image;
The information providing program according to
(付記3)前記文字列抽出処理は、前記変換処理によって前記他の文字列に変換された他の文書データと、前記説明文書データとを比較し、前記一致文字列として文章を抽出し、
前記出力処理は、前記文字列抽出処理によって抽出された前記文章を、前記取得処理によって取得された前記画像とともに出力する
ことを特徴とする付記1または2に記載の情報提供プログラム。
(Additional remark 3) The said character string extraction process compares the said document data with the other document data converted into the said other character string by the said conversion process, and extracts a text as the said matching character string,
The information providing program according to
(付記4)前記出力処理は、前記文字列抽出処理によって抽出された前記一致文字列を前記画像とともに印刷する命令を、プリンタへ出力する
ことを特徴とする付記1〜3のいずれか一つに記載の情報提供プログラム。
(Supplementary note 4) In any one of
(付記5)前記出力処理は、前記文字列抽出処理によって抽出された文字列を前記画像とともに記憶媒体へ記憶する
ことを特徴とする付記1〜3のいずれか一つに記載の情報提供プログラム。
(Additional remark 5) The said output process memorize | stores the character string extracted by the said character string extraction process to a storage medium with the said image. The information provision program as described in any one of additional marks 1-3 characterized by the above-mentioned.
(付記6)被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得部と、
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、前記取得部によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換部と、
前記変換部による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出部と、
前記文字列抽出部によって抽出された前記一致文字列を、前記画像とともに出力する出力部と、
を備えることを特徴とする情報提供装置。
(Additional remark 6) The acquisition part which acquires the image of a to-be-photographed object, the document data which shows the finding content input with respect to the said image, and the explanatory document data by which the audio | voice data with respect to the said image were converted by voice recognition,
The character string included in the document data acquired by the acquisition unit is converted into the other character string with reference to a conversion master in which the character string and another character string related to the character string are associated with each other. A conversion unit;
A character string extraction unit that compares the document data converted by the conversion unit with the explanatory document data and extracts a matching character string;
An output unit that outputs the matching character string extracted by the character string extraction unit together with the image;
An information providing apparatus comprising:
(付記7)文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを記憶するコンピュータが、
被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得処理と、
前記変換マスタを参照して、前記取得処理によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換処理と、
前記変換処理による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出処理と、
前記文字列抽出処理によって抽出された前記一致文字列を、前記画像とともに出力する出力処理と、
を実行することを特徴とする情報提供方法。
(Additional remark 7) The computer which memorize | stores the conversion master with which the character string and the other character string relevant to this character string were linked | related,
An acquisition process for acquiring an image of a subject, document data indicating the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
A conversion process for referring to the conversion master and converting the character string included in the document data acquired by the acquisition process into the other character string;
A character string extraction process for comparing the document data after conversion by the conversion process with the explanatory document data and extracting a matching character string;
An output process for outputting the matched character string extracted by the character string extraction process together with the image;
To provide information.
510 主治医用端末
511 音声入力装置
512 変換マスタ
520 電子カルテサーバ
521 電子カルテDB
530 読影医用端末
540 読影医用システム
541 読影医用サーバ
542 撮影装置
543 読影医用システムDB
1201 取得部
1202 変換部
1203 文字列抽出部
1204 出力部
1205 位置抽出部
510
530 Interpretation
1201 Acquisition unit 1202
Claims (5)
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、前記取得処理によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換処理と、
前記変換処理による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出処理と、
前記文字列抽出処理によって抽出された前記一致文字列を、前記画像とともに出力する出力処理と、
をコンピュータに実行させることを特徴とする情報提供プログラム。 An acquisition process for acquiring an image of a subject, document data indicating the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
The character string included in the document data acquired by the acquisition process is converted into the other character string with reference to a conversion master in which the character string and another character string related to the character string are associated with each other. Conversion process,
A character string extraction process for comparing the document data after conversion by the conversion process with the explanatory document data and extracting a matching character string;
An output process for outputting the matched character string extracted by the character string extraction process together with the image;
An information providing program for causing a computer to execute.
前記コンピュータに、さらに、
前記文書データと前記画像データとに基づいて、前記一致文字列に対応する前記位置情報を抽出する位置抽出処理と、
前記一致文字列に対応する前記位置情報と前記一致文字列とを、前記画像とともに出力する出力処理と、
を実行させることを特徴とする請求項1に記載の情報提供プログラム。 In the acquisition process, together with the image of the subject, obtains image data in which the name of the part of the subject included in the image and the position information of the part in the image are associated with each other,
In addition to the computer,
A position extraction process for extracting the position information corresponding to the matching character string based on the document data and the image data;
An output process for outputting the position information corresponding to the matched character string and the matched character string together with the image;
The information providing program according to claim 1, wherein:
前記出力処理は、前記文字列抽出処理によって抽出された前記文章を、前記取得処理によって取得された前記画像とともに出力する
ことを特徴とする請求項1または2に記載の情報提供プログラム。 The character string extraction process compares the description document data with other document data converted into the other character string by the conversion process, and extracts a sentence as the matching character string,
The information providing program according to claim 1, wherein the output process outputs the sentence extracted by the character string extraction process together with the image acquired by the acquisition process.
文字列と該文字列に関連する他の文字列とが関連付けられた変換マスタを参照して、前記取得部によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換部と、
前記変換部による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出部と、
前記文字列抽出部によって抽出された前記一致文字列を、前記画像とともに出力する出力部と、
を備えることを特徴とする情報提供装置。 An acquisition unit that acquires an image of a subject, document data indicating the content of the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
The character string included in the document data acquired by the acquisition unit is converted into the other character string with reference to a conversion master in which the character string and another character string related to the character string are associated with each other. A conversion unit;
A character string extraction unit that compares the document data converted by the conversion unit with the explanatory document data and extracts a matching character string;
An output unit that outputs the matching character string extracted by the character string extraction unit together with the image;
An information providing apparatus comprising:
被写体の画像と、前記画像に対して入力された所見内容を示す文書データと、前記画像に対する音声データが音声認識により変換された説明文書データとを取得する取得処理と、
前記変換マスタを参照して、前記取得処理によって取得された前記文書データに含まれる該文字列を該他の文字列に変換する変換処理と、
前記変換処理による変換後の文書データと、前記説明文書データとを比較し、一致する一致文字列を抽出する文字列抽出処理と、
前記文字列抽出処理によって抽出された前記一致文字列を、前記画像とともに出力する出力処理と、
を実行することを特徴とする情報提供方法。 A computer that stores a conversion master in which a character string and another character string related to the character string are associated with each other.
An acquisition process for acquiring an image of a subject, document data indicating the findings input to the image, and explanatory document data obtained by converting voice data for the image by voice recognition;
A conversion process for referring to the conversion master and converting the character string included in the document data acquired by the acquisition process into the other character string;
A character string extraction process for comparing the document data after conversion by the conversion process with the explanatory document data and extracting a matching character string;
An output process for outputting the matched character string extracted by the character string extraction process together with the image;
To provide information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011059936A JP5644607B2 (en) | 2011-03-17 | 2011-03-17 | Information providing program, information providing apparatus, and information providing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011059936A JP5644607B2 (en) | 2011-03-17 | 2011-03-17 | Information providing program, information providing apparatus, and information providing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012194928A true JP2012194928A (en) | 2012-10-11 |
JP5644607B2 JP5644607B2 (en) | 2014-12-24 |
Family
ID=47086722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011059936A Active JP5644607B2 (en) | 2011-03-17 | 2011-03-17 | Information providing program, information providing apparatus, and information providing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5644607B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017051591A (en) * | 2015-09-09 | 2017-03-16 | キヤノン株式会社 | Information processing device and method thereof, information processing system, and computer program |
JP2017111756A (en) * | 2015-12-18 | 2017-06-22 | 日本電気株式会社 | Medical information processor, information processing method therefor, and program |
WO2020031739A1 (en) * | 2018-08-09 | 2020-02-13 | ソニー株式会社 | Information processing device and information processing method |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366648A (en) * | 2001-06-12 | 2002-12-20 | Hitachi Ltd | Receipt processing system |
JP2008136646A (en) * | 2006-12-01 | 2008-06-19 | Toshiba Corp | Medical supporting device |
JP2009110081A (en) * | 2007-10-26 | 2009-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Document relevancy analyzing device, method, and program |
JP2009288880A (en) * | 2008-05-27 | 2009-12-10 | Toshiba Corp | Health management support device and health examination system |
JP2010122883A (en) * | 2008-11-19 | 2010-06-03 | Fuji Xerox Co Ltd | Summary creation support device, summary creation support system and summary creation support program |
-
2011
- 2011-03-17 JP JP2011059936A patent/JP5644607B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002366648A (en) * | 2001-06-12 | 2002-12-20 | Hitachi Ltd | Receipt processing system |
JP2008136646A (en) * | 2006-12-01 | 2008-06-19 | Toshiba Corp | Medical supporting device |
JP2009110081A (en) * | 2007-10-26 | 2009-05-21 | Nippon Telegr & Teleph Corp <Ntt> | Document relevancy analyzing device, method, and program |
JP2009288880A (en) * | 2008-05-27 | 2009-12-10 | Toshiba Corp | Health management support device and health examination system |
JP2010122883A (en) * | 2008-11-19 | 2010-06-03 | Fuji Xerox Co Ltd | Summary creation support device, summary creation support system and summary creation support program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017051591A (en) * | 2015-09-09 | 2017-03-16 | キヤノン株式会社 | Information processing device and method thereof, information processing system, and computer program |
JP2017111756A (en) * | 2015-12-18 | 2017-06-22 | 日本電気株式会社 | Medical information processor, information processing method therefor, and program |
WO2020031739A1 (en) * | 2018-08-09 | 2020-02-13 | ソニー株式会社 | Information processing device and information processing method |
Also Published As
Publication number | Publication date |
---|---|
JP5644607B2 (en) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220199230A1 (en) | Context driven summary view of radiology findings | |
JP6749835B2 (en) | Context-sensitive medical data entry system | |
CN104350494B (en) | Method, device and system for providing assistance with reporting | |
US10762168B2 (en) | Report viewer using radiological descriptors | |
RU2711305C2 (en) | Binding report/image | |
JP5178119B2 (en) | Image processing apparatus and image processing method | |
US20110075901A1 (en) | Medical image processing apparatus and method and computer-readable recording medium | |
US20070198250A1 (en) | Information retrieval and reporting method system | |
CN102612696A (en) | Medical information system with report validator and report augmenter | |
JP7258772B2 (en) | holistic patient radiology viewer | |
JP2018509689A (en) | Context generation of report content for radiation reports | |
JP5098314B2 (en) | Document creation support system, document creation support method, and computer program | |
JP2014016990A (en) | Device and method for generating survey report | |
US20200243177A1 (en) | Medical report generating device and medical report generating method | |
US10235360B2 (en) | Generation of pictorial reporting diagrams of lesions in anatomical structures | |
US20120316874A1 (en) | Radiology verification system and method | |
CN113656706A (en) | Information pushing method and device based on multi-mode deep learning model | |
JP5644607B2 (en) | Information providing program, information providing apparatus, and information providing method | |
JP2024009342A (en) | Document preparation supporting device, method, and program | |
JP5501491B2 (en) | Diagnosis support apparatus and control method | |
JP2007257110A (en) | Information processing system, server apparatus and program | |
JP2004102509A (en) | Medical document preparation support device and its program | |
CN110709888B (en) | Information processing apparatus and method for controlling the same | |
Kalokyri et al. | MI-Common Data Model: Extending Observational Medical Outcomes Partnership-Common Data Model (OMOP-CDM) for Registering Medical Imaging Metadata and Subsequent Curation Processes | |
TW202145248A (en) | Medical image analyzing and processing system effectively improving operation efficiency of browsing and reducing error rate possibly caused from manual work |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20131129 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140715 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140916 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141007 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141020 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5644607 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |