JP2004102509A - Medical document preparation support device and its program - Google Patents

Medical document preparation support device and its program Download PDF

Info

Publication number
JP2004102509A
JP2004102509A JP2002261474A JP2002261474A JP2004102509A JP 2004102509 A JP2004102509 A JP 2004102509A JP 2002261474 A JP2002261474 A JP 2002261474A JP 2002261474 A JP2002261474 A JP 2002261474A JP 2004102509 A JP2004102509 A JP 2004102509A
Authority
JP
Japan
Prior art keywords
information
image
medical
medical document
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002261474A
Other languages
Japanese (ja)
Inventor
Kazuhiko Matsumoto
松本 和彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ziosoft Inc
Original Assignee
Ziosoft Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ziosoft Inc filed Critical Ziosoft Inc
Priority to JP2002261474A priority Critical patent/JP2004102509A/en
Publication of JP2004102509A publication Critical patent/JP2004102509A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Document Processing Apparatus (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a medical document preparation supporting device for improving the preparing efficiency of a medical document. <P>SOLUTION: A control terminal 200 adds header information indicating the imaging position or classification of an imaging device 100 to an original image photographed by the imaging device. Original image information added with the header information is processed by an image processor 300 to generate a diagnostic image, and the header information indicating an image processing mode or the like is added. At the time of preparing a diagnostic reading report by the image processor 300, a diagnostic image to be fetched is designated. The image processor 300 specifies the imaging device and the imaging site by referring to the header information of the designated processing image, and designates a corresponding dictionary file. When a person in charge voice-inputs his opinion to the diagnostic reading report, voice recognition is executed by using the designated dictionary file. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、医療書類作成支援装置、および、プログラムに関し、特に、医療書類の作成効率向上に資する医療書類作成支援装置、および、プログラムに関する。
【0002】
【従来の技術】
医療現場では種々の書類が作成される。近年の情報処理機器の普及に伴い、これらの書類は電子化され、ディジタルデータ(電子書類)として保存されるようになりつつある。ディジタルデータの作成にあたっては、種々の入力作業が伴う。従来、キーボードなどの入力装置による入力が一般的であったが、音声認識技術の発達により、音声入力方式が普及しつつあり、入力作業の効率化に寄与している。
【0003】
ここで、日本語入力においては、ソフトウェア処理による、いわゆる「かな漢字変換」が行われることが一般的である。この場合、通常、辞書ファイルを参照して変換が行われる。辞書ファイルには、読みと変換語との対応関係や文法的規則などが記述されている。このような辞書ファイルとして、一般的に用いられる語を記録した辞書の他に、専門分野特有の用語等に対応した専門辞書が必要に応じて用意されており、特殊な用語や言い回しでもスムースに変換することができる。
【0004】
上述の医療分野においても専門辞書が従来から存在するが、医療分野は多岐にわたり、かつ、特殊な用語や語法が多いため、辞書ファイルの情報量がきわめて膨大となる。一方で、診察科目や診察対象の身体部位、あるいは、使用する医療機器の種類などによって、用いられる専門用語がある程度限定されるという一面もある。
【0005】
したがって、医療用語のすべてを網羅した単一の辞書ファイルを用いた場合、膨大な情報量の中から変換候補を選出しなければならないため、処理時間が長大になることがある。あるいは、提示される変換候補が多くなることがあり、ユーザがその中から該当する語を峻別しなければならない。また音声入力方式の場合、誤認識率も高くなってしまう。したがって、単一の医療専門辞書を用いることは、効率的な変換処理を阻害してしまう虞がある。
【0006】
一方、辞書ファイルを細分化させた場合であっても、対象身体部位、使用した医療機器、診察科目、担当医師、対象患者の属性、対象疾病、状況、処置内容、投与した薬剤、などといった流動的な諸条件に応じて最適な辞書ファイルが異なってくるので、書類を作成(更新)する度に最適な辞書ファイルを選択しなければならない。したがって、煩雑な作業が伴うことになり、作業効率を低下させてしまう。
【0007】
【発明が解決しようとする課題】
本発明は、上記実状に鑑みてなされたもので、医療書類の作成効率を向上させる医療書類作成支援装置等を提供することを目的とする。
【0008】
【課題を解決するための手段】
上記目的を達成するため、本発明の第1の観点にかかる医療書類作成支援装置は、
少なくとも医療用語に関する言語情報を分類して格納する言語情報格納手段と、
所定の医療書類を作成する医療書類作成手段と、
前記医療書類作成手段が作成する医療書類に関連する事項を判別する関連事項判別手段と、
前記関連事項判別手段の判別結果に基づいて、前記言語情報格納手段に格納されている言語情報を選択する言語情報選択手段と、
前記医療書類作成手段が作成する医療書類に記録される情報であって、少なくとも所定の自然言語で構成される情報を入力する入力手段と、
を備えた医療書類作成支援装置であって、
前記入力手段は、前記言語情報選択手段が選択した言語情報を用いて入力を行う、
ことを特徴とする。
【0009】
上記医療書類作成支援装置において、
前記医療書類作成手段は、作成する医療書類に含ませる所定の画像情報と、該画像情報に付随する付加情報と、を取り込む画像情報取込手段をさらに備えていることが望ましく、この場合、
前記関連事項判別手段は、前記画像情報取込手段が取り込んだ付加情報に基づいて、取り込んだ画像情報の属性を判別する。
【0010】
上記医療書類作成支援装置において、
前記入力手段は、
音声情報を入力する音声入力手段と、
前記音声入力手段に入力された音声情報を音声認識する音声認識手段と、をさらに備えていることが望ましく、この場合、
前記音声認識手段は、前記言語情報選択手段が選択した言語情報を用いて音声認識を行う。
【0011】
ここで用いられる前記言語情報は、前記入力手段が自然言語を入力する際に参照する辞書ファイルとすることができ、この場合、
前記言語情報格納手段は、前記辞書ファイルを、少なくとも所定の身体部位毎に分類して格納し、
前記関連事項判別手段は、前記画像情報取込手段が取り込んだ付加情報に基づいて、取り込んだ画像情報に示される身体部位を判別し、
前記言語情報選択手段は、前記関連事項判別手段が判別した身体部位に対応する辞書ファイルを選択することができる。
【0012】
また、前記言語情報格納手段は、前記辞書ファイルを、少なくとも所定の医療装置種別毎に分類して格納してもよく、この場合、
前記関連事項判別手段は、前記画像情報取込手段が取り込んだ付加情報に基づいて、取り込んだ画像情報を生成した医療装置の種別を判別し、
前記言語情報選択手段は、前記関連事項判別手段が判別した医療装置の種別に対応する辞書ファイルを選択することができる。
【0013】
前記医療書類は、読影報告書とすることができ、この場合、
前記画像情報取込手段は、読影報告書に含ませる診断画像を示す画像情報と、該画像情報に付随する付加情報と、を取り込み、
前記入力手段は、当該診断画像に対する所見等を入力する。
【0014】
上記のような構成によれば、医療情報を作成する際の入力効率を向上させることができ、医療書類の作成効率を向上させることができる。
【0015】
上記目的を達成するため、本発明の第2の観点にかかるプログラムは、
コンピュータを、上記医療書類作成支援装置として機能させることを特徴とする。
【0016】
【発明の実施の形態】
以下、本発明にかかる実施の形態を図面を参照して説明する。本実施の形態では、所定の画像診断装置を備えた医療施設(以下、「医療施設H」とする)において、画像診断の所見を記録する「読影報告書」を作成する場合を例に説明する。
【0017】
図1は、本発明の実施の形態にかかる医療書類作成システムの構成を示す図である。図示するように、本実施の形態にかかる医療書類作成システム1は、通信ネットワーク10と、撮像装置100と、制御端末200と、画像処理装置300と、から構成される。
【0018】
通信ネットワーク10は、医療施設H内で、制御端末200と画像処理装置300とを相互接続して情報伝達を媒介する通信ネットワークであり、例えば、DICOM(Digital Imaging and COmmunications in Medicine)などの所定の通信プロトコルに基づいた情報伝達を媒介する。
【0019】
次に撮像装置100について説明する。撮像装置100は、医療施設H内で画像診断等に用いられる撮像装置であり、例えば、以下のような装置である。
(1)MRI(磁気共鳴画像装置)
(2)CTスキャナ(コンピュータ断層撮影装置)
(3)PET(ポジトロン断層撮影装置)
【0020】
本実施の形態では、撮像装置100は、後述する制御端末200により制御され、患者の所定部位の画像データを取得するものである。撮像装置100と制御端末200とは、例えば、DICOM(Digital Imaging and COmmunications in Medicine)などの所定の医用画像通信規格に基づいて接続されているものとする。ここで、上記DICOM規格では、撮像した画像を示す画像情報に、任意の情報をヘッダ情報として埋め込むことができるものである。したがって、本実施の形態で採用できる画像規格は任意であるが、少なくとも、任意の情報を付加情報として画像情報に含めることができるものとする。
【0021】
次に制御端末200について説明する。制御端末200は、所定の情報処理装置から構成され、接続されている撮像装置100の動作を制御するとともに、撮像装置100が撮像した画像データを取得する。図2を参照して制御端末200の構成を説明する。
【0022】
図2は、制御端末200の構成を示すブロック図である。図示するように、制御端末200は、制御部210と、通信制御部220と、入力制御部230と、出力制御部240と、プログラム格納部250と、元画像DB260と、から構成される。
【0023】
制御部210は、例えば、CPU(Central Processing Unit:中央演算処理装置)やワークエリアとなる所定の記憶装置(RAM(Random Access Memory)など)から構成され、制御端末200の各部を制御するとともに、プログラム格納部250に格納されている所定の動作プログラムに基づいて後述する各処理を実行する。
【0024】
通信制御部220は、例えば、所定のNIC(Network Interface Card)などの所定の通信装置から構成され、制御端末200と通信ネットワーク10とを接続し、画像処理装置300との通信を行う。
【0025】
入力制御部230は、例えば、キーボードやポインティング・デバイスなどの所定の入力装置23を接続し、入力装置23から入力された、制御部210への指示や画像情報に付される情報などを受け付けて制御部210に伝達する。
【0026】
出力制御部240は、例えば、ディスプレイ装置やプリンタなどの所定の出力装置24を接続し、制御部210の処理結果などを必要に応じて出力装置24に出力する。
【0027】
プログラム格納部250は、例えば、ハードディスク装置やROM(Read Only Memory)などの所定の記憶装置から構成され、制御部210が実行する種々の動作プログラムが格納されている。プログラム格納部250に格納される動作プログラムは、制御端末200の基本動作を司る任意のOS(Operating System:基本ソフトウェア)の他に、OSと協働して後述する各処理を実現するための以下のような動作プログラムが格納されているものとする。
(1)「制御プログラム」:撮像装置100の制御を行うプログラム
(2)「DB管理プログラム」:元画像DB260の入出力を管理するプログラム
(3)「通信プログラム」:通信制御部220を制御して、通信ネットワーク10を介した通信を行うプログラム
【0028】
元画像DB260は、例えば、ハードディスク装置などの書き換え可能な記憶装置などから構成され、撮像装置100が撮像した画像を構成する画素を示す「元画像情報」と、これに付随する所定の「ヘッダ情報」から構成される「元画像ファイル」を蓄積する。図3に元画像DB260に記録される情報の例を示す。図示するように、元画像DB260には、各元画像ファイルに割り当てられた画像ID毎にレコードが作成され、各レコードに、撮像された画像を示す元画像情報と、当該元画像ファイルのヘッダ情報とが記録される。図示するように、ヘッダ情報として、例えば、以下のような情報が記録される。
(1)「患者情報」:患者の属性(氏名、性別、生年月日(年齢)など)を示す(2)「担当者情報」:撮像担当者を特定する情報
(3)「装置情報」:使用した撮像装置100を特定する情報(種別や機種名など)
(4)「相対座標情報」:撮像箇所の座標を示す情報
(5)「関連情報」:撮像時の処置(例えば、造影剤使用の有無など)や各種パラメータなどを示す情報
【0029】
次に、画像処理装置300について説明する。画像処理装置300は、例えば、ワークステーションなどの所定の情報処理装置から構成され、制御端末200から画像(以下、「元画像」とする)を取得して、所定の画像処理を施すとともに、処理された画像(以下、「処理画像」とする)を用いた医療書類を作成する。図4を参照して画像処理装置300の構成を説明する。
【0030】
図4は、画像処理装置300の構成を示すブロック図である。図示するように、画像処理装置300は、制御部310と、通信制御部320と、入力制御部330と、出力制御部340と、プログラム格納部350と、データベース部360と、から構成される。
【0031】
制御部310は、例えば、CPU(Central Processing Unit:中央演算処理装置)やワークエリアとなる所定の記憶装置(RAM(Random Access Memory)など)から構成され、画像処理装置300の各部を制御するとともに、プログラム格納部350に格納されている所定の動作プログラムに基づいて後述する各処理を実行する。
【0032】
通信制御部320は、例えば、所定のNIC(Network Interface Card)などの所定の通信装置から構成され、画像処理装置300と通信ネットワーク10とを接続し、制御端末200との通信を行う。
【0033】
入力制御部330は、例えば、キーボードやポインティング・デバイス、マイクロフォンなどの所定の入力装置33を接続し、入力装置33から入力された、制御部310への指示や各データベースに記録される情報などを受け付けて制御部310に伝達する。
【0034】
出力制御部340は、例えば、ディスプレイ装置やプリンタなどの所定の出力装置34を接続し、制御部310の処理結果などを必要に応じて出力装置34に出力する。
【0035】
プログラム格納部350は、例えば、ハードディスク装置やROM(Read Only Memory)などの所定の記憶装置から構成され、制御部310が実行する種々の動作プログラムが格納されている。プログラム格納部350に格納される動作プログラムは、画像処理装置300の基本動作を司る任意のOS(Operating System:基本ソフトウェア)の他に、OSと協働して後述する各処理を実現するための以下のような動作プログラムが格納されているものとする。
(1)「通信プログラム」:通信制御部320を制御して、通信ネットワーク10を介した通信を行うプログラム
(2)「画像処理プログラム」:取得した元画像に画像処理を施すプログラム
(3)「DB制御プログラム」:データベース部360を制御するプログラム
(4)「書類作成プログラム」:医療書類の作成処理を行うプログラム
(5)「辞書選択プログラム」:入力時の辞書ファイルを選択するプログラム
(6)「音声認識プログラム」:選択された辞書ファイルを用いて、音声認識を行うプログラム
(7)「IM(Input method)プログラム」:音声認識結果に基づいて、入力音声の変換を行うプログラム
【0036】
データベース部360は、例えば、ハードディスク装置などの書き換え可能な記憶装置などから構成され、画像処理および医療書類作成に必要となる各種情報を蓄積する。データベース部360の構成を図5に模式的に示す。図示するように、データベース部360は、「処理画像DB360」、「書類テンプレートDB360」、「辞書DB360」、などのデータベースから構成されている。各データベースの詳細を、以下図面を参照して説明する。
【0037】
「処理画像DB360」は、画像処理装置300により画像処理が施された画像を構成する画素を示す「処理画像情報」と、これに付随する所定の「ヘッダ情報」から構成される「処理画像ファイル」を蓄積する。処理画像DB360に記録される情報の例を図6に示す。図示するように、処理画像DB360には、各処理画像ファイルに割り当てられた画像ID毎にレコードが作成され、各レコードには、処理画像を示す処理画像情報とともに、当該処理画像ファイルのヘッダ情報が記録される。ここで記録されるヘッダ情報は、元画像ファイルに付されたヘッダ情報が引き継がれるとともに、画像処理装置300で行われた画像処理動作(処理モードの変更遷移など)の履歴を示す情報(以下、「処理履歴情報」とする)が加えられたものである。
【0038】
「書類テンプレートDB360」は、読影報告書をはじめとする各種医療書類を作成する際に用いられるテンプレートを格納する。書類テンプレートDB360に記録される情報の例を図7に示す。図示するように、書類テンプレートDB360には、各テンプレートに割り当てられたテンプレートID毎にレコードが作成され、各レコードには、テンプレート種別、最終更新日時、などのインデックス情報と、当該テンプレートファイルが記録される。テンプレートファイルには、当該書類を構成する各項目の入力フィールドが予め用意されているものとする。
【0039】
「辞書DB360」は、上記音声認識プログラムが参照する辞書ファイルを格納する。ここで、各辞書ファイルは、単語とその読みとの対応関係を示した「辞書」部と、文法的規則を示した「言語モデル」部から構成される。また、本実施の形態では、音声認識技術を用いた音声入力を行うため、入力された音声データがどのような音素で構成されているかを推定するための確率統計モデルを示す「音響モデル」ファイルが格納されている。辞書DB360のデータ構成の例を図8に示す。図示するように、辞書DB360には、一般的な語についての辞書である「基本辞書ファイル」の他に、医療用語に関する複数の辞書ファイルから構成された「専門辞書ファイル群」が格納される。専門辞書ファイル群を構成する複数の辞書ファイルは、例えば、以下のような項目に分類されている。
(1)「身体部位」:人体の所定部位(すなわち、診断や処置の対象となる身体部位)のそれぞれに関連する医療用語に対応した辞書ファイル群
(2)「医療機器」:診断や処置に用いる医療機器のそれぞれに関連する医療用語に対応する辞書ファイル群
【0040】
以下、本実施の形態における各処理を図面を参照して説明する。
【0041】
(撮像処理)
まず、撮像装置100と制御端末200による「撮像処理」を図9に示すフローチャートを参照して説明する。
【0042】
撮像担当者(例えば、放射線技師など)による入力装置23の操作に応じて、制御端末200の制御部210が、プログラム格納部250に格納されている「制御プログラム」を実行する。制御部210は、入力装置23からの入力動作に応じて、撮像装置100の撮像動作を指示する制御信号を生成し、撮像装置100に送信する(ステップS101)
【0043】
撮像装置100は、制御端末200からの制御信号に基づいた撮像動作を行い(ステップS102)、取得した画像情報とともに、ヘッダ情報を構成する情報の一部、すなわち、「撮像部位情報」および「装置情報」を制御端末200に送信する(ステップS103)。
【0044】
制御端末200は、撮像装置100から受信した情報を元画像DB260に格納する(ステップS104)。より詳細には、制御部210が「DB制御プログラム」を実行し、元画像DB260に元画像ファイルのレコードを新規に作成し、当該レコードに撮像された画像を構成する元画像情報を格納する。また、撮像装置100が付加した「撮像部位情報」と「装置情報」を、ヘッダ情報として当該元画像ファイルに記録する。
【0045】
担当者は、入力装置23を操作し、その他のヘッダ情報、すなわち、「患者情報」、「担当者情報」、「関連情報」などを入力する。制御部210は、入力された情報を当該画像ファイルのヘッダ情報に追加記録し(ステップS105)、処理を終了する。
【0046】
(診断画像作成処理)
次に、画像処理装置300による「診断画像作成処理」を図10に示すフローチャートを参照して説明する。ここでは、制御端末200の元画像DB260に格納されている元画像情報に、所定の画像処理を施すことで、診断に用いられる画像を作成する。例えば、元画像が3次元画像データで構成されている場合、2次元画像情報に変換するなどして、診断用の画像(例えば、患部を明瞭に識別可能に表示する画像など)を作成する。
【0047】
まず、担当者による入力装置33の操作に応じて、制御部310が、プログラム格納部350に格納されている「画像処理プログラム」を実行することで本処理が開始される。画像処理プログラムの動作により、出力装置34(この場合、表示装置)に、処理対象の画像を選択させる画面が表示される。ここでは、画像処理装置300と制御端末200それぞれの通信プログラムの協働により、制御端末200の元画像DB260に格納されている元画像ファイルの一覧が表示される。
【0048】
担当者は、表示された一覧のなかから、処理対象となる元画像ファイルを指定する(ステップS201)。対象画像ファイルが選択されると、通信制御部320が、指定された元画像ファイルを制御端末200の元画像DB260から取得する(ステップS202)。
【0049】
制御端末200の元画像DB260から元画像ファイルを取得すると、制御部310は、プログラム格納部350に格納されている「DB制御プログラム」を実行し、処理後の画像ファイル(処理画像ファイル)を格納するためのレコードを処理画像DB360に新規作成する。制御部310は、取得した元画像ファイルに含まれている「ヘッダ情報」を作成したレコードに格納する(ステップS203)。また、制御部310は、取得した元画像ファイルに含まれる元画像情報をワークエリアに保持する。
【0050】
処理画像DB360にヘッダ情報が格納されると、制御部310は、実施する画像処理を選択するための画面(以下、「処理メニュー画面」とする)を出力装置34に表示する。処理メニュー画面には、画像処理装置300が実施可能な種々の「画像処理モード」(例えば、「脳血流解析」や「心臓解析」など)が選択可能に表示される。担当者は入力装置33を操作し、実施する画像処理モードを指定する。制御部310は、選択された画像処理モードを示す情報を、ステップS203で作成したレコードの「処理履歴情報」欄に記録する(ステップS204)。
【0051】
制御部310は、ワークエリアに保持されている元画像情報に、指定された画像処理モードに対応した画像処理を行う(ステップS205)。
【0052】
ここで、症例などによっては、複数の画像処理モードを遷移させながら画像処理を行うことがある。このような画像処理モードの変更があった場合(ステップS206:Yes)、制御部310は、実施された画像処理モードの遷移履歴を、当該処理画像ファイルのヘッダ情報として「処理履歴情報」に記録する(ステップS207)。
【0053】
画像処理が終了すると(ステップS208:Yes)、制御部310は、画像処理が施された画像を構成する処理画像情報を、ステップS204で作成したレコードに格納し(ステップS209)、処理を終了する。
【0054】
(読影報告書作成処理)
次に、画像処理装置300による「読影報告書作成処理」を図11に示すフローチャートを参照して説明する。ここで、「読影報告書」とは、画像診断において作成される医療書類であって、診断画像と所見とが記録されたものである。
【0055】
担当者による入力装置33の操作に応じて、制御部310が、プログラム格納部350に格納されている「書類作成プログラム」を実行することで本処理が開始される。
【0056】
書類作成プログラムの動作に基づいて、制御部310は、図12に示すような「テンプレート選択画面」を出力装置34に表示する。ここでは、書類テンプレートDB360に格納されているテンプレートが選択可能に表示される。担当者は、入力装置33を操作し、所望のテンプレート(ここでは、「読影報告書」)を選択する。
【0057】
制御部310は、DB制御プログラムを実行し、書類テンプレートDB360から、選択されたテンプレートを取得する(ステップS301)。取得されたテンプレートはワークエリアに保持されるとともに、図13に示すように出力装置34に表示される。
【0058】
図示するように、読影報告書のテンプレートには、「画像挿入枠」が配置されており、ここに対象となる「処理画像」が挿入される。担当者は、入力装置33を操作して、挿入する処理画像を指定する。ここでは、所定の操作により、処理画像DB360に格納されている処理画像ファイルの一覧が表示され、その中から対象となる処理画像ファイルを選択する。
【0059】
対象となる処理画像ファイルが選択されると、制御部310は、DB制御プログラムを実行して、処理画像DB360から指定された処理画像ファイルを取得し(ステップS302)、ワークエリアに保持する。
【0060】
次に制御部310は、プログラム格納部350に格納されている「辞書選択プログラム」を起動し、当該読影報告書への所見入力時に用いられる辞書ファイルを選択する「辞書選択処理」(ステップS400)を実行する。この「辞書選択処理」を図14に示すフローチャートを参照して説明する。
【0061】
制御部310は、ステップS302で取得した処理画像ファイルに記録されている「ヘッダ情報」を取得する(ステップS401)。
【0062】
制御部310は、取得したヘッダ情報のうち、「相対座標情報」を参照し、対象としている患者の身体部位を推定する(ステップS402)。ここでは、大まかな身体部位(例えば、「頭部」など)が推定される。
【0063】
次に制御部310は、「装置情報」を参照して、撮像に使用された撮像装置の種別を特定する(ステップS403)。
【0064】
次に制御部310は、「処理履歴情報」を参照し、記録されている画像処理モードと、ステップS402で推定した身体部位とに基づいて、診断対象部位を特定する(ステップS404)。ここでは、対象部位の詳細を特定する。例えば、ステップS402で「頭部」と推定されている場合に、「画像処理モード」が「脳血流解析」であれば、診断対象部位が「脳」であると特定する。
【0065】
制御部310は、辞書DB360にアクセスし、ステップS403で特定した「撮像装置」と、ステップS404で特定した「対象部位」とに対応した辞書ファイルを指定する(ステップS405)。制御部310は、指定した辞書ファイルにフラグ情報を付加(フラグON)し(ステップS406)、「読影報告書作成処理」(図11)に戻る。ここで付加されるフラグ情報は、後述する入力処理において、音声認識プログラム(あるいは、IMプログラム)が使用する辞書ファイルであることを示すものである。
【0066】
上記「辞書選択処理」で辞書が選択されると、取得したヘッダ情報および特定した対象部位を示す情報をテンプレートの所定位置に挿入するとともに、処理画像を画像挿入枠内に挿入する(ステップS303)。各情報が挿入された「読影報告書」の例を図15に示す。
【0067】
次に制御部310は、各情報が挿入された読影報告書に担当者の所見を入力する「入力処理」(ステップS500)を実行する。この「入力処理」を図16に示すフローチャートを参照して説明する。なお、本実施の形態では、入力装置33としてマイクロフォンなどの音声入力装置を用い、担当者の発話に基づいて「所見」を音声入力するものとする。
【0068】
(入力処理)
図14に示すように、「読影報告書」には、担当者の所見を入力するエリア(以下「所見入力エリア」とする)が用意されている。担当者は、例えば、ポインティング・デバイスなどの入力装置33を操作し、この所見入力エリアを選択する。所見入力エリアが選択されたことに応じて、制御部310が、プログラム格納部350に格納されているIMプログラムを起動することで、本処理が開始される。
【0069】
所見の音声入力の準備ができると、担当者は、ポインティング・デバイスなどの入力装置33を操作し、所見入力エリア近傍に配置されている「入力開始」ボタンを選択する。制御部310は、「入力開始」ボタンの選択を検知すると(ステップS501:Yes)、プログラム格納部350に格納されている「音声認識プログラム」を起動する(ステップS502)。
【0070】
担当者は、例えば、キーボード(入力装置33)の所定のキーを押下(長押し)し、当該キーを押下している間にマイクロフォンなどの入力装置33に向かって発話することで、音声信号が入力制御部330を介して制御部310に入力される。ここでは、制御部310が、当該キーの押下中のみ音声入力を許可することで、不要な空白や発話音声以外の音声信号の混入を防止する。制御部310は、実行している音声認識プログラムとIMプログラムの動作により、入力された音声信号を順次音声認識する(ステップS503)。ここでは、制御部310が、随時辞書DB360にアクセスし、フラグONとなっている辞書ファイルを参照しながら音声認識を行う。より詳細には、入力された音声の特徴量を抽出し、抽出された特徴量と、「音響モデル」、「辞書」、「言語モデル」とのマッチングを行うことで、各音素に対応する単語に変換していく。ここで、当該読影報告書に記入(入力)される所見には、診断対象部位や診断装置(撮像装置)に関する語が多く含まれるが、前述の「辞書選択処理」により、これらに関する辞書ファイルが選択されているので、高い認識精度で変換される。
【0071】
所見の音声入力が終了すると、担当者は、所見入力エリア近傍に配置されている「入力終了」ボタンを選択する。これに応じて(ステップS504:Yes)、制御部310は、音声認識プログラムによる音声認識動作を停止させ(ステップS505)、入力処理を終了して、「読影報告書作成処理」(図11)に戻る。
【0072】
所見が入力された読影報告書のファイルは、ディスプレイやプリンタなどの出力装置34に出力されたり、所定の保存場所(データベースなど)に保存されるなどし(ステップS304)、処理を終了する。
【0073】
以上説明したように、本発明の実施の形態にかかる医療書類作成システム1によれば、読影報告書に取り込まれる画像ファイルのヘッダ情報に基づいて、細分化された専門辞書ファイルから必要十分な辞書ファイルを選択して音声認識を行うので、高い認識精度で、かつ、高速に音声認識を行うことができる。また、辞書ファイルの指定は自動的に行われるので、ユーザによる辞書選択などの煩雑な作業を必要としない。
【0074】
上記実施の形態では、専門辞書ファイルを「身体部位」と「医療装置」とで分類したが、分類項目や分類数は上記のものに限られず任意である。例えば、「疾病名」や「薬剤名」、「診察科目」などの分類を加えてもよい。
【0075】
上記実施の形態では、所見を音声入力する場合を例に説明したが、本発明を適用できる入力方法はこれに限られない。例えば、キーボードなどにより所見を入力する場合にも本発明を適用することができる。この場合、IMプログラムによる「かな漢字変換」の際に指定された辞書ファイルを用いればよい。この場合であっても、必要十分な辞書ファイルのみを用いて変換するので、変換候補数が削減され入力効率を向上させることができる。
【0076】
また、辞書ファイルの指定に用いられる情報は、上記画像ファイルのヘッダ情報に限られず、例えば、担当者などが入力した情報を辞書ファイルの指定に用いてもよい。さらに、辞書ファイルの更新(いわゆる、「辞書登録」)を随時行うようにしてもよい。この場合、指定されている辞書ファイルに対して辞書登録を行うこととすれば、効率的に辞書登録を行うことができる。
【0077】
上記実施の形態では、辞書ファイルを指定する場合を例に説明したが、その他の言語情報を指定するように構成してもよい。例えば、用意されている定型文を選択して組み合わせることで所見を入力するようなテンプレートの場合、これらの定型文のセットを上記辞書ファイルと同様に分類して用意し、上記実施例と同様の手法で定型文のセットを指定するようにしてもよい。
【0078】
上記実施の形態では、「読影報告書」を作成する場合を例に説明したが、任意の医療書類(例えば、「カルテ」や「診断書」など)の作成にも本発明を適用することができる。
【0079】
上記実施の形態では、画像処理装置300上で読影報告書を作成する場合を例示したが、画像処理装置300が処理した画像を用いて、他の装置(端末)上で医療書類の作成が行われてもよい。この場合、例えば、医師などが診察室で使用する端末上で作成することができる。ここで用いられる端末(医師用端末)は、画像処理装置300から画像処理に関する構成を省いた簡易なものでよい。そして、上記「撮像処理」および「診断画像作成処理」を経ることで、診断用画像が画像処理装置300の処理画像DB360に格納される。医師用端末は、上記「読影報告書作成処理」と同様の処理を実行することにより、(1)テンプレートを表示し、(2)処理画像を画像処理装置300から取得し、(3)取得した処理画像のヘッダ情報に基づいて辞書選択し、(4)選択された辞書を用いて所見を入力する。このような構成によれば、読影報告書の所見を、診察室などにいる担当医が記入する場合であっても、本発明を適用して効率的に医療書類を作成することができる。
【0080】
また、上記実施の形態では、医療施設H内の各装置間を通信ネットワーク10で接続した場合を例に説明したが、例えば、複数の医療施設間をWAN(Wide Area Network:広域情報通信網)で接続した環境において本発明を適用してもよい。
【0081】
上記実施の形態における制御端末200および画像処理装置300は、専用装置で構成可能であることはもとより、例えば、パーソナルコンピュータなどの汎用コンピュータ装置などで構成することもできる。この場合、上記各処理を実現するためのプログラムの一部または全部を汎用コンピュータ装置にインストールし、OSなどの制御下で実行することにより、制御端末200および画像処理装置300を構成することができる。この場合のプログラム配布形態は任意である。例えば、CD−ROMなどの記録媒体に格納して配布したり、搬送波に重畳させることで通信媒体(インターネットなど)を介して配布することができる。
【0082】
【発明の効果】
以上説明したように、本発明によれば、医療書類の作成効率を向上させることができる。
【図面の簡単な説明】
【図1】本発明の実施の形態にかかる「医療書類作成システム」の構成を示す図である。
【図2】図1に示す「制御端末」の構成を示すブロック図である。
【図3】図2に示す「元画像DB」に記録される情報の例を示す図である。
【図4】図1に示す「画像処理装置」の構成を示すブロック図である。
【図5】図4に示す「データベース部」の構成を模式的に示す図である。
【図6】図5に示す「処理画像DB」に記録される情報の例を示す図である。
【図7】図5に示す「書類テンプレートDB」に記録される情報の例を示す図である。
【図8】図5に示す「辞書DB」に記録される情報の例を示す図である。
【図9】本発明の実施の形態にかかる「撮像処理」を説明するためのフローチャートである。
【図10】本発明の実施の形態にかかる「診断画像作成処理」を説明するためのフローチャートである。
【図11】本発明の実施の形態にかかる「読影報告書作成処理」を説明するためのフローチャートである。
【図12】図11に示す「読影報告書作成処理」で表示される「テンプレート選択画面」の表示例を示す図である。
【図13】図11に示す「読影報告書作成処理」で表示される「読影報告書」(テンプレート)の表示例を示す図である。
【図14】図11に示す「読影報告書作成処理」で実行される「辞書選択処理」を説明するためのフローチャートである。
【図15】図11に示す「読影報告書作成処理」で表示される「読影報告書」の表示例を示す図である。
【図16】図11に示す「読影報告書作成処理」で実行される「入力処理」を説明するためのフローチャートである。
【符号の説明】
1 医療書類作成システム
10 通信ネットワーク
100 撮像装置
200 制御端末
300 画像処理装置
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a medical document creation support device and a program, and more particularly, to a medical document creation support device and a program that contribute to improving the efficiency of creating a medical document.
[0002]
[Prior art]
Various documents are created at the medical site. With the spread of information processing equipment in recent years, these documents have been digitized and stored as digital data (electronic documents). Creation of digital data involves various input operations. Conventionally, input using an input device such as a keyboard has been general. However, with the development of voice recognition technology, a voice input method is becoming widespread, which contributes to an efficient input operation.
[0003]
Here, in Japanese input, so-called “kana-kanji conversion” is generally performed by software processing. In this case, the conversion is usually performed with reference to the dictionary file. The dictionary file describes correspondences between readings and converted words, grammatical rules, and the like. As such a dictionary file, in addition to a dictionary that records commonly used words, specialized dictionaries corresponding to terms specific to specialized fields etc. are prepared as necessary, and even special terms and phrases can be smoothly. Can be converted.
[0004]
Although specialized dictionaries have also existed in the medical field described above, the medical field is diversified and has many special terms and idioms, so that the amount of information in the dictionary file is extremely large. On the other hand, there is one aspect that the technical terms used are limited to some extent depending on the examination subject, the body part to be examined, or the type of medical device used.
[0005]
Therefore, when a single dictionary file covering all medical terms is used, a conversion candidate must be selected from an enormous amount of information, which may increase the processing time. Alternatively, the number of conversion candidates to be presented may increase, and the user must distinguish the corresponding word from the candidates. In the case of the voice input method, the erroneous recognition rate also increases. Therefore, using a single medical dictionary may hinder efficient conversion processing.
[0006]
On the other hand, even if the dictionary file is subdivided, even if the target body part, the medical device used, the medical examination subject, the doctor in charge, the attribute of the target patient, the target disease, the situation, the treatment content, the administered drug, etc. Since the optimum dictionary file differs depending on the various conditions, the optimum dictionary file must be selected each time a document is created (updated). Therefore, complicated work is involved, and the work efficiency is reduced.
[0007]
[Problems to be solved by the invention]
The present invention has been made in view of the above situation, and has as its object to provide a medical document creation support device and the like that improve the efficiency of creating medical documents.
[0008]
[Means for Solving the Problems]
In order to achieve the above object, a medical document creation support device according to a first aspect of the present invention includes:
Linguistic information storage means for classifying and storing linguistic information relating to at least medical terms,
Medical document creation means for creating a predetermined medical document,
Related matter determining means for determining matters related to medical documents created by the medical document creating means,
A linguistic information selection unit that selects linguistic information stored in the linguistic information storage unit based on a result of the determination by the related item determination unit;
Input means for inputting information recorded in a medical document created by the medical document creating means, at least information composed of a predetermined natural language;
A medical document creation support device comprising:
The input means performs input using the language information selected by the language information selection means,
It is characterized by the following.
[0009]
In the medical document creation support device,
The medical document creating means preferably further includes image information capturing means for capturing predetermined image information to be included in the medical document to be created and additional information attached to the image information. In this case,
The related item determining unit determines an attribute of the captured image information based on the additional information captured by the image information capturing unit.
[0010]
In the medical document creation support device,
The input means,
Voice input means for inputting voice information;
Voice recognition means for voice-recognizing voice information input to the voice input means,
The speech recognition unit performs speech recognition using the language information selected by the language information selection unit.
[0011]
The language information used here can be a dictionary file referred to when the input unit inputs a natural language. In this case,
The language information storage means stores the dictionary file classified at least for each predetermined body part,
The related matter determining means determines a body part indicated in the captured image information based on the additional information captured by the image information capturing means,
The language information selection means can select a dictionary file corresponding to the body part determined by the related matter determination means.
[0012]
Further, the language information storage means may store the dictionary file by classifying it at least for each predetermined medical device type.
Based on the additional information captured by the image information capturing unit, the related item determination unit determines a type of the medical device that has generated the captured image information,
The language information selection unit can select a dictionary file corresponding to the type of the medical device determined by the related item determination unit.
[0013]
The medical document may be an interpretation report, in which case,
The image information capturing means captures image information indicating a diagnostic image to be included in an image interpretation report, and additional information attached to the image information,
The input means inputs a finding or the like for the diagnostic image.
[0014]
According to the above configuration, the input efficiency when creating medical information can be improved, and the efficiency of creating medical documents can be improved.
[0015]
In order to achieve the above object, a program according to a second aspect of the present invention includes:
A computer is caused to function as the medical document creation support device.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings. In the present embodiment, a case will be described as an example where a “radiographic report” that records findings of image diagnosis is created in a medical facility equipped with a predetermined image diagnostic apparatus (hereinafter, “medical facility H”). .
[0017]
FIG. 1 is a diagram illustrating a configuration of a medical document creation system according to an embodiment of the present invention. As illustrated, the medical document creation system 1 according to the present embodiment includes a communication network 10, an imaging device 100, a control terminal 200, and an image processing device 300.
[0018]
The communication network 10 is a communication network that interconnects the control terminal 200 and the image processing device 300 in the medical facility H to mediate information transmission, and is, for example, a predetermined communication such as DICOM (Digital Imaging and Communications in Medicine). Mediates information transmission based on communication protocols.
[0019]
Next, the imaging device 100 will be described. The imaging device 100 is an imaging device used for image diagnosis and the like in the medical facility H, and is, for example, the following device.
(1) MRI (Magnetic Resonance Imaging Device)
(2) CT scanner (computer tomography apparatus)
(3) PET (Positron tomography apparatus)
[0020]
In the present embodiment, the imaging device 100 is controlled by a control terminal 200 described below, and acquires image data of a predetermined part of a patient. It is assumed that the imaging device 100 and the control terminal 200 are connected based on a predetermined medical image communication standard such as, for example, DICOM (Digital Imaging and Communications in Medicine). Here, according to the DICOM standard, arbitrary information can be embedded as header information in image information indicating a captured image. Therefore, the image standard that can be adopted in the present embodiment is arbitrary, but at least arbitrary information can be included in the image information as additional information.
[0021]
Next, the control terminal 200 will be described. The control terminal 200 includes a predetermined information processing device, controls the operation of the connected imaging device 100, and acquires image data captured by the imaging device 100. The configuration of the control terminal 200 will be described with reference to FIG.
[0022]
FIG. 2 is a block diagram showing a configuration of the control terminal 200. As illustrated, the control terminal 200 includes a control unit 210, a communication control unit 220, an input control unit 230, an output control unit 240, a program storage unit 250, and an original image DB 260.
[0023]
The control unit 210 includes, for example, a CPU (Central Processing Unit) and a predetermined storage device (RAM (Random Access Memory)) serving as a work area, and controls each unit of the control terminal 200. Each process described below is executed based on a predetermined operation program stored in the program storage unit 250.
[0024]
The communication control unit 220 includes a predetermined communication device such as a predetermined NIC (Network Interface Card), connects the control terminal 200 to the communication network 10, and performs communication with the image processing device 300.
[0025]
The input control unit 230 is connected to a predetermined input device 23 such as a keyboard or a pointing device, and receives an instruction to the control unit 210, information attached to image information, and the like input from the input device 23. The information is transmitted to the control unit 210.
[0026]
The output control unit 240 is connected to a predetermined output device 24 such as a display device or a printer, and outputs the processing result of the control unit 210 to the output device 24 as needed.
[0027]
The program storage unit 250 includes a predetermined storage device such as a hard disk device or a ROM (Read Only Memory), and stores various operation programs executed by the control unit 210. The operation programs stored in the program storage unit 250 include, in addition to an arbitrary OS (Operating System) that controls the basic operation of the control terminal 200, the following programs for realizing each process described below in cooperation with the OS. The following operation program is stored.
(1) “Control program”: a program for controlling the imaging device 100
(2) “DB management program”: a program for managing input and output of the original image DB 260
(3) “Communication program”: a program that controls the communication control unit 220 to perform communication via the communication network 10
[0028]
The original image DB 260 is composed of, for example, a rewritable storage device such as a hard disk device, and includes “original image information” indicating pixels constituting an image captured by the imaging device 100 and predetermined “header information” attached thereto. Is stored. FIG. 3 shows an example of information recorded in the original image DB 260. As shown in the figure, a record is created in the original image DB 260 for each image ID assigned to each original image file, and each record contains original image information indicating a captured image and header information of the original image file. Is recorded. As shown, for example, the following information is recorded as header information.
(1) “Patient information”: indicates the attributes (name, gender, date of birth (age), etc.) of the patient. (2) “person information”: information for specifying the person in charge of imaging
(3) “Device information”: information for identifying the used imaging device 100 (type, model name, etc.)
(4) “Relative coordinate information”: information indicating the coordinates of the imaging location
(5) “Related information”: information indicating a treatment at the time of imaging (for example, whether or not a contrast agent is used) and various parameters.
[0029]
Next, the image processing apparatus 300 will be described. The image processing apparatus 300 includes, for example, a predetermined information processing apparatus such as a workstation, acquires an image (hereinafter, referred to as an “original image”) from the control terminal 200, performs predetermined image processing, and performs processing. A medical document is created using the processed image (hereinafter, referred to as “processed image”). The configuration of the image processing device 300 will be described with reference to FIG.
[0030]
FIG. 4 is a block diagram illustrating a configuration of the image processing apparatus 300. As illustrated, the image processing apparatus 300 includes a control unit 310, a communication control unit 320, an input control unit 330, an output control unit 340, a program storage unit 350, and a database unit 360.
[0031]
The control unit 310 includes, for example, a CPU (Central Processing Unit) and a predetermined storage device (RAM (Random Access Memory)) serving as a work area, and controls each unit of the image processing device 300. , Based on a predetermined operation program stored in the program storage unit 350.
[0032]
The communication control unit 320 includes a predetermined communication device such as a predetermined NIC (Network Interface Card), connects the image processing device 300 to the communication network 10, and performs communication with the control terminal 200.
[0033]
For example, the input control unit 330 connects a predetermined input device 33 such as a keyboard, a pointing device, and a microphone, and receives an instruction to the control unit 310 and information recorded in each database, which are input from the input device 33. Accepted and transmitted to control section 310.
[0034]
The output control unit 340 is connected to a predetermined output device 34 such as a display device or a printer, and outputs a processing result of the control unit 310 to the output device 34 as needed.
[0035]
The program storage unit 350 is configured by a predetermined storage device such as a hard disk device or a ROM (Read Only Memory), and stores various operation programs executed by the control unit 310. The operation programs stored in the program storage unit 350 include, in addition to an arbitrary OS (Operating System: basic software) that controls the basic operation of the image processing apparatus 300, the operation program for realizing each process described below in cooperation with the OS. It is assumed that the following operation program is stored.
(1) “Communication program”: a program that controls the communication control unit 320 to perform communication via the communication network 10
(2) “Image processing program”: a program that performs image processing on the acquired original image
(3) “DB control program”: a program that controls the database unit 360
(4) "Document creation program": a program for creating medical documents
(5) "Dictionary selection program": a program for selecting a dictionary file at the time of input
(6) “Speech recognition program”: a program that performs speech recognition using the selected dictionary file
(7) “IM (Input method) program”: a program that converts input speech based on speech recognition results
[0036]
The database unit 360 includes, for example, a rewritable storage device such as a hard disk device, and stores various information necessary for image processing and medical document creation. FIG. 5 schematically shows the configuration of the database unit 360. As shown in the figure, the database unit 360 stores the “processed image DB 360 1 "," Document template DB 360 " 2 ”,“ Dictionary DB 360 ” 3 ”, And so on. The details of each database will be described below with reference to the drawings.
[0037]
"Processed image DB 360 1 "" Stores "processed image information" indicating pixels constituting an image which has been subjected to image processing by the image processing apparatus 300, and "processed image file" composed of predetermined "header information" attached thereto. . Processed image DB 360 1 FIG. 6 shows an example of information recorded in the. As shown, the processed image DB 360 1 In, a record is created for each image ID assigned to each processed image file, and in each record, header information of the processed image file is recorded together with processed image information indicating the processed image. As the header information recorded here, the header information attached to the original image file is inherited, and information indicating the history of the image processing operation (change transition of the processing mode, etc.) performed by the image processing apparatus 300 (hereinafter, referred to as the “mode”). "Process history information").
[0038]
"Document template DB 360 2 "Stores a template used when creating various medical documents such as an interpretation report. Document template DB 360 2 FIG. 7 shows an example of information recorded in the. As shown, the document template DB 360 2 In, a record is created for each template ID assigned to each template, and in each record, index information such as template type, last update date and time, and the template file are recorded. It is assumed that an input field for each item constituting the document is prepared in the template file in advance.
[0039]
"Dictionary DB360 3 "Stores a dictionary file referenced by the speech recognition program. Here, each dictionary file is composed of a "dictionary" part indicating the correspondence between words and their readings, and a "language model" part indicating grammatical rules. Further, in the present embodiment, in order to perform voice input using the voice recognition technology, an “acoustic model” file indicating a probability statistical model for estimating what phonemes are included in the input voice data. Is stored. Dictionary DB360 3 FIG. 8 shows an example of the data configuration of FIG. As shown, the dictionary DB 360 3 Stores a “special dictionary file group” composed of a plurality of dictionary files related to medical terms, in addition to a “basic dictionary file” that is a dictionary of general words. The plurality of dictionary files constituting the specialized dictionary file group are classified into the following items, for example.
(1) “Body part”: Dictionary file group corresponding to medical terms related to each of predetermined parts of the human body (that is, body parts to be diagnosed and treated)
(2) “Medical devices”: Dictionary file group corresponding to medical terms related to each medical device used for diagnosis and treatment
[0040]
Hereinafter, each process in the present embodiment will be described with reference to the drawings.
[0041]
(Imaging process)
First, “imaging processing” performed by the imaging apparatus 100 and the control terminal 200 will be described with reference to a flowchart illustrated in FIG.
[0042]
The control unit 210 of the control terminal 200 executes the “control program” stored in the program storage unit 250 in response to the operation of the input device 23 by an imaging staff (for example, a radiologist). The control unit 210 generates a control signal instructing the imaging operation of the imaging device 100 in accordance with the input operation from the input device 23, and transmits the control signal to the imaging device 100 (Step S101).
[0043]
The imaging apparatus 100 performs an imaging operation based on a control signal from the control terminal 200 (step S102), and acquires a part of information constituting header information together with the acquired image information, that is, “imaging part information” and “device”. "Information" is transmitted to the control terminal 200 (step S103).
[0044]
The control terminal 200 stores the information received from the imaging device 100 in the original image DB 260 (Step S104). More specifically, the control unit 210 executes the “DB control program”, newly creates a record of the original image file in the original image DB 260, and stores the original image information constituting the captured image in the record. Also, the “imaging part information” and “apparatus information” added by the imaging apparatus 100 are recorded in the original image file as header information.
[0045]
The person in charge operates the input device 23 and inputs other header information, that is, “patient information”, “person in charge information”, “related information”, and the like. The control unit 210 additionally records the input information in the header information of the image file (step S105), and ends the processing.
[0046]
(Diagnosis image creation processing)
Next, "diagnosis image creation processing" by the image processing apparatus 300 will be described with reference to the flowchart shown in FIG. Here, an image used for diagnosis is created by performing predetermined image processing on the original image information stored in the original image DB 260 of the control terminal 200. For example, when the original image is composed of three-dimensional image data, the original image is converted into two-dimensional image information to create an image for diagnosis (for example, an image that displays an affected part so that it can be clearly identified).
[0047]
First, the processing is started by the control unit 310 executing the “image processing program” stored in the program storage unit 350 in response to the operation of the input device 33 by the person in charge. By the operation of the image processing program, a screen for selecting an image to be processed is displayed on the output device 34 (display device in this case). Here, a list of original image files stored in the original image DB 260 of the control terminal 200 is displayed by cooperation of the communication programs of the image processing apparatus 300 and the control terminal 200.
[0048]
The person in charge designates an original image file to be processed from the displayed list (step S201). When the target image file is selected, the communication control unit 320 acquires the specified original image file from the original image DB 260 of the control terminal 200 (Step S202).
[0049]
When acquiring the original image file from the original image DB 260 of the control terminal 200, the control unit 310 executes the “DB control program” stored in the program storage unit 350 and stores the processed image file (processed image file). Records to be processed are processed image DB 360 1 Create a new one. The control unit 310 stores “header information” included in the acquired original image file in the created record (step S203). Further, the control unit 310 holds the original image information included in the acquired original image file in the work area.
[0050]
Processed image DB 360 1 When the header information is stored in the control unit 310, the control unit 310 displays on the output device 34 a screen for selecting the image processing to be performed (hereinafter, referred to as a “processing menu screen”). On the processing menu screen, various “image processing modes” (for example, “cerebral blood flow analysis” and “heart analysis”) that can be executed by the image processing apparatus 300 are displayed in a selectable manner. The person in charge operates the input device 33 and specifies the image processing mode to be executed. The control unit 310 records information indicating the selected image processing mode in the “processing history information” column of the record created in step S203 (step S204).
[0051]
The control unit 310 performs image processing corresponding to the designated image processing mode on the original image information held in the work area (step S205).
[0052]
Here, depending on the case or the like, image processing may be performed while transitioning between a plurality of image processing modes. When there is such a change in the image processing mode (step S206: Yes), the control unit 310 records the executed image processing mode transition history in the “processing history information” as header information of the processed image file. (Step S207).
[0053]
When the image processing is completed (Step S208: Yes), the control unit 310 stores the processed image information forming the image subjected to the image processing in the record created in Step S204 (Step S209), and ends the processing. .
[0054]
(Interpretation report creation processing)
Next, “interpretation report creation processing” by the image processing apparatus 300 will be described with reference to the flowchart shown in FIG. Here, the “interpretation report” is a medical document created in the image diagnosis, in which a diagnostic image and findings are recorded.
[0055]
This processing is started by the control unit 310 executing the “document creation program” stored in the program storage unit 350 in response to the operation of the input device 33 by the person in charge.
[0056]
Based on the operation of the document creation program, the control unit 310 displays a “template selection screen” as shown in FIG. Here, the document template DB 360 2 Is displayed in a selectable manner. The person in charge operates the input device 33 to select a desired template (here, “interpretation report”).
[0057]
The control unit 310 executes the DB control program and executes the document template DB 360 2 , The selected template is obtained (step S301). The acquired template is held in the work area and displayed on the output device 34 as shown in FIG.
[0058]
As shown in the figure, an “image insertion frame” is arranged in the template of the interpretation report, and a target “processed image” is inserted here. The person in charge operates the input device 33 to specify a processing image to be inserted. Here, the processing image DB 360 is operated by a predetermined operation. 1 Is displayed, and a target processed image file is selected from the list.
[0059]
When the target processed image file is selected, the control unit 310 executes the DB control program to execute the processed image DB 360 1 And obtains the specified processed image file (step S302) and stores it in the work area.
[0060]
Next, the control unit 310 activates a “dictionary selection program” stored in the program storage unit 350 and selects a dictionary file to be used when inputting a finding in the radiological report (“dictionary selection process”) (step S400). Execute This "dictionary selection process" will be described with reference to the flowchart shown in FIG.
[0061]
The control unit 310 acquires “header information” recorded in the processed image file acquired in step S302 (step S401).
[0062]
The control unit 310 estimates the body part of the target patient by referring to the “relative coordinate information” in the acquired header information (step S402). Here, a rough body part (for example, “head”) is estimated.
[0063]
Next, the control unit 310 refers to the “device information” and specifies the type of the imaging device used for imaging (step S403).
[0064]
Next, the control section 310 refers to the “processing history information”, and specifies a diagnosis target part based on the recorded image processing mode and the body part estimated in step S402 (step S404). Here, the details of the target part are specified. For example, when the “head” is estimated in step S402 and the “image processing mode” is “cerebral blood flow analysis”, it is specified that the diagnosis target site is “brain”.
[0065]
The control unit 310 includes a dictionary DB 360 3 To specify a dictionary file corresponding to the “imaging device” specified in step S403 and the “target part” specified in step S404 (step S405). The control unit 310 adds flag information (flag ON) to the specified dictionary file (step S406), and returns to the "interpretation report creation process" (FIG. 11). The flag information added here indicates that it is a dictionary file used by the voice recognition program (or IM program) in the input processing described later.
[0066]
When a dictionary is selected in the "dictionary selection process", the acquired header information and the information indicating the specified target part are inserted into a predetermined position of the template, and the processed image is inserted into the image insertion frame (step S303). . FIG. 15 shows an example of the “interpretation report” in which each information is inserted.
[0067]
Next, the control unit 310 executes an “input process” (step S500) for inputting the finding of the person in charge in the interpretation report into which each information is inserted. This “input processing” will be described with reference to the flowchart shown in FIG. In the present embodiment, it is assumed that a voice input device such as a microphone is used as the input device 33, and that “findings” are voice input based on the utterance of the person in charge.
[0068]
(Input processing)
As shown in FIG. 14, the "interpretation report" is provided with an area for inputting the finding of the person in charge (hereinafter referred to as "finding input area"). The person in charge operates the input device 33 such as a pointing device, for example, and selects this finding input area. This processing is started when the control unit 310 activates the IM program stored in the program storage unit 350 in response to the selection of the finding input area.
[0069]
When the voice input of the finding is ready, the person in charge operates the input device 33 such as a pointing device and selects the “input start” button arranged near the finding input area. When detecting the selection of the “input start” button (step S501: Yes), the control unit 310 activates the “voice recognition program” stored in the program storage unit 350 (step S502).
[0070]
The person in charge, for example, presses (long-presses) a predetermined key of the keyboard (input device 33), and speaks toward the input device 33 such as a microphone while pressing the key, so that the voice signal is generated. The data is input to the control unit 310 via the input control unit 330. Here, the control unit 310 permits voice input only while the key is being pressed, thereby preventing unnecessary blanks and mixing of voice signals other than speech voice. The control unit 310 sequentially recognizes the input voice signals by the operation of the voice recognition program and the IM program being executed (step S503). Here, the control unit 310 executes the dictionary DB 360 as needed. 3 And performs speech recognition while referring to the dictionary file whose flag is ON. More specifically, by extracting feature amounts of input speech and matching the extracted feature amounts with “acoustic model”, “dictionary”, and “language model”, a word corresponding to each phoneme is obtained. To be converted. Here, the findings to be entered (input) in the radiological report include many words related to the diagnosis target site and the diagnostic device (imaging device). Since it is selected, it is converted with high recognition accuracy.
[0071]
When the voice input of the finding ends, the person in charge selects the “input end” button arranged near the finding input area. In response (Step S504: Yes), the control unit 310 stops the voice recognition operation by the voice recognition program (Step S505), ends the input processing, and returns to the “interpretation report creation processing” (FIG. 11). Return.
[0072]
The file of the interpretation report to which the findings have been input is output to the output device 34 such as a display or a printer, or stored in a predetermined storage location (database or the like) (step S304), and the process ends.
[0073]
As described above, according to the medical document creating system 1 according to the embodiment of the present invention, a necessary and sufficient dictionary is obtained from a specialized dictionary file subdivided based on the header information of the image file taken in the radiology report. Since voice recognition is performed by selecting a file, voice recognition can be performed with high recognition accuracy and at high speed. In addition, since the dictionary file is automatically specified, a complicated operation such as a dictionary selection by the user is not required.
[0074]
In the above embodiment, the specialized dictionary files are classified by “body part” and “medical device”, but the classification items and the number of classifications are not limited to those described above, and are arbitrary. For example, classifications such as “disease name”, “drug name”, and “diagnosis subject” may be added.
[0075]
In the above-described embodiment, an example has been described in which findings are input by voice, but the input method to which the present invention can be applied is not limited to this. For example, the present invention can be applied to a case where a finding is input using a keyboard or the like. In this case, the dictionary file specified at the time of the “kana-kanji conversion” by the IM program may be used. Even in this case, since the conversion is performed using only the necessary and sufficient dictionary file, the number of conversion candidates can be reduced and the input efficiency can be improved.
[0076]
The information used to specify the dictionary file is not limited to the header information of the image file, and information input by a person in charge or the like may be used to specify the dictionary file. Further, the update of the dictionary file (so-called “dictionary registration”) may be performed at any time. In this case, if dictionary registration is performed for the specified dictionary file, dictionary registration can be performed efficiently.
[0077]
In the above embodiment, the case where the dictionary file is specified has been described as an example. However, the configuration may be such that other language information is specified. For example, in the case of a template in which findings are input by selecting and combining prepared fixed phrases, a set of these fixed phrases is classified and prepared in the same manner as the dictionary file, and the same as in the above embodiment. A set of fixed phrases may be specified by a technique.
[0078]
In the above embodiment, the case where the “interpretation report” is created has been described as an example. However, the present invention can also be applied to the creation of an arbitrary medical document (for example, “medical record” or “medical certificate”). it can.
[0079]
In the above-described embodiment, an example in which an interpretation report is created on the image processing apparatus 300 has been described. However, a medical document is created on another apparatus (terminal) using an image processed by the image processing apparatus 300. May be. In this case, for example, it can be created on a terminal used by a doctor or the like in a consultation room. The terminal (physician terminal) used here may be a simple one in which the configuration related to image processing is omitted from the image processing device 300. Then, through the above “imaging processing” and “diagnosis image creation processing”, the diagnostic image is processed by the processing image DB 360 of the image processing apparatus 300. 1 Is stored in The doctor's terminal executes the same processing as the above “interpretation report creation processing” to display (1) the template, (2) obtain the processed image from the image processing apparatus 300, and (3) obtain the processed image. A dictionary is selected based on the header information of the processed image, and (4) a finding is input using the selected dictionary. According to such a configuration, even when a doctor in charge in the examination room or the like fills out the findings of the interpretation report, medical documents can be efficiently created by applying the present invention.
[0080]
Further, in the above-described embodiment, an example has been described in which each device in the medical facility H is connected by the communication network 10. However, for example, a WAN (Wide Area Network: wide area information communication network) connects a plurality of medical facilities. The present invention may be applied in an environment connected by.
[0081]
The control terminal 200 and the image processing device 300 according to the above-described embodiment can be configured not only by a dedicated device but also by a general-purpose computer device such as a personal computer. In this case, the control terminal 200 and the image processing apparatus 300 can be configured by installing a part or all of the program for realizing each of the above processes in a general-purpose computer device and executing the program under control of an OS or the like. . In this case, the program distribution form is arbitrary. For example, it can be stored and distributed on a recording medium such as a CD-ROM, or can be distributed via a communication medium (such as the Internet) by being superimposed on a carrier wave.
[0082]
【The invention's effect】
As described above, according to the present invention, the efficiency of creating medical documents can be improved.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a “medical document creation system” according to an embodiment of the present invention.
FIG. 2 is a block diagram showing a configuration of a “control terminal” shown in FIG.
FIG. 3 is a diagram illustrating an example of information recorded in an “original image DB” illustrated in FIG. 2;
FIG. 4 is a block diagram illustrating a configuration of an “image processing device” illustrated in FIG. 1;
FIG. 5 is a diagram schematically showing a configuration of a “database unit” shown in FIG. 4;
FIG. 6 is a diagram illustrating an example of information recorded in a “processed image DB” illustrated in FIG. 5;
FIG. 7 is a diagram illustrating an example of information recorded in a “document template DB” illustrated in FIG. 5;
8 is a diagram showing an example of information recorded in a “dictionary DB” shown in FIG.
FIG. 9 is a flowchart for explaining “imaging processing” according to the embodiment of the present invention.
FIG. 10 is a flowchart for explaining “diagnosis image creation processing” according to the embodiment of the present invention;
FIG. 11 is a flowchart illustrating “interpretation report creation processing” according to the embodiment of the present invention.
12 is a diagram showing a display example of a “template selection screen” displayed in the “interpretation report creation process” shown in FIG.
13 is a diagram illustrating a display example of an “interpretation report” (template) displayed in the “interpretation report creation process” illustrated in FIG. 11;
FIG. 14 is a flowchart illustrating a “dictionary selection process” executed in the “interpretation report creation process” illustrated in FIG. 11;
15 is a diagram illustrating a display example of an “interpretation report” displayed in the “interpretation report creation process” illustrated in FIG. 11;
FIG. 16 is a flowchart illustrating an “input process” executed in the “interpretation report creation process” illustrated in FIG. 11;
[Explanation of symbols]
1 Medical document creation system
10 Communication network
100 Imaging device
200 control terminal
300 Image processing device

Claims (7)

少なくとも医療用語に関する言語情報を分類して格納する言語情報格納手段と、
所定の医療書類を作成する医療書類作成手段と、
前記医療書類作成手段が作成する医療書類に関連する事項を判別する関連事項判別手段と、
前記関連事項判別手段の判別結果に基づいて、前記言語情報格納手段に格納されている言語情報を選択する言語情報選択手段と、
前記医療書類作成手段が作成する医療書類に記録される情報であって、少なくとも所定の自然言語で構成される情報を入力する入力手段と、
を備えた医療書類作成支援装置であって、
前記入力手段は、前記言語情報選択手段が選択した言語情報を用いて入力を行う、
ことを特徴とする医療書類作成支援装置。
Linguistic information storage means for classifying and storing linguistic information relating to at least medical terms,
Medical document creation means for creating a predetermined medical document,
Related matter determining means for determining matters related to medical documents created by the medical document creating means,
A linguistic information selection unit that selects linguistic information stored in the linguistic information storage unit based on a result of the determination by the related item determination unit;
Input means for inputting information recorded in a medical document created by the medical document creating means, at least information composed of a predetermined natural language;
A medical document creation support device comprising:
The input means performs input using the language information selected by the language information selection means,
A medical document creation support device, characterized in that:
前記医療書類作成手段は、作成する医療書類に含ませる所定の画像情報と、該画像情報に付随する付加情報と、を取り込む画像情報取込手段をさらに備え、
前記関連事項判別手段は、前記画像情報取込手段が取り込んだ付加情報に基づいて、取り込んだ画像情報の属性を判別する、
ことを特徴とする請求項1に記載の医療書類作成支援装置。
The medical document creating means further includes image information capturing means for capturing predetermined image information to be included in the medical document to be created, and additional information attached to the image information,
The related matter determining means determines an attribute of the captured image information based on the additional information captured by the image information capturing means,
The medical document creation support device according to claim 1, wherein:
前記入力手段は、
音声情報を入力する音声入力手段と、
前記音声入力手段に入力された音声情報を音声認識する音声認識手段と、をさらに備え、
前記音声認識手段は、前記言語情報選択手段が選択した言語情報を用いて音声認識を行う、
ことを特徴とする請求項1または2に記載の医療書類作成支援装置。
The input means,
Voice input means for inputting voice information;
Voice recognition means for recognizing voice information input to the voice input means,
The voice recognition unit performs voice recognition using the language information selected by the language information selection unit,
The medical document creation support device according to claim 1 or 2, wherein:
前記言語情報は、前記入力手段が自然言語を入力する際に参照する辞書ファイルであり、
前記言語情報格納手段は、前記辞書ファイルを、少なくとも所定の身体部位毎に分類して格納し、
前記関連事項判別手段は、前記画像情報取込手段が取り込んだ付加情報に基づいて、取り込んだ画像情報に示される身体部位を判別し、
前記言語情報選択手段は、前記関連事項判別手段が判別した身体部位に対応する辞書ファイルを選択する、
ことを特徴とする請求項2乃至3のいずれか1項に記載の医療書類作成支援装置。
The language information is a dictionary file referred to when the input unit inputs a natural language,
The language information storage means stores the dictionary file classified at least for each predetermined body part,
The related matter determining means determines a body part indicated in the captured image information based on the additional information captured by the image information capturing means,
The language information selecting means selects a dictionary file corresponding to the body part determined by the related matter determining means,
4. The medical document creation support device according to claim 2, wherein
前記言語情報格納手段は、前記辞書ファイルを、少なくとも所定の医療装置種別毎に分類して格納し、
前記関連事項判別手段は、前記画像情報取込手段が取り込んだ付加情報に基づいて、取り込んだ画像情報を生成した医療装置の種別を判別し、
前記言語情報選択手段は、前記関連事項判別手段が判別した医療装置の種別に対応する辞書ファイルを選択する、
ことを特徴とする請求項4に記載の医療書類作成支援装置。
The language information storage means stores the dictionary file classified at least for each predetermined medical device type,
Based on the additional information captured by the image information capturing unit, the related item determination unit determines a type of the medical device that has generated the captured image information,
The language information selecting unit selects a dictionary file corresponding to the type of the medical device determined by the related item determining unit,
The medical document creation support device according to claim 4, wherein:
前記医療書類は、読影報告書であり、
前記画像情報取込手段は、読影報告書に含ませる診断画像を示す画像情報と、該画像情報に付随する付加情報と、を取り込み、
前記入力手段は、当該診断画像に対する所見等を入力する、
ことを特徴とする請求項2乃至5のいずれか1項に記載の医療書類作成支援装置。
The medical document is an interpretation report,
The image information capturing means captures image information indicating a diagnostic image to be included in an image interpretation report, and additional information attached to the image information,
The input unit inputs a finding or the like for the diagnostic image,
The medical document creation support device according to any one of claims 2 to 5, wherein
コンピュータを、請求項1乃至6のいずれか1項に記載の医療書類作成支援装置として機能させることを特徴とするプログラム。A program for causing a computer to function as the medical document creation support device according to any one of claims 1 to 6.
JP2002261474A 2002-09-06 2002-09-06 Medical document preparation support device and its program Pending JP2004102509A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002261474A JP2004102509A (en) 2002-09-06 2002-09-06 Medical document preparation support device and its program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002261474A JP2004102509A (en) 2002-09-06 2002-09-06 Medical document preparation support device and its program

Publications (1)

Publication Number Publication Date
JP2004102509A true JP2004102509A (en) 2004-04-02

Family

ID=32261843

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002261474A Pending JP2004102509A (en) 2002-09-06 2002-09-06 Medical document preparation support device and its program

Country Status (1)

Country Link
JP (1) JP2004102509A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009041236A1 (en) * 2007-09-28 2009-04-02 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2009175863A (en) * 2008-01-22 2009-08-06 Fujitsu Ltd Medical care information display program and medical care information display device
JP2010079707A (en) * 2008-09-26 2010-04-08 Sharp Corp Object determination type kana-kanji converter
JP2014026431A (en) * 2012-07-26 2014-02-06 Canon Inc Character recognition system, and character recognition device
JP2016021216A (en) * 2014-06-19 2016-02-04 レイシスソフトウェアーサービス株式会社 Remark input support system, device, method and program
JP2018147314A (en) * 2017-03-07 2018-09-20 東日本高速道路株式会社 Inspection report creation support device and inspection report creation support program
JP7486742B2 (en) 2020-06-24 2024-05-20 株式会社アドバンスト・メディア Electronic findings record recording support device and electronic findings record recording support method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08180044A (en) * 1994-12-26 1996-07-12 Nec Eng Ltd Kana/kanji converter
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JPH09106428A (en) * 1995-10-11 1997-04-22 Kitsusei Comtec Kk Finding preparing device
JP2001014400A (en) * 1999-07-01 2001-01-19 Hitachi Ltd Integrated operation system
JP2003050863A (en) * 2001-08-03 2003-02-21 Hitachi Medical Corp Diagnosing supporting system
JP2003220035A (en) * 2002-01-29 2003-08-05 Hitachi Medical Corp Diagnostic support system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08180044A (en) * 1994-12-26 1996-07-12 Nec Eng Ltd Kana/kanji converter
JPH08320697A (en) * 1995-05-23 1996-12-03 Hitachi Ltd Speech recognition device
JPH09106428A (en) * 1995-10-11 1997-04-22 Kitsusei Comtec Kk Finding preparing device
JP2001014400A (en) * 1999-07-01 2001-01-19 Hitachi Ltd Integrated operation system
JP2003050863A (en) * 2001-08-03 2003-02-21 Hitachi Medical Corp Diagnosing supporting system
JP2003220035A (en) * 2002-01-29 2003-08-05 Hitachi Medical Corp Diagnostic support system

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009041236A1 (en) * 2007-09-28 2009-04-02 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2009087038A (en) * 2007-09-28 2009-04-23 Canon Inc Image processor and image processing method
US10013727B2 (en) 2007-09-28 2018-07-03 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US10529045B2 (en) 2007-09-28 2020-01-07 Canon Kabushiki Kaisha Information processing apparatus and information processing method
JP2009175863A (en) * 2008-01-22 2009-08-06 Fujitsu Ltd Medical care information display program and medical care information display device
JP2010079707A (en) * 2008-09-26 2010-04-08 Sharp Corp Object determination type kana-kanji converter
JP2014026431A (en) * 2012-07-26 2014-02-06 Canon Inc Character recognition system, and character recognition device
JP2016021216A (en) * 2014-06-19 2016-02-04 レイシスソフトウェアーサービス株式会社 Remark input support system, device, method and program
JP2018147314A (en) * 2017-03-07 2018-09-20 東日本高速道路株式会社 Inspection report creation support device and inspection report creation support program
JP7486742B2 (en) 2020-06-24 2024-05-20 株式会社アドバンスト・メディア Electronic findings record recording support device and electronic findings record recording support method

Similar Documents

Publication Publication Date Title
US9144407B2 (en) Image processing device and method, and program
CN108475538B (en) Structured discovery objects for integrating third party applications in an image interpretation workflow
JP5178119B2 (en) Image processing apparatus and image processing method
CN101203170B (en) computer-aided detection system
JP5264136B2 (en) MEDICAL DIAGNOSIS SUPPORT DEVICE, ITS CONTROL METHOD, COMPUTER PROGRAM, AND STORAGE MEDIUM
US8121360B2 (en) Computer aided detection and decision support
JP2019153250A (en) Device, method, and program for supporting preparation of medical document
US20120183188A1 (en) Medical image display apparatus, method, and program
CN105074708A (en) A context driven summary view of radiology findings
JP5355111B2 (en) Diagnosis support apparatus and diagnosis support method
JP2017191457A (en) Report creation apparatus and control method thereof
US10558783B2 (en) Image data ingestion application of a medical imaging data processing and retrieval system
US20220366151A1 (en) Document creation support apparatus, method, and program
JP5151913B2 (en) Information processing device
US20220262471A1 (en) Document creation support apparatus, method, and program
CN111226287B (en) Method, system, program product and medium for analyzing medical imaging data sets
JP2004102509A (en) Medical document preparation support device and its program
US20230005580A1 (en) Document creation support apparatus, method, and program
JP6579849B2 (en) Interpretation report creation support system, interpretation report creation support method, and interpretation report creation support program
US11978274B2 (en) Document creation support apparatus, document creation support method, and document creation support program
JP7127370B2 (en) Interpretation report creation device
JP2014013591A (en) Diagnostic support apparatus and diagnostic support method
JP6897547B2 (en) Interpretation report creation device and program
JP2010057726A (en) Diagnostic imaging support system
US20220391599A1 (en) Information saving apparatus, method, and program and analysis record generation apparatus, method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050705

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051101