JP2012198928A - Database system, program, and report retrieval method - Google Patents

Database system, program, and report retrieval method Download PDF

Info

Publication number
JP2012198928A
JP2012198928A JP2012136689A JP2012136689A JP2012198928A JP 2012198928 A JP2012198928 A JP 2012198928A JP 2012136689 A JP2012136689 A JP 2012136689A JP 2012136689 A JP2012136689 A JP 2012136689A JP 2012198928 A JP2012198928 A JP 2012198928A
Authority
JP
Japan
Prior art keywords
report
information
character information
search
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2012136689A
Other languages
Japanese (ja)
Inventor
Kosuke Sasai
浩介 笹井
Yoichi Kawakami
洋一 川上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Medical and Graphic Inc
Original Assignee
Konica Minolta Medical and Graphic Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Medical and Graphic Inc filed Critical Konica Minolta Medical and Graphic Inc
Priority to JP2012136689A priority Critical patent/JP2012198928A/en
Publication of JP2012198928A publication Critical patent/JP2012198928A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique which facilitates granting of metadata to an image and input of retrieval conditions, and is high in retrieval accuracy of images and reports.SOLUTION: On the basis of network information in which a plurality of character information in each of classification items among a prescribed number of attribute items are associated in a network shape, a list display is visibly output in which at least one character information is listed for every classification item and a plurality of character information in each of the classification items among a plurality of classification items are associated in a network shape. In the list display, under the condition that each character information is specified for some classification items in a plurality of classification items as a factor which configures a report, the specified character information is regarded as a search keyword group, and the keyword search in which a plurality of character information associated with each image data in a database is regarded as metadata for data retrieval is performed, and consequently one or more report data is detected.

Description

本発明は、情報の検索処理技術に関する。   The present invention relates to information search processing technology.

医療分野においては、多数の読影レポートを電子データ化してPACS(Picture Archiving and Communication System)などのデータベースシステムに蓄積する技術が普及してきている。そして、このデータベースシステムでは、電子データ化された読影レポートと読影の対象となった画像データとが関連付けられて保存される。   In the medical field, a technique for converting a large number of interpretation reports into electronic data and storing them in a database system such as PACS (Picture Archiving and Communication System) has become widespread. In this database system, the interpretation report converted into electronic data and the image data to be interpreted are stored in association with each other.

ところで、診断時における参考資料を得たり、代表的な症例をまとめたデータを作成したりする場面では、ある画像を元にして、類似した画像を検索したり、過去の読影レポートを検索することが出来れば、非常に利用価値が高い。   By the way, in cases where you obtain reference materials at the time of diagnosis or create data that summarizes representative cases, you can search for similar images based on a certain image or search past interpretation reports. If it is possible, the utility value is very high.

ある画像を元にして類似した画像を検索する従来技術としては、画像の特徴量を利用した検索技術が知られているが、検索精度が低いといった問題がある。   As a conventional technique for searching for a similar image based on a certain image, a search technique using the feature amount of the image is known, but there is a problem that the search accuracy is low.

そこで、画像の特徴量と画像に付与したメタデータとを併用して類似画像を検索する技術(例えば、特許文献1、2)、画像に対してメタデータを簡単に付与するための技術(例えば、特許文献3、4)、及び動的メタデータ(動的特徴量)の類似度により動画像の検索を行う技術(例えば、特許文献5)等が提案されている。   Therefore, a technique for searching for similar images using both the feature amount of the image and the metadata added to the image (for example, Patent Documents 1 and 2), and a technique for easily adding metadata to the image (for example, Patent Documents 3 and 4), and a technique (for example, Patent Document 5) for searching for a moving image based on the similarity of dynamic metadata (dynamic feature amount) have been proposed.

特開2002−259410号公報JP 2002-259410 A 特開2005−100090号公報JP 2005-100090 A 特開2000−298606号公報JP 2000-298606 A 特開2002−175298号公報JP 2002-175298 A 特開2001−134589号公報JP 2001-134589 A

しかしながら、上記特許文献1、2の技術では、画像に対してメタデータを付与する煩雑な作業が必要である。また、上記特許文献3の技術では、予め準備したメタデータの選択肢から適正なメタデータを選択することが可能であるが、特別にメタデータを付与する煩雑な作業は依然として必要であるとともに、付与可能なメタデータの種類が限定され自由度が低い。また、上記特許文献4の技術では、バイナリーデータにメタデータを登録する前に、予めメタデータを入力しておく必要があり、メタデータを付与する煩雑な作業が必要である。更に、上記特許文献5の技術では、メタデータを利用した検索時における検索条件の入力が非常に煩雑である。   However, the techniques disclosed in Patent Documents 1 and 2 require a complicated operation for adding metadata to an image. Moreover, in the technique of the above-mentioned Patent Document 3, it is possible to select appropriate metadata from metadata options prepared in advance. The types of possible metadata are limited and the degree of freedom is low. In the technique disclosed in Patent Document 4, it is necessary to input the metadata in advance before registering the metadata in the binary data, and a complicated operation for assigning the metadata is required. Furthermore, in the technique of the above-mentioned Patent Document 5, it is very complicated to input search conditions at the time of search using metadata.

本発明は、上記課題に鑑みてなされたものであり、画像に対するメタデータの付与ならびに検索条件の入力が容易で、かつ画像やレポートの検索精度が高い技術を提供することを目的とする。   The present invention has been made in view of the above-described problems, and an object of the present invention is to provide a technique that allows easy addition of metadata to an image and input of search conditions and high search accuracy of images and reports.

上記課題を解決するために、請求項1の発明は、複数のレポートに含まれるレポート毎に、レポートを構成する複数の文字情報と、当該レポートに対応する1以上の画像データとが直接的及び/又は間接的に関連付けられた関連情報が蓄積されている関連情報データベースと、前記複数の文字情報が属する所定数の属性項目に含まれる属性項目毎に複数の文字情報が列挙されるとともに、該所定数の属性項目間で、該各分類項目に属する複数の文字情報どうしが相互にネットワーク状に関連付けられたネットワーク情報が記憶されている入力支援情報データベースと、前記ネットワーク情報に含まれる一部のネットワーク情報に基づき、前記所定数の分類項目に含まれる複数の分類項目について分類項目毎に少なくとも1つの文字情報がそれぞれ列挙され、且つ該複数の分類項目間で該各分類項目に属する複数の文字情報がネットワーク状に関連付けられている一覧表示と、少なくとも1つの画像データとを可視的に出力する出力手段と、前記出力手段によって前記少なくとも1つの画像データが可視的に出力されている状態で、ユーザーの動作に応答して、前記一覧表示において、前記複数の分類項目に対して文字情報をそれぞれ指定する指定手段と、前記指定手段によって前記複数の分類項目に対してそれぞれ指定された文字情報を、所定のレポートモデルに沿ったレポートを構成する要素として決定する決定手段と、前記出力手段によって前記少なくとも1つの画像データが可視的に出力されている状態であり、且つ前記指定手段によって前記一覧表示において前記複数の分類項目のうちの一部である1以上の分類項目に対して1以上の文字情報が指定されている状態で、ユーザーの動作に応答して、該1以上の文字情報を検索キーワード群とし、前記関連情報データベースにおいて各画像データに対して直接的及び/又は間接的に関連付けられている前記複数の文字情報をデータ検索のためのメタデータとしたキーワード検索を行うことで、前記出力手段によって可視的に出力されている前記少なくとも1つの画像データと関連する1以上のレポートデータを検出するレポート検出手段とを備えることを特徴とする。   In order to solve the above-mentioned problem, the invention of claim 1 is characterized in that, for each report included in a plurality of reports, a plurality of character information constituting the report and one or more image data corresponding to the report are directly and A plurality of character information is listed for each attribute item included in a related information database in which related information that is indirectly related and / or a predetermined number of attribute items to which the plurality of character information belongs is listed, and An input support information database storing network information in which a plurality of character information items belonging to each classification item are associated with each other between a predetermined number of attribute items, and a part of the network information Based on the network information, at least one character information is included for each of the plurality of classification items included in the predetermined number of classification items. An output means for visually outputting a list display in which a plurality of character information belonging to each of the classification items is associated in a network state and at least one image data among the plurality of classification items; Designating means for designating character information for each of the plurality of classification items in the list display in response to a user operation in a state where the at least one image data is visually output by the output means. Determining means for determining character information designated for each of the plurality of classification items by the designation means as an element constituting a report according to a predetermined report model; and the at least one image by the output means The data is visibly output, and the designation means displays the plurality of segments in the list display. In response to a user action in a state where one or more character information is specified for one or more classification items that are a part of the items, the one or more character information is used as a search keyword group, Visible by the output means by performing a keyword search using the plurality of character information directly and / or indirectly related to each image data in the related information database as metadata for data search. Report detecting means for detecting one or more report data related to the at least one image data output to the image data.

また、請求項2の発明は、請求項1に記載のデータベースシステムであって、前記複数のレポートに含まれるレポート毎に、レポートと当該レポートに対応する1以上の画像データとが関連付けられたレポート情報が蓄積されているレポートデータベースと、前記レポートデータベースに含まれる各レポートについて言語解析を行うことで、当該各レポートを構成する複数の文字情報を抽出する文字情報抽出手段と、前記複数のレポートに含まれるレポート毎に、前記文字情報抽出手段によって抽出されたレポートを構成する複数の文字情報と、当該レポートに対応する1以上の画像データとを直接的及び/又は間接的に関連付けて蓄積することで関連情報データベースを構築する記憶制御手段とを更に備えることを特徴とする。   The invention according to claim 2 is the database system according to claim 1, wherein for each report included in the plurality of reports, a report is associated with one or more image data corresponding to the report. A report database in which information is stored, a character information extraction means for extracting a plurality of character information constituting each report by performing language analysis on each report included in the report database, and a plurality of reports For each included report, a plurality of character information constituting the report extracted by the character information extracting means and one or more image data corresponding to the report are directly and / or indirectly associated and stored. And a storage control means for constructing a related information database.

また、請求項3の発明は、請求項1又は請求項2に記載のデータベースシステムであって、前記関連情報を構成する複数の文字情報が、前記各レポートに対応する1以上の画像データに付与された属性情報を含むことを特徴とする。   The invention according to claim 3 is the database system according to claim 1 or 2, wherein a plurality of character information constituting the related information is added to one or more image data corresponding to each report. The attribute information is included.

また、請求項4の発明は、請求項3に記載のデータベースシステムであって、前記属性情報が、患者ID、年齢、性別、モダリティ、検査部位、読影医師、及び担当医師を示す情報のうちの少なくとも1以上の情報を含むことを特徴とする。   The invention according to claim 4 is the database system according to claim 3, wherein the attribute information includes information indicating patient ID, age, sex, modality, examination site, interpretation doctor, and doctor in charge. It includes at least one piece of information.

また、請求項5の発明は、請求項1から請求項4のいずれかに記載のデータベースシステムであって、前記関連情報が、RDFで記述されていることを特徴とする。   The invention according to claim 5 is the database system according to any one of claims 1 to 4, wherein the related information is described in RDF.

また、請求項6の発明は、請求項1から請求項5のいずれかに記載のデータベースシステムであって、少なくとも1以上の文字情報に含まれる各文字情報に対して、当該各文字情報と所定の関係を有する1以上の関連文字情報が対応付けられて記憶された辞書データベースを更に備え、前記キーワード検索が、前記検索キーワード群に含まれる1以上の文字情報に対して前記所定の関係を有する1以上の関連文字情報を前記辞書データベースから抽出して前記検索キーワード群に追加する処理を含むことを特徴とする。   The invention according to claim 6 is the database system according to any one of claims 1 to 5, wherein each character information included in at least one or more pieces of character information is associated with each character information. A dictionary database in which one or more related character information having the following relationship is stored in association with each other, and the keyword search has the predetermined relationship with respect to one or more character information included in the search keyword group It includes a process of extracting one or more related character information from the dictionary database and adding it to the search keyword group.

また、請求項7の発明は、請求項6に記載のデータベースシステムであって、前記所定の関係が、類義語、同義語、及び関連語の関係うちの少なくとも1つの関係を含むことを特徴とする。   The invention according to claim 7 is the database system according to claim 6, wherein the predetermined relationship includes at least one relationship among synonyms, synonyms, and related terms. .

また、請求項8の発明は、請求項6または請求項7に記載のデータベースシステムであって、前記所定の関係が、文字情報の概念の上下関係を含み、前記キーワード検索が、前記検索キーワード群に含まれる1以上の文字情報に対して1以上の上位概念の文字情報を前記辞書データベースから抽出して前記検索キーワード群に追加する処理を含むことを特徴とする。   The invention according to claim 8 is the database system according to claim 6 or claim 7, wherein the predetermined relationship includes a hierarchical relationship of character information concepts, and the keyword search is performed by the search keyword group. Including one or more superordinate character information extracted from the dictionary database and added to the search keyword group.

また、請求項9の発明は、請求項1から請求項8のいずれかに記載のデータベースシステムであって、前記所定数の分類項目が、撮影条件、部位、基本所見、特徴、診断、及び結語のうちの少なくとも1以上の項目を含むことを特徴とする。   The invention according to claim 9 is the database system according to any one of claims 1 to 8, wherein the predetermined number of classification items includes imaging conditions, parts, basic findings, characteristics, diagnosis, and conclusion. Including at least one item.

また、請求項10の発明は、請求項1から請求項9のいずれかに記載のデータベースシステムであって、前記キーワード検索が、前記指定手段によって前記一覧表示において前記複数の分類項目のうちの1以上の分類項目に対して指定されている1以上の文字情報のうち、前記所定数の分類項目に含まれる予め設定された所定の一部の分類項目に属する1以上の文字情報を、前記検索キーワード群として選択的に採用する処理を含むこと特徴とする。   The invention according to claim 10 is the database system according to any one of claims 1 to 9, wherein the keyword search is performed by one of the plurality of classification items in the list display by the specifying means. Among the one or more pieces of character information specified for the above classification items, the search is performed for one or more pieces of character information belonging to a predetermined predetermined classification item included in the predetermined number of classification items. It includes processing that is selectively adopted as a keyword group.

また、請求項11の発明は、請求項1から請求項10のいずれかに記載のデータベースシステムであって、ユーザーの動作に応答して、前記所定数の分類項目のうちの少なくとも一部の分類項目を指定する項目指定手段を更に備え、前記キーワード検索が、前記指定手段によって前記一覧表示において前記複数の分類項目のうちの1以上の分類項目に対して指定されている1以上の文字情報のうち、前記項目指定手段によって指定された一部の分類項目に属する1以上の文字情報を、前記検索キーワード群として選択的に採用する処理を含むこと特徴とする。   The invention of claim 11 is the database system according to any one of claims 1 to 10, wherein at least a part of the predetermined number of classification items is classified in response to a user action. Item specifying means for specifying an item is further provided, wherein the keyword search is performed by the specifying means for at least one character information specified for one or more classification items of the plurality of classification items in the list display. Among these, it includes a process of selectively adopting one or more pieces of character information belonging to some of the classification items designated by the item designation means as the search keyword group.

また、請求項12の発明は、請求項1から請求項11のいずれかに記載のデータベースシステムであって、前記複数のレポートが、読影レポートを含むことを特徴とする。   The invention according to claim 12 is the database system according to any one of claims 1 to 11, wherein the plurality of reports include interpretation reports.

また、請求項13の発明は、請求項1から請求項12のいずれかに記載のデータベースシステムであって、前記レポート検出手段を有するサーバと、前記サーバに対してインターネット回線を介してデータ送受信可能に接続される端末機器とを備え、前記指定手段が、前記端末機器に対するユーザーの動作に応答して、前記出力手段によって前記少なくとも1つの画像データが可視的に出力されている状態で、前記一覧表示において、前記複数の分類項目に対して文字情報をそれぞれ指定し、前記サーバが、前記レポート検出手段によって検出された1以上のレポートデータを前記端末機器に対して前記インターネット回線を介して送信する送信手段を有し、前記端末機器が、前記出力手段を有し、該出力手段において、前記送信手段によって送信された1以上のレポートデータを可視的に出力することを特徴とする。   The invention according to claim 13 is the database system according to any one of claims 1 to 12, wherein data can be transmitted to and received from the server having the report detecting means via the Internet line. A terminal device connected to the terminal device, wherein the specifying means is responsive to a user action on the terminal device, and the output means outputs the at least one image data in a visible manner. In the display, character information is designated for each of the plurality of classification items, and the server transmits one or more report data detected by the report detection means to the terminal device via the Internet line. Having a transmission means, and the terminal device has the output means, wherein the output means uses the transmission means. And outputting one or more reports data transmitted visually.

また、請求項14の発明は、請求項13に記載のデータベースシステムであって、前記サーバが、前記前記レポート検出手段によって検出された1以上のレポートデータから所定種類の個人情報を削除する削除手段を更に備え、前記送信手段が、前記削除手段によって前記所定種類の個人情報が削除された1以上のレポートデータを前記端末機器に対して前記インターネット回線を介して送信することを特徴とする。   The invention according to claim 14 is the database system according to claim 13, wherein the server deletes a predetermined type of personal information from one or more report data detected by the report detection means. The transmission means transmits one or more report data from which the predetermined type of personal information has been deleted by the deletion means to the terminal device via the Internet line.

また、請求項15の発明は、データベースシステムに含まれるコンピュータによって実行されることにより、前記データベースシステムを、請求項1から請求項14のいずれかに記載のデータベースシステムとして機能させるプログラムである。   The invention of claim 15 is a program for causing the database system to function as the database system according to any one of claims 1 to 14 by being executed by a computer included in the database system.

また、請求項16の発明は、レポート検索方法であって、(A)複数のレポートに含まれるレポート毎に、レポートを構成する複数の文字情報と、当該レポートに対応する1以上の画像データとが直接的及び/又は間接的に関連付けられた関連情報が蓄積されている関連情報データベース、ならびに前記複数の文字情報が属する所定数の属性項目に含まれる属性項目毎に複数の文字情報が列挙されるとともに、該所定数の属性項目間で、該各分類項目に属する複数の文字情報どうしが相互にネットワーク状に関連付けられたネットワーク情報が記憶されている入力支援情報データベースを準備するステップと、(B)前記ネットワーク情報に含まれる一部のネットワーク情報に基づき、前記所定数の分類項目に含まれる複数の分類項目について分類項目毎に少なくとも1つの文字情報がそれぞれ列挙され、且つ該複数の分類項目間で該各分類項目に属する複数の文字情報がネットワーク状に関連付けられている一覧表示と、少なくとも1つの画像データとを出力手段によって可視的に出力するステップと、(C)前記少なくとも1つの画像データが前記出力手段によって可視的に出力されている状態で、ユーザーの動作に応答して、前記一覧表示において、前記複数の分類項目に対して文字情報をそれぞれ指定するステップと、(D)前記ステップ(C)において前記複数の分類項目に対してそれぞれ指定された文字情報を、所定のレポートモデルに沿ったレポートを構成する要素として決定するステップと、(E)前記少なくとも1つの画像データが前記出力手段によって可視的に出力されている状態であり、且つ前記一覧表示において前記複数の分類項目のうちの一部である1以上の分類項目に対して1以上の文字情報が指定されている状態で、ユーザーの動作に応答して、該1以上の文字情報を検索キーワード群として、前記関連情報データベースにおいて各画像データに対して直接的及び/又は間接的に関連付けられている前記複数の文字情報をデータ検索のためのメタデータとしたキーワード検索を行うことで、前記出力手段によって可視的に出力されている前記少なくとも1つの画像データと関連する1以上のレポートデータを検出するステップとを備えることを特徴とする。   The invention of claim 16 is a report search method, wherein (A) for each report included in a plurality of reports, a plurality of character information constituting the report, and one or more image data corresponding to the report, A plurality of character information is listed for each attribute item included in a related information database in which related information directly and / or indirectly related is stored, and a predetermined number of attribute items to which the plurality of character information belongs. And preparing an input support information database in which network information in which a plurality of character information items belonging to each classification item are associated with each other in a network form is stored between the predetermined number of attribute items; B) Classification items for a plurality of classification items included in the predetermined number of classification items based on a part of the network information included in the network information. At least one character information is listed for each, and a list display in which a plurality of character information belonging to each classification item is associated with each other among the plurality of classification items, and at least one image data is output (C) in a state in which the at least one image data is visually output by the output means, in response to a user action, in the list display, A step of designating character information for each category item, and (D) character information designated for each of the plurality of category items in step (C) constitutes a report according to a predetermined report model Determining as an element; and (E) a state in which the at least one image data is visually output by the output means. In response to a user action in a state where one or more character information is specified for one or more classification items that are a part of the plurality of classification items in the list display, A keyword search using the plurality of character information directly and / or indirectly associated with each image data in the related information database as metadata for data search And a step of detecting one or more report data associated with the at least one image data visually output by the output means.

なお、本明細書における「文字」には、漢字などの表意文字やローマ字、仮名等の表音文字は勿論のこと、ローマ数字等の数字も含まれる。   In addition, “characters” in the present specification include not only ideographic characters such as kanji, but also phonetic characters such as romaji and kana, as well as numerals such as roman numerals.

また、本明細書における「キーワード検索」とは、データベースなどを検索する際に、各項目に対してあらかじめ設定されたキーワードを元に検索を行なうことである。   In addition, “keyword search” in this specification refers to a search based on a keyword set in advance for each item when searching a database or the like.

請求項1に記載のデータベースシステムによれば、画像に関する詳細な情報が記載されているレポートを構成する文字情報をメタデータとして画像に対して付与しておき、画像に付与された文字情報をキーワードとして、上記メタデータを利用したキーワード検索を行うことができるため、レポートの検索精度が高くかつ、検索条件の入力が容易な検索技術を提供することができる。   According to the database system of claim 1, character information constituting a report in which detailed information about an image is described is attached to the image as metadata, and the character information attached to the image is used as a keyword. As described above, since the keyword search using the metadata can be performed, a search technique with high report search accuracy and easy input of search conditions can be provided.

請求項2に記載のデータベースシステムによれば、画像に対して元々関連付けられていたレポートを構成する文字情報をメタデータとして画像に対して付与できるため、画像に対してメタデータの付与する特別な操作が不要となる。すなわち、画像に対するメタデータの付与が容易に可能となる。   According to the database system of the second aspect, since the character information constituting the report originally associated with the image can be given to the image as metadata, a special addition of metadata to the image is possible. No operation is required. That is, it is possible to easily add metadata to an image.

請求項3に記載のデータベースシステムによれば、画像に対して元々付与されていた属性情報もメタデータに含めることで、検索精度を更に向上させることができる。   According to the database system of the third aspect, it is possible to further improve the search accuracy by including the attribute information originally given to the image in the metadata.

請求項4に記載のデータベースシステムによれば、画像の内容を特徴付ける項目に関する文字情報を利用した検索が可能となるため、検索精度をより向上させることができる。   According to the database system of the fourth aspect, the search using the character information regarding the item characterizing the contents of the image can be performed, so that the search accuracy can be further improved.

請求項5に記載のデータベースシステムによれば、RDFを利用することで、画像とレポートを構成する文字情報との関連を簡単に記述できる。   According to the database system of the fifth aspect, by using the RDF, the relationship between the image and the character information constituting the report can be easily described.

請求項6から請求項8のいずれに記載のデータベースシステムによっても、最初に与えられたキーワードから所定の関係を有するキーワードをも含めたキーワード検索を行うことで、レポートの作成者によって若干異なる言葉使いの癖などに拘わらず、所望の画像やレポートが検出される確率が高まる。   In the database system according to any one of claims 6 to 8, a word search slightly different depending on a report creator is performed by performing a keyword search including a keyword having a predetermined relationship from a keyword given first. The probability that a desired image or report will be detected is increased regardless of the wrinkles.

請求項7に記載のデータベースシステムによれば、類義語や同義語や関連語なども考慮したキーワード検索を行うことで、レポートの作成者によって若干異なる言葉使いの癖などに拘わらず、所望の画像やレポートが検出される確率が高まる。   According to the database system according to claim 7, by performing keyword search considering synonyms, synonyms, related words, and the like, a desired image or Increases the probability that a report will be detected.

請求項8に記載のデータベースシステムによれば、上位概念のキーワードも考慮したキーワード検索を行うことで、所望の画像やレポートが検出される確率が高まる。   According to the database system of the eighth aspect, the probability that a desired image or report is detected is increased by performing a keyword search in consideration of a keyword of a superordinate concept.

請求項9に記載のデータベースシステムによれば、画像に関する特徴的な内容を示す文字情報を画像に対して付与できるため、検索精度を向上させることができる。   According to the database system of the ninth aspect, the character information indicating the characteristic contents related to the image can be given to the image, so that the search accuracy can be improved.

請求項10及び請求項11のいずれに記載のデータベースシステムによっても、画像に付与された文字情報のうち一部の項目に属する文字情報を選択的に利用して検索を行うことで、検索処理に要する負荷を低減できる。   According to any of the database systems according to claim 10 and claim 11, by performing a search by selectively using character information belonging to some items of character information assigned to an image, the search can be performed. The required load can be reduced.

請求項11に記載のデータベースシステムによれば、画像に付与された文字情報のうち所望の項目に属する文字情報を選択的に利用して検索を行うことができるため、ユーザーが指定する画像に付与されていない文字情報の項目を除外して検索を行うことができる。   According to the database system of claim 11, since it is possible to perform a search by selectively using character information belonging to a desired item among character information assigned to an image, the image is assigned to an image designated by a user. It is possible to perform a search by excluding items of character information that have not been made.

請求項12に記載のデータベースシステムによれば、読影レポートは画像と関連付けてデータベース化されることが多く、読影レポートは画像の特徴的な文字情報を多く含むため、画像に対するメタデータの付与の容易化、並びに検索精度の向上を図ることが可能である。   According to the database system of claim 12, the interpretation report is often databased in association with the image, and the interpretation report includes a lot of characteristic character information of the image, so that it is easy to give metadata to the image. And the search accuracy can be improved.

請求項13に記載のデータベースシステムによれば、ユーザーは、検索対象の情報量を容易に増大させることができるインターネットを利用して、指定した画像について類似画像や関連するレポートの可視的な情報を得ることができるため、所望の画像やレポートが得られる確率を更に向上させることができる。   According to the database system of claim 13, the user can use the Internet, which can easily increase the amount of information to be searched, for visual information on similar images and related reports for a specified image. Therefore, the probability of obtaining a desired image or report can be further improved.

請求項14に記載のデータベースシステムによれば、個人情報が広範囲に流出することを防ぐことができる。   According to the database system of the fourteenth aspect, personal information can be prevented from leaking over a wide range.

請求項15に記載のプログラムによれば、請求項1から請求項14と同様な効果を得ることができる。   According to the program of the fifteenth aspect, effects similar to the first to fourteenth aspects can be obtained.

請求項16に記載の画像検索方法によれば、請求項1から請求項14と同様な効果を得ることができる。   According to the image search method of the sixteenth aspect, the same effects as those of the first to fourteenth aspects can be obtained.

本発明の実施形態に係るデータベースシステムの概要を示す図である。It is a figure which shows the outline | summary of the database system which concerns on embodiment of this invention. 入力支援機能に係る情報処理内容の概要を示す図である。It is a figure which shows the outline | summary of the information processing content which concerns on an input assistance function. 検索機能に係る情報処理内容の概要を示す図である。It is a figure which shows the outline | summary of the information processing content which concerns on a search function. レポート入力装置で新規読影レポートを入力する状態を例示する図である。It is a figure which illustrates the state which inputs a new interpretation report with a report input device. 新規レポートの入力及び情報検索に係る機能構成を示すブロック図である。It is a block diagram which shows the function structure which concerns on the input of a new report, and information retrieval. 単一レポート構造化データを例示する図である。It is a figure which illustrates single report structured data. 多数の既存読影レポートに係る要素が構造化された例を示す図である。It is a figure which shows the example by which the element which concerns on many existing interpretation reports was structured. 詳細な要素をRDFの記述によって関連付けた情報を例示する図である。It is a figure which illustrates the information which linked | related the detailed element by description of RDF. 支援情報作成動作の動作フローを示すフローチャートである。It is a flowchart which shows the operation | movement flow of support information creation operation | movement. 検査一覧画面を例示する図である。It is a figure which illustrates an inspection list screen. 読影レポート入力画面を例示する図である。It is a figure which illustrates an interpretation report input screen. 依頼事項表示領域に表示される依頼事項の内容を例示する図である。It is a figure which illustrates the content of the request matter displayed on a request matter display area. 検査情報表示領域に表示される検査の詳細な内容を例示する図である。It is a figure which illustrates the detailed content of the test | inspection displayed on a test | inspection information display area. 頻出句の一覧を例示する図である。It is a figure which illustrates the list of frequent phrases. サマリの一覧を例示する図である。It is a figure which illustrates the list of summaries. 情報取得条件決定テンプレート表示を例示する図である。It is a figure which illustrates information acquisition condition determination template display. 入力支援テンプレート表示の表示例を示す図である。It is a figure which shows the example of a display of an input assistance template display. 入力支援テンプレート表示の表示例を示す図である。It is a figure which shows the example of a display of an input assistance template display. 画像表示画面の表示例を示す図である。It is a figure which shows the example of a display of an image display screen. 検索に係るコマンドのリストを例示する図である。It is a figure which illustrates the list | wrist of the command which concerns on a search. 検索基準画像の特徴を示す文字情報の内容を示す図である。It is a figure which shows the content of the character information which shows the characteristic of a search reference image. 辞書DBの記憶内容を例示する図である。It is a figure which illustrates the memory content of dictionary DB. 類似画像及び関連レポートの検索結果画面を例示する図である。It is a figure which illustrates the search result screen of a similar image and a related report. 検索条件をカスタマイズする設定画面を例示する図である。It is a figure which illustrates the setting screen which customizes search conditions. 新規なレポートの作成動作フローを示すフローチャートである。It is a flowchart which shows the creation operation flow of a new report. 類似画像/関連レポートの検索動作フローを示すフローチャートである。It is a flowchart which shows the search operation | movement flow of a similar image / related report. 関連画像の表示画面を例示する図である。It is a figure which illustrates the display screen of a related image. シソーラスの内容を説明するための図である。It is a figure for demonstrating the content of a thesaurus. 変形例に係るデータベースシステムの概要を示す図である。It is a figure which shows the outline | summary of the database system which concerns on a modification. 変形例に係る入力支援テンプレート表示を例示する図である。It is a figure which illustrates the input support template display which concerns on a modification. 変形例に係る検索条件を決定するためのダイアログを例示する図である。It is a figure which illustrates the dialog for determining the search condition which concerns on a modification. 変形例に係る画像及び所見文の検索結果画面を例示する図である。It is a figure which illustrates the search result screen of the image and finding sentence which concern on a modification.

以下、本発明の実施形態を図面に基づいて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<データベースシステムの概要>
本発明の実施形態に係るデータベースシステムは、放射線画像等の画像の読影結果をレポーティングするためのシステムであり、上記画像は通常PACS(Picture Archiving and Communication System)の画像サーバ上に蓄積される。また、画像を読影したレポートを保存するデータベース(レポートデータベース)も存在する。このレポートデータベース(レポートDB)は、PACS内のサーバに存在しても良いし、PACS外の別サーバに存在しても良い。
<Outline of database system>
A database system according to an embodiment of the present invention is a system for reporting a result of interpretation of an image such as a radiographic image, and the image is normally stored on an image server of PACS (Picture Archiving and Communication System). There is also a database (report database) that stores reports obtained by interpreting images. This report database (report DB) may exist in a server in the PACS or may exist in another server outside the PACS.

図1は、本発明の実施形態に係るデータベースシステム1の概要を例示する図である。   FIG. 1 is a diagram illustrating an overview of a database system 1 according to an embodiment of the present invention.

データベースシステム1は、例えば、病院内で診療情報を管理・処理するためのシステムであり、LAN等のネットワーク回線NTWに、サーバ100、及び端末10,20が相互にデータ送受信可能に接続されている。また、サーバ100には、記憶部200がデータ送受信可能に接続され、更に、ネットワーク回線LNを介して端末30〜50がデータ送受信可能に接続されている。   The database system 1 is a system for managing and processing medical information in a hospital, for example, and a server 100 and terminals 10 and 20 are connected to a network line NTW such as a LAN so that data can be transmitted and received between them. . Further, the storage unit 200 is connected to the server 100 so as to be able to transmit and receive data, and further, terminals 30 to 50 are connected to be able to transmit and receive data via the network line LN.

記憶部200は、診療対象である多数の患者に係る医療情報(以下「診療情報」とも称する)を記憶する診療情報データベース(診療情報DB)210を格納している。   The storage unit 200 stores a medical information database (medical information DB) 210 that stores medical information (hereinafter also referred to as “medical information”) related to a large number of patients who are medical targets.

診療情報DB210には、各患者について放射線科で放射線撮影によって得られた複数の画像データが格納された画像データベース(画像DB)、複数の読影レポートに含まれるレポート毎に、画像DBに格納された1以上の画像データと当該1以上の画像データについて記載された読影レポートを示すデータとが関連付けられたデータ(以下「画像付きレポートデータ」とも、単に「レポートデータ」とも称する)が蓄積されたレポートデータベース(レポートDB)、及び当該レポートDBに格納されている各画像付きレポートデータが構造化されたデータ(単一レポート構造化データ)が蓄積された構造化データベース(構造化DB)が記憶されている。   The medical information DB 210 stores an image database (image DB) in which a plurality of image data obtained by radiography in the radiology department for each patient is stored, and each report included in the plurality of interpretation reports is stored in the image DB. A report in which one or more image data and data indicating an interpretation report described for the one or more image data are associated (hereinafter also referred to as “report data with image” or simply “report data”). A database (report DB) and a structured database (structured DB) in which data (single report structured data) in which each report data with images stored in the report DB is structured are stored. Yes.

なお、1つの画像付きレポートデータで関連付けられる画像データは、1フレーム分に限られず、例えば、2フレーム分以上など1フレーム分以上の画像データであれば良い。そして、画像付きレポートデータでは、読影レポートを構成する自然文や各種文字情報のデータと、画像データの所在を特定する情報(例えば、ファイル名やURIの記述)とが関連付けられている。   Note that image data associated with one report data with an image is not limited to one frame, and may be image data for one frame or more, for example, two frames or more. In the report data with image, data of natural text and various character information constituting the interpretation report is associated with information for specifying the location of the image data (for example, description of file name or URI).

また、画像DBに格納された各画像データには、DICOM(Digital Image and Communications in Medicine)の属性(DICOM属性)に係る情報が付与されている。当該属性情報には、例えば、患者ID,年齢、性別、モダリティ、検査部位、読影医師、及び担当医師を示す情報が含まれるが、当該7つの情報のうちの少なくとも1以上の情報を含むような構成としても良い。   In addition, each image data stored in the image DB is given information related to an attribute (DICOM attribute) of DICOM (Digital Image and Communications in Medicine). The attribute information includes, for example, information indicating a patient ID, age, sex, modality, examination site, interpretation doctor, and doctor in charge, but includes at least one of the seven pieces of information. It is good also as a structure.

また、診療情報DB210には、多数の患者についての検査の一覧を示すリスト(検査リスト)の情報(検査リスト情報)が格納されている。検査リスト情報には、例えば、検査毎に画像データに付与されていたDICOM属性の情報が列挙される。より詳細には、検査リスト情報には、例えば、各検査に係る患者の属性(患者ID、患者氏名、生年月日、年齢、性別)、読影レポートを作成したか否かを示す状態、検査を特定する検査ID、検査日、検査対象にあたる部位、撮影条件を示すモダリティ、及び撮影枚数をそれぞれ示す情報が含まれている。そして、診療情報DB210には、担当医からのオーダーリング(依頼事項)や検査の詳細(患者や検査に係る情報)を示す属性情報が検査IDと関連付けられて格納されている。   The medical treatment information DB 210 stores information (examination list information) of a list (examination list) indicating a list of examinations for a large number of patients. In the examination list information, for example, information on DICOM attributes given to the image data for each examination is listed. More specifically, the examination list information includes, for example, patient attributes (patient ID, patient name, date of birth, age, gender) related to each examination, a state indicating whether an interpretation report has been created, and examinations. Information indicating the examination ID to be identified, the examination date, the part corresponding to the examination object, the modality indicating the imaging condition, and the number of images taken is included. The medical care information DB 210 stores attribute information indicating ordering (request items) from the doctor in charge and details of the examination (information on the patient and examination) in association with the examination ID.

サーバ100は、診療情報DB210に対する各種情報の書き込み/読み出しを行うとともに、診療情報DB210に格納される各種情報に基づいた情報処理を行う。サーバ100における情報処理は、端末10〜50に搭載されたデータ管理機能によって適宜管理される。   The server 100 writes / reads various information to / from the medical information DB 210 and performs information processing based on the various information stored in the medical information DB 210. Information processing in the server 100 is appropriately managed by a data management function installed in the terminals 10-50.

データベースシステム1では、例えば、端末10,20が患者の担当医が使用する端末、端末30が放射線科の読影医が読影レポートを入力する端末(レポート入力装置)30、及び端末40,50が放射線科の技師が使用する端末である。   In the database system 1, for example, the terminals 10 and 20 are terminals used by the doctor in charge of the patient, the terminal 30 is a terminal (report input device) 30 from which a radiology interpreting doctor inputs an interpretation report, and the terminals 40 and 50 are radiation. This terminal is used by a department engineer.

端末10,20から放射線科の端末40,50に対してオーダーが入ると、放射線科の技師がMR装置やCR装置等を用いて患部の画像データを取得する。当該患部の画像データは、端末40,50からサーバ100を介して診療情報DB210に格納される。その後、放射線科の医師が、レポート入力装置30において、診療情報DB210に格納されている画像データを可視的に出力させた画面を参照しつつ読影レポートを入力する。   When an order is received from the terminals 10 and 20 to the radiology terminals 40 and 50, a radiology engineer acquires image data of the affected area using an MR apparatus, a CR apparatus, or the like. The image data of the affected part is stored in the medical care information DB 210 from the terminals 40 and 50 via the server 100. Thereafter, a radiology doctor inputs an interpretation report in the report input device 30 while referring to a screen on which image data stored in the medical information DB 210 is visually output.

サーバ100は、診療情報DB210に既に格納されている読影レポート(既存読影レポート)を利用して、新規な読影レポートの入力を支援する情報(入力支援情報)を作成し、当該入力支援情報から必要な情報を取得(抽出)してテンプレート表示の形でレポート入力装置30に提供する。   The server 100 uses the interpretation report (existing interpretation report) already stored in the medical treatment information DB 210 to create information (input support information) that supports the input of a new interpretation report, and is necessary from the input support information. Information is acquired (extracted) and provided to the report input device 30 in the form of a template display.

また、サーバ100は、レポートDBに格納されている各画像付きレポートデータを利用して構造化することで、構造化DBを診療情報DB210内に構築する。そして、レポート入力装置30における新規な読影レポートの入力時に、サーバ100は、構造化DBを利用して、レポート入力装置30で指定された画像データに類似した画像データや関連する読影レポート(例えば、読影レポートの一部を構成する所見文等)のデータを参考情報として検索してレポート入力装置30に提供する。構造化DBが、検索を支援する情報(検索支援情報)の役割を果たす。   Further, the server 100 constructs the structured DB in the medical treatment information DB 210 by structuring using the report data with images stored in the report DB. Then, when a new interpretation report is input in the report input device 30, the server 100 uses the structured DB and uses image data similar to the image data specified in the report input device 30 or a related interpretation report (for example, The data of a finding sentence constituting a part of the interpretation report is retrieved as reference information and provided to the report input device 30. The structured DB plays the role of information (search support information) that supports search.

なお、サーバ100において新規な読影レポートの入力を支援する機能を以下「入力支援機能」と称する。また、入力支援機能には、ユーザーによって指定された画像データに類似した画像(類似画像)データや関連する読影レポート(関連レポート)データを検索する機能(検索機能)が含まれる。検索機能を含む入力支援機能については更に後述する。   A function for supporting the input of a new interpretation report in the server 100 is hereinafter referred to as an “input support function”. The input support function includes a function (search function) for searching for image (similar image) data similar to image data designated by the user and related interpretation report (related report) data. The input support function including the search function will be described later.

図2及び図3は、データベースシステム1における入力支援機能に係る情報処理内容の概要を示す図であり、図3は、検索機能に係る情報処理内容の概要に着目して示す図である。   2 and 3 are diagrams showing an overview of information processing contents related to the input support function in the database system 1, and FIG. 3 is a diagram focusing on the information processing contents related to the search function.

診療情報DB210には、撮影された画像や作成された読影レポートを示すデータが保管されている。図2に示すように、レポート入力装置30は、診療情報DB210から読影対象の画像データを取得し、読影レポートを示すデータを作成する装置である。そして、サーバ100が、診療情報DB210から既存の読影レポートを示すデータを読み出して、解析機能によって解析することで、読影レポートの作成・入力を支援する情報(入力支援情報)が作成され、入力支援DB111に格納される。レポート入力装置30では、入力支援情報を利用して、新規な読影レポートの入力が行われる。また、新たに作成された読影レポートを示すデータは、診療情報DB210に追加されるとともに、入力支援DB111に格納される入力支援情報の補強に使用される。   The medical information DB 210 stores data indicating captured images and created interpretation reports. As shown in FIG. 2, the report input device 30 is a device that acquires image data to be interpreted from the medical treatment information DB 210 and creates data indicating an interpretation report. Then, the server 100 reads out the data indicating the existing interpretation report from the medical treatment information DB 210 and analyzes it by the analysis function, thereby creating information (input support information) for supporting the creation and input of the interpretation report. Stored in the DB 111. In the report input device 30, a new interpretation report is input using the input support information. Further, the newly created data indicating the interpretation report is added to the medical care information DB 210 and used to reinforce the input support information stored in the input support DB 111.

また、図3に示すように、診療情報DB210には、多数の画像付きレポートデータが蓄積されたレポートDB211、患部を捉えた多数の画像データが蓄積された画像DB212、及びレポートDB211に格納されている各画像付きレポートデータがそれぞれ構造化された単一レポート構造化データが蓄積された構造化DB213が保管されている。レポート入力装置30は、指定した画像データに類似した画像データや関連する読影レポートに係るデータを検索結果として診療情報DB210から得ることができる。なお、レポート入力装置30から入力される新規な読影レポートを示すデータは、レポートDB211及び構造化DB213の補強にも使用される。   As shown in FIG. 3, the medical treatment information DB 210 stores a report DB 211 in which a large number of report data with images are accumulated, an image DB 212 in which a large number of image data capturing an affected area is accumulated, and a report DB 211. A structured DB 213 in which single report structured data in which each image-attached report data is structured is stored. The report input device 30 can obtain image data similar to the designated image data or data related to the interpretation report from the medical information DB 210 as a search result. Note that data indicating a new interpretation report input from the report input device 30 is also used to reinforce the report DB 211 and the structured DB 213.

図4は、レポート入力装置30において新規な読影レポートを入力する状態を例示する図である。図4に示すように、レポート入力装置30では、放射線科の読影医が、診療情報DB210に格納された患者の画像データを可視的に出力した画面(画像表示画面)401を適宜参照しつつ、入力画面402において新規な読影レポートを入力する。図4では、画像表示画面401の左半分の表示領域LHに画像データが可視的に出力され、右半分の表示領域RHには画像データが可視的に出力されていない状態が示されている。表示領域RHは、検索機能における各種検索結果などを表示する領域として機能する。   FIG. 4 is a diagram illustrating a state in which a new interpretation report is input in the report input device 30. As shown in FIG. 4, in the report input device 30, a radiology interpreting doctor appropriately refers to a screen (image display screen) 401 that visually outputs patient image data stored in the medical information DB 210. A new interpretation report is input on the input screen 402. FIG. 4 shows a state in which image data is visually output to the left half display area LH of the image display screen 401 and no image data is visually output to the right half display area RH. The display area RH functions as an area for displaying various search results in the search function.

<入力支援機能>
入力支援機能は、診療情報DB210に格納された多数の画像付きレポートデータを過去の知識として、当該多数の画像付きレポートデータから、新規な読影レポートの入力に必要な要素を抽出してRDF(Resource Description Framework)等を利用して構造化することで、入力支援情報を作成し、適宜提示等を行う機能を有する。また、入力支援機能は、検索支援情報(ここでは、構造化DB213)を用いた検索を行う機能も有する。
<Input support function>
The input support function uses a large number of report data with images stored in the medical information DB 210 as past knowledge, extracts elements necessary for inputting a new interpretation report from the many report data with images, and performs RDF (Resource It has a function of creating input support information and presenting it appropriately by structuring using Description Framework). The input support function also has a function of performing a search using search support information (here, the structured DB 213).

入力支援機能によって実現される動作は、主に、入力及び検索支援情報を作成する動作(支援情報作成動作)、入力対象の新規な読影レポートに対応する検査の選択に係る動作(検査選択動作)、入力支援情報に基づいて新規な読影レポートの入力を実際に支援する動作(入力支援動作)、及び検索機能によって実現される動作(検索動作)の4つの動作によって構成される。   The operations realized by the input support function are mainly operations for creating input and search support information (support information creation operation), operations related to selection of a test corresponding to a new interpretation report to be input (test selection operation) , And an operation that actually supports the input of a new interpretation report based on the input support information (input support operation) and an operation realized by the search function (search operation).

<機能構成>
図5は、データベースシステム1のうち検索機能を含む入力支援機能及び入力支援機能を利用した新規な読影レポートの入力に係る機能構成を示すブロック図である。図5で示す機能構成のうち、制御部120,31の備える機能は、サーバ100、及び端末(レポート入力装置)30において、それぞれハードディスク等によって構成される記憶部110,34に格納されたプログラムをCPU等によって構成される制御部120,31で実行することによって、実現される機能を概念的に示すものである。なお、当該機能構成で実行される各種情報処理において一時的に記憶される各種データは、例えば、制御部120,31にそれぞれ内蔵されているRAM等に適宜一時記憶される。
<Functional configuration>
FIG. 5 is a block diagram showing a functional configuration relating to input of a new interpretation report using the input support function including the search function and the input support function in the database system 1. Among the functional configurations shown in FIG. 5, the functions of the control units 120 and 31 are the programs stored in the storage units 110 and 34 each configured by a hard disk or the like in the server 100 and the terminal (report input device) 30. Functions executed by the control units 120 and 31 configured by a CPU or the like are conceptually shown. Note that various types of data temporarily stored in various types of information processing executed by the functional configuration are temporarily stored in, for example, RAMs built in the control units 120 and 31 as appropriate.

サーバ100は、主に、記憶部110と制御部120とを備えて構成される。   The server 100 mainly includes a storage unit 110 and a control unit 120.

記憶部110は、サーバ100における各種制御や機能などを実現するための各種プログラムや各種データを格納している。例えば、記憶部110は、入力支援DB111と辞書データベース(辞書DB)130とを記憶している。   The storage unit 110 stores various programs and various data for realizing various controls and functions in the server 100. For example, the storage unit 110 stores an input support DB 111 and a dictionary database (dictionary DB) 130.

入力支援DB111には、支援情報作成動作によって作成された入力支援情報が格納される。入力支援情報の具体的な内容については後述する。   The input support DB 111 stores input support information created by a support information creation operation. Specific contents of the input support information will be described later.

辞書DB130は、語句やフレーズなどといった各文字情報に対して、当該各文字情報と同じ意味や類似する意味や関連する意味を有する語句等が対応付けられて記憶されたデータベースである。つまり、辞書DB130では、類義語、同義語、及び関連語などといった所定の関係を有する語句などの文字情報が相互に対応付けられている。換言すれば、辞書DB130は、少なくとも1以上の文字情報に含まれる各文字情報に対して、所定の関係を有する1以上の文字情報(関連文字情報)が対応付けられたものである。なお、辞書DB130は、類義語、同義語、及び関連語のうちの1以上の関係を有する語句が対応付けられたものであっても良い。   The dictionary DB 130 is a database in which each character information such as a word or phrase is associated with a word having the same meaning as the character information, a similar meaning or a related meaning, and the like. That is, in the dictionary DB 130, character information such as words and phrases having a predetermined relationship such as synonyms, synonyms, and related words are associated with each other. In other words, the dictionary DB 130 is obtained by associating each piece of character information included in at least one piece of character information with one or more pieces of character information (related character information) having a predetermined relationship. Note that the dictionary DB 130 may be associated with words having one or more relationships among synonyms, synonyms, and related words.

制御部120は、サーバ100の各種制御や機能などを統括制御するものであり、データ読込部121、検査済判定部122、データ構築部123、情報検索部125、レポート構成部127、及びデータ書込部128を機能として備えている。   The control unit 120 performs overall control of various controls and functions of the server 100, and includes a data reading unit 121, an inspected determination unit 122, a data construction unit 123, an information search unit 125, a report configuration unit 127, and a data document. The embedding unit 128 is provided as a function.

データ読込部121は、診療情報DB210から、画像付きレポートデータと、当該画像付きレポートデータに係る画像データに対応する属性情報と、検査リスト情報とを読み込む。そして、データ読込部121は、支援情報作成動作、及び入力支援動作においては、画像付きレポートデータと属性情報と検査リスト情報とを検査済判定部122に送出し、検査選択動作においては、検査リスト情報をレポート入力装置30の制御部31に送出する。   The data reading unit 121 reads report data with image, attribute information corresponding to image data related to the report data with image, and examination list information from the medical treatment information DB 210. The data reading unit 121 sends the report data with image, the attribute information, and the inspection list information to the inspected determination unit 122 in the support information generation operation and the input support operation, and in the inspection selection operation, the inspection list Information is sent to the control unit 31 of the report input device 30.

検査済判定部122は、検査リスト情報を参照することで、各検査の読影レポートについて所見文等を書き込んで読影レポートが作成されているか否かを判定する。そして、検査済判定部122は、支援情報作成動作においては、作成済み(すなわち検査済み)の画像付きレポートデータを属性情報とともにデータ構築部123に送出し、入力支援動作においては、未完成(すなわち未検査)の画像付きレポートデータを属性情報とともにレポート入力装置30の制御部31に送出する。   The inspection completion determination unit 122 refers to the inspection list information to determine whether or not an interpretation report has been created by writing a finding sentence or the like for the interpretation report of each inspection. Then, in the support information creation operation, the inspected determination unit 122 sends the generated report data with image (that is, inspected) together with the attribute information to the data construction unit 123, and in the input support operation, incomplete (that is, incomplete) Unreported image-attached report data is sent to the control unit 31 of the report input device 30 together with the attribute information.

データ構築部123は、複数の画像付きレポートデータを対象として、画像付きレポートデータによって表される読影レポートを構成する自然文である所見文から必要な要素を抽出するとともに、属性情報に含まれる各種要素も抽出し、RDFを利用して構造化を行うことで、入力支援情報を作成して入力支援DB111を構築するとともに、検索支援情報を作成して構造化DB213を構築する。   The data construction unit 123 extracts a necessary element from a finding sentence that is a natural sentence that constitutes an interpretation report represented by the report data with an image for a plurality of report data with an image, and includes various kinds of information included in the attribute information. Elements are also extracted and structured using RDF, so that input support information is created and the input support DB 111 is constructed, and search support information is created and the structured DB 213 is constructed.

ここで作成される入力支援情報は、所見文を構成する複数の要素(ここでは文字情報)の項目に含まれる各項目間で、当該複数要素の項目にそれぞれ属する各要素が相互にネットワーク状に関連付けられた情報(以下「ネットワーク情報」とも称する)を含む情報(以下「要素ネットワーク情報」とも称する)となっている。   The input support information created here is that each element belonging to the item of the plurality of elements is mutually networked between the items included in the items of the plurality of elements (here, character information) constituting the finding sentence. It is information (hereinafter also referred to as “element network information”) including associated information (hereinafter also referred to as “network information”).

また、ここで作成される検索支援情報は、複数のレポートに含まれるレポート毎に、レポートの所見文を構成する複数の文字情報(例えば語句)と、当該レポートの読影対象にあたる1以上の画像データとが関連付けられた情報(以下「関連情報」とも称する)が蓄積されて構築されたデータベース(構造化DB213)である。なお、構造化DB213は、関連情報データベース(DB)とも称する。   The search support information created here includes, for each report included in a plurality of reports, a plurality of character information (for example, words / phrases) constituting a finding sentence of the report and one or more image data corresponding to an interpretation target of the report Is a database (structured DB 213) constructed by accumulating information (hereinafter also referred to as “related information”). The structured DB 213 is also referred to as a related information database (DB).

情報検索部125は、レポート入力装置30からの要求に応答して、読影レポートの入力を直接的にサポートするテンプレート表示を構成するために、入力支援DB111に格納される要素ネットワーク情報から一部のネットワーク情報(以下「一部ネットワーク情報」とも称する)を取得する。そして、情報検索部125は、一部ネットワーク情報に基づき、複数要素の項目にそれぞれ属する各要素が各項目間で相互に関連付けられた一部ネットワーク情報の一覧表示を含む表示画面に係るデータ(ネットワーク表示画面データ)を生成し、制御部31に対して出力する。   In response to a request from the report input device 30, the information search unit 125 uses a part of the element network information stored in the input support DB 111 to configure a template display that directly supports the input of the interpretation report. Network information (hereinafter also referred to as “partial network information”) is acquired. Then, the information search unit 125, based on the partial network information, data related to a display screen including a list display of partial network information in which each element belonging to each of the plurality of element items is associated with each other (network Display screen data) is generated and output to the control unit 31.

また、情報検索部125は、構造化DB213を検索対象として、レポート入力装置30において指定された画像データに係る類似画像及び関連レポートのデータを検索して取得するとともに、当該検索結果を表示する画面に係るデータ(検索結果表示画面データ)を生成し、制御部31に対して出力する。この検索動作では、指定された1以上の画像データに関連付けられた1以上の文字情報を検索キーワードとして、構造化DB213において画像データに対して関連付けられた複数の文字情報を画像データに付与されたデータ検索のためのメタデータとみなし、当該メタデータと検索キーワードとが合致するか否かに従った検索処理(すなわち、キーワード検索処理)が行われる。   Further, the information search unit 125 searches for and acquires similar image data and related report data related to the image data specified in the report input device 30 using the structured DB 213 as a search target, and displays the search result. Data (search result display screen data) is generated and output to the control unit 31. In this search operation, one or more character information associated with one or more designated image data is used as a search keyword, and a plurality of character information associated with the image data in the structured DB 213 is assigned to the image data. It is regarded as metadata for data search, and a search process (that is, a keyword search process) is performed according to whether or not the metadata matches the search keyword.

レポート構成部127は、入力支援動作において、ユーザーによる操作部32の操作に応じて構造化されたデータの形式で制御部31から入力される新規な単一レポート構造化データを受け付け、当該単一レポート構造化データに基づき、所定のルールに沿った新規な画像付きレポートデータを生成する。   The report composition unit 127 receives new single report structured data input from the control unit 31 in the form of data structured in accordance with the operation of the operation unit 32 by the user in the input support operation, Based on the report structured data, new report data with images in accordance with a predetermined rule is generated.

データ書込部128は、レポート構成部127で生成された画像付きレポートデータを診療情報DB210内のレポートDB211に追加する。このとき、レポート構成部127に入力される新規な単一レポート構造化データは、そのままの形式で診療情報DB210内の構造化DB213に対しても追加される。更に、レポート構成部127に入力される新規な単一レポート構造化データは、そのまま、データ構築部123に送られて、入力支援DB111の更新にも使用される。   The data writing unit 128 adds the report data with image generated by the report configuration unit 127 to the report DB 211 in the medical treatment information DB 210. At this time, the new single report structured data input to the report composition unit 127 is added to the structured DB 213 in the medical care information DB 210 in the same format. Further, the new single report structured data input to the report composition unit 127 is sent to the data construction unit 123 as it is, and is also used for updating the input support DB 111.

レポート入力装置30は、主に、制御部31、操作部32、表示部33、及び記憶部34を備えて構成される。   The report input device 30 mainly includes a control unit 31, an operation unit 32, a display unit 33, and a storage unit 34.

制御部31は、レポート入力装置30の各種制御や機能などを統括制御するものであり、タスク管理部311、表示制御部312、及びクエリ生成部313を機能として備えている。   The control unit 31 performs overall control of various controls and functions of the report input device 30, and includes a task management unit 311, a display control unit 312, and a query generation unit 313 as functions.

タスク管理部311は、新規な読影レポートを入力する対象となる検査(レポート入力対象検査)が選択されると、レポート入力対象検査に対応する新規な画像付きレポートデータの作成に係るタスクを特定する。   When an examination (report input target examination) that is a target for inputting a new interpretation report is selected, the task management unit 311 identifies a task related to creation of new report data with an image corresponding to the report input target examination. .

表示制御部312は、サーバ100から入力される各種情報等に基づいて、表示部33において、各種画面を可視的に出力させる。例えば、情報検索部125から入力されるネットワーク表示画面データに基づいてネットワーク表示画面を表示部33において可視的に出力させたり、検索結果表示画面データに基づいて検索結果表示画面を表示部33において可視的に出力させる。   The display control unit 312 causes the display unit 33 to visually output various screens based on various information input from the server 100. For example, the network display screen is visually output on the display unit 33 based on the network display screen data input from the information search unit 125, or the search result display screen is visible on the display unit 33 based on the search result display screen data. Output.

クエリ生成部313は、ユーザーである読影医が操作部32を種々操作することで指定された画像データに関連付けられた文字情報を検索キーワードとするクエリを生成して、情報検索部125に対して出力する。   The query generation unit 313 generates a query using the character information associated with the specified image data as the user's interpretation doctor operates the operation unit 32 in various ways, and sends the query to the information search unit 125. Output.

操作部32は、キーボードやマウス等を備えて構成され、ユーザーによって適宜操作されることで、各種信号を制御部31に対して出力する。   The operation unit 32 includes a keyboard, a mouse, and the like, and outputs various signals to the control unit 31 by being appropriately operated by a user.

表示部33は、液晶ディスプレイ等の各種ディスプレイによって構成され、例えば、情報検索部125において生成されたネットワーク表示画像データや検索結果表示画面データを表示制御部312による制御に応じて可視的に出力する。   The display unit 33 is configured by various displays such as a liquid crystal display. For example, the display unit 33 visually outputs network display image data and search result display screen data generated by the information search unit 125 according to control by the display control unit 312. .

記憶部34は、レポート入力装置30における各種制御や機能などを実現するための各種プログラムや各種データを格納している。   The storage unit 34 stores various programs and various data for realizing various controls and functions in the report input device 30.

以下、図5を参照しつつ、入力支援機能によって実現される主な4動作である支援情報作成動作、検査選択動作、入力支援動作、及び検索動作について順次説明する。   Hereinafter, the four main operations realized by the input support function, that is, the support information creation operation, the examination selection operation, the input support operation, and the search operation will be described in order with reference to FIG.

<支援情報作成動作>
まず、データ読込部121が、診療情報DB210から、画像付きレポートデータと、当該画像付きレポートデータに対応する属性情報と、検査リスト情報とを読み込み、検査済判定部122に送出する。検査済判定部122が、検査リスト情報を参照することで、各検査について画像付きレポートデータが作成されているか否かを判定し、作成済みの画像付きレポートデータを属性情報とともにデータ構築部123に送出する。そして、データ構築部123が、読影レポートの自然文である所見文から必要な要素を抽出するとともに、属性情報に含まれる各種要素も抽出し、RDFを利用して構造化を行う。この画像付きレポートデータの構造化は、例えば機械学習を利用して実現される。
<Support information creation operation>
First, the data reading unit 121 reads report data with an image, attribute information corresponding to the report data with the image, and examination list information from the medical treatment information DB 210, and sends them to the inspected determination unit 122. The inspection completion determination unit 122 refers to the inspection list information to determine whether or not report data with an image has been created for each inspection, and the generated report data with an image is sent to the data construction unit 123 together with attribute information. Send it out. Then, the data construction unit 123 extracts necessary elements from the finding sentence, which is a natural sentence of the interpretation report, and also extracts various elements included in the attribute information, and performs structuring using RDF. The structuring of the report data with an image is realized by using machine learning, for example.

以下、データ構築部123における機械学習及び画像付きレポートデータの構造化について説明する。   Hereinafter, machine learning and structuring of report data with images in the data construction unit 123 will be described.

まず、例えば、教師データとして学習用コーパス等が与えられることで、構造化の基準となる情報を学習する。   First, for example, a learning corpus or the like is given as teacher data to learn information serving as a structuring reference.

学習用コーパスは、読影レポートの所見文の形式(文章モデル)に準じた大量のテキストデータを含む。この文章モデルは、例えば、撮影条件→部位→基本所見(特徴−結語)→診断(診断−結語)といった具合に、読影レポートの所見文の構成を示すものである。そして、学習用コーパスでは、例えば、読影レポートのモデル(「レポートモデル」とも称する)に含まれる所見文の文章モデルを構成する各要素(ここでは各文字情報)の分類項目名が各語句にタグ付けされている。   The learning corpus includes a large amount of text data according to the finding sentence format (sentence model) of the interpretation report. This sentence model shows, for example, the structure of the interpretation sentence of the interpretation report, such as imaging conditions → parts → basic findings (feature-conclusion) → diagnosis (diagnosis-conclusion). In the learning corpus, for example, the classification item name of each element (here, each character information) constituting the sentence sentence model included in the interpretation report model (also referred to as “report model”) is tagged to each word. It is attached.

例えば、要素の分類項目としては「診断内容のカテゴリ(以下「カテゴリ」と略す)」「撮影条件」「部位」「基本所見」及び「診断内容(以下「診断」と略す)」等が挙げられる。   For example, the classification items of elements include “diagnosis content category (hereinafter abbreviated as“ category ”)”, “imaging condition”, “part”, “basic findings”, “diagnosis content (hereinafter abbreviated as“ diagnosis ”), and the like. .

そして、学習用コーパスでは、例えば、「脳梗塞」「虚血性変化」・・・等の語句に対して要素の分類項目名「カテゴリ」がタグ付けされている。「T1画像」「T2画像」・・・等の語句に対して要素の分類項目名「撮影条件」がタグ付けされている。「前頭葉」「側頭葉」・・・等の語句に対して要素の分類項目名「部位」がタグ付けされている。「点状、斑状の高信号域」「点状の高信号域」・・・等の語句に対して要素の分類項目名「基本所見」がタグ付けされている。「陳旧性脳梗塞」「広範な陳旧性脳梗塞」・・・等の語句に対して要素の分類項目名「診断」がタグ付けされている。   In the learning corpus, for example, the element classification item name “category” is tagged to phrases such as “cerebral infarction”, “ischemic change”. The element classification item name “imaging condition” is tagged to phrases such as “T1 image”, “T2 image”. The element classification item name “part” is tagged to phrases such as “frontal lobe”, “temporal lobe”. The element classification item name “basic findings” is tagged to phrases such as “spot-like, patchy high-signal areas”, “dot-like high-signal areas”, and so on. The element classification item name “diagnosis” is tagged for phrases such as “old cerebral infarction”, “broad old cerebral infarction”, etc.

なお、このような学習用コーパスがデータ構築部123に対して外部から与えられる際に、後述する新規な画像付きレポートデータを作成するために、結語をある程度特定した代表的な文章モデルを示すデータも外部から与えられる。   In addition, when such a learning corpus is given from the outside to the data construction unit 123, data indicating a typical sentence model in which a conclusion is specified to some extent in order to create new report data with images, which will be described later. Is also given from the outside.

データ構築部123の機械学習機能は、学習用コーパスから語句を抜き出し、対応する要素の分類項目毎にそれぞれ記憶する。つまり、データ構築部123では、学習用コーパスを含む教師データを学習教材とし、教師データを参照して要素の分類項目毎に各要素の分類項目に属する語句を学習して記憶する。ここで、学習されて記憶されるデータは、既存読影レポートを構成する各要素をどのような要素の分類項目に分解するのかを示すモデルのデータ(モデルデータ)として使用される。   The machine learning function of the data construction unit 123 extracts a word from the learning corpus and stores it for each classification item of the corresponding element. That is, in the data construction unit 123, teacher data including a learning corpus is used as a learning material, and words belonging to each element classification item are learned and stored for each element classification item with reference to the teacher data. Here, the data that is learned and stored is used as model data (model data) that indicates what element classification items should be decomposed into each element constituting the existing interpretation report.

更に、データ構築部123の識別機能は、上述の如く学習されたモデルデータを基準としつつ、データ構築部123に入力される読影レポートを対象として、要素の分類項目と実際に使用されている語句とを識別する。   Further, the identification function of the data construction unit 123 is based on the model data learned as described above, and the classification item of the element and the actual phrase used for the interpretation report input to the data construction unit 123 And identify.

なお、上述した機械学習の方法を用いると、予め教師データにおいて与えられた要素(ここでは、語句)についてしか、要素の分類項目を識別することができないが、以下の機械学習の方法を利用することで、予め教師データで与えられていなかった要素についても、要素の分類項目を識別することができる。   If the machine learning method described above is used, element classification items can be identified only for elements (here, words) given in advance in teacher data, but the following machine learning method is used. As a result, it is possible to identify the element classification items even for elements not previously given in the teacher data.

例えば、データ構築部123の機械学習機能が、学習用コーパスを形態素解析によって形態素に分解し、形態素毎に、形態素そのもの、形態素の品詞、形態素の活用形、前後(例えば前後2つ)の形態素の情報等を用いて、ある分類項目に属する形態素が出現するパターンを学習する。そして、データ構築部123の識別機能が、当該パターンに従って、予め与えられていなかった要素(ここでは語句などの文字情報)についても、要素の分類項目を認識することができる。   For example, the machine learning function of the data construction unit 123 decomposes the learning corpus into morphemes by morpheme analysis, and for each morpheme, the morpheme itself, the morpheme part of speech, the morpheme utilization form, the front and rear (for example, two before and after) A pattern in which a morpheme belonging to a certain classification item appears is learned using information or the like. Then, the identification function of the data construction unit 123 can recognize the classification item of the element even for an element (in this case, character information such as a phrase) that has not been given in advance according to the pattern.

より具体的には、例えば、データ構築部123の機械学習機能は、学習用コーパスに「**に沿って」(「**」部には種々の語が入る)といった形の文が頻出する場合に、「**」の部分に部位を示す語句が頻出するときには、「**」の部分には部位を示す語句が入るというパターンを学習することができる。そして、データ構築部123の識別機能は、このようなパターンを利用すれば、既存の読影レポートを対象として、語の前後関係からフレーズ「下垂体/に/沿って」から「下垂体」を部位を示す語句として抽出することができる。なお、上記機械学習は、いわゆるSVM(Support Vector Machine)を利用することで実現することができる。このような機械学習によって自然言語処理の精度が向上する。   More specifically, for example, in the machine learning function of the data construction unit 123, sentences in the form of “along **” (various words are entered in the “**” part) frequently appear in the learning corpus. In this case, when a word indicating a part frequently appears in the “**” part, it is possible to learn a pattern in which a word indicating the part is included in the “**” part. If the identification function of the data construction unit 123 uses such a pattern, the phrase “pituitary gland / along” from the phrase “pituitary gland / along” is determined from the context of the word for an existing interpretation report. Can be extracted. The machine learning can be realized by using a so-called SVM (Support Vector Machine). Such machine learning improves the accuracy of natural language processing.

このようにしてデータ構築部123では、レポートDB211に含まれる各画像付きレポートデータについて言語解析を行うことで、当該各画像付きレポートデータを構成する複数の文字情報を抽出する。   In this way, the data construction unit 123 performs language analysis on each report data with image included in the report DB 211, thereby extracting a plurality of character information constituting each report data with image.

そして、データ構築部123に含まれるデータ構造化機能では、識別機能によって識別された情報に基づき、画像付きレポートデータ及び属性情報に含まれる各種情報を、要素の分類項目毎に属する語句(要素)に分解してRDFで記述することで、画像付きレポートデータに係る情報を構造化する。   Then, in the data structuring function included in the data construction unit 123, based on the information identified by the identification function, various kinds of information included in the report data with image and the attribute information are classified for each element classification item (element). The information related to the report data with image is structured by decomposing it into RDF and describing it in RDF.

図6は、1つの読影レポートの要素(既存の読影レポートに係る属性情報を構成する要素も含む)が構造化されたデータ(単一レポート構造化データ)を例示する図である。図6に示すように、画像付きレポートデータのファイル「A−0001」に対して、RDFによって、要素の分類項目「カテゴリ」「撮影条件」「部位」「基本所見」「診断」をそれぞれ属性の項目とし、各属性に対して属性値「脳梗塞」「T2WI」「前頭葉」「高信号域」「ラクナ梗塞」がぞれぞれ関連付けられて記述されている。そして、属性値「高信号域」に対して、要素の分類項目「特徴」を属性の項目として、当該属性に対して属性値「淡い」が関連付けられて記述されている。   FIG. 6 is a diagram illustrating data (single report structured data) in which elements of one interpretation report (including elements constituting attribute information related to an existing interpretation report) are structured. As shown in FIG. 6, element classification items “category”, “imaging condition”, “part”, “basic findings”, and “diagnosis” are assigned to the attribute data “A-0001” of the report data with image by RDF. The attribute values “cerebral infarction”, “T2WI”, “frontal lobe”, “high signal area”, and “lacuna infarction” are described in association with each attribute. The attribute value “high signal area” is described with the element classification item “feature” as the attribute item and the attribute value “light” associated with the attribute.

また、画像付きレポートデータのファイル「A−0001」に対して、RDFによって、「添付画像」及び画像データの属性情報に係る属性の項目「検査部位」「モダリティ」「年齢」「性別」を属性の項目とし、画像データのファイル名「img15.jpg」「頭部(SKULL)」「MR」「53」「男(M)」がそれぞれ属性値として関連付けられて記述されている。なお、単一レポート構造化データにおいて関連付けの対象となる属性の項目(属性項目)は、図6で示した11個の分類項目に限られず、例えば、検査属性の情報に含まれる他の属性項目や「結語」等といった自然文を構成する他の項目を含めた所定数の分類項目であっても良い。なお、図6では、画像データが1つしか関連付けられていないが、複数の画像データが関連付けられても良い。   Further, the attribute items “examination part”, “modality”, “age”, and “gender” relating to the attribute information of the attached data and the image data are attributed to the file “A-0001” of the report data with image by RDF. The image data file names “img15.jpg”, “head (SKULL)”, “MR”, “53”, and “male (M)” are described in association with each other as attribute values. Note that the attribute items (attribute items) to be associated in the single report structured data are not limited to the eleven classification items shown in FIG. 6, for example, other attribute items included in the examination attribute information. Or a predetermined number of classification items including other items constituting a natural sentence such as “Conclusion”. In FIG. 6, only one image data is associated, but a plurality of image data may be associated.

また、ここでは、画像付きレポートデータのファイル「A−0001」に対して、各属性値が直接的に関連付けらることで、画像データと添付画像以外の属性の項目に係る属性の項目の属性値とが、ファイル名「A−0001」を介して間接的に関連付けられたが、これに限られず、画像データと、一部又は全部の属性の項目に係る属性値とが直接的に関連付けられても良い。例えば、画像データの属性情報に係る属性の項目「検査部位」「モダリティ」「年齢」「性別」についての属性値「頭部(SKULL)」「MR」「53」「男(M)」が、画像データのファイル名を示す属性値「img15.jpg」に対して直接的に関連付けられても良い。   Also, here, the attribute values of the attribute items related to the attribute items other than the image data and the attached image are directly associated with the file “A-0001” of the report data with image. The value is indirectly associated with the file name “A-0001”. However, the present invention is not limited to this, and the image data is directly associated with the attribute values of some or all of the attribute items. May be. For example, the attribute values “head (SKULL)” “MR” “53” “male (M)” for the attribute items “examination part”, “modality”, “age”, and “sex” related to the attribute information of the image data are: The attribute value “img15.jpg” indicating the file name of the image data may be directly associated.

また、データ構築部123では、図6で示したような単一レポート構造化データを、機械学習機能、識別機能、及びデータ構造化機能によって、診療情報DB210に格納された多数の検査済みの画像付きレポートデータについてそれぞれ作成する。   In addition, the data construction unit 123 converts the single report structured data as shown in FIG. 6 into a number of examined images stored in the medical information DB 210 by the machine learning function, the identification function, and the data structuring function. Create each report data.

このようにして、レポートDB211に格納される複数の画像付きレポートデータに含まれる画像付きレポートデータ毎に、画像付きレポートデータを構成する複数の文字情報と、画像付きレポートデータの読影対象として対応づけられた1以上の画像データとが関連付けられて作成された単一レポート構造化データを診療情報DB210に多数蓄積することで、検索動作を支援するための検索支援情報にあたる関連情報DBすなわち構造化DB213が構築される。   In this way, for each piece of report data with an image included in a plurality of report data with an image stored in the report DB 211, a plurality of character information constituting the report data with an image is associated with an interpretation target of the report data with an image. By storing a large number of single report structured data created by associating with one or more pieces of image data obtained in the medical information DB 210, related information DB corresponding to search support information for supporting search operation, that is, structured DB 213 Is built.

また、データ構築部123では、各単一レポート構造化データにおいて関連付けられている複数の属性値を、属性項目毎に並べて相互に関連付け直してRDFで記述する処理を、多数の単一レポート構造化データの全てについて行う。そして、この処理の結果として、複数の属性項目に含まれる属性項目毎に複数の属性値(ここでは、語句などの文字情報)が列挙されるとともに、属性項目間で、属性値どうしが相互に(ネットワーク状に)関連付けられた情報(ネットワーク情報)が作成される。このネットワーク情報が、記憶部110に記憶されることで、新規な読影レポートの入力を支援する情報(入力支援情報)すなわち入力支援DB111が構築される。   In addition, the data construction unit 123 arranges a plurality of attribute values associated in each single report structured data for each attribute item, reassociates them with each other, and describes them in RDF. Do for all of the data. As a result of this processing, a plurality of attribute values (here, character information such as phrases) are enumerated for each attribute item included in the plurality of attribute items, and the attribute values are mutually exchanged between the attribute items. Associated information (in network form) (network information) is created. By storing the network information in the storage unit 110, information (input support information) that supports input of a new interpretation report, that is, the input support DB 111 is constructed.

なお、ここでは、RDFを利用することで、構造化DB213や入力支援DB111を容易に記述することができる。   Here, the structured DB 213 and the input support DB 111 can be easily described by using RDF.

図7は、多数の既存の画像付きレポートデータに係る要素が構造化された例を示す図であり、検査部位「頭部(SKULL)」及び「胸部(CHEST)」についてのネットワーク情報を例示している。図7では、関連付けられた語句どうしを実線で結んで示している。なお、図7では、図の複雑化を避けるために、語句を適宜「○○○」等と記載するとともに、関連付けを示す実線も図中の比較的上部に位置するものを例示して、その他の実線は省略している。   FIG. 7 is a diagram illustrating an example in which elements related to a large number of existing report data with images are structured, and illustrates network information about the examination site “head (SKUL)” and “chest (CHEST)”. ing. In FIG. 7, the associated words are connected by a solid line. In FIG. 7, in order to avoid complication of the figure, the phrase is appropriately described as “XX”, etc., and the solid line indicating the association is also illustrated at a relatively upper part in the figure, The solid line is omitted.

また、データ構築部123で、ネットワーク情報を作成する際には、各単一レポート構造化データにおいて関連付けられた各項目間における語句の組合せの回数をカウントし、当該カウント情報を、入力支援DB111に格納しておく。例えば、「頭部−MR−53−M−脳梗塞−T2WI−前頭葉−高信号域−ラクナ梗塞」等といった語句の組合せの回数がカウント情報に記憶される。   Further, when creating the network information in the data construction unit 123, the number of word combinations between the items associated in each single report structured data is counted, and the count information is stored in the input support DB 111. Store it. For example, the number of combinations of phrases such as “head-MR-53-M-cerebral infarction-T2WI-frontal lobe-high signal area-lacuna infarction" is stored in the count information.

入力支援DB111に格納されるネットワーク情報では、既存の読影レポートにおいて、どのような語句がそれぞれ記述されたのかを、属性項目間で、語句どうしが関連付けられた態様で示される。そのため、当該ネットワーク情報を可視的に出力して、新規な読影レポートを入力する際に利用すると有効である。特に、各属性項目を入力する要素の項目(入力要素項目)とし、各属性項目に列挙される複数の語句を入力する候補(選択肢)として、テンプレート表示の形態で提供すれば有効である。   In the network information stored in the input support DB 111, what words are described in the existing interpretation report is shown in a form in which the words are associated with each other between the attribute items. Therefore, it is effective to output the network information visually and use it when inputting a new interpretation report. In particular, it is effective to provide each attribute item as an item of an element (input element item) and as a candidate (option) for inputting a plurality of words listed in each attribute item in the form of a template display.

ところで、入力支援DB111に格納されるネットワーク情報では、各属性項目に列挙される語句について、同義語(例えば「T2強調画像」と「T2WI」等)が多いと、選択肢が増大し過ぎて、選択肢の指定が困難となる。そこで、同義語については、データ構築部123の識別機能で、語句を検出する際に、代表的な1つの語句に置き換える処理を行う。また、属性項目に「結語」等がある場合には、結語等の表現の振れ(例えば「考える」と「考えます」等)が多いと選択肢が増大し過ぎて、選択肢の指定が困難となる。そこで、表現の振れについて、データ構築部123の識別機能で、結語を検出する際に、代表的な1つの表現に置き換える処理を行う。   By the way, in the network information stored in the input support DB 111, if there are many synonyms (for example, “T2 weighted image” and “T2WI”, etc.) for the words listed in each attribute item, the number of options increases too much. Designation becomes difficult. Therefore, for the synonym, when the phrase is detected by the identification function of the data construction unit 123, a process of replacing it with one representative phrase is performed. In addition, when there are “conclusions” etc. in the attribute item, if there are many fluctuations in the expression of the concluding remarks (for example, “think” and “think”), the number of choices will increase and it will be difficult to specify the choices. . Therefore, processing for replacing the expression shake with one representative expression when the conclusion is detected by the identification function of the data construction unit 123 is performed.

このような語句の代表的な語句への置き換えについては、教師データに、複数の語句と代表的な語句とを対応付けたテーブルを含ませることで、実現することができる。なお、表現の振れについては、表現の振れを正規化して、最も使用頻度の高いものに全て置き換えても良い。また、同義語についても最も使用頻度の高いものに全て置き換えても良い。   Such replacement of a word with a typical word can be realized by including a table in which a plurality of words and typical words are associated with each other in the teacher data. Regarding the shake of the expression, the shake of the expression may be normalized and replaced with the most frequently used one. Also, all of the synonyms may be replaced with the most frequently used ones.

また、読影レポートでは、例えば、属性項目「基本所見」について、大分類と特徴を示す修飾語とが複合したフレーズ(基本所見フレーズ)を用いる場合が多い。例えば、基本所見フレーズ「淡い高信号域」は、大分類「高信号域」、特徴「淡い」とが複合したものである。   Moreover, in the interpretation report, for example, for the attribute item “basic finding”, a phrase (basic finding phrase) in which a major classification and a modifier indicating a feature are combined is often used. For example, the basic finding phrase “light high signal area” is a combination of a large classification “high signal area” and a feature “light”.

このように、基本所見フレーズ(例えば「淡い高信号域」「濃い高信号域」等)は、大分類と特徴による多数の組合せによって構成されるため、選択肢が増大し過ぎて、選択肢の指定が困難となる。そこで、例えば、属性項目「基本所見」については、基本所見フレーズを構成する要素を2要素の項目「大分類」「特徴」に分解する。   In this way, the basic finding phrases (for example, “light high signal area”, “dense high signal area”, etc.) are composed of a large number of combinations of large classifications and features, so that the number of options increases too much, and the options are not specified. It becomes difficult. Therefore, for example, for the attribute item “basic findings”, the elements constituting the basic finding phrase are decomposed into two-element items “major classification” and “feature”.

この構成要素を2要素の項目に分解する処理は、各要素の項目に属する言語要素を列挙したモデルを基準として公知のSVM等を用いることで実現される。なお、ここで使用するモデルは、例えば、多数の基本所見フレーズが列挙されたコーパスを含む教師データを用いた機械学習によって得ることができる。なお、このコーパスでは、基本所見フレーズを構成する多数の言語要素に対して項目名がそれぞれタグ付けされている。   The process of decomposing this component into two-element items is realized by using a well-known SVM or the like on the basis of a model that lists language elements belonging to each element item. The model used here can be obtained by machine learning using teacher data including a corpus in which a large number of basic finding phrases are listed, for example. In this corpus, item names are tagged to a large number of language elements constituting a basic finding phrase.

そして、ネットワーク情報における属性項目「基本所見」について、ある大分類の用語に係る基本所見フレーズを当該大分類の用語に置換する。このとき、ネットワーク情報とは別に、図8に示すように、大分類の用語に対して、基本所見フレーズを形成するために複合する特徴(すなわち修飾語)などといった詳細な要素をRDFの記述によって関連付けた情報(詳細情報)を構成する。この詳細情報は、詳細な要素が関連付けられた要素(詳細情報付き要素)と、詳細な要素(詳細要素)とが関連付けられた構造化データ(詳細情報構造化データ)を形成している。   Then, for the attribute item “basic findings” in the network information, the basic finding phrase related to a certain broad classification term is replaced with the major classification term. At this time, apart from the network information, as shown in FIG. 8, detailed elements such as characteristics (ie, modifiers) combined to form a basic finding phrase for a large classification term are described by RDF description. Configure the associated information (detailed information). The detailed information forms structured data (detailed information structured data) in which detailed elements (detailed elements) are associated with detailed elements and detailed elements (detailed elements).

具体的には、図8では、詳細情報付き要素である大分類の用語「高信号域」に対して、詳細要素の項目「特徴」に属する詳細要素「なし」「淡い」「濃い」が関連付けられている。   Specifically, in FIG. 8, the detailed elements “none”, “light”, and “dark” belonging to the item “feature” of the detailed element are associated with the term “high signal range” of the large classification that is the element with detailed information. It has been.

なお、例えば、基本所見フレーズ等といったある項目に属するフレーズも、当該ある項目に属する要素に当たる大分類の用語に対する詳細な要素に該当する。よって、以下で言う「詳細要素」には、特徴等といったフレーズを構成する詳細な要素が含まれるが、適宜、複数の詳細な要素が結合した結果物であるフレーズも含まれる。   Note that, for example, a phrase belonging to a certain item such as a basic finding phrase also corresponds to a detailed element for a broadly classified term corresponding to an element belonging to the certain item. Therefore, the “detailed element” described below includes detailed elements that constitute a phrase such as features, but also includes a phrase that is a result of combining a plurality of detailed elements as appropriate.

また、ネットワーク情報とカウント情報と詳細情報とは、複数の項目間における複数の項目にそれぞれ属する要素(ここでは、語句)どうしの関連付けを示す情報であるため、適宜「要素ネットワーク情報」と称する。また、カウント情報は、1以上の詳細要素も含む複数の要素間の関連付けの強さを示す情報(「関連強度情報」とも称する)となっている。   Further, the network information, the count information, and the detailed information are information indicating associations between elements (herein, phrases) belonging to a plurality of items among a plurality of items, and hence are appropriately referred to as “element network information”. The count information is information (also referred to as “related strength information”) indicating the strength of association between a plurality of elements including one or more detailed elements.

図9は、支援情報作成動作の動作フローを示すフローチャートである。本動作フローは、サーバ100の制御部120において、入力支援機能を実現するためのプログラムが実行されることで実現される。   FIG. 9 is a flowchart showing an operation flow of the support information creation operation. This operation flow is realized by executing a program for realizing the input support function in the control unit 120 of the server 100.

ステップST1では、データ読込部121及び検査済判定部122によって、診療情報DB210から、画像付きレポートデータが属性情報とともに読み込まれる。   In step ST1, report data with an image is read together with attribute information from the medical treatment information DB 210 by the data reading unit 121 and the examination completion determination unit 122.

ステップST2では、データ構築部123の機能によって、画像付きレポートデータによって示される自然文である所見文が構造化される。   In step ST2, a finding sentence that is a natural sentence indicated by the report data with an image is structured by the function of the data construction unit 123.

ステップST3では、データ構築部123により、ステップST2で構造化されたデータに属性情報が追加されて、図6で示されたような単一レポート構造化データが作成される。   In step ST3, the data construction unit 123 adds attribute information to the data structured in step ST2, and creates single report structured data as shown in FIG.

ステップST4では、ステップST3で作成された単一レポート構造化データが診療情報DB210に記憶される。このステップST4における単一レポート構造化データの記憶処理が繰り返されることで、構造化DB213が構築される。   In step ST4, the single report structured data created in step ST3 is stored in the medical information DB 210. The structured DB 213 is constructed by repeating the storage process of the single report structured data in step ST4.

ステップST5では、データ構築部123により、レポートDB211に格納されている全ての画像付きレポートデータについて単一レポート構造化データが作成されたか否か判定する。ここで、全ての画像付きレポートデータについて単一レポート構造化データが作成されていない場合には、ステップST1に戻り、次の画像付きレポートデータが属性情報とともに読み込まれて単一レポート構造化データが作成されて記憶される。また、全ての画像付きレポートデータについて単一レポート構造化データが作成された場合には、ステップST6に進む。   In step ST5, the data construction unit 123 determines whether single report structured data has been created for all the report data with images stored in the report DB 211. Here, if single report structured data has not been created for all report data with images, the process returns to step ST1, and the next report data with images is read together with attribute information, and single report structured data is obtained. Created and stored. If single report structured data is created for all report data with images, the process proceeds to step ST6.

ステップST6では、データ構築部123により、全ての画像付きレポートデータについての単一レポート構造化データに基づいて、図7で示されたようなネットワーク情報が作成される。   In step ST6, the data construction unit 123 creates network information as shown in FIG. 7 based on the single report structured data for all report data with images.

ステップST7では、ステップST6で作成されたネットワーク情報が記憶部110に記憶されることで、入力支援DB111が構築されて、本動作フローが終了する。このとき、ネットワーク情報及びカウント情報を含む要素ネットワーク情報が作成され、入力支援DB111に格納される。   In step ST7, the network information created in step ST6 is stored in the storage unit 110, whereby the input support DB 111 is constructed, and this operation flow ends. At this time, element network information including network information and count information is created and stored in the input support DB 111.

ところで、診療情報DB210に蓄積される画像付きレポートデータは、レポート入力装置30からの入力に応じて新たな画像付きレポートデータが作成される度に増加する。この時間とともに更に蓄積されていく読影レポートも過去の知識として利用できれば有効である。特に、これまでにない所見文等が新たに蓄積された読影レポートに含まれる場合には、過去の知識が更に進化するため、より有効である。この点については後述するが、入力支援動作(後述)において、読影レポートの所見文を構成する各要素の項目毎に実際に入力する要素が指定されることに応答して、過去の知識が進化する。   By the way, the report data with image stored in the medical treatment information DB 210 increases every time new report data with image is generated according to the input from the report input device 30. It is effective if the interpretation reports accumulated over time can be used as past knowledge. In particular, when an unprecedented finding sentence or the like is included in a newly accumulated interpretation report, it is more effective because the past knowledge further evolves. Although this point will be described later, in the input support operation (described later), past knowledge has evolved in response to the fact that the element to be actually input is specified for each item constituting the observation text of the interpretation report To do.

<検査選択動作>
次に、レポート入力装置30において、検査リストを示す画面(検査一覧画面)を表示させて、レポート入力対象検査を選択する動作(検査選択動作)について説明する。
<Inspection selection operation>
Next, an operation (inspection selection operation) for displaying a screen (examination list screen) showing an examination list and selecting an examination for report input in the report input device 30 will be described.

なお、検査選択動作は、入力支援機能によって実現され、データ読込部121は、診療情報DB210から検査リスト情報を読み込み、レポート入力装置30の制御部31に転送する。制御部31は、表示制御部312の機能により、検査リスト情報に基づいて、表示部33に検査一覧画面を表示させる。   The examination selection operation is realized by an input support function, and the data reading unit 121 reads examination list information from the medical information DB 210 and transfers it to the control unit 31 of the report input device 30. The control unit 31 causes the display unit 33 to display the examination list screen based on the examination list information by the function of the display control unit 312.

図10は、検査一覧画面G1を例示する図である。図10に示すように、検査一覧画面G1は、検査に係る情報(具体的には、患者ID、患者氏名、生年月日、年齢、性別、状態、検査ID、検査日、検査部位、モダリティ、画像枚数)が一覧表示された画面である。   FIG. 10 is a diagram illustrating an examination list screen G1. As shown in FIG. 10, the examination list screen G1 includes information on examinations (specifically, patient ID, patient name, date of birth, age, sex, state, examination ID, examination date, examination part, modality, This is a screen displaying a list of (number of images).

この検査一覧画面G1では、状態「未読影」が付された検査が、読影レポートが作成されていない検査であることが分かる。   In this examination list screen G1, it can be seen that the examination with the state “uninterpreted” is an examination for which no interpretation report has been created.

検査一覧画面G1では、1つの検査を囲む太枠カーソルCS1が表示される。この太枠カーソルCS1は、ユーザーによる操作部32の操作に応答して上下に移動され、所望の検査に合わされた状態で、操作部32の決定ボタン(例えば、リターンキー)が押下されると、太枠カーソルCS1で囲まれた1つの検査がレポート入力対象検査として選択される。このようにして、レポート入力対象検査が選択されると、表示部33に表示される画面が検査一覧画面G1からレポート入力画面G2(後述)に遷移する。   On the examination list screen G1, a thick frame cursor CS1 surrounding one examination is displayed. This thick frame cursor CS1 is moved up and down in response to the operation of the operation unit 32 by the user, and when a determination button (for example, a return key) of the operation unit 32 is pressed in a state where it is adjusted to a desired inspection, One examination surrounded by the thick frame cursor CS1 is selected as the report input target examination. In this way, when a report input target examination is selected, the screen displayed on the display unit 33 transitions from the examination list screen G1 to a report input screen G2 (described later).

この検査選択動作では、例えば、図10に示すような検査一覧画面でレポート入力対象検査が選択されると、項目「検査部位」に属する要素(例えば、SKULL)と項目「モダリティ」に属する要素(例えば、CR)との組合せも同時に指定され認識される。   In this examination selection operation, for example, when a report input target examination is selected on the examination list screen as shown in FIG. 10, an element (for example, SKULL) belonging to the item “examination part” and an element ( For example, a combination with CR) is simultaneously designated and recognized.

また、レポート入力対象検査が選択されると、タスク管理部311により、レポート入力対象検査に対応する新規な読影レポートの作成に係るタスクが特定される。このとき、タスク管理部311の制御下で、診療情報DB210からレポート入力対象検査に対応する依頼事項、及び検査の詳細を示す属性情報がデータ読込部121によって読み込まれ、レポート入力装置30の制御部31に提供される。   When the report input target examination is selected, the task management unit 311 identifies a task related to the creation of a new interpretation report corresponding to the report input target examination. At this time, under the control of the task management unit 311, the request items corresponding to the report input target examination and the attribute information indicating the details of the examination are read from the medical information DB 210 by the data reading unit 121, and the control unit of the report input device 30 31 is provided.

<入力支援動作>
次に、レポート入力装置30において、新規な読影レポートを入力する画面(読影レポート入力画面)を表示させて、新規な読影レポートを入力させる場合について説明する。なお、レポート入力装置30の表示部33において表示される各種画面に係るデータはサーバ100から入力され、レポート入力装置30内の表示制御部312が当該入力データに基づいて表示部33における画面表示を実現する。
<Input support operation>
Next, the case where the report input device 30 displays a screen for inputting a new interpretation report (interpretation report input screen) and inputs a new interpretation report will be described. Data relating to various screens displayed on the display unit 33 of the report input device 30 is input from the server 100, and the display control unit 312 in the report input device 30 displays the screen on the display unit 33 based on the input data. Realize.

図11は、読影レポート入力画面G2を例示する図である。図11に示すように、読影レポート入力画面G2は、主に、依頼事項表示領域A1、検査情報表示領域A2、メモ領域A3、非公開メモ領域A4、作成支援情報表示領域A5、所見文表示領域A6、頻出句表示領域A7、サマリ表示領域A8、画像添付領域A9、コマンド表示領域A10によって構成されている。   FIG. 11 is a diagram illustrating an interpretation report input screen G2. As shown in FIG. 11, the interpretation report input screen G2 mainly includes a request item display area A1, an examination information display area A2, a memo area A3, a private memo area A4, a creation support information display area A5, and an observation sentence display area. A6, a frequent phrase display area A7, a summary display area A8, an image attachment area A9, and a command display area A10.

依頼事項表示領域A1は、レポート入力対象検査に係る依頼事項の内容が表示される領域である。具体的には、サーバ100を介して診療情報DB210から取得した依頼事項に係る情報に基づいて、例えば、図12に示すような依頼事項の内容が依頼事項表示領域A1に表示される。   The requested item display area A1 is an area in which the contents of requested items related to the report input target inspection are displayed. Specifically, based on the information related to the requested items acquired from the medical care information DB 210 via the server 100, for example, the contents of the requested items as shown in FIG. 12 are displayed in the requested item display area A1.

検査情報表示領域A2は、レポート入力対象検査に係る検査の詳細な内容が表示される領域である。具体的には、サーバ100を介して診療情報DB210から取得した検査の詳細に係る情報に基づいて、例えば、図13に示すような検査の詳細な内容が検査情報表示領域A2に表示される。   The examination information display area A2 is an area where the detailed contents of the examination related to the report input object examination are displayed. Specifically, based on the information related to the details of the examination acquired from the medical care information DB 210 via the server 100, for example, the detailed contents of the examination as shown in FIG. 13 are displayed in the examination information display area A2.

メモ領域A3は、読影医による操作部32の操作に応じて、自由な意見やその他の情報が記述される領域である。   The memo area A3 is an area in which free opinions and other information are described in accordance with the operation of the operation unit 32 by the image interpretation doctor.

非公開メモ領域A4は、メモ領域A3と同様に、読影医による操作部32の操作に応じて、自由な意見やその他の情報が記述される領域である。但し、非公開メモ領域A4に記述される情報は、特定の機器又は特定の者しか閲覧することができない。例えば、IPアドレスを用いたフィルタリングやパスワードの入力等によって閲覧を制限することができ、秘匿性の高い個人情報の情報管理に利用することができる。   The private memo area A4 is an area in which free opinions and other information are described according to the operation of the operation unit 32 by the radiogram interpreter, similarly to the memo area A3. However, the information described in the private memo area A4 can be browsed only by a specific device or a specific person. For example, browsing can be restricted by filtering using an IP address, input of a password, or the like, which can be used for information management of highly confidential personal information.

作成支援情報表示領域A5は、読影レポートの作成を支援するために上述した入力支援DB111に格納されたネットワーク情報から取得(抽出)された一部のネットワーク情報を可視的に提供する領域である。詳細については後述するが、作成支援情報表示領域A5では、まず、項目「カテゴリ」に属する要素を指定する画面が表示され、当該画面で指定された項目「カテゴリ」に属する要素に応じたネットワーク情報が入力支援DB111から取得されてテンプレート表示の形態で可視的に出力された画面(以下「入力支援テンプレート画面」とも称する)が表示される。入力支援テンプレート画面については後で詳述する。   The creation support information display area A5 is an area for visually providing a part of network information acquired (extracted) from the network information stored in the input support DB 111 described above in order to support creation of an interpretation report. Although details will be described later, in the creation support information display area A5, first, a screen for designating an element belonging to the item “category” is displayed, and network information corresponding to the element belonging to the item “category” designated on the screen is displayed. Is obtained from the input support DB 111 and visually output in the form of a template display (hereinafter also referred to as “input support template screen”). The input support template screen will be described in detail later.

所見文表示領域A6は、読影レポートを構成する所見文が表示される領域であり、読影医による操作部32の操作に応答して所見文が記入される。   The observation sentence display area A6 is an area in which the observation sentence constituting the interpretation report is displayed, and the observation sentence is written in response to the operation of the operation unit 32 by the interpretation doctor.

頻出句表示領域A7は、所見文で頻繁に使用される定型句(頻出句)の一覧が表示される領域であり、頻出句表示領域A7では、例えば、図14に示すような頻出句の一覧が表示される。読影医は操作部32のマウス等を適宜操作することで、頻出句の一覧から1つの頻出句を指定して、所見文表示領域A6のカーソル位置に指定された頻出句をコピー(記入)することができる。   The frequent phrase display area A7 is an area where a list of fixed phrases (frequent phrases) frequently used in finding sentences is displayed. In the frequent phrase display area A7, for example, a list of frequent phrases as shown in FIG. Is displayed. The interpreting doctor appropriately operates the mouse or the like of the operation unit 32 to designate one frequent phrase from the frequent phrase list and copy (fill in) the frequent phrase designated at the cursor position in the finding sentence display area A6. be able to.

サマリ表示領域A8は、所見文で頻繁に使用される定型文(サマリ句)の一覧が表示される領域であり、サマリ表示領域A8では、例えば、図15に示すような定型文の一覧が表示される。読影医は操作部32のマウス等を適宜操作することで、定型文の一覧から1つの定型文を指定して、所見文表示領域A6のカーソル位置に指定された定型文をコピー(記入)することができる。具体的には、例えば、サマリ表示領域A8の定型文「特記すべき所見はありません。」が指定されると、所見文表示領域A6に「特記すべき所見はありません。」という文字列がコピーされる。   The summary display area A8 is an area in which a list of fixed phrases (summary phrases) frequently used in the finding sentence is displayed. In the summary display area A8, for example, a list of fixed phrases as shown in FIG. 15 is displayed. Is done. The interpreting doctor appropriately operates the mouse of the operation unit 32 to specify one fixed sentence from the list of fixed sentences and copy (fill in) the fixed sentence specified at the cursor position in the finding sentence display area A6. be able to. Specifically, for example, when the standard sentence “There are no special findings” in the summary display area A8 is specified, the character string “No special findings” is copied to the observation sentence display area A6. The

なお、頻出句及び定型文の情報は記憶部110等に予め記憶しておけば良く、例えば、1以上の頻出句や定型文を2項目「検査部位」「モダリティ」にそれぞれ属する要素の組合せと対応させて記憶しておき、検査一覧画面で指定された2項目「検査部位」「モダリティ」にそれぞれ属する要素の組合せに応じた頻出句や定型文の一覧が頻出句表示領域A7やサマリ表示領域A8に表示されるようにすれば利便性が高い。   Information on frequent phrases and fixed phrases may be stored in advance in the storage unit 110 or the like. For example, one or more frequent phrases and fixed phrases may be combined with elements belonging to the two items “examination part” and “modality”. A list of frequent phrases and fixed phrases corresponding to combinations of elements belonging to the two items “examination part” and “modality” specified on the examination list screen are stored in correspondence with each other, and a frequent phrase display area A7 and a summary display area If it is displayed at A8, the convenience is high.

画像添付領域A9は、特徴的で代表的な画像を添付する領域であり、読影医による操作部32の操作に応じて、所望の代表的な画像が添付される。例えば、図4で示す画像表示画面401の左半分の領域LHに表示されている画像のうち、所望の画像にマウスポインタを合わせてマウスの左ボタンを押したままでマウスポインタを画像添付領域A9まで移動させて(ドラッグして)、マウスの左ボタンを離す操作を行うことで、所望の画像を画像添付領域A9に添付することができる。   The image attachment area A9 is an area to which a characteristic and representative image is attached, and a desired representative image is attached in accordance with the operation of the operation unit 32 by an interpreting doctor. For example, among the images displayed in the left half area LH of the image display screen 401 shown in FIG. 4, place the mouse pointer on the desired image and hold down the left mouse button while moving the mouse pointer to the image attachment area A9. A desired image can be attached to the image attachment area A9 by moving (dragging) and releasing the left button of the mouse.

コマンド表示領域A10は、コマンドを入力するためのアイコン(ここでは、ボタンBT1,BT2)が列挙される領域である。具体的には、ボタンBT1は、読影レポート入力画面G2において作成した読影レポートを構成する所見文や添付画像の内容を確定して新規な画像付きレポートデータを診療情報DB210に登録し、次の読影レポート(すなわち画像付きレポートデータ)の作成に移行させるコマンドを入力するボタンである。ボタンBT2は、読影レポート入力画面G2において作成した読影レポートを構成する所見文や添付画像の内容をクリアして、読影レポートの内容を作成し直すコマンドを入力するボタンである。   The command display area A10 is an area in which icons for inputting commands (here, buttons BT1 and BT2) are listed. Specifically, the button BT1 confirms the findings and the contents of the attached image that make up the interpretation report created on the interpretation report input screen G2, registers new image-attached report data in the medical information DB 210, and performs the next interpretation. This is a button for inputting a command to shift to creation of a report (that is, report data with an image). The button BT2 is a button for inputting a command for clearing the findings and the contents of the attached image constituting the image interpretation report created on the image interpretation report input screen G2 and recreating the content of the image interpretation report.

次に、作成支援情報表示領域A5に表示されるテンプレート表示を利用して読影レポートを構成する所見文を入力する動作について説明する。   Next, an operation for inputting a finding sentence constituting an interpretation report using a template display displayed in the creation support information display area A5 will be described.

作成支援情報表示領域A5では、支援情報作成動作において上記の如く作成されたネットワーク情報がテンプレート表示の形態で可視的に出力され、当該テンプレート表示における要素(ここでは、語句などの文字情報)の選択肢が適宜指定されることで、所見文の入力(すなわち新規な読影レポートの入力)が実行される。   In the creation support information display area A5, the network information created as described above in the support information creation operation is visually output in the form of a template display, and options for elements in the template display (here, character information such as phrases) are selected. Is appropriately specified, and a finding sentence is input (that is, a new interpretation report is input).

但し、各属性項目に列挙される複数要素を選択肢として、単にネットワーク情報の全体(全体ネットワーク情報)を図7に示すように一覧表示するテンプレート表示の形態で提供すれば、列挙される選択肢の数が膨大過ぎて選択肢の選択が困難となる。そこで、本発明の実施形態に係るデータベースシステム1では、例えば、ユーザーである読影医が全体ネットワーク情報のうち一部の属性項目について要素を決めることで、全体ネットワーク情報から一部のネットワーク情報(一部ネットワーク情報)を取得(抽出)して表示するようにしている。このように、一部ネットワーク情報を一覧表示するテンプレート表示では、列挙される選択肢の数はある程度限定されているため、選択肢が見易くなる。   However, if a plurality of elements listed in each attribute item are selected as options, and the entire network information (entire network information) is simply provided in the form of a template display as shown in FIG. 7, the number of options listed. Is too large to make choices. Therefore, in the database system 1 according to the embodiment of the present invention, for example, the interpretation doctor who is a user determines elements for some attribute items in the entire network information, so that a part of the network information (one Part network information) is acquired (extracted) and displayed. As described above, in the template display in which a part of network information is displayed as a list, the number of options listed is limited to some extent, so that the options are easy to see.

更に、例えば、基本所見の項目に属する大分類の用語「高信号域」については、各種特徴を示す用語が付加されて、種々の基本所見フレーズを構成する。このため、基本所見の分類項目に対しては1つの大分類の用語に係る基本所見フレーズが多数属する。しかしながら、多数の基本所見フレーズ(例えば「淡い高信号域」「濃い高信号域」等)全てを一覧表示すると、列挙される選択肢の数が多く、選択肢の選択が困難である。   Further, for example, for the broad classification term “high signal range” belonging to the basic finding item, terms indicating various characteristics are added to form various basic finding phrases. For this reason, many basic finding phrases relating to one major classification term belong to the basic finding classification item. However, when all of the many basic finding phrases (for example, “light high signal area”, “dark high signal area”, etc.) are displayed in a list, the number of options to be listed is large, and selection of options is difficult.

このような問題に対して、一覧表示において、単に「特徴」等といった詳細要素に係る分類項目を新たに設けることが考えられるが、このような方策では、一覧表示における項目が増加し過ぎて、見辛いものとなる。更には、詳細要素に係る分類項目については、詳細要素の入力が必須の項目でないため、レポート作成に最低限必要な必須項目は何か、ということも分かり辛いものとなる。   For such a problem, it is conceivable to newly provide a classification item related to a detailed element such as “feature” in the list display, but in such a measure, the number of items in the list display increases too much, It will be hard to see. Furthermore, regarding the classification item related to the detailed element, since it is not an essential item to input the detailed element, it is difficult to understand what is the minimum essential item for creating the report.

そこで、データベースシステム1における一覧表示では、まず、同じ大分類の用語に関する複数の基本所見フレーズについては、大分類の用語を代表として示しておき、所定の指示に応答して、大分類の用語に係る複数の基本所見フレーズに関する詳細な情報が表示される。このような構成とすると、所見文の文章の骨格(最低限必要な必須項目)を明確にしたまま、詳細情報の入力も簡単に行うことができる。   Therefore, in the list display in the database system 1, first, for a plurality of basic finding phrases related to the same major classification term, the major classification term is shown as a representative, and in response to a predetermined instruction, the major classification term is changed. Detailed information regarding the plurality of basic finding phrases is displayed. With such a configuration, it is possible to easily input detailed information while clarifying the skeleton of the sentence of the finding sentence (minimum required item).

ここで、全体ネットワーク情報から一部のネットワーク情報を取得する手法について説明する。   Here, a method for acquiring a part of network information from the entire network information will be described.

図16は、全体ネットワーク情報から所望の一部のネットワーク情報を取得するための条件(以下「情報取得条件」「抽出条件」とも称する)を決定するテンプレート表示(情報取得条件決定テンプレート表示)TP1を例示する図である。   FIG. 16 shows a template display (information acquisition condition determination template display) TP1 for determining conditions (hereinafter also referred to as “information acquisition conditions” and “extraction conditions”) for acquiring desired partial network information from the entire network information. It is a figure illustrated.

上述の如く、検査選択動作によって検査が選択されると、読影レポート入力画面G2(例えば、図11)では、例えば、依頼事項表示領域A1に依頼事項の内容(例えば、図12)が、検査情報表示領域A2にレポート入力対象検査に係る検査の詳細な内容(例えば、図13)が表示される。そして、情報検索部125の機能によって、作成支援情報表示領域A5に、情報取得条件決定テンプレート表示TP1が表示される。   As described above, when an examination is selected by the examination selection operation, on the interpretation report input screen G2 (for example, FIG. 11), for example, the contents of the requested items (for example, FIG. 12) are displayed in the requested information display area A1. Detailed contents (for example, FIG. 13) of the examination related to the report input target examination are displayed in the display area A2. Then, by the function of the information search unit 125, the information acquisition condition determination template display TP1 is displayed in the creation support information display area A5.

情報取得条件決定テンプレート表示TP1では、全体ネットワーク情報における全属性項目のうちの一部の属性項目「カテゴリ」について、語句(選択肢)が列挙される。ここで列挙される属性項目「カテゴリ」に係る選択肢は、例えば、全体ネットワーク情報のうち、検査選択動作でレポート入力対象検査の選択と同時に指定された項目「検査部位」に属する要素と項目「モダリティ」に属する要素との組合せと関連付けられた項目「カテゴリ」に係る要素となっている。   In the information acquisition condition determination template display TP1, words (options) are listed for some attribute items “category” of all attribute items in the entire network information. The choices related to the attribute item “category” enumerated here are, for example, elements and items “modality” belonging to the item “examination part” designated at the same time as the selection of the examination for report input in the examination selection operation in the entire network information. ”Is an element related to the item“ category ”associated with the combination with the element belonging to“ ”.

例えば、検査選択動作で、項目「検査部位」に属する要素「CHEST」と項目「モダリティ」に属する要素「CR」との組合せが指定された場合、情報取得条件決定テンプレート表示TP1では、図16に示すように、項目「カテゴリ」に属する要素「肺」「軟部」「縦隔」「胸膜(辺縁)」「骨」「その他」が選択肢として列挙される。   For example, when the combination of the element “CHEST” belonging to the item “examination part” and the element “CR” belonging to the item “modality” is designated in the examination selection operation, the information acquisition condition determination template display TP1 shows that in FIG. As shown, the elements “lung”, “soft part”, “mediastinum”, “pleura (margin)”, “bone”, “other” belonging to the item “category” are listed as options.

情報取得条件決定テンプレート表示TP1で列挙される項目「カテゴリ」に係る選択肢の情報は記憶部110等に予め記憶しておけば良く、例えば、項目「カテゴリ」に係る1以上の要素を2項目「検査部位」「モダリティ」にそれぞれ属する要素の組合せと対応させて記憶しておき、検査一覧画面で指定された2項目「検査部位」「モダリティ」にそれぞれ属する要素の組合せに応じた項目「カテゴリ」に係る選択肢の一覧が情報取得条件決定テンプレート表示TP1に表示されるようにすれば良い。   Information on options related to the item “category” listed in the information acquisition condition determination template display TP1 may be stored in advance in the storage unit 110 or the like. For example, one or more elements related to the item “category” may be stored in two items “ The item “category” corresponding to the combination of the elements belonging to the two items “examination part” and “modality” specified in the examination list screen is stored in correspondence with the combination of the elements belonging to the examination part and “modality”. It suffices that the list of choices related to is displayed on the information acquisition condition determination template display TP1.

この情報取得条件決定テンプレート表示TP1では、読影医が操作部32を種々操作することで、マウスポインタMPを所望の選択肢に合わせて所定の操作(例えば、ダブルクリック)を行うと、項目「カテゴリ」に属する選択肢を指定することができる。   In this information acquisition condition determination template display TP1, when the image interpretation doctor performs various operations on the operation unit 32 to perform a predetermined operation (for example, double click) with the mouse pointer MP set to a desired option, the item “category” is displayed. It is possible to specify options belonging to.

ここでは、検査一覧画面(例えば、図10等)および情報取得条件決定テンプレート表示TP1において決定される選択肢の組合せが情報取得条件として指定される。例えば、図16に示す情報取得条件決定テンプレート表示TP1において、項目「カテゴリ」に属する選択肢「胸膜」が指定された場合、項目「検査部位」の要素「CHEST」と項目「モダリティ」の要素「CR」と項目「カテゴリ」の要素「胸膜」からなる選択肢の組合せが情報取得条件として指定される。この情報取得条件は、制御部31によってレポート入力装置30から情報検索部125に与えられる。   Here, a combination of options determined on the examination list screen (for example, FIG. 10) and the information acquisition condition determination template display TP1 is designated as the information acquisition condition. For example, in the information acquisition condition determination template display TP1 shown in FIG. 16, when the option “pleura” belonging to the item “category” is designated, the element “CHEST” of the item “examination site” and the element “CR” of the item “modality” ”And the item“ category ”element“ pleura ”are designated as information acquisition conditions. This information acquisition condition is given from the report input device 30 to the information search unit 125 by the control unit 31.

情報検索部125は、レポート入力装置30からの情報取得条件の指定に応答して、所定の情報取得ルールに従って、入力支援DB111を検索する。そして、全体ネットワーク情報から、所定の情報取得ルール及び情報取得条件に対応する一部ネットワーク情報を、作成支援情報表示領域A5にテンプレート表示として一覧表示するための情報(以下「表示用ネットワーク情報」とも称する)として取得する。具体的には、全体ネットワーク情報から、情報取得条件を満たすネットワーク情報のうち所定の情報取得ルールで規定される項目に絞り込んだ一部ネットワーク情報を取得する。   In response to the specification of the information acquisition condition from the report input device 30, the information search unit 125 searches the input support DB 111 according to a predetermined information acquisition rule. Information for displaying a list of partial network information corresponding to a predetermined information acquisition rule and information acquisition condition as a template display in the creation support information display area A5 from the entire network information (hereinafter also referred to as “display network information”). To obtain). Specifically, from the entire network information, partial network information narrowed down to items specified by a predetermined information acquisition rule is acquired from the network information satisfying the information acquisition condition.

このとき、情報検索部125は、入力支援DB111に格納されるカウント情報を参照することで、全体ネットワーク情報から、情報取得条件を満たす一部ネットワーク情報を抽出することができる。このとき、カウント情報から、抽出される一部ネットワーク情報に対応する一部のカウント情報も抽出する。   At this time, the information search unit 125 can extract partial network information satisfying the information acquisition condition from the entire network information by referring to the count information stored in the input support DB 111. At this time, a part of the count information corresponding to the extracted part of the network information is also extracted from the count information.

なお、一部ネットワーク情報と一部のカウント情報とを適宜「一部要素ネットワーク情報」と総称し、一部ネットワーク情報及び一部のカウント情報については、それぞれ適宜「ネットワーク情報」及び「カウント情報」と略称する。ここでは、一部ネットワーク情報をRDFで記述した形式で抽出することとすると、取得後の一部要素ネットワーク情報やネットワーク情報を容易に記述することができる。   The partial network information and the partial count information are collectively referred to as “partial element network information” as appropriate, and the partial network information and the partial count information are appropriately referred to as “network information” and “count information”, respectively. Abbreviated. Here, if the partial network information is extracted in a format described in RDF, the partial element network information and network information after acquisition can be easily described.

そして、上記のようにして抽出された一部ネットワーク情報が可視的に一覧表示されたテンプレート表示が提供される。なお、ここで提供されたテンプレート表示は、新規な読影レポートの所見文の入力を支援するものであるため、以下「入力支援テンプレート表示」とも称する。   Then, a template display in which the partial network information extracted as described above is visually displayed as a list is provided. Note that the template display provided here supports the input of a finding sentence of a new interpretation report, and is hereinafter also referred to as “input support template display”.

図17は、入力支援テンプレート表示TP2の表示例を示す図であり、図17では、項目「モダリティ」について要素「MR」、項目「検査部位」について要素「SKULL」、項目「カテゴリ」について要素「梗塞」の組合せが情報取得条件として指定された場合に表示される入力支援テンプレート表示TP2が例示されている。後述する入力支援テンプレート表示TP2における各種入力及び指定は、読影医による操作部32の操作入力に応じて行われる。   FIG. 17 is a diagram illustrating a display example of the input support template display TP2. In FIG. 17, the element “MR” for the item “modality”, the element “SKULL” for the item “examination site”, and the element “for the category“ category ” The input support template display TP2 displayed when the combination of “infarct” is designated as the information acquisition condition is illustrated. Various inputs and designations in an input support template display TP2, which will be described later, are performed in accordance with operation inputs of the operation unit 32 by an interpretation doctor.

図17に示すように、入力支援テンプレート表示TP2では、最上段に情報取得条件SCが記載され、略中央を中心とした領域において、左から順に、項目「部位」「基本所見」「診断」についての複数の語句F1〜F3がそれぞれ表示される。具体的には、属性項目「部位」については、複数の語句(「前頭葉>」・・・「橋」)F1が、属性項目「基本所見」については、複数の語句(「点状、斑状の高信号域」・・・「散在性の高信号域」)F2が、属性項目「診断」については、複数の語句(「陳旧性脳梗塞」・・・「多発性脳梗塞」)F3が列挙される。   As shown in FIG. 17, in the input support template display TP2, the information acquisition condition SC is described at the top, and items “parts”, “basic findings”, and “diagnosis” are sequentially arranged from the left in the area centered at the approximate center. A plurality of words F1 to F3 are displayed. Specifically, for the attribute item “part”, a plurality of words (“frontal lobe>”... “Bridge”) F1, and for the attribute item “basic findings”, a plurality of words (“dotted, patchy”). "High signal area" ... "scattered high signal area") F2, and for the attribute item "diagnosis", a plurality of phrases ("old cerebral infarction" ... "multiple cerebral infarction") F3 Enumerated.

そして、3項目「部位」「基本所見」「診断」については、情報取得条件に沿って抽出された一部ネットワーク情報に基づき、各項目間で、相互に関連付けられた語句どうしが線(ここでは、破線)によって結ばれた状態で表示される。このようにして、ある程度絞られた一部ネットワーク情報が可視的に一覧表示される。   For the three items “parts”, “basic findings”, and “diagnosis”, the words associated with each other are connected to each other based on partial network information extracted according to the information acquisition conditions (here, , Broken lines). In this way, some network information that has been narrowed down to a certain extent is visually displayed as a list.

また、図17では、語句「高信号域>」などのように「>」の付いている語句は、複数の基本所見フレーズや部位フレーズを代表した大分類の用語を示している。入力支援テンプレート表示TP2では、このような「>」の付いている語句にマウスポインタMPを合わせて右クリックをして、ポップアップリスト形式のリストを出現させて、適宜詳細な要素を指定することで所望のフレーズを選択すると、選択された所望のフレーズが当該フレーズに対応する空白欄(空白欄W1,W2等)に充当される。なお、「>」の付いている語句にマウスポインタMPを合わせてマウスの右ボタンを押下することで出現させたポップアップリストに使用頻度の高いフレーズが表示され、当該表示にマウスポインタMPを合わせることにより、使用頻度の高いフレーズを容易に選択できるようにしても良い。また、適宜詳細な要素を指定することで所望のフレーズが選択されると、図18で示すように、入力支援テンプレート表示TP2において、大分類の用語が、選択された所望のフレーズ(ここでは、「淡い高信号域>」)に置き換わるような構成としても良い。   Further, in FIG. 17, a phrase with “>” such as the phrase “high signal range>” indicates a broadly classified term representing a plurality of basic finding phrases and part phrases. In the input support template display TP2, by placing the mouse pointer MP on such a phrase with “>” and right-clicking, a pop-up list format list appears, and detailed elements are designated as appropriate. When a desired phrase is selected, the selected desired phrase is applied to blank fields (blank fields W1, W2, etc.) corresponding to the phrase. Note that frequently used phrases are displayed in the pop-up list that appears when the mouse pointer MP is placed on a word with “>” and the right button of the mouse is pressed, and the mouse pointer MP is moved to the display. Thus, a phrase that is frequently used may be easily selected. Further, when a desired phrase is selected by appropriately specifying detailed elements, as shown in FIG. 18, in the input support template display TP2, the broadly classified terms are selected as desired phrases (here, The configuration may be replaced with “light high signal range>”).

各項目に対応する語句を指定する際には、入力支援テンプレート表示TP2の下部に表示される読影レポートの所見文の文章モデル表示MDを参照する。この文章モデル表示MDは、教師データ等と併せて外部から与えられたレポートモデル(ここでは、文章モデル)のデータに基づいて表示される。   When a word corresponding to each item is designated, the sentence model display MD of the finding sentence of the interpretation report displayed at the bottom of the input support template display TP2 is referred to. This text model display MD is displayed based on report model data (here, text model) given from the outside together with teacher data and the like.

この文章モデル表示MDは、「部位−基本所見−結語。診断−結語」などといった読影レポートの所見文の文章モデルを示している。具体的には、「[空白欄W1]に[空白欄W2][プルダウン形式のリストPD1][空白欄W3][プルダウン形式のリストPD2]」といった文章モデルを示している。空白欄W1〜W3には、要素「部位」「基本所見」「診断」に係る語句がそれぞれ当てはまり、プルダウン形式のリストPD1,PD2には、基本所見に係る結語と診断に係る結語とがそれぞれ当てはまる。   This sentence model display MD shows the sentence model of the finding sentence of the interpretation report such as “part-basic findings-conclusion. Diagnosis—conclusion”. Specifically, a sentence model such as “[blank column W2] [pull-down list PD1] [blank column W3] [pull-down list PD2] in [blank column W1]” is shown. In the blank columns W1 to W3, the phrases related to the elements “parts”, “basic findings”, and “diagnosis” are applied, and in the pull-down lists PD1 and PD2, the conclusions related to the basic findings and the conclusions related to the diagnosis are respectively applied. .

つまり、読影医による語句の指定により、複数の語句(選択肢)F1のうちの所望の1以上の語句(例えば「右前頭葉灰白質」)が空白欄W1に充当され、複数の語句(選択肢)F2のうちの1つの語句(例えば「高信号域」)が空白欄W2に充当され、複数の語句(選択肢)F3のうちの1つの語句(例えば「急性期脳梗塞」)が空白欄W3に充当されることになる。なお、この3項目について、特に語句を指定する順番は問われない。   That is, according to the phrase designation by the interpretation doctor, one or more desired phrases (for example, “right frontal gray matter”) among the plurality of phrases (options) F1 are applied to the blank column W1, and the plurality of phrases (options) F2 One of the phrases (for example, “high signal area”) is allocated to the blank column W2, and one of the plurality of phrases (options) F3 (for example, “acute cerebral infarction”) is allocated to the blank column W3. Will be. The order in which words are specified in particular for these three items does not matter.

また、文章モデル表示MDでは、3つの項目以外の所定の文章モデルに沿った自然文を構成する結語については、プルダウンリストPD1,PD2にマウスポインタMPを適宜合わせて所望の選択肢を指定することができる。図18では、基本所見については結語「を認める。」が指定され、診断については結語「を疑う。」が指定されている状態が示されている。なお、結語に係る選択肢は3つ以上であって良いし、形容詞や副詞など自然文を構成する他の語句についても選択的に指定することができるように構成しても良い。   Further, in the sentence model display MD, for a conclusion constituting a natural sentence along a predetermined sentence model other than the three items, a desired option can be designated by appropriately matching the mouse pointer MP with the pull-down lists PD1 and PD2. it can. FIG. 18 shows a state in which the word “acknowledge” is designated for the basic findings, and the word “suspect” is designated for the diagnosis. It should be noted that there may be three or more options related to the conclusion, and it may be configured so that other words and phrases constituting a natural sentence such as an adjective and an adverb can be selectively specified.

上記のようにして、3項目及び2つの結語についてそれぞれ語句(適宜フレーズも含む)を指定した状態で、読影医が操作部32を種々入力操作して、マウスポインタMPを「文章を追加」を指示するボタンBT11に合わせて所定操作(例えば左クリック)をすると、制御部31により、各項目等について指定された語句が所定のレポートモデルに沿ったレポートを構成する要素として決定される。そして、所見文表示領域A6に対して文章モデル表示MDに表示された読影レポートの所見文がコピーされる。   As described above, with the words (including phrases as appropriate) designated for the three items and the two conclusions, the interpretation doctor performs various input operations on the operation unit 32, and the mouse pointer MP is set to “add text”. When a predetermined operation (for example, left click) is performed in accordance with the button BT11 to instruct, the control unit 31 determines words designated for each item and the like as elements constituting a report according to a predetermined report model. Then, the finding sentence of the interpretation report displayed on the sentence model display MD is copied to the finding sentence display area A6.

一方、マウスポインタMPを「文章のクリア」を指示するボタンBT12に合わせて所定の操作(例えば左クリック)をすると、文章モデル表示MDに表示された要素が全てクリアされる。   On the other hand, when the mouse pointer MP is set to the button BT12 for instructing “clear text” and a predetermined operation (for example, left click) is performed, all elements displayed on the text model display MD are cleared.

図18で示した入力支援テンプレート表示TP2等を用いて所見文表示領域A6に新規な所見文を記入して、読影レポート入力画面G2の最下部のボタンBT1にマウスポインタMPを合わせて所定の操作(例えば左クリック)を行うと、新規な読影レポートの登録指示がなされる。そして、レポート構成部127に対して、所見文表示領域A6に表示された所見文を含む新規な読影レポートを構成する要素と画像添付領域A9に添付された画像データの所在を示す情報とが制御部31より入力される。このとき、文章モデル表示MDに表示された読影レポートの所見文を構成する要素(レポート構成要素)については、各項目に対して各レポート構成要素が指定されるため、新規な読影レポートは、例えば、図6に示す単レポート構造化データのような形式で入力される。   A new finding is entered in the finding sentence display area A6 using the input support template display TP2 or the like shown in FIG. 18, and the mouse pointer MP is aligned with the button BT1 at the bottom of the interpretation report input screen G2 to perform a predetermined operation. When (for example, left click) is performed, a new interpretation report registration instruction is issued. Then, the report component 127 is controlled by the elements constituting the new interpretation report including the finding sentence displayed in the finding sentence display area A6 and the information indicating the location of the image data attached to the image attachment area A9. Input from the unit 31. At this time, as for the elements (report constituent elements) constituting the findings of the interpretation report displayed on the sentence model display MD, each report constituent element is designated for each item. Are input in a format such as single report structured data shown in FIG.

レポート構成部127では、新規な単一レポート構造化データ等に基づいて、所定のルールに沿った新規な画像付きレポートデータが生成され、データ書込部128を介してレポートDB211に追加される。このとき、新規な単一レポート構造化データが構造化DB213に追加される。その一方で、データ構築部123によって、新規な単一レポート構造化データの情報が入力支援DB111に追加されることで、入力支援DB111が更新される。   The report construction unit 127 generates new report data with an image according to a predetermined rule based on the new single report structured data and the like, and adds it to the report DB 211 via the data writing unit 128. At this time, new single report structured data is added to the structured DB 213. On the other hand, the data construction unit 123 updates the input support DB 111 by adding new single report structured data information to the input support DB 111.

<検索動作>
上述の如く、入力支援テンプレート表示TP2では、所見文を容易に入力することが可能となる。しかしながら、所見文の入力時に、所見文を構成する幾つかの項目については要素を容易に選択することができるが、知識が曖昧で読影の判断に迷うような場面では残余の項目については要素の選択が難しい。このような場合には、過去の症例に含まれる読影の対象となる画像と類似した画像と当該画像について記載された所見文とを参照することができれば、判断の参考となり、入力が更に容易となる。
<Search operation>
As described above, in the input support template display TP2, it is possible to easily input a finding sentence. However, at the time of inputting a finding sentence, elements can be easily selected for some items constituting the finding sentence. However, in a situation where the knowledge is ambiguous and the interpretation is unclear, the remaining items are Selection is difficult. In such a case, if it is possible to refer to an image similar to the image to be interpreted included in the past case and the finding sentence described about the image, it will be a reference for judgment, and input will be easier. Become.

以下、読影対象となる画像に対する類似画像と当該類似画像について記載された所見文を検索して提示する検索動作について説明する。   Hereinafter, a search operation for searching for and presenting a similar image to an image to be interpreted and a finding sentence described for the similar image will be described.

図19は、レポート入力装置30に表示される画像表示画面401の表示例を示す図である。   FIG. 19 is a diagram illustrating a display example of the image display screen 401 displayed on the report input device 30.

図19に示すように、所見文の入力時には、画像表示画面401の左半分の領域LHには、読影の対象となる画像データが可視的に出力されている。なお、図19では、12個の画像データに係る画像が表示された状態が示されている。   As shown in FIG. 19, when inputting a finding sentence, image data to be interpreted is visually output in the left half area LH of the image display screen 401. FIG. 19 shows a state in which images related to 12 pieces of image data are displayed.

読影医が操作部32に含まれるマウスを種々操作することで、領域LHに表示されている複数の画像の適当な位置にマウスポインタMPを合わせてマウスの右ボタンをクリックすると、図20に示すようなコマンドのリストCL1が出現する。図20は、マウスポインタMPを合わせている画像に着目して当該画像について表示されるコマンドのリストCL1を示している。   When the image interpretation doctor operates the mouse included in the operation unit 32 in various ways, when the mouse pointer MP is set to an appropriate position in a plurality of images displayed in the region LH and the right button of the mouse is clicked, the result is shown in FIG. A list of commands CL1 appears. FIG. 20 shows a list of commands CL1 displayed for the image focusing on the image on which the mouse pointer MP is placed.

コマンドのリストCL1には、「類似画像の検索」「使用する属性を選択して類似画像の検索」「画像の詳細属性を表示」「履歴の表示」の4つのコマンドを含む複数のコマンドが含まれている。そして、読影医が操作部32に含まれるマウスを種々操作することで、マウスポインタMPを所望のコマンドに合わせて、マウスの左ボタンをクリックすることで、所望のコマンドを指定することができる。   The command list CL1 includes a plurality of commands including four commands of “search for similar images”, “search for similar images by selecting attributes to be used”, “display detailed attributes of images”, and “display history”. It is. Then, the image interpretation doctor operates the mouse included in the operation unit 32 in various ways, and the desired command can be designated by clicking the left button of the mouse with the mouse pointer MP set to the desired command.

まず、リストCL1の複数のコマンドのうちコマンド「類似画像の検索」を指定した場合について説明する。   First, a case where the command “similar image search” is designated among a plurality of commands in the list CL1 will be described.

入力支援テンプレート表示TP2において、所見文を構成する要素に係る複数(ここでは5つ)の分類項目「部位」「基本所見」「結語」「診断」「結語」のうち、一部の分類項目について要素(ここでは文字情報)が指定された状態で、「類似画像の検索」が指定されると、領域LHに表示されている1又は2以上の画像が検索の基準となる画像(以下「検索基準画像」とも称する)として指定される。つまり、検索基準画像のデータ(検索基準画像データ)が指定される。   In the input support template display TP2, some of the classification items among a plurality of (here, five) classification items “parts”, “basic findings”, “conclusion”, “diagnosis”, and “conclusion” related to elements constituting the finding sentence. If “similar image search” is specified in a state where an element (here, character information) is specified, one or more images displayed in the region LH are used as search criteria (hereinafter “search”). Also designated as “reference image”. That is, search reference image data (search reference image data) is designated.

検索基準画像が指定されたとき、入力支援テンプレート表示TP2において、既に一部の分類項目について指定された文字情報が、検索基準画像に対して関連付けられていた当該検索基準画像の特徴を示す文字情報(「画像特徴付け文字情報」とも称する)とみなされる。また、画像特徴付け文字情報には、検索基準画像のDICOM属性や情報取得条件SCの属性値を構成する文字情報も適宜含まれる。   When the search reference image is specified, the character information indicating the characteristics of the search reference image that the character information already specified for some of the classification items is associated with the search reference image in the input support template display TP2. (Also referred to as “image characterization character information”). Further, the image characterization character information appropriately includes character information constituting the DICOM attribute of the search reference image and the attribute value of the information acquisition condition SC.

図21は、画像特徴付け文字情報を例示する図である。   FIG. 21 is a diagram illustrating image characterization character information.

図21では、属性項目「診断」については文字情報が指定されておらず、属性項目Pf1〜Pf8(ここでは、文字情報「年齢」「性別」「モダリティ」「検査部位」「撮影条件」「部位」「基本所見」「特徴」)に対して属性値Pv1〜Pv8(ここでは、文字情報「53」「男」「MR」「SKULL」「T2WI」「前頭葉」「高信号域」「淡い」)がそれぞれ対応づけられている。   In FIG. 21, character information is not specified for the attribute item “diagnosis”, and the attribute items Pf1 to Pf8 (here, the character information “age”, “sex”, “modality”, “examination part”, “imaging condition”, “part” ”“ Basic findings ”“ features ”) attribute values Pv1 to Pv8 (here, character information“ 53 ”“ male ”“ MR ”“ SKULL ”“ T2WI ”“ frontal lobe ”“ high signal range ”“ light ”) Are associated with each other.

上記のように検索基準画像が指定されると、制御部31から情報検索部125に対し、画像特徴付け文字情報を構成する複数の文字情報を検索キーワード群とした検索基準画像に係る類似画像の検索を要求するクエリが送られる。なお、「検索キーワード群」という文言は、2以上の文字情報だけでなく1つの文字情報をも含む概念で使用している。   When the search reference image is specified as described above, the control unit 31 sends the information search unit 125 a similar image related to the search reference image using a plurality of character information constituting the image characterization character information as a search keyword group. A query is sent requesting a search. The term “search keyword group” is used in a concept including not only two or more pieces of character information but also one piece of character information.

情報検索部125は、制御部31からのクエリの受け付けに応答して、診療情報DB210内の構造化DB213を検索対象としたテキスト情報を用いたキーワード検索により、所定の分類項目について画像特徴付け文字情報と同様な属性値が付与されている1以上の単一レポート構造化データを検出する。   In response to acceptance of the query from the control unit 31, the information search unit 125 performs image characterization characters for a predetermined classification item by keyword search using text information for the structured DB 213 in the medical information DB 210 as a search target. One or more single report structured data having an attribute value similar to information is detected.

ここで言う「所定の分類項目」は、単一レポート構造化データにおいて関連付けの対象となる所定数の分類項目のうち、予め設定された所定の一部の分類項目である。この所定の一部の分類項目としては、例えば、図21で示す分類項目Pf3〜Pf7すなわち5つの分類項目「モダリティ」「検査部位」「撮影条件」「部位」「基本所見」等が挙げられる。   The “predetermined classification item” referred to here is a predetermined predetermined classification item among a predetermined number of classification items to be associated in the single report structured data. Examples of the predetermined partial classification items include the classification items Pf3 to Pf7 shown in FIG. 21, that is, the five classification items “modality”, “examination region”, “imaging condition”, “region”, and “basic findings”.

このように、情報検索部125におけるキーワード検索では、1以上の検索基準画像データ(検索基準画像)に関連付けられた複数の文字情報のうち、単一レポート構造化データにおいて関連付けの対象となる所定数の分類項目のうちの予め設定された所定の一部の分類項目に属する1以上の文字情報が、検索キーワード群として選択的に採用される。このように、画像データに付与された文字情報のうち一部の項目に属する文字情報を選択的に利用することで、キーワード検索の処理に要する負荷の低減を図っている。   As described above, in the keyword search in the information search unit 125, among a plurality of pieces of character information associated with one or more search reference image data (search reference image), a predetermined number to be associated in the single report structured data. One or more pieces of character information belonging to a predetermined predetermined category item among the category items are selectively adopted as a search keyword group. As described above, by selectively using character information belonging to some items of the character information assigned to the image data, the load required for the keyword search process is reduced.

また、情報検索部125におけるキーワード検索では、検索の漏れを防ぐために、辞書DB130を参照して、検索キーワード群に含まれる1以上の文字情報と所定の関係(同義語や類義語や関連語等といった関係)を有する1以上の文字情報(以下「関連文字情報」とも称する)を抽出して、検索キーワード群に追加した後にキーワード検索が行われる。図22は、辞書DBの記憶内容を例示する図であり、同義語の関係を有する「陳旧性脳梗塞」と「旧い脳梗塞」との組合せ、及び「T2WI」と「T2WI強調像」と「T2WI像」との組合せが例示されている。   Further, in the keyword search in the information search unit 125, in order to prevent omission of search, the dictionary DB 130 is referred to and one or more character information included in the search keyword group and a predetermined relationship (synonyms, synonyms, related words, etc.) A keyword search is performed after extracting one or more pieces of character information having a relationship) (hereinafter also referred to as “related character information”) and adding them to the search keyword group. FIG. 22 is a diagram exemplifying the storage contents of the dictionary DB. A combination of “old cerebral infarction” and “old cerebral infarction” having a synonym relationship, and “T2WI” and “T2WI emphasized image”. A combination with a “T2WI image” is illustrated.

そして、単一レポート構造化データには、画像データの所在を示す情報及び画像付きレポートデータのファイル名が含まれているため、情報検索部125によって、1以上の単一レポート構造化データが検出されると、1以上の画像データと1以上の画像付きレポートデータとが一義的に検出されたことになる。このとき、情報検索部125によって検出される画像データは、検索基準画像データに付与された属性値と類似した属性値を有するため、検索基準画像データとは異なりかつ検索基準画像データに対する類似画像を示す画像データとして検出される。また、情報検索部125によって検出される画像付きレポートデータは、検索基準画像に対する類似画像について記載された読影レポートを示すため、当該画像付きレポートデータに係る読影レポートのデータは、検索基準画像データに関連するレポート(すなわち関連レポート)のデータとして検出される。   Since the single report structured data includes the information indicating the location of the image data and the file name of the report data with the image, the information search unit 125 detects one or more single report structured data. Then, one or more pieces of image data and one or more pieces of report data with images are uniquely detected. At this time, since the image data detected by the information search unit 125 has an attribute value similar to the attribute value given to the search reference image data, a different image from the search reference image data and a similar image to the search reference image data is displayed. Is detected as image data. Further, since the report data with image detected by the information search unit 125 indicates an interpretation report described for a similar image with respect to the search reference image, the interpretation report data related to the report data with image is included in the search reference image data. It is detected as data of related reports (ie, related reports).

そして、上記のようにして検出された類似画像及び関連レポートのデータが可視的に出力された検索結果表示画面が提供される。   Then, a search result display screen is provided on which the similar image and the related report data detected as described above are visually output.

図23は、検索結果表示画面の表示内容を例示する図であり、検索結果表示画面は、画像表示画面401の右半分の表示領域RHに表示される。   FIG. 23 is a diagram illustrating the display contents of the search result display screen. The search result display screen is displayed in the display area RH on the right half of the image display screen 401.

図23で示す検索結果表示画面では、2つの画像付きレポートデータに係る類似画像と属性情報と所見文との組合せが上から順に表示されている。具体的には、1つ目の画像付きレポートデータに係る類似画像が類似画像1とされて、画像付きレポートデータに添付されている2つの画像、属性情報(48歳、女性、SKULL、MR)及び所見文(T2WI強調像において、前頭葉、後頭葉に高信号域を認める。旧い脳梗塞を疑う。)が表示されている。また、類似画像1の下方に、2つ目の画像付きレポートデータに係る類似画像が類似画像2とされて、画像付きレポートデータに添付されている2つの画像、属性情報(68歳、男性、SKULL、MR)及び所見文(T2WIにおいて、前頭葉、右側頭葉に淡い高信号域を認める。CTにて精査ください。)が表示されている。   In the search result display screen shown in FIG. 23, combinations of similar images, attribute information, and finding sentences related to two report data with images are displayed in order from the top. Specifically, the similar image related to the first report data with image is set as the similar image 1, and two images attached to the report data with image, attribute information (48 years old, female, SKULL, MR) And a finding sentence (in the T2WI-weighted image, high signal areas are observed in the frontal and occipital lobes. Old cerebral infarction is suspected). Below the similar image 1, the similar image related to the second image-attached report data is set as the similar image 2, and the two images attached to the image-added report data, attribute information (68 years old, male, SKULL, MR) and observation text (in T2WI, a faint high signal area is recognized in the frontal lobe and right temporal lobe. Please check carefully by CT).

読影医は、図23に示すような検索結果表示画面を参照することで、類似画像と読影対象となっている画像とを見比べつつ、過去の所見文を参考に、文字情報を指定するのが困難であった分類項目「診断」等についても、適正な文字情報を容易に指定することができる。   The interpreting doctor refers to the search result display screen as shown in FIG. 23, and compares the similar image with the image to be interpreted, and specifies the character information with reference to the past finding sentence. Appropriate character information can be easily specified for the classification item “diagnosis” which has been difficult.

次に、リストCL1の複数のコマンドのうちコマンド「使用する属性を選択して類似画像の検索」を指定した場合について説明する。   Next, a case where the command “select an attribute to be used and search for similar images” among a plurality of commands in the list CL1 is specified will be described.

リストCL1でコマンド「使用する属性を選択して類似画像の検索」が指定された場合には、図24で示すような検索条件をカスタマイズする設定画面が画像表示画面401の右半分の表示領域RHに表示される。   When the command “Search for similar images by selecting an attribute to be used” is specified in the list CL1, a setting screen for customizing search conditions as shown in FIG. 24 is displayed in the right half display area RH of the image display screen 401. Is displayed.

図24で示す設定画面では、単一レポート構造化データにおいて関連付けの対象となる所定数(ここでは、9個)の分類項目「年齢」「性別」「モダリティ」「検査部位」「撮影条件」「部位」「基本所見」「特徴」「診断」が列挙されており、各分類項目の左方にそれぞれチェックボックスが付与されている。この設定画面では、ユーザーである読影医が操作部32のマウスを種々操作することで、マウスポインタMPを所望のチェックボックスに合わせ、マウスの左ボタンをクリックすることで、検索に使用する分類項目の左方に付されたチェックボックスを黒四角の状態とする一方で、検索に使用しない分類項目の左方に付されたチェックボックスを白抜き四角の状態として、決定ボタンをマウスポインタMPにて押下することで、検索条件がカスタマイズされたキーワード検索を実行させることができる。   In the setting screen shown in FIG. 24, a predetermined number (here, 9) of classification items “age”, “gender”, “modality”, “examination region”, “imaging condition”, “ “Parts”, “basic findings”, “features”, and “diagnosis” are listed, and check boxes are added to the left of each classification item. In this setting screen, the interpretation doctor who is the user operates the mouse of the operation unit 32 in various ways, aligns the mouse pointer MP with a desired check box, and clicks the left button of the mouse, thereby classifying items used for the search. While the check box attached to the left of the box is in the black square state, the check box attached to the left of the classification item not used for the search is in the white square state, and the decision button is moved with the mouse pointer MP. By pressing, a keyword search with customized search conditions can be executed.

なお、年齢については、検索基準画像に係る患者の年齢と同じ年齢の患者に係る類似画像や関連レポートしか検索しないとすれば、検索結果として得られる情報が非常に少なくなったり、非常に偏ったものとなったりする可能性がある。このため、図24で示す設定画面では、年齢については、ある程度の幅が設定可能となっている。   As for the age, if only similar images and related reports related to patients of the same age as that of the patient related to the search reference image are searched, the information obtained as a search result is very little or very biased. It may become a thing. For this reason, in the setting screen shown in FIG. 24, a certain range can be set for the age.

例えば、図24で示す設定画面では、検索条件として、5つの分類項目「モダリティ」「検査部位」「撮影条件」「部位」「基本所見」が検索に使用する分類項目として指定されている状態が示されている。   For example, in the setting screen shown in FIG. 24, there are states in which five classification items “modality”, “examination part”, “imaging condition”, “part”, and “basic findings” are designated as the classification items used for the search. It is shown.

また、検索に使用する分類項目が無い場合にはキーワード検索を実行することができないため、設定画面では、所定数の分類項目のうちの少なくとも1以上の分類項目からなる一部の分類項目が指定されなければ、決定ボタンが押下されてもキーワード検索が実行されないように構成されている。   In addition, since no keyword search can be executed when there is no classification item to be used for the search, a part of the classification items including at least one of the predetermined number of classification items is specified on the setting screen. Otherwise, the keyword search is not executed even if the enter button is pressed.

そして、情報検索部125におけるキーワード検索では、1以上の検索基準画像データに関連付けられた複数の文字情報のうち、単一レポート構造化データにおいて関連付けの対象となる所定数の分類項目のうちの設定画面(図24)で設定された一部の分類項目に属する1以上の文字情報が、検索キーワード群として選択的に採用される。このように、検索基準画像データに付与された文字情報のうち所望の分類項目に属する文字情報を選択的に利用してキーワード検索を行うようにすることで、例えば、読影医が未だに文字情報を入力していない文字情報の項目を適宜除外して検索を行うことができる。   In the keyword search in the information search unit 125, among a plurality of pieces of character information associated with one or more search reference image data, setting is made among a predetermined number of classification items to be associated in the single report structured data. One or more pieces of character information belonging to some classification items set on the screen (FIG. 24) are selectively adopted as a search keyword group. In this way, by performing a keyword search by selectively using character information belonging to a desired classification item among character information assigned to search reference image data, for example, an interpreting doctor still has character information. The search can be performed by appropriately excluding items of character information that have not been input.

図25は、新規なレポートの作成動作フローを示すフローチャートである。ここでは、レポート入力装置30において所定の操作を行うと、まず、検査選択動作が開始され、図25のステップST11に進む。   FIG. 25 is a flowchart showing an operation flow for creating a new report. Here, when a predetermined operation is performed in the report input device 30, first, an examination selection operation is started, and the process proceeds to step ST11 in FIG.

ステップST11では、表示部33に検査一覧画面(例えば図10の検査一覧画面G1)が表示される。   In step ST11, the examination list screen (for example, the examination list screen G1 in FIG. 10) is displayed on the display unit 33.

ステップST12では、検査一覧画面において新規な読影レポートを作成する対象となる検査(レポート入力対象検査)が選択されたか否か判定される。ここでは、レポート入力対象検査が選択されるまでステップST12の判定が繰り返され、レポート入力対象検査が選択されるとステップST13に進む。   In step ST12, it is determined whether or not a test (report input target test) for creating a new interpretation report has been selected on the test list screen. Here, the determination in step ST12 is repeated until the report input target inspection is selected, and when the report input target inspection is selected, the process proceeds to step ST13.

ステップST13では、読影レポート入力画面G2が表示される。このとき、読影レポート入力画面G2の作成支援情報表示領域A5には、既に選択されたレポート入力対象検査に係る項目「検査部位」の要素と項目「モダリティ」の要素の組合せに対応する項目「カテゴリ」に属する要素(ここでは、文字情報)が列挙された画面(例えば、図16の情報取得条件決定テンプレート表示TP1)が表示される。   In step ST13, an interpretation report input screen G2 is displayed. At this time, the creation support information display area A5 of the interpretation report input screen G2 includes an item “category” corresponding to the combination of the element of the item “examination part” and the element of the item “modality” relating to the already selected report input target examination. A screen (for example, information acquisition condition determination template display TP1 in FIG. 16) on which elements (here, character information) belonging to “” are listed is displayed.

ステップST14では、情報取得条件決定テンプレート表示TP1において項目「カテゴリ」に係る文字情報が選択されたか否かが判定される。ここでは、項目「カテゴリ」に係る文字情報が選択されるまでステップST14の判定が繰り返され、項目「カテゴリ」に係る文字情報が選択されるとステップST15に進む。このとき、項目「カテゴリ」に係る文字情報が選択されることで、情報取得条件が決定される。   In step ST14, it is determined whether or not the character information related to the item “category” is selected in the information acquisition condition determination template display TP1. Here, the determination in step ST14 is repeated until the character information related to the item “category” is selected, and when the character information related to the item “category” is selected, the process proceeds to step ST15. At this time, the information acquisition condition is determined by selecting the character information related to the item “category”.

ステップST15では、情報取得条件の入力に応答して、入力支援DB111に格納された全体ネットワーク情報から一部ネットワーク情報が取得される。なお、このとき、一部のカウント情報も取得される。   In step ST15, in response to the input of the information acquisition condition, partial network information is acquired from the entire network information stored in the input support DB 111. At this time, some count information is also acquired.

ステップST16では、ステップST15で取得された一部ネットワーク情報が可視的に出力された入力支援テンプレート表示TP2が表示部33に表示される。   In step ST16, the input support template display TP2 in which the partial network information acquired in step ST15 is visually output is displayed on the display unit 33.

ステップST17では、入力支援テンプレート表示TP2において各項目について要素が指定され、その他の情報が入力される。ここでは、読影医による操作部32の操作入力によって各項目及び各結語についてそれぞれ文字情報(適宜フレーズも含む)を指定した状態で、マウスポインタMPを「文章を追加」を指示するボタンBT11に合わせて所定操作がなされると、所見文表示領域A6に対して文章モデル表示MDに表示された読影レポートの所見文がコピーされる。   In step ST17, an element is designated for each item in the input support template display TP2, and other information is input. Here, in a state in which character information (including phrases as appropriate) is designated for each item and each conclusion by an operation input of the operation unit 32 by the interpretation doctor, the mouse pointer MP is set to the button BT11 for instructing “add sentence”. When a predetermined operation is performed, the finding sentence of the interpretation report displayed on the sentence model display MD is copied to the finding sentence display area A6.

ステップST18では、新規な読影レポートの登録指示がなされたか否かを判定する。ここでは、新規な読影レポートの登録指示がなされるまでステップST17,18の処理が繰り返され、読影レポート入力画面G2の最下部のボタンBT1にマウスポインタMPが合わされて所定の操作(例えば左クリック)が行われることで、ステップST19に進む。   In step ST18, it is determined whether or not a new interpretation report registration instruction has been issued. Here, the processes of steps ST17 and ST18 are repeated until a new interpretation report registration instruction is given, and the mouse pointer MP is put on the button BT1 at the bottom of the interpretation report input screen G2 to perform a predetermined operation (for example, left click). Is performed, it progresses to step ST19.

ステップST19では、レポート構成部127において新規な読影レポートが構成され、データ書込部128によって、診療情報DB210に対して新規な画像付きレポートデータが記録される。このとき、入力支援テンプレート表示TP2において入力された新規な単一レポート構造化データが構造化DB123に対して追加される。また、新規な単一レポート構造化データは、レポート構成部127及びデータ構築部123の機能により、入力支援DB111に格納される情報を補強するデータとしても使用される。つまり、新たな単一レポート構造化データが入力される度に、当該データが、入力支援DB111に格納される全体ネットワーク情報に付加されつつ、カウント情報も更新される。   In step ST19, a new interpretation report is constructed in the report construction unit 127, and new report data with images is recorded in the medical treatment information DB 210 by the data writing unit 128. At this time, the new single report structured data input in the input support template display TP2 is added to the structured DB 123. The new single report structured data is also used as data for reinforcing the information stored in the input support DB 111 by the functions of the report composition unit 127 and the data construction unit 123. That is, every time new single report structured data is input, the count information is updated while the data is added to the entire network information stored in the input support DB 111.

図26は、類似画像及び関連レポートの検索動作フローを示すフローチャートである。本動作フローは、図25のステップST16に進むと開始され、図26のステップST31に進む。   FIG. 26 is a flowchart showing a search operation flow for similar images and related reports. This operation flow starts when the process proceeds to step ST16 in FIG. 25, and proceeds to step ST31 in FIG.

ステップST31では、制御部31により、読影医が操作部32を操作することで検索基準画像データが指定されて、キーワード検索を実行する指示(検索指示)が発せられたか否かが判定される。例えば、図20に示すようなコマンドのリストCL1において、「類似画像の検索」が指定されるか、又はリストCL1において「使用する属性を選択して類似画像の検索」が指定された後に図24で示すような設定画面で検索条件のカスタマイズが行われると、検索指示が発せられる。ここでは、検索指示が発せられるまでステップST31の処理が繰り返され、検索指示が発せられると、ステップST32に進む。   In step ST31, the control unit 31 determines whether or not a search reference image data is specified by operating the operation unit 32 by the image interpretation doctor and an instruction (search instruction) for executing a keyword search is issued. For example, in the command list CL1 as shown in FIG. 20, “similar image search” is designated, or in the list CL1, “select similar attribute and select similar image” is designated in FIG. When the search condition is customized on the setting screen as shown in FIG. 6, a search instruction is issued. Here, the process of step ST31 is repeated until a search instruction is issued, and when a search instruction is issued, the process proceeds to step ST32.

ステップST32では、検索基準画像に対する類似画像及び関連レポートの検索を要求するクエリが制御部31から情報検索部125に対して転送される。なお、検索条件のカスタマイズが行われた場合には、カスタマイズされた検索条件の情報も、情報検索部125に転送される。   In step ST <b> 32, a query requesting a search for similar images and related reports with respect to the search reference image is transferred from the control unit 31 to the information search unit 125. When the search condition is customized, the customized search condition information is also transferred to the information search unit 125.

ステップST33では、情報検索部125によって、予め設定されたか、又はカスタマイズされたキーワード検索に使用する属性すなわち分類項目が認識される。   In step ST33, the information search unit 125 recognizes an attribute, that is, a classification item, that is used for a keyword search that is set in advance or customized.

ステップST34では、情報検索部125によって、検索条件が認識される。具体的には、検索基準画像に関連付けられている属性値(ここでは、文字情報)のうちステップST32で認識された分類項目に属する文字情報が検索キーワードとして認識される。   In step ST34, the information search unit 125 recognizes the search condition. Specifically, character information belonging to the classification item recognized in step ST32 among the attribute values (here, character information) associated with the search reference image is recognized as a search keyword.

ステップST35では、情報検索部125によって、ステップST34で認識された検索条件に合致する類似画像及び関連レポートのデータが、キーワード検索により検出される。   In step ST35, the information search unit 125 detects similar images and related report data that match the search conditions recognized in step ST34 by keyword search.

ステップST36では、情報検索部125によって、ステップST35で検出された類似画像及び関連レポートのデータに基づき、検索結果に係る検索結果表示画面データが生成されて、制御部31に転送される。   In step ST 36, the search result display screen data related to the search result is generated by the information search unit 125 based on the similar image and the related report data detected in step ST 35, and transferred to the control unit 31.

ステップST37では、表示制御部312の制御により、ステップST36において生成された検索結果表示画面データに基づき、表示部33に検索結果表示画面が表示される。すなわち、ステップST35において検出された1以上の画像データ及び1以上のレポートデータが可視的に出力される。   In step ST37, the search result display screen is displayed on the display unit 33 based on the search result display screen data generated in step ST36 under the control of the display control unit 312. That is, one or more image data and one or more report data detected in step ST35 are visually output.

以上のように、本発明の実施形態に係るデータベースシステム1では、画像データに関する詳細な情報が記載されているレポート(ここでは、読影レポート)を構成する文字情報が、画像データに対してメタデータとして付与される。そして、例えば、ユーザーである読影医が読影中に読影対象の画像を検索の基準となる画像(検索基準画像)として指定するだけで、その検索基準画像に対して既に付与されている文字情報がキーワードとされて、上記メタデータを利用したキーワード検索により検索基準画像データに係る類似画像や関連レポートのデータが検出される。このように、画像の詳細な特徴について記載されているレポートを構成する文字情報をメタデータとして利用し、画像を指定するだけで検索条件が決定されるようにすることで、画像の検索精度が高くかつ、検索条件の入力が容易に可能となる。   As described above, in the database system 1 according to the embodiment of the present invention, character information constituting a report (herein, an interpretation report) in which detailed information about image data is described is metadata for image data. As given. Then, for example, the image interpretation doctor who is the user simply designates the image to be interpreted as an image to be used as a search reference (search reference image) during interpretation, and the character information already assigned to the search reference image can be obtained. As a keyword, a similar image and related report data related to the search reference image data are detected by keyword search using the metadata. In this way, the text search information describing the detailed characteristics of the image is used as metadata, and the search condition is determined simply by specifying the image, thereby improving the image search accuracy. The search condition can be easily input.

特に、読影レポートは画像と関連付けられてデータベース化されることが多く、読影レポートは画像の詳細な特徴を表した文字情報を多く含むため、画像データに対するメタデータの付与、及び検索精度の向上を容易に図ることが可能である。   In particular, interpretation reports are often associated with images and stored in a database, and interpretation reports contain a large amount of character information that represents the detailed characteristics of images, so that metadata can be added to image data and search accuracy can be improved. It can be easily achieved.

また、画像データに対して元々関連付けられていた画像付きレポートデータを構成する文字情報がメタデータとして画像データに対して自動的に付与されるため、画像に対してメタデータを付与する特別な操作が不要となる。したがって、画像に対するメタデータの付与が容易に可能となる。   In addition, since the character information constituting the report data with an image originally associated with the image data is automatically added to the image data as metadata, a special operation for adding metadata to the image Is no longer necessary. Therefore, it is possible to easily add metadata to an image.

更に、画像データに対してメタデータとして付与される文字情報が、撮影条件、部位、基本所見、特徴、診断、及び結語等といった画像に関する特徴的な内容を示す文字情報である。したがって、検索精度の向上を図ることができる。   Furthermore, the character information given as metadata to the image data is character information indicating characteristic contents regarding the image such as imaging conditions, parts, basic findings, features, diagnosis, and conclusions. Therefore, the search accuracy can be improved.

また、画像データに対して元々付与されていたDICOM属性等に係る属性情報もメタデータに含めることで、検索精度を更に向上させることができる。例えば、画像の内容を特徴付ける項目(例えば、患者ID,年齢、性別、モダリティ、検査部位、担当医師等)に係る属性情報もメタデータに含めることで、画像の内容を特徴付ける項目に関する文字情報を利用した検索が可能となるため、検索精度をより向上させることができる。   Further, by including attribute information related to DICOM attributes or the like originally assigned to the image data in the metadata, the search accuracy can be further improved. For example, by including in the metadata attribute information relating to items that characterize the content of the image (for example, patient ID, age, sex, modality, examination site, doctor in charge, etc.), character information relating to the item that characterizes the content of the image is used. The search accuracy can be further improved.

また、辞書DB130を利用して、最初に与えられたキーワードから所定の関係(例えば、同義語、類義語、関連語等の関係)を有するキーワードをも含めたキーワード検索を行う。このため、読影レポートの作成者によって若干異なる言葉使いの癖などによらず、所望の類似画像や関連レポートのデータが検出される確率が高まる。   In addition, using the dictionary DB 130, a keyword search including keywords having a predetermined relationship (for example, a relationship of synonyms, synonyms, related terms, etc.) is performed from a keyword given first. For this reason, the probability that a desired similar image or related report data is detected is increased regardless of the wording slightly different depending on the creator of the interpretation report.

<変形例>
以上、この発明の実施形態について説明したが、この発明は上記説明した内容のものに限定されるものではない。
<Modification>
As mentioned above, although embodiment of this invention was described, this invention is not limited to the thing of the content demonstrated above.

◎例えば、上記実施形態では、類似画像及び関連レポートの双方が検出されたが、これに限られず、類似画像及び関連レポートのうちの少なくとも一方が検出されて、ユーザーに対して提示されても良い。   For example, in the above embodiment, both the similar image and the related report are detected. However, the present invention is not limited to this, and at least one of the similar image and the related report may be detected and presented to the user. .

◎また、上記実施形態では、新規な読影レポートを作成する際には、表示領域LHに表示されている複数の画像のうち、特徴的で代表的な画像を入力支援テンプレート表示TP2の画像添付領域A9に添付するものとして説明したが、これに限られず、例えば、画像添付領域A9に特徴的で代表的な画像が添付されない場合には、表示領域LHに表示されている複数の画像によって構成される画像群全体が、読影レポートと関連付けられた画像付きレポートデータが生成される。このような場合には、図6で示された単一レポート構造化データでは、例えば、画像群全体の所在を示すフォルダ名等が関連付けられた状態とすれば良い。そして、キーワード検索によって、画像群全体が関連付けられた画像付きレポートデータが検出された場合には、検索結果表示画面において、画像群を構成する全画像が一群の類似画像として表示される。   In the above embodiment, when creating a new image interpretation report, a characteristic representative image among the plurality of images displayed in the display area LH is displayed in the image attachment area of the input support template display TP2. Although described as being attached to A9, the present invention is not limited to this. For example, in the case where a characteristic representative image is not attached to the image attachment area A9, the image is composed of a plurality of images displayed in the display area LH. The report data with an image in which the entire image group is associated with the interpretation report is generated. In such a case, the single report structured data shown in FIG. 6 may be associated with, for example, a folder name indicating the location of the entire image group. Then, when report data with an image associated with the entire image group is detected by keyword search, all images constituting the image group are displayed as a group of similar images on the search result display screen.

◎また、上記実施形態では、読影対象の画像データに係る類似画像および関連レポートのデータ検索を行ったが、これに限られない。例えば、読影対象となっている患者の経過を示す画像データに係る類似画像および関連レポートのデータ検索を行うようにしても良い。当該構成の一例としては、下記のような構成が挙げられる。   In the above embodiment, the similar image and related report data search for the image data to be interpreted is performed, but the present invention is not limited to this. For example, data retrieval of similar images and related reports related to image data indicating the progress of a patient who is an interpretation target may be performed. Examples of the configuration include the following configurations.

例えば、図20で示したリストCL1のうち、コマンド「履歴の表示」を指定すると、図27に示すような読影対象となっている患者の過去の経過を示す画像付きレポートデータの情報を示す画面(履歴表示画面)が表示領域RHに表示される。図27では、前回の画像付きレポートデータに係る画像、属性情報、及び所見文を含む情報が関連画像1として示されている。また、前々回の画像付きレポートデータに係る画像、属性情報、及び所見文を含む情報が関連画像2として示されている。   For example, when the command “display history” is designated in the list CL1 shown in FIG. 20, a screen showing information of report data with images indicating the past progress of the patient who is the interpretation target as shown in FIG. (History display screen) is displayed in the display area RH. In FIG. 27, the information related to the previous report data with image, the attribute information, and the information including the finding text are shown as the related image 1. Also, an image related to the previous report data with an image, attribute information, and information including a finding sentence are shown as the related image 2.

そして、図27で示された履歴表示画面において、図20と同様に、所望の画像にマウスポインタを合わせてマウスの右ボタンをクリックすることでコマンドのリストを出現させ、当該リスト中のコマンド「類似画像の検索」又は「使用する属性を選択して類似画像の検索」を指定して、上記実施形態と同様な操作や動作などにより、履歴表示画面に表示された画像に係る類似画像や関連レポートが検出されて、レポート入力装置30で提示される。なお、このような構成では、既に検査済みの関連画像が検索基準画像として指定され、構造化DB213において検索基準画像の画像データに対して直接的及び/又は間接的に関連付けられている1以上の文字情報が、検索キーワード群として指定される。   Then, in the history display screen shown in FIG. 27, as in FIG. 20, the command list appears by placing the mouse pointer on the desired image and clicking the right button of the mouse, and the command “ Specify "Search for similar images" or "Search for similar images by selecting attributes to use", and similar images and related images related to images displayed on the history display screen by the same operations and operations as in the above embodiment. A report is detected and presented on the report input device 30. In such a configuration, one or more related images that have already been inspected are designated as search reference images and are directly and / or indirectly associated with the image data of the search reference images in the structured DB 213. Character information is designated as a search keyword group.

例えば、現在読影対象である画像について読影レポートがほとんど入力されていない場合には、読影対象の画像データに関連付けられている文字情報が少ない。したがって、読影対象の画像データに係る類似画像や関連レポートのデータを直接的に検索すると、検索キーワード群に含まれる文字情報が過少で、キーワード検索の精度が低下してしまう。そこで、既に読影レポートが作成されている過去の経過を示す画像データに係る類似画像や関連レポートのデータを検出するような構成、すなわち読影対象の画像データに係る類似画像や関連レポートのデータを間接的に検索する構成を採用することで、キーワード検索の精度を向上させることができる。なお、過去の経過を示す画像と現在読影対象となっている画像との間には、著変がみられないことが一般的である点から見ても、上記構成は、キーワード検索の精度向上に対して有効である。   For example, when almost no interpretation report is input for an image currently being interpreted, there is little character information associated with the image data to be interpreted. Therefore, when a similar image or related report data relating to image data to be interpreted is directly searched, the character information included in the search keyword group is too small, and the keyword search accuracy is reduced. Therefore, a configuration that detects similar images and related report data related to image data indicating the past progress for which an interpretation report has already been created, that is, similar image and related report data related to image data to be interpreted is indirectly By adopting a configuration that automatically searches, it is possible to improve the accuracy of keyword search. Note that the above configuration improves the accuracy of the keyword search even when there is no significant change between the image showing the past progress and the image currently being interpreted. It is effective against.

◎また、上記実施形態では、読影対象の画像データに係る類似画像や関連レポートのデータを直接的又は間接的に検索したが、これに限られない。例えば、既に検査済み(すなわち読影レポート作成済み)の画像を検索基準画像に指定し、構造化DB213に含まれる多数の単一レポート構造化データを検索対象として、検索基準画像に係る類似画像や関連レポートのデータが検出されて、レポート入力装置30において提示されるような検索機能を有する構成を採用しても良い。なお、このような構成では、既に検査済みの画像が検索基準画像として指定されると、構造化DB213において検索基準画像の画像データに対して直接的及び/又は間接的に関連付けられている1以上の文字情報が、検索キーワード群として指定される。   In the above-described embodiment, similar images and related report data related to image data to be interpreted are directly or indirectly searched. However, the present invention is not limited to this. For example, an image that has already been inspected (that is, an interpretation report has been created) is designated as a search reference image, and a large number of single report structured data included in the structured DB 213 is used as a search target. A configuration having a search function in which report data is detected and presented in the report input device 30 may be employed. In such a configuration, when an already inspected image is designated as a search reference image, one or more associated directly and / or indirectly with the image data of the search reference image in the structured DB 213. Is designated as a search keyword group.

このような構成を採用することで、各症例に係る画像に対して類似する画像を沢山集めて、各症例を示す代表的な画像をそれぞれ選択してまとめていくことができるため、ティーチングファイルを作成することが容易に可能となる。   By adopting such a configuration, it is possible to collect a lot of images similar to the images related to each case, and select and collect representative images showing each case. It can be easily created.

なお、ティーチングファイルとは、代表的な症例や特徴的な症例をファイリングしておき、医師が簡単に参照できることを目的としたものであり、一旦作成すると、医師の教育や診断の判断などに非常に有効であるが、通常は作成に非常に時間とコストがかかる。また、一旦作成しても随時各種メンテナンスが必要である。   Note that the teaching file is intended to make it easy for doctors to refer to typical cases and characteristic cases, and once created, it is extremely useful for doctors' education and diagnosis decisions. Although effective, it is usually very time consuming and expensive to create. In addition, once created, various maintenance is required as needed.

ここでは、ティーチングファイルの作成が容易となるばかりでなく、各症例に係る画像に対して関連するレポートも沢山集めて、ティーチングファイルの記載内容を容易に充実化させることもできる。また、ティーチングファイルの内容の更新などといったメンテナンス時にも上記構成は有効的である。   Here, not only is it easy to create a teaching file, but it is also possible to easily enrich the description content of the teaching file by collecting a lot of reports related to the images related to each case. The above configuration is also effective during maintenance such as updating the contents of a teaching file.

また、上記構成は、以下のような研修の態様においても有効利用することができる。   The above configuration can also be used effectively in the following training mode.

例えば、医療関係の研修時に、お手本となる画像データが与えられ、当該画像データの内容を示す文字情報が関連付けられている場合には、上記のような検索機能を利用して、お手本となる画像データと同じような症状の他の画像データを引っ張ってくることができる。したがって、研修を受けている側は、お手本となる画像データに係る画像を見ながら診断を行った後に、お手本となる画像データに係る類似画像及び関連レポートを検索して参照することで、ユーザー自らの診断結果と、一般的な診断結果とを比較検討することができる。また、その後、病状がどのように変化するのかを示す画像及びレポートのデータも検索することができる。   For example, when image data serving as a model is given at the time of medical training, and character information indicating the content of the image data is associated, the image serving as a model is used by using the search function as described above. Other image data with the same symptoms as the data can be pulled. Therefore, after conducting a diagnosis while viewing the image related to the model image data, the side receiving the training searches the similar image and the related report related to the model image data and searches the user himself / herself. The results of diagnosis and general diagnosis can be compared. Thereafter, image and report data indicating how the medical condition changes can also be searched.

◎また、上記実施形態では、辞書DB130には、同義語、類義語、関連語などの関係を有する語句が対応付けられて記憶されていたが、これに限られず、例えば、同じ意味を有する語句やフレーズが対応付けられて記憶されていたり、類似する意味を有する語句やフレーズが対応付けられて記憶されていたり、関連する意味を有する語句やフレーズが対応付けられて記憶されていても良い。すなわち、キーワード検索において、種々の関係をフォローした所謂オントロジーを利用するようにしても良い。   In the above embodiment, the dictionary DB 130 stores words and phrases having relationships such as synonyms, synonyms, and related words, but is not limited to this. For example, Phrases may be stored in association with each other, phrases or phrases having similar meanings may be stored in association with each other, or phrases or phrases having related meanings may be stored in association with each other. That is, in the keyword search, a so-called ontology that follows various relationships may be used.

更に、辞書DB130は、各種用語を階層的に整理したシソーラスなどといった文字情報の概念の上下関係をまとめて整理したデータベースを含んでいても良い。以下、単語を階層的に整理したシソーラス19及び辞書DB130がシソーラス19を含む場合における検索動作について説明する。   Furthermore, the dictionary DB 130 may include a database in which the hierarchical relationships of character information concepts such as a thesaurus in which various terms are arranged hierarchically are organized. Hereinafter, a search operation when the thesaurus 19 in which words are arranged hierarchically and the dictionary DB 130 includes the thesaurus 19 will be described.

図28は、シソーラス19の階層構造を例示する図である。図28に例示するように、シソーラス19の階層構造における最上位の階層は大分類となっており、大分類の各々からは、第1階層、第2階層および第3階層に含まれる単語が順次分岐している。シソーラス19では、概念の上下関係に基づいて単語が体系化され、概念的に上位の単語(上位語)が階層構造上で上位に位置し、概念的に下位の単語(下位語)が階層構造上で下位に位置するように、単語が階層的に整理されている。例えば、ある大分類が「病気」を表す場合、その下層には、第1階層のノードに「消化器の病気」、第2階層のノードに「胃の病気」、第3階層のノードに「胃潰瘍」に係る単語が整理される。また、シソーラス19の階層構造上の位置(以下では、「階層位置」と略記する)は、所定の規則に従って与えられる記号であるシソーラスコードによって特定される。例えば、上述の「病気」「消化器の病気」「胃の病気」および「胃潰瘍」に係る単語の階層位置は、それぞれ、「A」「A-10」「A-10-20」および「A-10-20-30」というシソーラスコードによって特定される。ここで、「A」は大分類を特定する指標であり、「10」「20」および「30」等の数字は同一階層内の階層位置を示す指標である。また、ハイフン「-」は、階層間の移行を示す指標である。なお、シソーラス19においては、特定の単語が複数の上位語を有することも許容されているので、階層位置が複数のシソーラスコードによって特定されることもありうる。   FIG. 28 is a diagram illustrating a hierarchical structure of the thesaurus 19. As illustrated in FIG. 28, the highest hierarchy in the hierarchical structure of the thesaurus 19 is a major classification, and words included in the first hierarchy, the second hierarchy, and the third hierarchy are sequentially from each of the major classifications. Branched. In the thesaurus 19, words are systematized based on the hierarchical relationship of concepts, conceptually higher words (higher words) are positioned higher in the hierarchical structure, and conceptually lower words (lower words) are hierarchically structured. The words are arranged hierarchically so that they are located at the lower level. For example, when a certain large classification represents “disease”, “digestive disease” is displayed in the lower layer, “stomach disease” in the second layer, “stomach disease” in the second layer, “ Words related to “gastric ulcer” are arranged. The position of the thesaurus 19 on the hierarchical structure (hereinafter abbreviated as “hierarchical position”) is specified by a thesaurus code which is a symbol given according to a predetermined rule. For example, the hierarchical positions of the words related to the above-mentioned “disease”, “digestive disease”, “stomach disease” and “gastric ulcer” are “A”, “A-10”, “A-10-20” and “A”, respectively. -10-20-30 "is specified by the thesaurus code. Here, “A” is an index that identifies the major classification, and numbers such as “10”, “20”, and “30” are indices that indicate the hierarchical position within the same hierarchy. The hyphen “-” is an index indicating the transition between layers. In the thesaurus 19, since a specific word is allowed to have a plurality of broader terms, the hierarchical position may be specified by a plurality of thesaurus codes.

このようなシソーラス19を利用して、当初の検索キーワード群に含まれる1以上の文字情報について、例えば、1階層以上だけ上の階層に属する文字情報、すなわち1以上の上位概念の文字情報をシソーラス19から抽出し、検索キーワード群に加えた後に、当該検索キーワード群を使用したキーワード検索が行われるような構成を採用しても良い。このように、上位概念のキーワードも考慮したキーワード検索を行うと、所望の画像やレポートが検出される確率がより高まる。   By using such a thesaurus 19, for one or more character information included in the initial search keyword group, for example, character information belonging to a layer higher by one or more layers, that is, one or more higher-order character information is thesaurus. A configuration may be adopted in which a keyword search using the search keyword group is performed after being extracted from 19 and added to the search keyword group. In this way, if a keyword search is performed in consideration of keywords of a higher concept, the probability that a desired image or report is detected is further increased.

◎また、上記実施形態では、読影レポートの入力を支援する例を挙げて説明したが、これに限られず、本発明は、画像について記載されるレポートの入力を支援するようなものであれば、どのようなレポートにも適用することができる。例えば、インシデントレポートや診断レポート等といった他の医療情報のレポート、更には、営業レポートやクレーム対策についてのレポート等といった画像を伴うレポート一般に適用することができる。   In the above embodiment, an example of supporting the input of an interpretation report has been described. However, the present invention is not limited to this, and the present invention is not limited to this, as long as it supports the input of a report described about an image. It can be applied to any report. For example, the present invention can be applied to other medical information reports such as incident reports and diagnostic reports, and to reports in general with images such as sales reports and complaint countermeasure reports.

◎また、上記実施形態では、単一レポート構造化データを構成する所定数の分類項目が6つの分類項目「撮影条件」「部位」「基本所見」「特徴」「診断」「結語」の全てを含んでいたが、これに限られず、上記6つの分類項目のうち、適宜1以上の分類項目を採用したような構成であっても良い。   In the above embodiment, the predetermined number of classification items constituting the single report structured data includes all of the six classification items “imaging condition”, “part”, “basic findings”, “feature”, “diagnosis”, and “conclusion”. Although it was included, it is not restricted to this, The structure which employ | adopted the 1 or more classification item suitably among the said 6 classification items may be sufficient.

◎また、上記実施形態では、レポート入力装置30の操作部32をユーザーである読影医が種々操作することで各種入力を行ったが、これに限られず、例えば、レポート入力装置30において、ユーザーが発する音声をマイクで受け付けて、音声認識によって各種入力が実現されても良い。すなわち、ユーザーによる操作部32の操作や発音などを含む各種ユーザーの動作に応答して、各種入力が行われても良い。   In the above embodiment, various inputs are made by various operations of the operation unit 32 of the report input device 30 by the interpretation doctor who is the user. However, the present invention is not limited to this. Various inputs may be realized by receiving voice to be emitted with a microphone and performing voice recognition. That is, various inputs may be performed in response to various user operations including operation of the operation unit 32 and pronunciation by the user.

◎また、上記実施形態では、入力支援DB111や構造化DB123に格納される情報は、既存のレポートを言語処理によって解析することで作成したが、これに限られず、例えば、入力支援DB111や構造化DB123に格納される情報を適宜マニュアル操作で作成するようにしても良い。但し、メタデータの付与の容易化を図る観点から言えば、入力支援DB111や構造化DB123に格納される情報が自動入力される方が好ましい。   In the above embodiment, the information stored in the input support DB 111 or the structured DB 123 is created by analyzing an existing report by language processing. However, the present invention is not limited to this. Information stored in the DB 123 may be appropriately created manually. However, from the viewpoint of facilitating the provision of metadata, it is preferable that information stored in the input support DB 111 or the structured DB 123 is automatically input.

◎また、上記実施形態では、病院内のネットワーク回線NTW等によってサーバ100と、各端末10〜50とがデータ送受信可能に接続され、病院内に蓄積された読影レポートを過去の知識として利用した入力支援機能を提供したが、これに限られず、例えば、図29に示すように、サーバ100を読影レポートの入力を支援するサービスを提供する業者や特定の病院が有し、当該サーバ100にインターネット回線IN等を通じて各病院の読影医が端末(例えば、レポート入力装置30A)でアクセスして、検索機能を含む入力支援機能を利用することができるようなデータベースシステム1Aとしても良い。   In the above embodiment, the server 100 and the terminals 10 to 50 are connected so as to be able to send and receive data via a network line NTW in the hospital, and the interpretation report accumulated in the hospital is used as past knowledge. Although the support function is provided, the present invention is not limited to this. For example, as shown in FIG. 29, the server 100 has a service provider that supports the input of the interpretation report or a specific hospital, and the server 100 has an Internet line. The database system 1A may be configured such that an interpreting doctor at each hospital can access through a terminal (for example, the report input device 30A) and use an input support function including a search function.

このような構成によれば、ユーザーは、検索対象の情報量を容易に増大させることができるインターネットを利用して、指示した画像について類似画像や関連するレポートの可視的な情報を得ることができるため、所望の画像やレポートが得られる確率が更に向上する。   According to such a configuration, the user can obtain visible information on a similar image or related report for the instructed image using the Internet, which can easily increase the amount of information to be searched. Therefore, the probability of obtaining a desired image or report is further improved.

なお、このとき、サーバ100を有する業者等が、各病院等の画像や読影レポート等を保管するサービスを提供するようにしても良い。   At this time, a trader or the like having the server 100 may provide a service for storing images, interpretation reports, and the like of each hospital.

但し、このようなインターネットを利用した類似画像や関連レポートの検索においては、類似画像に付与された属性情報に含まれる個人情報や関連レポートに記載された個人情報が流出してしまう虞がある。なお、この個人情報の代表的な例としては名前(患者名等)が挙げられる。   However, when searching for similar images and related reports using the Internet, personal information included in attribute information attached to similar images and personal information described in the related reports may be leaked. A typical example of this personal information is a name (patient name or the like).

したがって、サーバ100において、検出された類似画像や関連レポートのデータから所定種類の個人情報が削除された後に、端末30に対して、類似画像や関連レポートに係る情報が提供されるようにしても良い。このとき、所定種類の個人情報を認識する手法としては、例えば、所定種類の分類項目「患者氏名」に属する文字情報を所定種類の個人情報として認識するような手法が考えられ、このようにして認識された個人情報に係る文字情報は容易に削除することができる。   Therefore, in the server 100, after a predetermined type of personal information is deleted from the detected similar image or related report data, information related to the similar image or related report is provided to the terminal 30. good. At this time, as a method of recognizing a predetermined type of personal information, for example, a method of recognizing character information belonging to a predetermined type of classification item “patient name” as a predetermined type of personal information can be considered. Character information related to the recognized personal information can be easily deleted.

このような構成により、個人情報が広範囲に流出することを防ぐことができる。   With such a configuration, personal information can be prevented from leaking over a wide range.

◎また、上記実施形態では、レポート入力装置30におけるユーザーの入力に応答して、サーバ100において各種動作が行われたが、これに限られず、例えば、上記レポート入力装置30とサーバ100の機能が一台のコンピュータ装置によって構成されても構わない。また、レポート入力装置30では、ユーザーが各種入力を行うだけで、情報検索機能の画像データの指定、検索条件の指定が、サーバ100の制御部120で実質的に行われるような構成であっても良い。   In the above embodiment, various operations are performed in the server 100 in response to user input in the report input device 30. However, the present invention is not limited to this. For example, the functions of the report input device 30 and the server 100 are as follows. You may comprise by one computer apparatus. In addition, the report input device 30 is configured such that the control unit 120 of the server 100 substantially performs image data specification and search condition specification of the information search function only by a user performing various inputs. Also good.

◎また、上記実施形態では、読影対象の画像データを起点として、類似画像および関連レポートのデータ検索を行ったが、起点となる画像データの決定方法としては、例えば、以下のような態様も考えられる。   In the above embodiment, similar image and related report data are searched from the image data to be interpreted as the starting point. However, as a method for determining the starting image data, for example, the following modes are also considered. It is done.

図30は、変形例に係る入力支援テンプレート表示TG1を例示する図である。入力支援テンプレート表示TG1では、上記実施形態に係る入力支援テンプレート表示TP2と同様形態で、項目「撮影条件」「部位」「基本所見」「診断」について1以上の語句からなる語句群FD1〜FD4がそれぞれ表示されており、更に、検索ボタンSBが追加されている。   FIG. 30 is a diagram illustrating an input support template display TG1 according to a modification. In the input support template display TG1, in the same manner as the input support template display TP2 according to the above-described embodiment, the phrase groups FD1 to FD4 including one or more words are included for the items “imaging condition”, “part”, “basic findings”, and “diagnosis”. Each is displayed, and a search button SB is further added.

この検索ボタンSBは、類似画像および関連レポートのデータ検索において起点となる画像データを検索するためのボタンである。ユーザーがマウスを種々操作することでマウスポインタMPを検索ボタンSBに合わせてマウスの左ボタンの押下操作(左クリック)を行うと、入力支援テンプレート表示TG1の下方(すなわち、所見文表示領域A6付近)に、図31に示すような検索条件を決定するダイアログボックス(検索ダイアログ)DG1が表示される。   The search button SB is a button for searching image data that is a starting point in data search for similar images and related reports. When the user performs various operations on the mouse to move the mouse pointer MP to the search button SB and press the left button of the mouse (left click), below the input support template display TG1 (that is, near the finding sentence display area A6) ) Displays a dialog box (search dialog) DG1 for determining search conditions as shown in FIG.

検索ダイアログDG1では、各項目「撮影条件」「部位」「基本所見」「診断」に対して語句を指定することで、各項目「撮影条件」「部位」「基本所見」「診断」と当該各項目に属する語句の組合せを、検索条件として指定することができる。   In the search dialog DG1, by specifying words for each item “imaging condition”, “part”, “basic findings”, and “diagnosis”, each item “imaging condition”, “part”, “basic findings”, “diagnosis” and the respective items A combination of words belonging to the item can be specified as a search condition.

検索ダイアログDG1における検索条件の指定については、検索ダイアログDG1が表示された状態で、入力支援テンプレート表示TG1上において各項目と対応付けられて表示された語句群FD1〜FD4に含まれる所望の語句にマウスポインタMPを合わせて、選択操作(左クリック)を行うことで実行することができる。図31では、例えば、検索ダイアログDG1が表示された状態で、入力支援テンプレート表示TG1において項目「撮影条件」について語句「T2FLAIR像」、項目「部位」について語句「側頭葉」と「前頭葉」、項目「基本所見」について語句「高信号域」、及び項目「診断」について語句「ラクナ梗塞」がそれぞれ対応付けられた検索条件が指定されている状態が示されている。   For specifying the search condition in the search dialog DG1, in the state where the search dialog DG1 is displayed, the desired phrase included in the phrase groups FD1 to FD4 displayed in association with each item on the input support template display TG1. It can be executed by moving the mouse pointer MP and performing a selection operation (left click). In FIG. 31, for example, in the state where the search dialog DG1 is displayed, the words “T2FLAIR image” for the item “imaging condition” and the words “temporal lobe” and “frontal lobe” for the item “part” in the input support template display TG1. A state is shown in which search conditions are specified in which the phrase “high signal area” is associated with the item “basic findings” and the phrase “lacuna infarction” is associated with the item “diagnosis”.

検索条件を指定した後、検索ボタンSB2にマウスポインタMPを合わせて押下操作(左クリック)を行うと、構造化DB213を検索対象として、指定された検索条件と完全及び/又は一部合致する属性値が付与されている1以上の単一レポート構造化データが検出される。そして、作成支援情報表示領域A5から所見文表示領域A6にかけた領域に、図32で示すような、検索結果を表示するダイアログボックス(検索結果表示ダイアログ)DG2が表示される。   When the search condition is specified and then the mouse button MP is placed on the search button SB2 and a pressing operation (left click) is performed, the structured DB 213 is used as a search target and the attribute completely and / or partially matches the specified search condition. One or more single report structured data that is assigned a value is detected. Then, a dialog box (search result display dialog) DG2 for displaying a search result as shown in FIG. 32 is displayed in an area extending from the creation support information display area A5 to the finding sentence display area A6.

検索結果表示ダイアログDG2は、主に、左方の検索結果を表示する領域(検索結果表示領域)ALと、右方の再検索を行う為の検索条件を表示する領域(再検索条件表示領域)ARとによって構成されている。   The search result display dialog DG2 mainly includes an area for displaying a search result on the left (search result display area) AL and an area for displaying a search condition for performing a right search again (re-search condition display area). It is comprised by AR.

検索結果表示領域ALには、検索ダイアログDG1(図31)で指定された検索条件と完全及び/又は一部合致する属性値が付与されている1以上の単一レポート構造化データに係る画像及び所見文のデータがそれぞれ可視的に出力される。なお、図32では、146個の単一レポート構造化データが検出されて、そのうちの5個の単一レポート構造化データに係る画像及び所見文のデータが上から順にそれぞれ可視的に出力された状態が示されている。なお、検索結果表示領域ALの最も右方の領域には、各単一レポート構造化データについて、検索条件との一致度を示すスコアが示されており、例えば、スコアの大きな順に、検出された単一レポート構造化データが、上から空間順次に可視的に出力される。   In the search result display area AL, an image related to one or more single report structured data to which an attribute value that completely and / or partially matches the search condition specified in the search dialog DG1 (FIG. 31) is assigned. The data of the observation sentence is output visually. In FIG. 32, 146 single report structured data were detected, and images and findings data related to 5 single report structured data were output visually in order from the top. The state is shown. In the rightmost area of the search result display area AL, for each single report structured data, a score indicating the degree of coincidence with the search condition is shown. For example, the scores are detected in descending order of score. Single report structured data is visually output from the top in spatial order.

ユーザーは、検索結果表示領域ALに表示されている画像と、所見文の内容とを参照することで、類似画像及び/又は関連レポートのデータ検索の起点となる画像を適宜決定することができる。具体的には、検索結果表示領域ALに表示されている画像のうち、所望の画像に対してマウスポインタMPが合わされて、マウスの右ボタンが押下されると、図20で示した様なコマンドのリストCL1が出現する。そして、例えば、リストCL1のうちのコマンド「類似画像の検索」等が指定されると、検索結果表示領域ALで表示されている画像のうちのマウスポインタMPが合わされた所望の画像の画像データが類似画像及び関連レポートのデータ検索において起点となる検索基準画像の画像データとして決定され、上記実施形態と同様な処理によって、図23で示したような検索結果表示画面が表示される。なお、この類似画像及び関連レポートのデータ検索では、既に検査済みの画像が検索基準画像として指定されるため、構造化DB213において検索基準画像の画像データに対して直接的及び/又は間接的に関連付けられている1以上の文字情報が、検索キーワード群として指定されて使用される。   By referring to the image displayed in the search result display area AL and the content of the finding sentence, the user can appropriately determine an image serving as a starting point for data search for similar images and / or related reports. Specifically, when the mouse pointer MP is set to a desired image among the images displayed in the search result display area AL and the right button of the mouse is pressed, the command as shown in FIG. List CL1 appears. For example, when a command “search for similar images” or the like in the list CL1 is designated, image data of a desired image combined with the mouse pointer MP among images displayed in the search result display area AL is obtained. The search result display screen as shown in FIG. 23 is displayed by the same processing as in the above embodiment, determined as the image data of the search reference image that is the starting point in the data search for similar images and related reports. In this similar image and related report data search, an image that has already been inspected is designated as a search reference image. Therefore, in the structured DB 213, the image data of the search reference image is directly and / or indirectly related. One or more pieces of character information specified are used as a search keyword group.

また、検索結果表示領域ALでは、各画像の右方に番号が付されており、この番号は、画像DB212においてオリジナルの画像データを格納しているファイル名を示している。そして、所望の番号にマウスポインタMPが合わされて指定操作(左クリック)が行われると、オリジナルの画像データが可視的に大きく表示されるようにリンク付けがなされている。   In the search result display area AL, a number is assigned to the right side of each image, and this number indicates the name of the file storing the original image data in the image DB 212. When the mouse pointer MP is set to a desired number and a designation operation (left click) is performed, linking is performed so that the original image data is displayed visually large.

一方、再検索条件表示領域ARでは、類似画像及び/又は関連レポートのデータ検索の起点となり得る画像の候補を適宜絞り込んで検索結果表示領域ALに表示させるために、再検索の検索条件を決定することができる。図32に示すように、再検索条件表示領域ARでは、検索ダイアログDG1(図31)で指定された条件に対し、「患者氏名」「患者年齢」「検査日」「部位」「モダリティ」「担当医」「読影医」等といった項目について他の条件を追加することができる。また、各検索キーワードに対して、複合語や同義語や類義語等といった語句の揺らぎに関する条件(例えば、検索において各語句に対して考慮する複合語や同義語や類義語)を適宜検索条件に加えることもできる。そして、図示を省略しているが、再検索条件表示領域ARの最下部に設けられた再検索ボタンにマウスポインタMPを合わせて押下操作(左クリック)を行うと、構造化DB213を検索対象として、再度指定された検索条件(再検索条件)と完全及び/又は一部合致する属性値が付与されている1以上の単一レポート構造化データが検出されて、検索結果表示領域ALの表示内容が更新される。   On the other hand, in the re-search condition display area AR, the search condition for the re-search is determined in order to appropriately narrow down candidates for images that can be the starting point of data search for similar images and / or related reports and display them in the search result display area AL. be able to. As shown in FIG. 32, in the re-search condition display area AR, “patient name”, “patient age”, “examination date”, “part”, “modality”, “in charge” for the conditions specified in the search dialog DG1 (FIG. 31). Other conditions can be added for items such as “medicine” and “radiologist”. In addition, for each search keyword, a condition related to fluctuations of a phrase such as a compound word, a synonym, a synonym, etc. (for example, a compound word, a synonym, or a synonym to be considered for each word in a search) is appropriately added to the search condition You can also. Although not shown, when the mouse pointer MP is placed on the re-search button provided at the bottom of the re-search condition display area AR and a pressing operation (left click) is performed, the structured DB 213 is selected as a search target. , One or more single report structured data to which an attribute value that completely and / or partially matches the re-specified search condition (re-search condition) is detected, and the display contents of the search result display area AL Is updated.

このような構成を採用することで、検索ダイアログDG1(図31)で指定された条件では、類似画像及び/又は関連レポートのデータ検索の起点となり得る画像の候補の絞り込みが不十分である場合には、ユーザーは、再検索を適宜行うことで、類似画像及び/又は関連レポートのデータ検索の起点となる画像データをより迅速かつ容易に決定することができる。すなわち、類似画像及び/又は関連レポートのデータ検索における検索条件の入力が更に容易となる。   By adopting such a configuration, when the conditions specified in the search dialog DG1 (FIG. 31) are insufficient in narrowing down image candidates that can be the starting point of data search for similar images and / or related reports. The user can quickly and easily determine image data serving as a starting point for data retrieval of similar images and / or related reports by appropriately performing re-searching. That is, it becomes easier to input search conditions in data search for similar images and / or related reports.

1,1A データベースシステム
19 シソーラス
30,30A 端末(レポート入力装置)
31,120 制御部
32 操作部
33 表示部
34,110,200 記憶部
100 サーバ
111 入力支援データベース
123 データ構築部
125 情報検索部
130 辞書データベース
210 診療情報データベース
211 レポートデータベース
212 画像データベース
213 構造化データベース
312 表示制御部
313 クエリ生成部
401 画像表示画面
402 入力画面
IN インターネット回線
LN,NTW ネットワーク回線
1,1A database system 19 thesaurus 30,30A terminal (report input device)
31, 120 Control unit 32 Operation unit 33 Display unit 34, 110, 200 Storage unit 100 Server 111 Input support database 123 Data construction unit 125 Information search unit 130 Dictionary database 210 Medical information database 211 Report database 212 Image database 213 Structured database 312 Display control unit 313 Query generation unit 401 Image display screen 402 Input screen IN Internet line LN, NTW Network line

Claims (16)

データベースシステムであって、
複数のレポートに含まれるレポート毎に、レポートを構成する複数の文字情報と、当該レポートに対応する1以上の画像データとが直接的及び/又は間接的に関連付けられた関連情報が蓄積されている関連情報データベースと、
前記複数の文字情報が属する所定数の属性項目に含まれる属性項目毎に複数の文字情報が列挙されるとともに、該所定数の属性項目間で、該各分類項目に属する複数の文字情報どうしが相互にネットワーク状に関連付けられたネットワーク情報が記憶されている入力支援情報データベースと、
前記ネットワーク情報に含まれる一部のネットワーク情報に基づき、前記所定数の分類項目に含まれる複数の分類項目について分類項目毎に少なくとも1つの文字情報がそれぞれ列挙され、且つ該複数の分類項目間で該各分類項目に属する複数の文字情報がネットワーク状に関連付けられている一覧表示と、少なくとも1つの画像データとを可視的に出力する出力手段と、
前記出力手段によって前記少なくとも1つの画像データが可視的に出力されている状態で、ユーザーの動作に応答して、前記一覧表示において、前記複数の分類項目に対して文字情報をそれぞれ指定する指定手段と、
前記指定手段によって前記複数の分類項目に対してそれぞれ指定された文字情報を、所定のレポートモデルに沿ったレポートを構成する要素として決定する決定手段と、
前記出力手段によって前記少なくとも1つの画像データが可視的に出力されている状態であり、且つ前記指定手段によって前記一覧表示において前記複数の分類項目の一部である1以上の分類項目に対して1以上の文字情報が指定されている状態で、ユーザーの動作に応答して、該1以上の文字情報を検索キーワード群とし、前記関連情報データベースにおいて各画像データに対して直接的及び/又は間接的に関連付けられている前記複数の文字情報をデータ検索のためのメタデータとしたキーワード検索を行うことで、前記出力手段によって可視的に出力されている前記少なくとも1つの画像データと関連する1以上のレポートデータを検出するレポート検出手段と、
を備えることを特徴とするデータベースシステム。
A database system,
For each report included in a plurality of reports, related information in which a plurality of character information constituting the report and one or more image data corresponding to the report are directly and / or indirectly associated is accumulated. A related information database;
A plurality of character information items are listed for each attribute item included in a predetermined number of attribute items to which the plurality of character information items belong, and a plurality of character information items belonging to the respective classification items are between the predetermined number of attribute items. An input support information database in which network information associated with each other in a network form is stored;
Based on a part of the network information included in the network information, at least one character information is listed for each classification item for a plurality of classification items included in the predetermined number of classification items, and between the plurality of classification items. Output means for visually outputting a list display in which a plurality of character information belonging to each classification item is associated in a network form, and at least one image data;
Designating means for designating character information for each of the plurality of classification items in the list display in response to a user operation in a state where the at least one image data is visually output by the output means. When,
Determining means for determining character information designated for each of the plurality of classification items by the designation means as an element constituting a report according to a predetermined report model;
1 for one or more classification items which are in a state where the at least one image data is visibly output by the output means and are part of the plurality of classification items in the list display by the designation means. In the state where the above character information is designated, in response to the user's action, the one or more character information is used as a search keyword group, and direct and / or indirect for each image data in the related information database. By performing a keyword search using the plurality of character information associated with the metadata as metadata for data search, at least one or more image data related to the at least one image data visually output by the output means A report detection means for detecting report data;
A database system comprising:
請求項1に記載のデータベースシステムであって、
前記複数のレポートに含まれるレポート毎に、レポートと当該レポートに対応する1以上の画像データとが関連付けられたレポート情報が蓄積されているレポートデータベースと、
前記レポートデータベースに含まれる各レポートについて言語解析を行うことで、当該各レポートを構成する複数の文字情報を抽出する文字情報抽出手段と、
前記複数のレポートに含まれるレポート毎に、前記文字情報抽出手段によって抽出されたレポートを構成する複数の文字情報と、当該レポートに対応する1以上の画像データとを直接的及び/又は間接的に関連付けて蓄積することで関連情報データベースを構築する記憶制御手段と、
を更に備えることを特徴とするデータベースシステム。
The database system according to claim 1, wherein
For each report included in the plurality of reports, a report database in which report information in which a report and one or more image data corresponding to the report are associated is accumulated;
Character information extracting means for extracting a plurality of character information constituting each report by performing language analysis on each report included in the report database;
For each report included in the plurality of reports, a plurality of character information constituting the report extracted by the character information extraction means and one or more image data corresponding to the report are directly and / or indirectly Storage control means for constructing a related information database by accumulating in association;
A database system further comprising:
請求項1又は請求項2に記載のデータベースシステムであって、
前記関連情報を構成する複数の文字情報が、
前記各レポートに対応する1以上の画像データに付与された属性情報を含むことを特徴とするデータベースシステム。
The database system according to claim 1 or 2, wherein
A plurality of character information constituting the related information,
A database system comprising attribute information given to one or more image data corresponding to each report.
請求項3に記載のデータベースシステムであって、
前記属性情報が、
患者ID、年齢、性別、モダリティ、検査部位、読影医師、及び担当医師を示す情報のうちの少なくとも1以上の情報を含むことを特徴とするデータベースシステム。
The database system according to claim 3, wherein
The attribute information is
A database system comprising at least one or more of information indicating patient ID, age, sex, modality, examination site, interpretation doctor, and doctor in charge.
請求項1から請求項4のいずれかに記載のデータベースシステムであって、
前記関連情報が、
RDFで記述されていることを特徴とするデータベースシステム。
The database system according to any one of claims 1 to 4, wherein
The related information is
A database system characterized by being described in RDF.
請求項1から請求項5のいずれかに記載のデータベースシステムであって、
少なくとも1以上の文字情報に含まれる各文字情報に対して、当該各文字情報と所定の関係を有する1以上の関連文字情報が対応付けられて記憶された辞書データベース、
を更に備え、
前記キーワード検索が、
前記検索キーワード群に含まれる1以上の文字情報に対して前記所定の関係を有する1以上の関連文字情報を前記辞書データベースから抽出して前記検索キーワード群に追加する処理を含むことを特徴とするデータベースシステム。
The database system according to any one of claims 1 to 5,
A dictionary database in which each character information included in at least one or more character information is stored in association with one or more related character information having a predetermined relationship with each character information;
Further comprising
The keyword search is
Including one or more related character information having the predetermined relationship with respect to one or more pieces of character information included in the search keyword group and adding the extracted information to the search keyword group. Database system.
請求項6に記載のデータベースシステムであって、
前記所定の関係が、
類義語、同義語、及び関連語の関係うちの少なくとも1つの関係を含むことを特徴とするデータベースシステム。
The database system according to claim 6, wherein
The predetermined relationship is
A database system comprising at least one relationship among synonyms, synonyms, and related terms.
請求項6または請求項7に記載のデータベースシステムであって、
前記所定の関係が、
文字情報の概念の上下関係を含み、
前記キーワード検索が、
前記検索キーワード群に含まれる1以上の文字情報に対して1以上の上位概念の文字情報を前記辞書データベースから抽出して前記検索キーワード群に追加する処理を含むことを特徴とするデータベースシステム。
The database system according to claim 6 or 7, wherein
The predetermined relationship is
Including the hierarchical relationship of the concept of character information,
The keyword search is
A database system comprising: processing for extracting one or more superordinate character information from the dictionary database for one or more character information included in the search keyword group and adding the character information to the search keyword group.
請求項1から請求項8のいずれかに記載のデータベースシステムであって、
前記所定数の分類項目が、
撮影条件、部位、基本所見、特徴、診断、及び結語のうちの少なくとも1以上の項目を含むことを特徴とするデータベースシステム。
The database system according to any one of claims 1 to 8,
The predetermined number of classification items is
A database system comprising at least one item of imaging conditions, site, basic findings, characteristics, diagnosis, and conclusion.
請求項1から請求項9のいずれかに記載のデータベースシステムであって、
前記キーワード検索が、
前記指定手段によって前記一覧表示において前記複数の分類項目のうちの1以上の分類項目に対して指定されている1以上の文字情報のうち、前記所定数の分類項目に含まれる予め設定された所定の一部の分類項目に属する1以上の文字情報を、前記検索キーワード群として選択的に採用する処理を含むこと特徴とするデータベースシステム。
The database system according to any one of claims 1 to 9,
The keyword search is
A predetermined predetermined value included in the predetermined number of classification items among one or more pieces of character information specified for one or more classification items of the plurality of classification items in the list display by the designation means. The database system characterized by including the process which selectively employ | adopts the 1 or more character information which belongs to some classification | category items as said search keyword group.
請求項1から請求項10のいずれかに記載のデータベースシステムであって、
ユーザーの動作に応答して、前記所定数の分類項目のうちの少なくとも一部の分類項目を指定する項目指定手段、
を更に備え、
前記キーワード検索が、
前記指定手段によって前記一覧表示において前記複数の分類項目のうちの1以上の分類項目に対して指定されている1以上の文字情報のうち、前記項目指定手段によって指定された一部の分類項目に属する1以上の文字情報を、前記検索キーワード群として選択的に採用する処理を含むこと特徴とするデータベースシステム。
The database system according to any one of claims 1 to 10,
An item designating unit for designating at least a part of the predetermined number of classification items in response to a user action;
Further comprising
The keyword search is
Among the one or more pieces of character information specified for the one or more classification items of the plurality of classification items in the list display by the specification means, some of the classification items specified by the item specification means A database system including a process of selectively adopting one or more pieces of character information to which the search keyword group belongs.
請求項1から請求項11のいずれかに記載のデータベースシステムであって、
前記複数のレポートが、
読影レポートを含むことを特徴とするデータベースシステム。
The database system according to any one of claims 1 to 11,
The plurality of reports are
A database system including an interpretation report.
請求項1から請求項12のいずれかに記載のデータベースシステムであって、
前記レポート検出手段を有するサーバと、
前記サーバに対してインターネット回線を介してデータ送受信可能に接続される端末機器と、
を備え、
前記指定手段が、
前記端末機器に対するユーザーの動作に応答して、前記出力手段によって前記少なくとも1つの画像データが可視的に出力されている状態で、前記一覧表示において、前記複数の分類項目に対して文字情報をそれぞれ指定し、
前記サーバが、
前記レポート検出手段によって検出された1以上のレポートデータを前記端末機器に対して前記インターネット回線を介して送信する送信手段、
を有し、
前記端末機器が、
前記出力手段を有し、該出力手段において、前記送信手段によって送信された1以上のレポートデータを可視的に出力することを特徴とするデータベースシステム。
A database system according to any one of claims 1 to 12,
A server having the report detection means;
A terminal device connected to the server so as to be able to transmit and receive data via an Internet line;
With
The designation means is
In response to the user's operation on the terminal device, in the state where the at least one image data is visibly output by the output means, character information is respectively displayed for the plurality of classification items in the list display. Specify
The server is
Transmitting means for transmitting one or more report data detected by the report detecting means to the terminal device via the Internet line;
Have
The terminal device is
A database system comprising the output means, wherein the output means visually outputs one or more report data transmitted by the transmission means.
請求項13に記載のデータベースシステムであって、
前記サーバが、
前記レポート検出手段によって検出された1以上のレポートデータから所定種類の個人情報を削除する削除手段、
を更に備え、
前記送信手段が、
前記削除手段によって前記所定種類の個人情報が削除された1以上のレポートデータを前記端末機器に対して前記インターネット回線を介して送信することを特徴とするデータベースシステム。
The database system according to claim 13, wherein
The server is
Deleting means for deleting predetermined types of personal information from one or more report data detected by the report detecting means;
Further comprising
The transmission means is
One or more report data from which the predetermined type of personal information has been deleted by the deleting unit is transmitted to the terminal device via the Internet line.
データベースシステムに含まれるコンピュータによって実行されることにより、前記データベースシステムを、請求項1から請求項14のいずれかに記載のデータベースシステムとして機能させるプログラム。   A program for causing the database system to function as the database system according to any one of claims 1 to 14 by being executed by a computer included in the database system. レポート検索方法であって、
(A)複数のレポートに含まれるレポート毎に、レポートを構成する複数の文字情報と、当該レポートに対応する1以上の画像データとが直接的及び/又は間接的に関連付けられた関連情報が蓄積されている関連情報データベース、ならびに前記複数の文字情報が属する所定数の属性項目に含まれる属性項目毎に複数の文字情報が列挙されるとともに、該所定数の属性項目間で、該各分類項目に属する複数の文字情報どうしが相互にネットワーク状に関連付けられたネットワーク情報が記憶されている入力支援情報データベースを準備するステップと、
(B)前記ネットワーク情報に含まれる一部のネットワーク情報に基づき、前記所定数の分類項目に含まれる複数の分類項目について分類項目毎に少なくとも1つの文字情報がそれぞれ列挙され、且つ該複数の分類項目間で該各分類項目に属する複数の文字情報がネットワーク状に関連付けられている一覧表示と、少なくとも1つの画像データとを出力手段によって可視的に出力するステップと、
(C)前記少なくとも1つの画像データが前記出力手段によって可視的に出力されている状態で、ユーザーの動作に応答して、前記一覧表示において、前記複数の分類項目に対して文字情報をそれぞれ指定するステップと、
(D)前記ステップ(C)において前記複数の分類項目に対してそれぞれ指定された文字情報を、所定のレポートモデルに沿ったレポートを構成する要素として決定するステップと、
(E)前記少なくとも1つの画像データが前記出力手段によって可視的に出力されている状態であり、且つ前記一覧表示において前記複数の分類項目のうちの一部である1以上の分類項目に対して1以上の文字情報が指定されている状態で、ユーザーの動作に応答して、該1以上の文字情報を検索キーワード群として、前記関連情報データベースにおいて各画像データに対して直接的及び/又は間接的に関連付けられている前記複数の文字情報をデータ検索のためのメタデータとしたキーワード検索を行うことで、前記出力手段によって可視的に出力されている前記少なくとも1つの画像データと関連する1以上のレポートデータを検出するステップと、
を備えることを特徴とするレポート検索方法。
A report search method,
(A) For each report included in a plurality of reports, related information in which a plurality of character information constituting the report and one or more image data corresponding to the report are directly and / or indirectly associated is accumulated. A plurality of pieces of character information are listed for each attribute item included in a predetermined number of attribute items to which the plurality of pieces of character information belong, and each classification item is included between the predetermined number of attribute items. Preparing an input support information database storing network information in which a plurality of character information belonging to each other is associated with each other in a network form;
(B) Based on a part of the network information included in the network information, at least one character information is listed for each classification item for the plurality of classification items included in the predetermined number of classification items, and the plurality of classifications A step of visually outputting a list display in which a plurality of character information items belonging to each classification item are associated in a network form between items and at least one image data by an output unit;
(C) In the state where the at least one image data is visibly output by the output means, in response to a user operation, character information is designated for each of the plurality of classification items in the list display. And steps to
(D) determining the character information designated for each of the plurality of classification items in the step (C) as an element constituting a report according to a predetermined report model;
(E) One or more classification items that are in a state in which the at least one image data is visually output by the output unit and are part of the plurality of classification items in the list display Directly and / or indirectly for each image data in the related information database using the one or more character information as a search keyword group in response to a user action in a state where one or more character information is specified. One or more related to the at least one image data visually output by the output means by performing a keyword search using the plurality of character information that are associated with each other as metadata for data search Detecting report data for
The report search method characterized by comprising.
JP2012136689A 2012-06-18 2012-06-18 Database system, program, and report retrieval method Withdrawn JP2012198928A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012136689A JP2012198928A (en) 2012-06-18 2012-06-18 Database system, program, and report retrieval method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012136689A JP2012198928A (en) 2012-06-18 2012-06-18 Database system, program, and report retrieval method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2006228968A Division JP5098253B2 (en) 2006-08-25 2006-08-25 Database system, program, and report search method

Publications (1)

Publication Number Publication Date
JP2012198928A true JP2012198928A (en) 2012-10-18

Family

ID=47181015

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012136689A Withdrawn JP2012198928A (en) 2012-06-18 2012-06-18 Database system, program, and report retrieval method

Country Status (1)

Country Link
JP (1) JP2012198928A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017029411A (en) * 2015-07-31 2017-02-09 キヤノン株式会社 Medical document preparation apparatus, control method therefor, and program
JP2017509946A (en) * 2014-01-30 2017-04-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Context-dependent medical data entry system
JP2019008817A (en) * 2018-09-03 2019-01-17 キヤノン株式会社 Medical document preparation apparatus, control method therefor, and program
WO2019176407A1 (en) * 2018-03-16 2019-09-19 富士フイルム株式会社 Learning assisting device, learning assisting method, learning assisting program, region-of-interest discriminating device, region-of-interest discriminating method, region-of-interest discriminating program, and learned model
CN112307132A (en) * 2020-10-29 2021-02-02 上海岱宗检测技术有限公司 FMEA database system
WO2024057769A1 (en) * 2022-09-12 2024-03-21 富士フイルム株式会社 Information processing device, information processing method, program, information display device, and information display method
JP7473314B2 (en) 2019-09-27 2024-04-23 TXP Medical株式会社 Medical information management device and method for adding metadata to medical reports

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017509946A (en) * 2014-01-30 2017-04-06 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Context-dependent medical data entry system
JP2017029411A (en) * 2015-07-31 2017-02-09 キヤノン株式会社 Medical document preparation apparatus, control method therefor, and program
WO2019176407A1 (en) * 2018-03-16 2019-09-19 富士フイルム株式会社 Learning assisting device, learning assisting method, learning assisting program, region-of-interest discriminating device, region-of-interest discriminating method, region-of-interest discriminating program, and learned model
JPWO2019176407A1 (en) * 2018-03-16 2021-02-25 富士フイルム株式会社 Learning support device, learning support method, learning support program, area of interest discrimination device, area of interest discrimination method, area of interest discrimination program and trained model
JP7080304B2 (en) 2018-03-16 2022-06-03 富士フイルム株式会社 Learning support device, learning support method, learning support program, region of interest discrimination device, region of interest discrimination method, region of interest discrimination program and trained model
US11468659B2 (en) 2018-03-16 2022-10-11 Fujifilm Corporation Learning support device, learning support method, learning support program, region-of-interest discrimination device, region-of-interest discrimination method, region-of-interest discrimination program, and learned model
JP2019008817A (en) * 2018-09-03 2019-01-17 キヤノン株式会社 Medical document preparation apparatus, control method therefor, and program
JP7473314B2 (en) 2019-09-27 2024-04-23 TXP Medical株式会社 Medical information management device and method for adding metadata to medical reports
CN112307132A (en) * 2020-10-29 2021-02-02 上海岱宗检测技术有限公司 FMEA database system
CN112307132B (en) * 2020-10-29 2023-11-07 上海岱宗检测技术有限公司 FMEA database system
WO2024057769A1 (en) * 2022-09-12 2024-03-21 富士フイルム株式会社 Information processing device, information processing method, program, information display device, and information display method

Similar Documents

Publication Publication Date Title
JP5098253B2 (en) Database system, program, and report search method
JP4402033B2 (en) Information processing system
US6366683B1 (en) Apparatus and method for recording image analysis information
JP5896000B2 (en) Medical information system and program therefor
US10628476B2 (en) Information processing apparatus, information processing method, information processing system, and storage medium
JP2012198928A (en) Database system, program, and report retrieval method
CA2526078A1 (en) System and method for generating a report using a knowledge base
JP5837745B2 (en) Medical report creation support device
CN112712879B (en) Information extraction method, device, equipment and storage medium for medical image report
US20150324075A1 (en) Characterizing States of Subject
US20210407694A1 (en) Healthcare network
RU2711305C2 (en) Binding report/image
JP5939141B2 (en) Program and medical record retrieval device
JP2012063919A (en) Medical report evaluation device, medical report evaluation method, medical report evaluation program and medical network system
JP2014029644A (en) Similar case retrieval device and similar case retrieval method
JP2008021267A (en) Document retrieval system, document retrieval processing method and document retrieval processing program
JP5159150B2 (en) Image list display device, image list display method, and image list display program
US8135826B2 (en) Information processing system
JP2009093544A (en) Medical report apparatus
JP4967317B2 (en) Information processing system
US20110131234A1 (en) Information process system, and program
JP2011018111A (en) Information processing system and program
WO2009151093A1 (en) Database system
Luna et al. Terminology services: standard terminologies to control medical vocabulary.“Words are not what they say but what they mean”
JP2008269041A (en) Database system and program

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120921