JP5789791B2 - Similar case retrieval device and interpretation knowledge extraction device - Google Patents

Similar case retrieval device and interpretation knowledge extraction device Download PDF

Info

Publication number
JP5789791B2
JP5789791B2 JP2011162654A JP2011162654A JP5789791B2 JP 5789791 B2 JP5789791 B2 JP 5789791B2 JP 2011162654 A JP2011162654 A JP 2011162654A JP 2011162654 A JP2011162654 A JP 2011162654A JP 5789791 B2 JP5789791 B2 JP 5789791B2
Authority
JP
Japan
Prior art keywords
interpretation
image feature
disease name
image
knowledge
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011162654A
Other languages
Japanese (ja)
Other versions
JP2013025723A (en
Inventor
和紀 小塚
和紀 小塚
近藤 堅司
堅司 近藤
和豊 高田
和豊 高田
佳州 佐藤
佳州 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2011162654A priority Critical patent/JP5789791B2/en
Publication of JP2013025723A publication Critical patent/JP2013025723A/en
Application granted granted Critical
Publication of JP5789791B2 publication Critical patent/JP5789791B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、医用画像の読影に参考となる類似症例を検索するための類似症例検索装置および類似症例の検索時に用いられる読影知識を抽出するための読影知識抽出装置に関する。   The present invention relates to a similar case retrieval apparatus for retrieving a similar case that serves as a reference for interpretation of a medical image, and an interpretation knowledge extraction apparatus for extracting interpretation knowledge used when retrieving a similar case.

近年、CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)等の医用画像装置の発達および普及によりデジタル化された高精細医用画像が大容量で取得可能になっている。また、医師により読影済の医用画像は読影レポートと共にPACS(Picture Archiving and Communication Systems)に順次蓄積されつつある。ここで、新たな読影の参考とするため、読影対象の医用画像と類似した過去の医用画像を、蓄積済の過去症例から検索する技術が開発され始めている。   In recent years, high-definition medical images that have been digitized can be acquired in a large capacity due to the development and spread of medical imaging devices such as CT (Computed Tomography) and MRI (Magnetic Resonance Imaging). In addition, medical images that have been interpreted by a doctor are being sequentially accumulated in a PACS (Picture Archiving and Communication Systems) together with an interpretation report. Here, in order to refer to a new interpretation, a technique for searching a past medical image similar to a medical image to be interpreted from accumulated past cases has begun to be developed.

類似画像検索には画像間の類似度を決定する画像特徴量の選択が重要であるが、従来の画像検索装置として次のような技術が開示されている。   For the similar image search, it is important to select an image feature amount that determines the similarity between images. However, the following technique is disclosed as a conventional image search apparatus.

医用画像間の類似度を決定するための画像特徴量は疾病の種類、疾病の進行度、または疾病の重症度、等により異なるべきであるが、従来の医用画像類似検索ではそれらの状況に関わらず同じ画像特徴量を使用していることが課題として存在していた。非特許文献1は、解決手段として、“customized−queries” approach(CQA)という2ステップの検索法を提案している。これは、第一ステップにて、疾病の種類、疾病の進行度または疾病の重症度、等のクラスを最も良好に分類できる画像特徴量を用いて、クエリ画像を分類する。第二ステップにて、分類結果となったクラスに含まれる症例をさらに細分類するために最適化された画像特徴量を用いて、類似画像を検索する。このとき、クラス毎に最適な画像特徴量は教師なし学習(unsupervised learning)により事前に求めておく。また、同文献では、CQAを肺CT画像に対して適用し、従来の1種類の画像特徴量を用いた類似画像検索よりも、検索再現率を向上させている。   Image feature values for determining the similarity between medical images should be different depending on the type of disease, the degree of disease progression, the severity of disease, etc., but the conventional medical image similarity search is related to the situation. It has been a problem to use the same image feature amount. Non-Patent Document 1 proposes a two-step search method called “customized-queries” approach (CQA) as a solution. In the first step, the query image is classified by using an image feature amount that can best classify a class such as a disease type, a disease progression degree, or a disease severity. In a second step, similar images are searched using image feature quantities optimized for further classifying cases included in the class that is the classification result. At this time, an optimal image feature amount for each class is obtained in advance by unsupervised learning. Further, in this document, CQA is applied to a lung CT image, and the retrieval recall rate is improved as compared with the conventional similar image retrieval using one type of image feature amount.

Jennifer G.Dy et al. “Unsupervised Feature Selection Applied to Content−based Retrieval of Lung Images”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.25, no.3, March 2003Jennifer G. Dy et al. “Unsupervised Feature Selection Applied to Content-based Retrieval of Lung Images”, IEEE Transactions on Pattern Analysis and Machine Intelligence. 25, no. 3, March 2003

しかしながら、前記従来の構成では、識別された疾病の種類、疾病の進行度または疾病の重症度、等により画像特徴量(即ち、類似基準)が決定され、決定された画像特徴量を用いて類似画像が検索されるだけであり、読影対象の医用画像に対する読影者の着目点を反映した類似画像検索にはなっていない。即ち、読影者が下した診断の裏づけや読影者が迷っている診断への補助にはなりにくいという課題を有している。   However, in the conventional configuration, an image feature amount (that is, a similarity criterion) is determined based on the identified disease type, disease progression degree, or disease severity, and the like. The image is only searched, and it is not a similar image search that reflects the point of interest of the interpreter for the medical image to be interpreted. That is, there is a problem that it is difficult to support the diagnosis made by the image interpreter or the diagnosis that the image interpreter is at a loss.

本発明は前記課題を解決するもので、読影者の着目点を類似画像検索に反映させた類似症例検索装置を提供することを目的とする。   This invention solves the said subject, and it aims at providing the similar case search apparatus which reflected the point of interest of an image interpreter in the similar image search.

また、読影者の着目点を類似画像検索に反映させた類似症例検索において用いられる読影知識を抽出するための読影知識抽出装置を提供することも目的とする。   It is another object of the present invention to provide an interpretation knowledge extraction device for extracting interpretation knowledge used in a similar case search in which a point of interest of an interpreter is reflected in a similar image search.

前記従来の課題を解決するために、本発明のある局面に係る類似症例検索装置は、医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データに類似する症例データを症例データベースより検索する類似症例検索装置であって、前記読影レポートは、(a)医用画像の特徴を示す文字列である読影項目および(b)医用画像に基づく読影者の診断結果である疾病名のうち少なくとも疾病名を含み、前記類似症例検索装置は、読影対象の医用画像である読影対象画像から複数の画像特徴量を抽出する画像特徴抽出部と、前記読影対象画像に対する読影レポートである対象読影レポートから疾病名を抽出するレポート解析部と、読影知識データベースに基づいて、画像特徴量毎の重みを決定する重み決定部と、前記画像特徴抽出部で抽出された前記複数の画像特徴量と、症例データベースに登録されている症例データに含まれる医用画像から抽出される複数の画像特徴量とを、前記重み決定部で決定された画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記症例データベースより検索する類似症例検索部とを備え、前記読影知識データベースは、医用画像から抽出される各画像特徴量と各読影項目との間の関連性を予め定めた第1の二項間関係情報と、各読影項目と各疾病名との間の関連性を予め定めた第2の二項間関係情報と、各画像特徴量と各疾病名との間の関連性を予め定めた第3の二項間関係情報と、疾病名ごとに、疾病名と関連性が高い画像特徴量の組合せが複数存在するか否かを示す存否情報とを含み、前記重み決定部は、前記読影知識データベースに含まれる前記存否情報に基づいて前記レポート解析部が抽出した疾病名である対象疾病名と関連性が高い画像特徴量の組合せが複数存在すると判断できる場合に、画像特徴量の組合せごとに、前記知識データベースに含まれる前記第1の二項間関係情報および前記第2の二項間関係情報から算出される、読影項目を介した各画像特徴量と前記対象疾病名との間の関連性を示す第4の二項間関係情報を、前記第3の二項間関係情報に代えて用い、前記画像特徴抽出部が抽出した画像特徴量ごとに、当該画像特徴量と前記対象疾病名との間の関連性が高いほど大きな値の重みを決定する。   In order to solve the conventional problem, a similar case retrieval apparatus according to an aspect of the present invention is similar to case data including a medical image and an interpretation report that is document data describing a result of interpretation of the medical image. A similar case retrieval apparatus that retrieves case data to be retrieved from a case database, wherein the interpretation report includes (a) an interpretation item that is a character string indicating the characteristics of the medical image, and (b) a diagnostic result of the interpreter based on the medical image The similar case search device includes an image feature extraction unit that extracts a plurality of image feature amounts from an image to be interpreted, which is a medical image to be interpreted, and an image interpretation for the image to be interpreted. Report analysis unit that extracts disease names from target interpretation reports that are reports, and weight determination that determines weights for each image feature based on the interpretation knowledge database A plurality of image feature amounts extracted by the image feature extraction unit, and a plurality of image feature amounts extracted from medical images included in case data registered in a case database. A similar case retrieval unit that retrieves case data including a medical image similar to the image to be interpreted from the case database by weighting with the weight for each image feature amount determined in The database includes first binomial relationship information in which a relationship between each image feature amount extracted from a medical image and each interpretation item is predetermined, and a relationship between each interpretation item and each disease name. The second binomial relationship information, the third binomial relationship information that predetermines the relationship between each image feature quantity and each disease name, and the disease name for each disease name. Multiple combinations of highly relevant image feature quantities Presence / absence information indicating whether or not it exists, and the weight determination unit is related to a target disease name that is a disease name extracted by the report analysis unit based on the presence / absence information included in the interpretation knowledge database. When it can be determined that there are a plurality of combinations of high image feature amounts, calculation is performed from the first binomial relationship information and the second binomial relationship information included in the knowledge database for each image feature amount combination. The fourth binomial relationship information indicating the relationship between each image feature quantity via the interpretation item and the target disease name is used instead of the third binomial relationship information, For each image feature amount extracted by the image feature extraction unit, a higher weight is determined as the relationship between the image feature amount and the target disease name is higher.

この構成によると、医用画像または読影対象画像から抽出される各画像特徴量について、対象読影レポートに記載されている対象疾病名との間の関連性が高いものほど大きな重みで重み付けを行った上で、重み付けされた画像特徴量同士を比較することにより類似症例を検索している。これにより、対象読影レポートに記入された読影者の着目点を反映した上で、類似症例検索を行うことができる。このとき、対象疾病名と関連性が高い画像特徴量の組合せが複数存在する場合には、画像特徴量の組合せごとに、読影項目を介した画像特徴量と対象疾病名との間の関連性を示す第4の二項間関係情報を用いて、重み付けを行っている。このため、対象疾病名に対して複数種類の画像パターンが存在する場合であっても、それらを区別して類似症例検索を行うことができる。   According to this configuration, each image feature amount extracted from a medical image or an image to be interpreted is weighted with a greater weight as the relevance to the target disease name described in the object interpretation report is higher. Thus, similar cases are searched by comparing the weighted image feature amounts. Thereby, a similar case search can be performed after reflecting the point of interest of the interpreter entered in the target interpretation report. At this time, when there are a plurality of combinations of image feature quantities that are highly relevant to the target disease name, for each combination of image feature quantities, the relationship between the image feature quantity and the target disease name via the interpretation item Weighting is performed using the fourth binomial relationship information indicating. For this reason, even when there are a plurality of types of image patterns for the target disease name, it is possible to perform a similar case search while distinguishing them.

本発明の他の局面に係る読影知識抽出装置は、医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む複数の症例データから、読影知識を抽出する読影知識抽出装置であって、前記読影レポートは、(a)医用画像の特徴を示す文字列である読影項目または(b)医用画像に基づく読影者の診断結果である疾病名を含み、前記読影知識抽出装置は、前記各症例データに含まれる医用画像から複数の画像特徴量を抽出する画像特徴抽出部と、前記各症例データに含まれる読影レポートから疾病名および読影項目を抽出するレポート解析部と、前記画像特徴抽出部が抽出した各画像特徴量と前記レポート解析部が抽出した各読影項目との間の関連性を定める第1の二項間関係情報と、前記レポート解析部が抽出した各読影項目と前記レポート解析部が抽出した各疾病名との間の関連性を定める第2の二項間関係情報と、前記画像特徴抽出部が抽出した各画像特徴量と前記レポート解析部が抽出した各疾病名との間の関連性を定める第3の二項間関係情報とを、読影知識として抽出する読影知識抽出部と、前記第1の二項間関係情報と、前記第2の二項間関係情報と、前記第3の二項間関係情報とに基づいて、疾病名ごとに疾病名と関連性が高い画像特徴量の組合せが複数存在するか否かを判定する読影知識判定部と、前記第2の二項間関係情報に基づいて、前記読影知識判定部が関連性が高い画像特徴量の組合せが複数存在すると判定した疾病名ごとに、当該疾病名と画像特徴量の組合せとを関連付ける読影項目の組を、画像特徴量の組合せごとに抽出する読影項目抽出部と、を備え、前記読影知識抽出部は、さらに、前記読影項目抽出部が抽出した読影項目の組ごとに、当該読影項目の組と前記画像特徴抽出部が抽出した各画像特徴量との間の関連性を定める二項間関係情報を、前記読影知識判定部が関連性が高いと判定した疾病名と画像特徴量の組合せに含まれる各画像特徴量との間の関連性を示す読影知識である第4の二項間関係情報として抽出する。   An interpretation knowledge extraction apparatus according to another aspect of the present invention is an interpretation knowledge that extracts interpretation knowledge from a plurality of case data including a medical image and an interpretation report that is document data describing a result of interpretation of the medical image. In the extraction device, the interpretation report includes (a) an interpretation item that is a character string indicating a feature of the medical image, or (b) a disease name that is a diagnosis result of the interpreter based on the medical image, and the interpretation knowledge extraction The apparatus includes an image feature extraction unit that extracts a plurality of image feature amounts from a medical image included in each case data, a report analysis unit that extracts a disease name and an interpretation item from an interpretation report included in each case data, The first binomial relationship information that defines the relationship between each image feature amount extracted by the image feature extraction unit and each interpretation item extracted by the report analysis unit, and the report analysis unit extracts Second binomial relationship information that defines the relationship between each interpretation item and each disease name extracted by the report analysis unit, each image feature amount extracted by the image feature extraction unit, and the report analysis unit Interpreting knowledge extracting unit for extracting third binomial relationship information that defines the relationship between each disease name extracted as a reading interpretation knowledge, the first binomial relationship information, and the second Interpretation knowledge for determining whether there are a plurality of combinations of image feature quantities that are highly related to a disease name for each disease name based on the binomial relationship information and the third binomial relationship information Based on the determination unit and the second binomial relationship information, for each disease name that the interpretation knowledge determination unit determines that there are multiple combinations of image feature amounts that are highly relevant, the disease name and the image feature amount For each combination of image features, a set of interpretation items to be associated with An interpretation item extraction unit that outputs, and the interpretation knowledge extraction unit further extracts, for each set of interpretation items extracted by the interpretation item extraction unit, each set of interpretation items and the image feature extraction unit. Information on the relationship between the two terms that defines the relevance between the image feature amounts is determined between the image feature amounts included in the combination of the disease name and the image feature amount that the interpretation knowledge determination unit has determined to have high relevance. It is extracted as fourth binomial relationship information that is interpretation knowledge showing relevance.

この構成によると、1つの疾病名に対して複数種類の画像パターンが存在する場合であっても、第4の二項間関係情報として、画像パターン毎の疾病名と各画像特徴量との間の関連性を抽出することができる。このため、読影者の着目点を類似画像検索に反映させた類似症例検索において用いられる読影知識を抽出することができる。   According to this configuration, even when there are a plurality of types of image patterns for one disease name, the fourth binomial relationship information includes the disease name for each image pattern and each image feature amount. The relevance of can be extracted. For this reason, it is possible to extract the interpretation knowledge used in the similar case search in which the point of interest of the interpreter is reflected in the similar image search.

なお、本発明は、このような特徴的な処理部を備える装置として実現することができるだけでなく、装置に含まれる特徴的な処理部が実行する処理をステップとする方法として実現することができる。また、装置に含まれる特徴的な処理部としてコンピュータを機能させるためのプログラムまたは方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムを、CD−ROM(Compact Disc−Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。   Note that the present invention can be realized not only as an apparatus including such a characteristic processing unit, but also as a method in which processing executed by the characteristic processing unit included in the apparatus is used as a step. . Moreover, it can also be realized as a program for causing a computer to execute a characteristic step included in a program or a method for causing a computer to function as a characteristic processing unit included in the apparatus. Such a program can be distributed via a computer-readable non-transitory recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet. .

本発明によれば、読影者の着目点を類似画像検索に反映させた類似症例検索装置を提供することができる。また、読影者の着目点を類似画像検索に反映させた類似症例検索において用いられる読影知識を抽出するための読影知識抽出装置を提供するもできる。   ADVANTAGE OF THE INVENTION According to this invention, the similar case search apparatus which reflected the imager's attention point on the similar image search can be provided. It is also possible to provide an interpretation knowledge extraction device for extracting interpretation knowledge used in a similar case search in which a point of interest of an interpreter is reflected in a similar image search.

本発明の実施の形態における類似症例検索装置の構成を示すブロック図The block diagram which shows the structure of the similar case search apparatus in embodiment of this invention 本発明の実施の形態における読影知識抽出装置の構成を示すブロック図The block diagram which shows the structure of the interpretation knowledge extraction apparatus in embodiment of this invention 本発明の実施の形態における読影知識作成の手順を示すフローチャートThe flowchart which shows the procedure of the interpretation knowledge preparation in embodiment of this invention 本発明の実施の形態における画像特徴量抽出の手順を示すフローチャートThe flowchart which shows the procedure of the image feature-value extraction in embodiment of this invention 本発明の実施の形態における腹部CT検査の読影レポートの例を示す図The figure which shows the example of the interpretation report of the abdominal CT examination in embodiment of this invention 本発明の実施の形態における読影レポートから抽出された読影項目および疾病名を示す図The figure which shows the interpretation item and disease name extracted from the interpretation report in embodiment of this invention 本発明の実施の形態における読影レポートから抽出された読影項目および疾病名、および、読影項目と同時に抽出された位置と時相の情報を示す図The figure which shows the information of the position and time phase extracted simultaneously with the interpretation item and disease name extracted from the interpretation report in embodiment of this invention and the interpretation item 本発明の実施の形態における読影レポートから抽出された読影項目および疾病名、および、文脈解釈を行って読影項目と同時に抽出された位置と時相の情報を示す図The figure which shows the information of the position and time phase extracted from the interpretation item and disease name extracted from the interpretation report in embodiment of this invention, and context interpretation and simultaneous with the interpretation item 本発明の実施の形態における、読影知識抽出のために取得したデータ一式を示す図The figure which shows a data set acquired for the interpretation knowledge extraction in embodiment of this invention. 本発明の実施の形態における、読影項目と画像特徴量との間の相関関係(二値)の概念図The conceptual diagram of the correlation (binary) between the interpretation item and image feature-value in embodiment of this invention 本発明の実施の形態における、読影項目と画像特徴量との間の相関関係(多値)の概念図The conceptual diagram of the correlation (multi-value) between the interpretation item and image feature-value in embodiment of this invention 本発明の実施の形態における、疾病名と画像特徴量との間の相関関係(二値)の概念図The conceptual diagram of the correlation (binary) between the disease name and the image feature-value in embodiment of this invention 本発明の実施の形態における、読影項目と疾病名との間の相関関係(二値)の概念図Conceptual diagram of correlation (binary) between interpretation item and disease name in the embodiment of the present invention 本発明の実施の形態における、読影知識として抽出した(画像特徴量−読影項目)間の相関関係の格納形式を示す図The figure which shows the storage format of the correlation between the (image feature-value-interpretation item) extracted as interpretation knowledge in embodiment of this invention. 本発明の実施の形態における、読影知識として抽出した(画像特徴量−疾病名)間の相関関係の格納形式を示す図The figure which shows the storage format of the correlation between (image feature-value-disease name) extracted as interpretation knowledge in embodiment of this invention. 本発明の実施の形態における、読影知識として抽出した(読影項目−疾病名)間の相関関係の格納形式を示す図The figure which shows the storage format of the correlation between (interpretation item-disease name) extracted as interpretation knowledge in embodiment of this invention. 疾病名「肝細胞がん」の早期病変領域における画像パターンの違いを示す概念図Conceptual diagram showing the difference in image pattern in the early lesion area of the disease name "hepatocellular carcinoma" テキスト特徴量(疾病名「肝細胞がん」)の有無による画像特徴量「早期相における腫瘤内部の輝度平均値」の分布の違いを示す概念図Conceptual diagram showing the difference in the distribution of the image feature “average luminance within the tumor in the early phase” depending on the presence or absence of the text feature (disease name “hepatocellular carcinoma”) 本発明の実施の形態における、画像パターンが複数存在する場合の三項間の相対関係の概念図The conceptual diagram of the relative relationship between the three terms when there are a plurality of image patterns in the embodiment of the present invention 本発明の実施の形態における、読影知識を追加した場合の(画像特徴量−疾病名)間の相関関係の概念図The conceptual diagram of the correlation between (image feature-value-disease name) at the time of adding the interpretation knowledge in embodiment of this invention 本発明の実施の形態における読影知識の追加手順を示すフローチャートThe flowchart which shows the addition procedure of the interpretation knowledge in embodiment of this invention 本発明の実施の形態における読影知識判定処理(図21のステップS31)の詳細を示すフローチャートThe flowchart which shows the detail of the interpretation knowledge determination process (step S31 of FIG. 21) in embodiment of this invention. 本発明の実施の形態における、読影知識の追加後の(画像特徴量−疾病名)間の相関関係の格納形式を示す図The figure which shows the storage format of the correlation between (image feature-value-disease name) after the addition of the interpretation knowledge in embodiment of this invention. 本発明の実施の形態における読影項目抽出処理(図21のステップS32)の詳細を示すフローチャートThe flowchart which shows the detail of the interpretation item extraction process (step S32 of FIG. 21) in embodiment of this invention. 本発明の実施の形態における、疾病名と相関の高い読影項目の組により事前に抽出された(画像特徴量−疾病名)間の相関関係の格納形式を示す図The figure which shows the storage format of the correlation between the (image feature-value-disease name) extracted beforehand by the group of the interpretation item with a high correlation with the disease name in embodiment of this invention. 本発明の実施の形態における、読影項目の抽出のみ行う場合の読影知識の追加手順を示すフローチャートThe flowchart which shows the addition procedure of the interpretation knowledge when performing only extraction of the interpretation item in embodiment of this invention 本発明の実施の形態における、疾病名と相関の高い読影項目の組の格納形式を示す図The figure which shows the storage format of the group of the interpretation item with a high correlation with the disease name in embodiment of this invention 本発明の実施の形態における、疾病名と相関の高い読影項目の組により事前に抽出された(画像特徴量−疾病名)間の相関関係の格納形式を示す図The figure which shows the storage format of the correlation between the (image feature-value-disease name) extracted beforehand by the group of the interpretation item with a high correlation with the disease name in embodiment of this invention. 本発明の実施の形態における類似症例検索の手順を示すフローチャートThe flowchart which shows the procedure of the similar case search in embodiment of this invention 本発明の実施の形態における類似症例検索時の重み付け方法を示す図The figure which shows the weighting method at the time of similar case search in embodiment of this invention 本発明の実施の形態における類似症例検索時の重み付け方法を示す図The figure which shows the weighting method at the time of similar case search in embodiment of this invention 本発明の実施の形態における類似症例検索時の重み付け方法を示す図The figure which shows the weighting method at the time of similar case search in embodiment of this invention 本発明の実施の形態における、(画像特徴量−疾病名)間の相関関係が追加されている場合の重み付け方法を示す図The figure which shows the weighting method when the correlation between (image feature-value-disease name) is added in embodiment of this invention. 本発明の実施の形態における、(画像特徴量−疾病名)間の相関関係が追加されている場合の重み付け方法を示す図The figure which shows the weighting method when the correlation between (image feature-value-disease name) is added in embodiment of this invention. 本発明の実施の形態における、(画像特徴量−疾病名)間の相関関係が追加されている場合の重み付け方法を示す図The figure which shows the weighting method when the correlation between (image feature-value-disease name) is added in embodiment of this invention. 本発明の実施の形態における、(画像特徴量−疾病名)間の相関関係が追加されている場合の重み付け方法を示す図The figure which shows the weighting method when the correlation between (image feature-value-disease name) is added in embodiment of this invention.

以下本発明の実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも本発明の好ましい一具体例を示すものである。以下の実施の形態で示される数値、構成要素、構成要素の接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。本発明は、特許請求の範囲だけによって限定される。よって、以下の実施の形態における構成要素のうち、本発明の最上位概念を示す独立請求項に記載されていない構成要素については、本発明の課題を達成するのに必ずしも必要ではないが、より好ましい形態を構成するものとして説明される。   Embodiments of the present invention will be described below with reference to the drawings. Each of the embodiments described below shows a preferred specific example of the present invention. Numerical values, components, connection modes of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present invention. The invention is limited only by the claims. Therefore, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept of the present invention are not necessarily required to achieve the object of the present invention. It will be described as constituting a preferred form.

本発明のある実施態様に係る類似症例検索装置は、医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データに類似する症例データを症例データベースより検索する類似症例検索装置であって、前記読影レポートは、(a)医用画像の特徴を示す文字列である読影項目および(b)医用画像に基づく読影者の診断結果である疾病名のうち少なくとも疾病名を含み、前記類似症例検索装置は、読影対象の医用画像である読影対象画像から複数の画像特徴量を抽出する画像特徴抽出部と、前記読影対象画像に対する読影レポートである対象読影レポートから疾病名を抽出するレポート解析部と、読影知識データベースに基づいて、画像特徴量毎の重みを決定する重み決定部と、前記画像特徴抽出部で抽出された前記複数の画像特徴量と、症例データベースに登録されている症例データに含まれる医用画像から抽出される複数の画像特徴量とを、前記重み決定部で決定された画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記症例データベースより検索する類似症例検索部とを備え、前記読影知識データベースは、医用画像から抽出される各画像特徴量と各読影項目との間の関連性を予め定めた第1の二項間関係情報と、各読影項目と各疾病名との間の関連性を予め定めた第2の二項間関係情報と、各画像特徴量と各疾病名との間の関連性を予め定めた第3の二項間関係情報と、疾病名ごとに、疾病名と関連性が高い画像特徴量の組合せが複数存在するか否かを示す存否情報とを含み、前記重み決定部は、前記読影知識データベースに含まれる前記存否情報に基づいて前記レポート解析部が抽出した疾病名である対象疾病名と関連性が高い画像特徴量の組合せが複数存在すると判断できる場合に、画像特徴量の組合せごとに、前記知識データベースに含まれる前記第1の二項間関係情報および前記第2の二項間関係情報から算出される、読影項目を介した各画像特徴量と前記対象疾病名との間の関連性を示す第4の二項間関係情報を、前記第3の二項間関係情報に代えて用い、前記画像特徴抽出部が抽出した画像特徴量ごとに、当該画像特徴量と前記対象疾病名との間の関連性が高いほど大きな値の重みを決定する。   A similar case retrieval apparatus according to an embodiment of the present invention retrieves case data similar to case data including a medical image and an interpretation report, which is document data describing a result of interpretation of the medical image, from the case database. In the similar case search apparatus, the interpretation report includes (a) an interpretation item that is a character string indicating a feature of a medical image and (b) a disease name that is a diagnosis result of an interpreter based on the medical image. The similar case retrieval apparatus includes: an image feature extraction unit that extracts a plurality of image feature amounts from an interpretation target image that is a medical image to be interpreted; and a disease name from the target interpretation report that is an interpretation report for the interpretation target image. A report analysis unit for extracting image data, a weight determination unit for determining a weight for each image feature amount based on an interpretation knowledge database, and the image feature extraction unit The plurality of image feature amounts that have been issued and a plurality of image feature amounts that are extracted from medical images included in case data registered in the case database, for each image feature amount determined by the weight determination unit. A similar case retrieval unit that retrieves case data including a medical image similar to the image to be interpreted from the case database by weighting and comparing, and the interpretation knowledge database is extracted from the medical image The first binomial relationship information that predetermines the relevance between each image feature and each interpretation item, and the second two terms that predetermine the relevance between each interpretation item and each disease name. A combination of inter-related information, third binary relation information that predetermines the relationship between each image feature amount and each disease name, and image feature amount that is highly related to the disease name for each disease name Presence / absence information indicating whether or not there are multiple The weight determination unit includes a plurality of combinations of image feature quantities that are highly relevant to the target disease name that is the disease name extracted by the report analysis unit based on the presence / absence information included in the interpretation knowledge database. If it can be determined, for each combination of image features, each calculated via the interpretation items calculated from the first binomial relationship information and the second binomial relationship information included in the knowledge database The image feature extracted by the image feature extraction unit using the fourth binomial relationship information indicating the relationship between the image feature quantity and the target disease name instead of the third binomial relationship information For each quantity, a higher weight is determined as the relationship between the image feature quantity and the target disease name is higher.

この構成によると、医用画像または読影対象画像から抽出される各画像特徴量について、対象読影レポートに記載されている対象疾病名との間の関連性が高いものほど大きな重みで重み付けを行った上で、重み付けされた画像特徴量同士を比較することにより類似症例を検索している。これにより、対象読影レポートに記入された読影者の着目点を反映した上で、類似症例検索を行うことができる。このとき、対象疾病名と関連性が高い画像特徴量の組合せが複数存在する場合には、画像特徴量の組合せごとに、読影項目を介した画像特徴量と対象疾病名との間の関連性を示す第4の二項間関係情報を用いて、重み付けを行っている。このため、対象疾病名に対して複数種類の画像パターンが存在する場合であっても、それらを区別して類似症例検索を行うことができる。   According to this configuration, each image feature amount extracted from a medical image or an image to be interpreted is weighted with a greater weight as the relevance to the target disease name described in the object interpretation report is higher. Thus, similar cases are searched by comparing the weighted image feature amounts. Thereby, a similar case search can be performed after reflecting the point of interest of the interpreter entered in the target interpretation report. At this time, when there are a plurality of combinations of image feature quantities that are highly relevant to the target disease name, for each combination of image feature quantities, the relationship between the image feature quantity and the target disease name via the interpretation item Weighting is performed using the fourth binomial relationship information indicating. For this reason, even when there are a plurality of types of image patterns for the target disease name, it is possible to perform a similar case search while distinguishing them.

好ましくは、前記重み決定部は、前記読影知識データベースに含まれる前記存否情報に基づいて前記対象疾病名と関連性が高い画像特徴量の組合せが1種類しか存在しないと判断できる場合に前記第3の二項間関係情報を用い、前記画像特徴抽出部が抽出した画像特徴量ごとに、当該画像特徴量と前記対象疾病名との間の関連性が高いほど大きな値の重みを決定する。   Preferably, when the weight determination unit can determine that there is only one kind of combination of the image feature amount highly related to the target disease name based on the presence / absence information included in the interpretation knowledge database, For each image feature amount extracted by the image feature extraction unit, a higher value weight is determined as the relationship between the image feature amount and the target disease name is higher.

本発明の他の実施態様に係る読影知識抽出装置は、医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む複数の症例データから、読影知識を抽出する読影知識抽出装置であって、前記読影レポートは、(a)医用画像の特徴を示す文字列である読影項目または(b)医用画像に基づく読影者の診断結果である疾病名を含み、前記読影知識抽出装置は、前記各症例データに含まれる医用画像から複数の画像特徴量を抽出する画像特徴抽出部と、前記各症例データに含まれる読影レポートから疾病名および読影項目を抽出するレポート解析部と、前記画像特徴抽出部が抽出した各画像特徴量と前記レポート解析部が抽出した各読影項目との間の関連性を定める第1の二項間関係情報と、前記レポート解析部が抽出した各読影項目と前記レポート解析部が抽出した各疾病名との間の関連性を定める第2の二項間関係情報と、前記画像特徴抽出部が抽出した各画像特徴量と前記レポート解析部が抽出した各疾病名との間の関連性を定める第3の二項間関係情報とを、読影知識として抽出する読影知識抽出部と、前記第1の二項間関係情報と、前記第2の二項間関係情報と、前記第3の二項間関係情報とに基づいて、疾病名ごとに疾病名と関連性が高い画像特徴量の組合せが複数存在するか否かを判定する読影知識判定部と、前記第2の二項間関係情報に基づいて、前記読影知識判定部が関連性が高い画像特徴量の組合せが複数存在すると判定した疾病名ごとに、当該疾病名と画像特徴量の組合せとを関連付ける読影項目の組を、画像特徴量の組合せごとに抽出する読影項目抽出部と、を備え、前記読影知識抽出部は、さらに、前記読影項目抽出部が抽出した読影項目の組ごとに、当該読影項目の組と前記画像特徴抽出部が抽出した各画像特徴量との間の関連性を定める二項間関係情報を、前記読影知識判定部が関連性が高いと判定した疾病名と画像特徴量の組合せに含まれる各画像特徴量との間の関連性を示す読影知識である第4の二項間関係情報として抽出する。   An interpretation knowledge extraction device according to another embodiment of the present invention extracts an interpretation knowledge from a plurality of case data including a medical image and an interpretation report that is document data describing a result of interpretation of the medical image. The knowledge extraction device, wherein the interpretation report includes (a) an interpretation item that is a character string indicating a feature of a medical image, or (b) a disease name that is a diagnosis result of an interpreter based on the medical image, and the interpretation knowledge The extraction device includes an image feature extraction unit that extracts a plurality of image feature amounts from a medical image included in each case data, a report analysis unit that extracts a disease name and an interpretation item from an interpretation report included in each case data, A first binomial relationship information for defining a relationship between each image feature amount extracted by the image feature extraction unit and each interpretation item extracted by the report analysis unit; and the report analysis unit Second binomial relationship information that defines the relationship between each extracted interpretation item and each disease name extracted by the report analysis unit, each image feature amount extracted by the image feature extraction unit, and the report analysis The third binomial relation information that defines the relationship between each disease name extracted by the department as the interpretation knowledge, the first binomial relation information, Interpretation for determining whether there are a plurality of combinations of image feature quantities that are highly related to a disease name for each disease name based on the binary relationship information of 2 and the third binary relationship information Based on the knowledge determination unit and the second binomial relationship information, for each disease name determined by the interpretation knowledge determination unit that there are a plurality of combinations of image feature quantities that are highly relevant, the disease name and image feature The combination of image interpretation items to be associated with the combination of quantities is the combination of image feature quantities. An interpretation item extraction unit for extracting the interpretation item, and the interpretation knowledge extraction unit further extracts, for each interpretation item group extracted by the interpretation item extraction unit, the interpretation item set and the image feature extraction unit. The binomial relationship information that defines the relevance between each image feature amount is determined between the image feature amount included in the combination of the disease name and the image feature amount that the interpretation knowledge determination unit has determined to be highly relevant. It is extracted as fourth binomial relationship information which is interpretation knowledge indicating the relevance of.

この構成によると、1つの疾病名に対して複数種類の画像パターンが存在する場合であっても、第4の二項間関係情報として、画像パターン毎の疾病名と各画像特徴量との間の関連性を抽出することができる。このため、読影者の着目点を類似画像検索に反映させた類似症例検索において用いられる読影知識を抽出することができる。   According to this configuration, even when there are a plurality of types of image patterns for one disease name, the fourth binomial relationship information includes the disease name for each image pattern and each image feature amount. The relevance of can be extracted. For this reason, it is possible to extract the interpretation knowledge used in the similar case search in which the point of interest of the interpreter is reflected in the similar image search.

好ましくは、前記読影知識判定部は、(a)前記第3の二項間関係情報から選択される第1の画像特徴量と第1の疾病名との間の関連性を定める第1の相関値と、(b)前記第2の二項間関係情報から選択される前記第1の疾病名と第1の読影項目との間の関連性を定める相関値が相関値閾値以上の前記第1の読影項目について、前記第1の二項間関係情報から選択される前記第1の読影項目と前記第1の画像特徴量との間の関連性を定める第2の相関値との間の差分値を計算し、計算した前記差分値が差分閾値よりも大きい場合に、前記第1の疾病名と関連性が高い画像特徴量の組合せが複数存在すると判定する。   Preferably, the interpretation knowledge determination unit is configured to: (a) a first correlation that defines a relationship between a first image feature amount selected from the third binomial relationship information and a first disease name; A correlation value that defines an association between the first disease name selected from the second binomial relationship information and the first interpretation item is greater than or equal to a correlation value threshold value. Difference between the first correlation item selected from the first binomial relationship information and the second correlation value that defines the relationship between the first image feature amount A value is calculated, and when the calculated difference value is larger than a difference threshold value, it is determined that there are a plurality of combinations of image feature amounts highly related to the first disease name.

さらに好ましくは、前記読影項目抽出部は、前記読影知識判定部が関連性が高い画像特徴量の組合せが複数存在すると判定した疾病名ごとに、前記第2の二項間関係情報が示す当該疾病名との間の相関値が第1閾値よりも大きい読影項目から作成される全ての読影項目の組のうち、当該疾病名との間の相関値が第2の閾値以上となる読影項目の組を、当該疾病名と前記画像特徴量の組合せとを関連付ける読影項目の組として抽出する。   More preferably, the interpretation item extraction unit includes the disease indicated by the second binomial relationship information for each disease name determined by the interpretation knowledge determination unit to have a plurality of combinations of image feature quantities that are highly relevant. Among all the interpretation item sets created from the interpretation items whose correlation value with the name is larger than the first threshold value, the set of interpretation items whose correlation value with the disease name is equal to or more than the second threshold value Are extracted as a set of interpretation items associating the disease name with the combination of the image feature amounts.

図1は、本発明の実施の形態における類似症例検索装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a similar case retrieval apparatus according to an embodiment of the present invention.

類似症例検索装置は、症例データベース100と、読影知識データベース110と、読影対象画像読込部120と、読影対象画像表示部130と、レポート入出力部140と、レポート解析部150と、画像特徴抽出部160と、重み決定部170と、類似症例検索部180と、類似症例表示部190とを含む。   The similar case retrieval apparatus includes a case database 100, an interpretation knowledge database 110, an interpretation target image reading unit 120, an interpretation target image display unit 130, a report input / output unit 140, a report analysis unit 150, and an image feature extraction unit. 160, a weight determination unit 170, a similar case search unit 180, and a similar case display unit 190.

症例データベース100は、CT(Computed Tomography)またはMRI(Magnetic Resonance Imaging)等の医用画像(本明細書中では「画像データ」のことを単に「画像」と言う)と、その医用画像を読影した結果である読影レポートとの対から構成される症例データ(以下、単に「症例」と言う。)を複数格納したデータベースである。読影知識データベース110は、複数の症例を解析することにより得た読影知識を格納したデータベースである。詳細については後述する。症例データベース100および読影知識データベース110は、HDD(Hard Disk Drive)などの記憶装置に記憶される。   The case database 100 includes a medical image such as CT (Computed Tomography) or MRI (Magnetic Resonance Imaging) (in this specification, “image data” is simply referred to as “image”), and a result of reading the medical image. This is a database storing a plurality of case data (hereinafter simply referred to as “cases”) composed of pairs with interpretation reports. The interpretation knowledge database 110 is a database that stores interpretation knowledge obtained by analyzing a plurality of cases. Details will be described later. The case database 100 and the interpretation knowledge database 110 are stored in a storage device such as an HDD (Hard Disk Drive).

読影対象画像読込部120は、CTやMRI等の医用画像撮影装置で撮影された画像を、医用画像撮影装置または外部接続された記憶装置などから読み込む。   The interpretation target image reading unit 120 reads an image captured by a medical image capturing device such as CT or MRI from a medical image capturing device or an externally connected storage device.

読影対象画像表示部130は、医療用の高精細モニタ等で構成され、読影対象画像読込部120で読み込んだ読影対象画像を表示する。   The interpretation target image display unit 130 includes a medical high-definition monitor or the like, and displays the interpretation target image read by the interpretation target image reading unit 120.

レポート入出力部140は、キーボードやマウスなどの入力装置と、そのような入力装置を用いて入力されたレポートを表示することにより、入力者に確認させるための表示装置とで構成されている。読影者は読影対象画像表示部130に表示された読影対象画像を参照しながら、レポート入出力部140を通して読影レポートを入力する。   The report input / output unit 140 includes an input device such as a keyboard and a mouse, and a display device that allows an input person to confirm by displaying a report input using such an input device. The interpreter inputs an interpretation report through the report input / output unit 140 while referring to the interpretation target image displayed on the interpretation target image display unit 130.

読影対象画像表示部130、レポート入出力部140、および、後述する類似症例表示部190は、読影端末200を構成する。   The interpretation target image display unit 130, the report input / output unit 140, and a similar case display unit 190 described later constitute the interpretation terminal 200.

レポート解析部150は、レポート入出力部140で入力された読影レポートを解析し、テキスト特徴量(読影項目および疾病名)を抽出する。   The report analysis unit 150 analyzes the interpretation report input by the report input / output unit 140 and extracts text feature quantities (interpretation items and disease names).

画像特徴抽出部160は、読影対象画像読込部120で読み込まれた読影対象画像から複数種類の画像特徴量を抽出する。   The image feature extraction unit 160 extracts a plurality of types of image feature amounts from the interpretation target images read by the interpretation target image reading unit 120.

重み決定部170は、レポート解析部150で抽出されたテキスト特徴量、画像特徴抽出部160で抽出された画像特徴量、および、読影知識データベース110に格納された読影知識から、画像検索で使用する複数の画像特徴量に対する重みをそれぞれ決定する。   The weight determination unit 170 is used for image search from the text feature amount extracted by the report analysis unit 150, the image feature amount extracted by the image feature extraction unit 160, and the interpretation knowledge stored in the interpretation knowledge database 110. Weights for a plurality of image feature amounts are respectively determined.

類似症例検索部180は、画像特徴抽出部160で抽出された画像特徴量、および、重み決定部170で決定された重みを利用して、症例データベース100から読影対象画像と類似した医用画像を含む症例を検索する。   The similar case search unit 180 includes a medical image similar to the image to be interpreted from the case database 100 using the image feature amount extracted by the image feature extraction unit 160 and the weight determined by the weight determination unit 170. Search for cases.

類似症例表示部190は、類似症例検索部180で検索された類似症例を表示する。類似症例表示部190は、読影対象画像表示部130を構成する高精細モニタと同じ機種で別途構成されていてもよく、読影対象画像表示部130を構成する高精細モニタに読影対象画像と類似症例を同時に表示してもよい。なお、類似症例表示部190と読影対象画像表示部130との機種は異なっていても良い。   The similar case display unit 190 displays the similar cases searched by the similar case search unit 180. The similar case display unit 190 may be separately configured with the same model as the high-definition monitor that constitutes the interpretation target image display unit 130. The similar case display unit 190 is similar to the interpretation target image and the similar case on the high-definition monitor that constitutes the interpretation target image display unit 130. May be displayed simultaneously. Note that the similar case display unit 190 and the interpretation target image display unit 130 may be of different models.

図2は、本発明の実施の形態における読影知識抽出装置の構成を示すブロック図である。   FIG. 2 is a block diagram showing the configuration of the image interpretation knowledge extracting apparatus in the embodiment of the present invention.

読影知識抽出装置は、レポート解析部250と、画像特徴抽出部260と、読影知識抽出部210と、読影知識判定部220と、読影項目抽出部230と、症例データベース100と、読影知識データベース110とを備える。   The interpretation knowledge extraction device includes a report analysis unit 250, an image feature extraction unit 260, an interpretation knowledge extraction unit 210, an interpretation knowledge determination unit 220, an interpretation item extraction unit 230, a case database 100, and an interpretation knowledge database 110. Is provided.

症例データベース100および読影知識データベース110は、図1に示したものと同様の構成を有する。   The case database 100 and the interpretation knowledge database 110 have the same configuration as that shown in FIG.

レポート解析部250は、症例データベース100から読み込まれた読影レポートを解析し、テキスト特徴量を抽出する。レポート解析部250は、読影レポートを読み込む先が異なる以外はレポート解析部150と同じである。   The report analysis unit 250 analyzes an interpretation report read from the case database 100 and extracts a text feature amount. The report analysis unit 250 is the same as the report analysis unit 150 except that the interpretation report reading destination is different.

画像特徴抽出部260は、症例データベース100から読み込まれた読影対象画像から複数種類の画像特徴量を抽出する。画像特徴抽出部260は、読影対象画像を読み込む先が異なる以外は、画像特徴抽出部160と同じである。   The image feature extraction unit 260 extracts a plurality of types of image feature amounts from the interpretation target image read from the case database 100. The image feature extraction unit 260 is the same as the image feature extraction unit 160 except that the image reading target image is read from a different destination.

読影知識抽出部210、読影知識判定部220、読影項目抽出部230は読影知識の抽出および読影知識の追加のための処理部である。   The interpretation knowledge extraction unit 210, interpretation knowledge determination unit 220, and interpretation item extraction unit 230 are processing units for extracting interpretation knowledge and adding interpretation knowledge.

読影知識抽出部210は、症例データベース100に格納された複数の症例を解析することにより得られる読影知識を、読影知識データベース110に格納する。   The interpretation knowledge extraction unit 210 stores interpretation knowledge obtained by analyzing a plurality of cases stored in the case database 100 in the interpretation knowledge database 110.

読影知識判定部220は、読影知識データベース110に格納された読影知識を読み込み、読影知識の中で、読影知識を追加する対象(疾病名)を決定する。   The interpretation knowledge determination unit 220 reads the interpretation knowledge stored in the interpretation knowledge database 110, and determines a target (disease name) to add the interpretation knowledge in the interpretation knowledge.

読影項目抽出部230は、読影知識を追加する対象(疾病名)について相関関係を解析し、読影知識の追加に使用する読影項目の組を抽出する。読影知識追加時には、読影知識抽出部210は、読影項目抽出部230で抽出された読影項目の組を用いて複数の症例を解析することにより、新たな読影知識を獲得し、読影知識データベース110に格納する。これら読影知識の抽出と追加については詳細については後述する。   The interpretation item extraction unit 230 analyzes the correlation with respect to the subject (disease name) to which interpretation knowledge is added, and extracts a set of interpretation items used for the addition of interpretation knowledge. At the time of adding interpretation knowledge, the interpretation knowledge extracting unit 210 acquires new interpretation knowledge by analyzing a plurality of cases using the set of interpretation items extracted by the interpretation item extracting unit 230, and stores it in the interpretation knowledge database 110. Store. Details of extraction and addition of these interpretation knowledge will be described later.

以後、本発明の各部の動作について詳細に説明する。   Hereinafter, the operation of each part of the present invention will be described in detail.

<読影知識データベースの事前作成>
類似症例検索を行うに当たり、事前に読影知識を得て、読影知識データベース110に格納しておく。読影知識は、医用画像とその医用画像を読影した結果である読影レポートとの対から構成される“症例”を複数集めたものから得られる。症例として、類似症例検索時にその中から類似症例を検索するための症例データベース100に格納されたものを用いてもよいし、他のデータベースに格納されたものを用いてもよい。図2には、症例データベース100に格納された症例から読影知識を抽出する場合の構成について示す。このとき、読影知識抽出部210は、レポート解析部250で各症例から抽出されたテキスト特徴量と、画像特徴抽出部260で各症例から抽出された画像特徴量とを解析し、読影知識を抽出する。ここで、必要な症例数は、種種のデータマイニングアルゴリズムを用いて何らかの法則性および知識を得るために十分となる数である。通常は数百〜数万個のデータが用いられる。本実施の形態では、読影知識として、(1)画像特徴量、(2)読影項目、(3)疾病名の三項のうちの各二項間の相関関係を用いる。
<Preparation of interpretation knowledge database>
In performing similar case search, interpretation knowledge is obtained in advance and stored in the interpretation knowledge database 110. Interpretation knowledge is obtained from a collection of a plurality of “cases” composed of pairs of medical images and interpretation reports that are the results of interpretation of the medical images. As cases, those stored in the case database 100 for searching for similar cases from among similar cases may be used, or cases stored in other databases may be used. FIG. 2 shows a configuration for extracting interpretation knowledge from cases stored in the case database 100. At this time, the interpretation knowledge extraction unit 210 analyzes the text feature amount extracted from each case by the report analysis unit 250 and the image feature amount extracted from each case by the image feature extraction unit 260, and extracts interpretation knowledge. To do. Here, the necessary number of cases is a number sufficient to obtain some kind of law and knowledge using various data mining algorithms. Usually, hundreds to tens of thousands of data are used. In the present embodiment, as the interpretation knowledge, the correlation between two terms of (1) image feature value, (2) interpretation item, and (3) disease name is used.

(1)画像特徴量
「画像特徴量」としては、医用画像における臓器もしくは病変部分の形状に関するもの、または輝度分布に関するものなどがある。画像特徴量として、例えば、非特許文献:「根本,清水,萩原,小畑,縄野,“多数の特徴量からの特徴選択による乳房X線像上の腫瘤影判別精度の改善と高速な特徴選択法の提案”,電子情報通信学会論文誌D−II,Vol.J88−D−II,No.2,pp.416−426,2005年2月」に490種類の特徴量を用いることが記載されている。本実施の形態においても、医用画像の撮像に使用した医用画像撮影装置(モダリティ)または読影の対象臓器ごとに予め定めた数十〜数百種の画像特徴量を用いる。
(1) Image feature amount As “image feature amount”, there are those related to the shape of an organ or a lesion in a medical image, or those related to luminance distribution. For example, non-patent literature: “Nemoto, Shimizu, Sugawara, Obata, Nawano,” Improvement of mass shadow discrimination accuracy on mammograms by feature selection from a large number of features and a fast feature selection method "Proposal of the Institute of Electronics, Information and Communication Engineers, D-II, Vol. J88-D-II, No. 2, pp. 416-426, February 2005" describes that 490 types of feature values are used. Yes. Also in the present embodiment, several tens to several hundreds of image feature amounts determined in advance for each medical image capturing apparatus (modality) used for capturing a medical image or each target organ for interpretation are used.

(2)読影項目
「読影項目」とは、「読影医が、読影対象の画像の特徴を言語化した文字列」と定義する。使用する医用画像撮影装置または対象臓器等により、読影項目として使用される用語はほぼ限定される。例えば、分葉状、棘状、不整形、境界明瞭、輪郭不明瞭、低濃度、高濃度、低吸収、高吸収、スリガラス状、石灰化、モザイク状、早期濃染、低エコー、高エコー、毛羽立ち、等がある。
(2) Interpretation Item The “interpretation item” is defined as “a character string in which the interpretation doctor verbalizes the characteristics of the image to be interpreted”. The terms used as interpretation items are almost limited depending on the medical imaging apparatus or target organ used. For example, lobed, spiny, irregular, clear border, unclear, low concentration, high concentration, low absorption, high absorption, ground glass, calcification, mosaic, early dark staining, low echo, high echo, fluff , Etc.

(3)疾病名
「疾病名」とは、医師(読影者)が医用画像やその他の検査を基に診断した疾病名のことである。読影時の診断疾病名とその他の検査を経て確定診断した疾病名とは異なることがあるが、読影知識データベースを作成する際は、確定診断の結果を用いる。
(3) Disease name The “disease name” is a disease name diagnosed by a doctor (reader) based on a medical image or other examination. Although the diagnosis disease name at the time of interpretation may differ from the disease name that has been confirmed through other examinations, the result of the definitive diagnosis is used when creating the interpretation knowledge database.

以下、図3のフローチャートを用いて読影知識作成の手順を説明する。本実施の形態で対象とする、つまり使用する医用画像撮影装置はマルチスライスCTとし、対象臓器および疾病は、それぞれ肝臓および肝腫瘤とする。   Hereinafter, the procedure for creating interpretation knowledge will be described with reference to the flowchart of FIG. The medical imaging apparatus to be used in this embodiment, that is, the medical imaging apparatus to be used is a multi-slice CT, and the target organ and disease are a liver and a liver mass, respectively.

ステップS10では、読影知識を得るための症例が格納されたデータベースから症例を1つ取得する。ここで読影知識を得るための症例の総数をC個とする。1つの症例は、医用画像とその医用画像を読影した結果である読影レポートとの対で構成されている。医用画像がマルチスライスCT装置により取得された場合、1つの症例は多数枚のスライス画像を含むことになる。また、通常、マルチスライスCT画像を医師が読影する場合、重要なスライス画像1〜数枚を、キー画像として読影レポートに添付する。以後、多数枚のスライス画像集合、あるいは、数枚のキー画像を単に「医用画像」、「画像」と呼ぶこともある。   In step S10, one case is acquired from a database storing cases for obtaining interpretation knowledge. Here, the total number of cases for obtaining interpretation knowledge is C. One case is composed of a pair of a medical image and an interpretation report that is a result of interpretation of the medical image. When a medical image is acquired by a multi-slice CT apparatus, one case includes a large number of slice images. In general, when a doctor interprets a multi-slice CT image, one to several important slice images are attached to the interpretation report as key images. Hereinafter, a large number of slice image sets or several key images may be simply referred to as “medical images” or “images”.

ステップS11では、医用画像から画像特徴量を抽出する。ステップS11の処理を、図4のフローチャートを用いて詳細に説明する。   In step S11, an image feature amount is extracted from the medical image. The process of step S11 is demonstrated in detail using the flowchart of FIG.

ステップS111では、対象臓器の領域を抽出する。本実施の形態では肝臓領域を抽出する。肝臓領域抽出法として、例えば、非特許文献:「田中,清水,小畑,“異常部位の濃度パターンを考慮した肝臓領域抽出手法の改良<第二報>”,電子情報通信学会技術研究報告,医用画像,104(580),pp.7−12,2005年1月」等の手法を用いることができる。   In step S111, the region of the target organ is extracted. In the present embodiment, a liver region is extracted. Examples of liver region extraction methods include, for example, non-patent literature: “Tanaka, Shimizu, Obata,“ Improvement of liver region extraction method considering concentration pattern of abnormal part <second report> ”, IEICE Technical Report, Medical Image, 104 (580), pp. 7-12, January 2005 ”can be used.

ステップS112では、ステップS111で抽出された臓器領域から病変領域を抽出する。本実施の形態では肝臓領域から腫瘤領域を抽出する。肝腫瘤領域抽出法として、例えば、非特許文献:「中川、清水,一杉,小畑,“3次元腹部CT像からの肝腫瘤影の自動抽出手法の開発<第二報>”,医用画像,102(575),pp.89−94,2003年1月」等の手法を用いることができる。ここで、i番目の症例における画像から抽出した腫瘤の数をMとすると、腫瘤は(症例番号,腫瘤番号)の組(i,j)で特定できる。ここで、1≦i≦C,1≦j≦Mである。また本実施の形態では病変として肝腫瘤を対象としているため、“腫瘤番号”と呼んだが、本発明で共通の表現を用いて“病変番号”と呼ぶこともできる。 In step S112, a lesion area is extracted from the organ area extracted in step S111. In the present embodiment, a tumor region is extracted from the liver region. Non-patent literature: “Nakagawa, Shimizu, Hitosugi, Obata,“ Development of automatic extraction method of liver tumor shadow from 3D abdominal CT image <second report> ”, medical image, 102 (575), pp. 89-94, January 2003 ”can be used. Here, when the number of i-th mass extracted from the image in case the M i, tumor mass may be identified by (case number, mass number) pairs of (i, j). Here, a 1 ≦ i ≦ C, 1 ≦ j ≦ M i. In this embodiment, since a liver tumor is targeted as a lesion, it is called “tumor number”. However, it can also be called “lesion number” using a common expression in the present invention.

ステップS113では、ステップS112で抽出された病変領域のうち、1つの領域を選択する。   In step S113, one region is selected from the lesion regions extracted in step S112.

ステップS114では、ステップS113で選択された病変領域から画像特徴量を抽出する。本実施の形態では、画像特徴量として、非特許文献:「根本,清水,萩原,小畑,縄野,“多数の特徴量からの特徴選択による乳房X線像上の腫瘤影判別精度の改善と高速な特徴選択法の提案”,電子情報通信学会論文誌D−II,Vol.J88−D−II,No.2,pp.416−426,2005年2月」に記載された490種類の特徴量のうち、肝腫瘤にも適用可能な特徴量をいくつか選択して用いる。この特徴量数をN個とする。本ステップで抽出された特徴量は、(症例番号,この症例(医用画像)から抽出された腫瘤番号,特徴量番号)の組(i,j,k)で特定できる。ここで、1≦i≦C,1≦j≦M,1≦k≦Nである。 In step S114, an image feature amount is extracted from the lesion area selected in step S113. In the present embodiment, non-patent literature: “Nemoto, Shimizu, Sugawara, Obata, Nawano,“ Improved mass shadow discrimination accuracy on a mammogram by selecting features from a large number of features and high speed. 490 types of feature quantities described in "Proposal of a Feature Selection Method", IEICE Transactions D-II, Vol. J88-D-II, No. 2, pp. 416-426, February 2005 Among them, some feature quantities applicable to the liver mass are selected and used. The feature quantity number to the N F. The feature amount extracted in this step can be specified by a set (i, j, k) of (case number, tumor number extracted from this case (medical image), feature amount number). Here, a 1 ≦ i ≦ C, 1 ≦ j ≦ M i, 1 ≦ k ≦ N F.

ステップS115では、ステップS112で抽出された病変領域のうち未選択の病変があるかどうかをチェックし、未選択の病変がある場合は、ステップS113に戻り未選択の病変領域を選択した後、ステップS114を再実行する。未選択の病変がない場合、すなわち、ステップS112で抽出された全ての病変領域に対し、ステップS114の特徴量選択を行った場合は図4のフローチャートの処理を終了し、図3のフローチャートに戻る。   In step S115, it is checked whether or not there is an unselected lesion among the lesion areas extracted in step S112. If there is an unselected lesion, the process returns to step S113 to select an unselected lesion area. Re-execute S114. When there is no unselected lesion, that is, when the feature amount selection in step S114 is performed for all the lesion areas extracted in step S112, the process of the flowchart of FIG. 4 is terminated and the process returns to the flowchart of FIG. .

図3のステップS12では、読影レポートの解析処理を行う。具体的には読影レポートから読影項目および疾病名を抽出する。本実施の形態では読影項目が格納された読影項目単語辞書、および疾病名が格納された疾病名単語辞書を用いた、形態素解析および構文解析を行う。これらの処理により、各単語辞書に格納された単語と一致する単語を抽出する。形態素解析技術としては、例えば、MeCab(http://mecab.sourceforge.net)やChaSen(http://chasen−legacy.sourceforge.jp)等が、構文解析技術としては、KNP(http://nlp.kuee.kyoto−u.ac.jp/nl−resource/knp.html)、CaboCha(http://chasen.org/〜taku/software/cabocha/)等が存在する。読影レポートは医師により読影レポート独特の表現で記述されることが多いので、読影レポートに特化した形態素解析技術、構文解析技術、各単語辞書を開発することが望ましい。   In step S12 of FIG. 3, an interpretation report analysis process is performed. Specifically, an interpretation item and a disease name are extracted from the interpretation report. In this embodiment, morphological analysis and syntax analysis are performed using an interpretation item word dictionary storing interpretation items and a disease name word dictionary storing disease names. Through these processes, a word that matches the word stored in each word dictionary is extracted. Examples of morphological analysis techniques include MeCab (http://mecab.sourceforge.net) and ChaSen (http://chasen-legacy.sourceforge.jp), and syntactic analysis techniques include KNP (http: ///). nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html), CaboCha (http://chasen.org/˜take/software/caboca/), and the like. Interpretation reports are often described by doctors with expressions unique to interpretation reports, so it is desirable to develop morphological analysis technology, syntax analysis technology, and word dictionaries specialized for interpretation reports.

図5は腹部CT検査の読影レポートの例であり、図6は図5の読影レポートから抽出された読影項目および疾病名を示す。読影項目は通常複数個、疾病名は1個抽出される。i番目の症例における読影レポートから抽出した読影項目の数をNとすると、読影項目は(症例番号,読影項目番号)の組(i,j)で特定できる。ここで、1≦i≦C,1≦j≦Nである。 FIG. 5 is an example of an interpretation report of an abdominal CT examination, and FIG. 6 shows interpretation items and disease names extracted from the interpretation report of FIG. A plurality of interpretation items are usually extracted and one disease name is extracted. When i-th number of interpretation items extracted from the image interpretation report in case the N i, interpretation items can be identified by (case number, image interpretation item number) pairs of (i, j). Here, 1 ≦ i ≦ C and 1 ≦ j ≦ N i .

また、図6では、読影項目および疾病名の単語のみを抽出しているが、読影レポートにおける病変の位置を表す文字列、時相を表す文字列を同時に抽出してもよい。ここで、時相について補足する。肝臓の病変の鑑別には、造影剤を急速静注して経時的に撮像する造影検査が有用とされている。肝臓の造影検査では一般に、肝動脈に造影剤が流入し多血性の腫瘍が濃染する動脈相、腸管や脾臓に分布した造影剤が門脈から肝臓に流入し肝実質が最も造影される門脈相、肝の血管内外の造影剤が平衡に達する平衡相、肝の間質に造影剤が貯留する晩期相などにおいて、肝臓が撮像される。読影レポートには病変の臓器における位置や、造影検査であれば着目した時相の情報が記述されていることが多い。このため、読影項目だけでなく位置や時相の情報も合わせて抽出することで、後で説明する読影知識の抽出に有効となる。図7に、読影項目と同時に位置と時相の情報を抽出した例を示す。例えば、図5の読影レポートを解析し、「肝S3区域に早期濃染を認め」という文節から「早期濃染」の位置属性として「肝S3区域」が抽出される。同様に、「後期相でwashoutされており」という文節から「washout」の時相属性として「後期相」が抽出される。   In FIG. 6, only the interpretation item and the disease name word are extracted. However, a character string indicating the position of the lesion in the interpretation report and a character string indicating the time phase may be extracted at the same time. Here, the time phase will be supplemented. In order to distinguish liver lesions, a contrast examination in which a contrast medium is rapidly injected and images are taken over time is useful. In contrast examination of the liver, in general, the contrast medium flows into the hepatic artery and the bloody tumor is densely stained. The liver is imaged in the pulse phase, the equilibrium phase in which the contrast medium inside and outside the liver blood vessels reaches equilibrium, the late phase in which the contrast medium accumulates in the stroma of the liver, and the like. In many cases, the interpretation report describes the position of the lesion in the organ and the time phase information of interest in contrast imaging. For this reason, extracting not only the interpretation items but also the position and time phase information is effective in extracting interpretation knowledge to be described later. FIG. 7 shows an example in which position and time phase information is extracted simultaneously with the interpretation items. For example, the interpretation report of FIG. 5 is analyzed, and “liver S3 area” is extracted as a position attribute of “early dark staining” from the phrase “early dark staining is recognized in liver S3 area”. Similarly, “late phase” is extracted as the time phase attribute of “washout” from the phrase “washed out in late phase”.

図5の読影レポートを、単純に解釈すると、図7のように「早期濃染」に関する時相、washoutに関する位置の部分が空白になる。これに対し、読影項目「早期濃染」は早期相に対応した単語であるという事前知識を利用したり、「早期濃染」の状態を示す腫瘤と「後期相でwashout」される腫瘤が同一の腫瘤を指すという高度な文脈解釈を行ったりすることができれば、抽出される位置と時相の情報は図8のようになる。   If the interpretation report in FIG. 5 is simply interpreted, the time phase relating to “early dark dyeing” and the position relating to washout are blank as shown in FIG. On the other hand, the prior knowledge that the interpretation item “early dark staining” is a word corresponding to the early phase is used, or the mass indicating the state of “early dark staining” is the same as the mass “washed out in the late phase” If an advanced context interpretation of pointing to a tumor mass can be performed, the extracted position and time phase information is as shown in FIG.

ステップS13では、読影知識を得るための症例が格納されたデータベースにおいて未取得の症例があるかどうかをチェックし、未取得の症例がある場合は、ステップS10に戻り未取得の症例を取得した後、ステップS11およびS12を実行する。未取得の症例がない場合、すなわち、全ての症例に対し、ステップS11の画像特徴抽出およびステップS12のレポート解析を実施済の場合は、ステップS14に進む。   In step S13, it is checked whether or not there is an unacquired case in the database storing cases for obtaining interpretation knowledge. If there is an unacquired case, the process returns to step S10 and an unacquired case is acquired. Steps S11 and S12 are executed. If there are no unacquired cases, that is, if image feature extraction in step S11 and report analysis in step S12 have been performed for all cases, the process proceeds to step S14.

ステップS11とステップS12の結果は相互に依存しないため、実行順は逆でも構わない。   Since the results of step S11 and step S12 do not depend on each other, the execution order may be reversed.

ステップS14に到達した時点で、図9で表されるデータ一式が取得できたことになる。つまり、症例ごとに画像特徴量と読影項目と疾病名とが取得される。症例番号1の症例については、医用画像中にM1個の病変が含まれており、各病変から抽出される画像特徴量の個数はNF個である。また、読影レポート中の読影項目の数はN1個である。例えば、病変番号(1,1)で示される1つ目の病変のうち、1つ目の画像特徴量の値は0.851である。また、読影項目番号(1,1)で示される1つ目の読影項目の値は「早期濃染」である。図9の例では、各画像特徴量は0以上1以下の数値であり、読影項目および疾病名は文字列である。画像特徴量として負の値または1より大きな値をとるものを用いても良い。また、読影項目および疾病名として、予め定めた単語IDの形式にてデータを格納してもよい。   When the processing reaches step S14, the data set shown in FIG. 9 has been acquired. That is, an image feature amount, an interpretation item, and a disease name are acquired for each case. For the case of case number 1, M1 lesions are included in the medical image, and the number of image feature values extracted from each lesion is NF. The number of interpretation items in the interpretation report is N1. For example, the value of the first image feature value of the first lesion indicated by the lesion number (1, 1) is 0.851. In addition, the value of the first interpretation item indicated by the interpretation item number (1, 1) is “early dark dyeing”. In the example of FIG. 9, each image feature amount is a numerical value from 0 to 1, and the interpretation item and the disease name are character strings. An image feature value having a negative value or a value larger than 1 may be used. In addition, data may be stored in the form of a predetermined word ID as an interpretation item and a disease name.

ステップS14では、ステップS11で得られた画像特徴量、ステップS12で得られた読影項目および疾病名から、読影知識を抽出する。本実施の形態では、画像特徴量、読影項目、疾病名という三項のうちの二項の相関関係を、読影知識とする。   In step S14, interpretation knowledge is extracted from the image feature amount obtained in step S11, the interpretation item and disease name obtained in step S12. In this embodiment, the correlation between two of the three items of image feature, interpretation item, and disease name is taken as interpretation knowledge.

(1)(画像特徴量−読影項目)間の相関関係
一対の(画像特徴量−読影項目)間の相関関係の求め方について説明する。相関関係の表現形態は複数あるが、ここでは相関比を用いる。相関比は、質的データと量的データとの間の相関関係を表す指標であり、式1で表される。
(1) Correlation between (image feature value−interpretation item) A method of obtaining the correlation between a pair of (image feature value−interpretation item) will be described. Although there are a plurality of expression forms of the correlation, the correlation ratio is used here. The correlation ratio is an index representing the correlation between qualitative data and quantitative data, and is expressed by Equation 1.

読影レポート中に、ある読影項目を含む場合および含まない場合の2カテゴリを考え、これを質的データとする。医用画像から抽出した、ある画像特徴量の値そのものを量的データとする。例えば、読影知識を抽出するための症例データベースに含まれる全症例に対し、読影レポートを、ある読影項目を含むものまたは含まないものに区分する。ここでは、読影項目「早期濃染」と画像特徴量「早期相における腫瘤内部の輝度平均値」との相関比を求める方法について説明する。式1においては、カテゴリi=1を「早期濃染」を含むもの、カテゴリi=2を「早期濃染」を含まないものとする。読影レポートに「早期濃染」を含む症例から抽出した腫瘤画像の「早期相における腫瘤内部の輝度平均値」であるj番目の観測値をx1jとする。また、読影レポートに「早期濃染」を含まない症例から抽出した腫瘤画像の「早期相における腫瘤内部の輝度平均値」であるj番目の観測値をx2jとする。「早期濃染」とは造影早期相にてCT値が上昇することを表すため、この場合、相関比が大きく(1に近く)なることが予想される。また、早期濃染は腫瘤の種類に依存し、腫瘤の大きさには依存しないため、読影項目「早期濃染」と画像特徴量「腫瘤面積」との相関比は小さく(0に近く)なることが予想される。このようにして、全ての読影項目と全ての画像特徴量との間の相関比を計算する。 In the interpretation report, two categories of cases where an interpretation item is included and not included are considered as qualitative data. The value of a certain image feature amount itself extracted from the medical image is used as quantitative data. For example, for all cases included in the case database for extracting interpretation knowledge, the interpretation report is classified into those including or not including a certain interpretation item. Here, a method for obtaining the correlation ratio between the interpretation item “early dark staining” and the image feature amount “luminance average value inside the tumor in the early phase” will be described. In Equation 1, it is assumed that category i = 1 includes “early dark dyeing” and category i = 2 does not include “early dark dyeing”. The j-th observed value that is the “average luminance value in the tumor in the early phase” of the tumor image extracted from the case that includes “early dark staining” in the interpretation report is defined as x 1j . Further, the j-th observed value that is “the average luminance value in the tumor in the early phase” of the tumor image extracted from the case that does not include “early dark staining” in the interpretation report is assumed to be x 2j . “Early dark staining” means that the CT value increases in the early phase of contrast, and in this case, the correlation ratio is expected to be large (close to 1). Further, since early dark staining depends on the type of tumor and not on the size of the tumor, the correlation between the interpretation item “early dark staining” and the image feature “mass area” is small (close to 0). It is expected that. In this way, the correlation ratio between all interpretation items and all image feature amounts is calculated.

図10に、読影項目と画像特徴量との間の相関関係(ここでは、相関比)の概念図を示す。左側には複数の読影項目、右側には複数の画像特徴量の名称が列挙されている。そして、相関比が閾値以上の読影項目と画像特徴量の間が実線で結ばれている。相関比は0以上1以下の値をとるため、閾値として0.3〜0.7程度の値を用いることができる。計算した相関比を最終的に閾値で二値化すると、図10のような情報が求められることになる。その一例について補足する。肝腫瘤の造影CT検査においては、殆どの腫瘤は造影剤使用前のCT画像(単純、単純CT、単純相などと呼ぶ)で低濃度に描出され、多くの場合、読影レポートに「低濃度」、「LDA(Low Density Area)あり」などと記述される。そのため、「低輝度」や「LDA」といった読影項目と、造影剤使用前のCT画像における腫瘤内部の輝度平均(図10では「単純相 輝度平均」と略記載)との相関が大きくなる。   FIG. 10 shows a conceptual diagram of the correlation (here, the correlation ratio) between the interpretation item and the image feature amount. A plurality of interpretation items are listed on the left side, and names of a plurality of image feature amounts are listed on the right side. An interpretation item having a correlation ratio equal to or greater than a threshold and an image feature amount are connected by a solid line. Since the correlation ratio takes a value of 0 or more and 1 or less, a value of about 0.3 to 0.7 can be used as the threshold value. When the calculated correlation ratio is finally binarized with a threshold value, information as shown in FIG. 10 is obtained. One example is supplemented. In contrast-enhanced CT examinations of liver masses, most masses are rendered at low density on CT images (called simple, simple CT, simple phase, etc.) before the use of contrast agents, and in many cases “low density” is used in the interpretation report. , “With LDA (Low Density Area)”. Therefore, the correlation between the interpretation items such as “low luminance” and “LDA” and the luminance average inside the tumor in the CT image before using the contrast agent (abbreviated as “simple phase luminance average” in FIG. 10) increases.

また、図11に、読影項目と画像特徴量との間の相関関係(例えば、相関比)の別の概念図を示す。この図では、相関比を多値表現しており、読影項目と画像特徴量の間の実線の太さが相関比の大きさに相当している。例えば、造影早期相にてCT値が上昇する「早期濃染」と、早期動脈相(早期相、動脈相とも略される)における腫瘤内部の輝度平均(図11では「動脈相 輝度平均」と略記載)との相関が大きくなっている。   FIG. 11 shows another conceptual diagram of the correlation (for example, correlation ratio) between the interpretation item and the image feature amount. In this figure, the correlation ratio is expressed in multiple values, and the thickness of the solid line between the interpretation item and the image feature amount corresponds to the magnitude of the correlation ratio. For example, “early dark staining” in which the CT value increases in the early phase of contrast and luminance average inside the tumor in the early arterial phase (abbreviated as early phase or arterial phase) (“arterial phase luminance average” in FIG. 11) (Abbreviation) is increased.

相関比の値に着目することで、ある読影項目と相関の高い画像特徴量を特定することができる。実際には1つの症例には、複数の画像や複数の病変(腫瘤)を含む場合が多く、その場合は読影レポートには複数の病変に関する記載が含まれることになる。例えば、造影CT検査では、造影剤使用前や使用後の複数時刻におけるタイミングでCT撮影を行う。そのため、スライス画像の集合が複数得られ、スライス画像の1つの集合には複数の病変(腫瘤)が含まれ、1つの病変からは複数の画像特徴量が抽出される。そのため、(スライス画像集合数)×(1人の患者から検出された病変数)×(画像特徴量の種類数)の個数だけ画像特徴量が得られ、これら複数の画像特徴量と、1つの読影レポートから抽出された複数の読影項目や疾病名との相関関係を求める必要がある。もちろん大量の症例を用いることにより、対応が正しく得られる可能性があるが、図8のように病変位置と時相を用いる等して、読影レポートの記載と、対応する画像特徴量とをある程度事前に対応づけることができれば、より正確に相関関係を求めることができる。   By paying attention to the value of the correlation ratio, it is possible to specify an image feature amount having a high correlation with a certain interpretation item. Actually, one case often includes a plurality of images and a plurality of lesions (mass), and in that case, the interpretation report includes descriptions about the plurality of lesions. For example, in contrast CT examination, CT imaging is performed at a timing at a plurality of times before or after using a contrast medium. Therefore, a plurality of sets of slice images are obtained, and one set of slice images includes a plurality of lesions (tumors), and a plurality of image feature amounts are extracted from one lesion. Therefore, image feature amounts are obtained as many as (number of slice image sets) × (number of lesions detected from one patient) × (number of types of image feature amounts). It is necessary to obtain a correlation with a plurality of interpretation items and disease names extracted from the interpretation report. Of course, there is a possibility that correspondence can be obtained correctly by using a large number of cases. However, the description of the interpretation report and the corresponding image feature amount are used to some extent by using the lesion position and time phase as shown in FIG. If the correspondence can be made in advance, the correlation can be obtained more accurately.

先の説明では、質的データが、ある読影項目を含むものおよび含まないものの2カテゴリである場合について説明したが、ある読影項目(例えば、「境界明瞭」)と、その対義語となる読影項目(例えば、「境界不明瞭」)との2カテゴリであってもよい。また、読影項目が「低濃度」、「中濃度」、「高濃度」などの序数尺度の場合は、それらの各々をカテゴリとして(この例では3カテゴリ)、相関比を計算してもよい。   In the above description, the case where the qualitative data is in two categories, including and not including a certain interpretation item, has been described. However, a certain interpretation item (for example, “clear border”) and its interpretation item ( For example, there may be two categories such as “unclear boundary”). When the interpretation items are ordinal scales such as “low density”, “medium density”, and “high density”, the correlation ratio may be calculated using each of them as a category (three categories in this example).

また、「低濃度」、「低輝度」、「低吸収」などの同義語については、予め同義語辞書を作成しておき、それらを同一の読影項目として扱う。   For synonyms such as “low density”, “low luminance”, and “low absorption”, a synonym dictionary is created in advance, and these are treated as the same interpretation item.

(2)(画像特徴量−疾病名)間の相関関係
一対の(画像特徴量−疾病名)間の相関関係については、(画像特徴量−読影項目)間の場合と同じく相関比を用いることができる。図12に、疾病名と画像特徴量との間の相関関係(例えば、相関比)の概念図を示す。この図では図10と同じく相関関係を二値表現しているが、もちろん図11のような多値表現を行うことも可能である。
(2) Correlation between (image feature amount-disease name) As for the correlation between a pair of (image feature amount-disease name), the correlation ratio is used as in the case of (image feature amount-interpretation item). Can do. FIG. 12 shows a conceptual diagram of a correlation (for example, correlation ratio) between a disease name and an image feature amount. In this figure, the correlation is expressed in binary as in FIG. 10. Of course, multi-value expression as shown in FIG. 11 can also be performed.

(3)(読影項目−疾病名)間の相関関係
一対の(読影項目−疾病名)間の相関関係の求め方について説明する。相関関係の表現形態は複数あるが、ここでは支持度を用いる。支持度は、質的データ間の相関ルールを表す指標であり、式2で表される。
(3) Correlation between (interpretation item-disease name) How to obtain the correlation between a pair of (interpretation item-disease name) will be described. Although there are a plurality of expression forms of the correlation, the support level is used here. The degree of support is an index representing a correlation rule between qualitative data, and is expressed by Formula 2.

この支持度は、全症例において読影項目Xと疾病名Yとが同時に出現する確率(共起確率)を意味する。支持度を用いることで、関連性(相関性)の強い読影項目と疾病名との組合せを特定することができる。   This degree of support means the probability (co-occurrence probability) that the interpretation item X and the disease name Y appear simultaneously in all cases. By using the support level, it is possible to specify a combination of an interpretation item having a strong relationship (correlation) and a disease name.

なお、支持度の代わりに、式3で示される確信度や、式4で示されるリフト値を用いても良い。   In addition, you may use the reliability shown by Formula 3, and the lift value shown by Formula 4 instead of a support degree.

確信度とは、条件部X(読影項目X)のアイテムの出現を条件としたときの結論部Y(疾病名Y)のアイテムが出現する確率である。リフト値とは、X(読影項目X)の出現を条件としないときのY(疾病名Y)の出現確率に対して、X(読影項目X)の出現を条件としたときのY(疾病名Y)の出現確率がどの程度上昇したかを示す指標である。その他、conviction,φ係数を用いても良い。conviction,φ係数については相関ルール分析に関する文献(例えば、非特許文献:「データマイニングとその応用」、加藤/羽室/矢田 共著、朝倉書店)に記載されている。   The certainty factor is the probability that an item in the conclusion part Y (disease name Y) will appear when the condition item X (interpretation item X) appears as a condition. The lift value is Y (disease name) when the appearance of X (interpretation item X) is a condition relative to the appearance probability of Y (disease name Y) when the appearance of X (interpretation item X) is not a condition. This is an index indicating how much the appearance probability of Y) has increased. In addition, a connection and a φ coefficient may be used. The connection and φ coefficient are described in documents relating to association rule analysis (for example, non-patent document: “Data Mining and its Application”, Kato / Hamuro / Yada Co-author, Asakura Shoten).

図13に、読影項目と疾病名との間の相関関係(例えば、支持度)の概念図を示す。この図では図10と同じく相関関係を二値表現しているが、もちろん図11のような多値表現を行うことも可能である。   FIG. 13 shows a conceptual diagram of a correlation (for example, support level) between an interpretation item and a disease name. In this figure, the correlation is expressed in binary as in FIG. 10. Of course, multi-value expression as shown in FIG. 11 can also be performed.

以上の方法にて、ステップS14の処理を行うと、図14、図15、図16のような、(画像特徴量−読影項目)間の相関関係、(画像特徴量−疾病名)間の相関関係、(読影項目−疾病名)間の相関関係が、それぞれ得られる。相関比は0以上1以下の値をとる。支持度は0以上の値をとる。また、得られた相関関係は、図14、図15、図16の形式にて読影知識データベース110に格納される。   When the process of step S14 is performed by the above method, the correlation between (image feature amount-interpretation item) and the correlation between (image feature amount-disease name) as shown in FIGS. A correlation between the relationship and (interpretation item-disease name) is obtained. The correlation ratio takes a value between 0 and 1. The degree of support takes a value of 0 or more. The obtained correlation is stored in the interpretation knowledge database 110 in the format of FIGS.

<読影知識データベースの事前追加>
次に、本発明の中心となる読影知識の追加方法について詳細を説明する。図2の読影知識作成時と同じく、本実施の形態で対象とする医用画像撮影装置はマルチスライスCTとし、対象臓器および疾病は、それぞれ肝臓および肝腫瘤とする。
<Addition of interpretation knowledge database in advance>
Next, a method for adding interpretation knowledge, which is the center of the present invention, will be described in detail. As in the case of creating the interpretation knowledge in FIG. 2, the medical imaging apparatus targeted in this embodiment is a multi-slice CT, and the target organ and the disease are the liver and liver tumor, respectively.

前述のように、本実施の形態では、画像特徴量、読影項目および疾病名から、読影知識として相関関係を抽出する。このとき、ひとつのテキストに対して、複数種類の画像パターンが存在する場合がある。このため、テキスト特徴量と画像特徴量との間の相関関係が正しく求まらず、読影者の着目点を類似画像検索に反映させられない状況が想定される。この課題の例として、肝細胞がんの画像パターンについて、図17、図18を用いて、詳細に説明する。   As described above, in the present embodiment, a correlation is extracted as interpretation knowledge from the image feature amount, interpretation item, and disease name. At this time, a plurality of types of image patterns may exist for one text. For this reason, a situation is assumed in which the correlation between the text feature quantity and the image feature quantity cannot be obtained correctly, and the focus point of the interpreter cannot be reflected in the similar image search. As an example of this problem, an image pattern of hepatocellular carcinoma will be described in detail with reference to FIGS.

肝細胞がんの病変領域の画像には、図17(a)に示すような腫瘤内の血流が多い多血性肝細胞がんのように造影動脈相にて強く造影される(CT値が上昇する)画像パターン(画像パターン1)と、図17(b)に示すような腫瘤内の血流が少ない乏血性肝細胞がんのように造影動脈相にて強く造影されない(CT値が上昇しない)画像パターン(画像パターン2)とが存在する。図18は、テキスト特徴量(疾病名「肝細胞がん」)の有無による画像特徴量「早期相における腫瘤内部の輝度平均値」の分布の違いを示す概念図である。実線がテキスト特徴量(疾病名「肝細胞がん」)がある場合の画像特徴量「早期相における腫瘤内部の輝度平均値」の分布を示し、破線がテキスト特徴量(疾病名「肝細胞がん」)がない場合の画像特徴量「早期相における腫瘤内部の輝度平均値」の分布を示す。ここで、疾病名「肝細胞がん」の画像パターンが画像パターン1のみであれば、読影レポートに「肝細胞がん」と記載されている症例においては、画像特徴慮野分布は、画像特徴量「早期相における腫瘤内部の輝度平均値」が高い、図18(a)のような偏りのある分布になる。しかしながら、実際には読影レポートに「肝細胞がん」と記載されている症例の画像パターンには、画像パターン1および2の両方が存在する。このため、読影レポートに「肝細胞がん」と記載されている症例には画像パターン2のような画像特徴量「早期相における腫瘤内部の輝度平均値」が低い症例も含まれる。このため、画像特徴量の分布は、図18(b)のような偏りの少ない分布になる。このように、あるテキスト特徴量に対して複数の画像パターンが存在すると、複数の分布が混合された状態で相関関係(例えば相関比)が抽出される。そのため、テキスト特徴量と画像特徴量の間で相関関係の値が低下し、本当は重視したい画像特徴量が検索時に重視されなくなる。この結果、読影者の着目点を類似画像検索に反映させられない問題が発生する。   The image of the lesion area of the hepatocellular carcinoma is strongly imaged in the contrast artery phase (CT value) as in the case of multi-hepatic hepatocellular carcinoma with a large blood flow in the tumor as shown in FIG. Ascending image pattern (image pattern 1) and not strongly contrasted in contrast-enhanced arterial phase like an ischemic hepatocellular carcinoma with little blood flow in the tumor as shown in FIG. No) image pattern (image pattern 2) exists. FIG. 18 is a conceptual diagram showing a difference in distribution of the image feature amount “average luminance value in the tumor in the early phase” depending on the presence or absence of the text feature amount (disease name “hepatocellular carcinoma”). The solid line shows the distribution of the image feature “average brightness within the tumor in the early phase” when there is a text feature (disease name “hepatocellular carcinoma”), and the broken line shows the text feature (disease name “hepatocyte The distribution of the image feature quantity “luminance average value inside the tumor in the early phase” in the absence of “)” is shown. Here, if the image pattern of the disease name “hepatocellular carcinoma” is only image pattern 1, in the case of “hepatocellular carcinoma” described in the interpretation report, the image feature consideration distribution is the image feature. The distribution is a biased distribution as shown in FIG. 18A with a high quantity “average luminance value inside the tumor in the early phase”. However, there are actually both image patterns 1 and 2 in the image pattern of the case described as “hepatocellular carcinoma” in the interpretation report. For this reason, the case described as “hepatocellular carcinoma” in the interpretation report includes a case where the image feature amount “luminance average value in the tumor in the early phase” is low as in the image pattern 2. For this reason, the distribution of the image feature amount is a distribution with little bias as shown in FIG. As described above, when a plurality of image patterns exist for a certain text feature amount, a correlation (for example, a correlation ratio) is extracted in a state where a plurality of distributions are mixed. For this reason, the value of the correlation between the text feature quantity and the image feature quantity decreases, and the image feature quantity that the user really wants to emphasize is not emphasized during the search. As a result, there arises a problem that the point of interest of the image interpreter cannot be reflected in the similar image search.

このような課題に対して、本願発明者らは、(画像特徴量−読影項目)間の相関関係と、疾病名、読影項目および画像特徴量の三項間の相対関係に着目した。ここで、医用画像と読影レポートの組から読影知識である(画像特徴量−読影項目)間の相関関係、(画像特徴量−疾病名)間の相関関係、(読影項目−疾病名)間の相関関係はそれぞれ計算済みであるとする。   In order to deal with such a problem, the inventors of the present application focused on the correlation between (image feature amount−interpretation item) and the relative relationship between the three terms of disease name, interpretation item, and image feature amount. Here, the correlation between (image feature amount−interpretation item), the correlation between (image feature amount−disease name), and (interpretation item−disease name), which are interpretation knowledge from the set of medical image and interpretation report Assume that each correlation has been calculated.

本願発明者らは、医用画像と医師が記入する読影レポートの関係を分析した結果、読影項目は画像内容を直接反映したものが多いことに着目した。例えば、医師によって医用画像に対する記入内容に違いはあるものの、図17(a)に対しては、読影レポートにはCT値が高いことを示す「早期濃染」や模様がないことを示す「均一」と記入され、CT値が低いことを示す「LDA(Low Density Area)」や模様があることを示す「不均一」とは記入されない。一方、図17(b)に対しては、読影レポートに「LDA」、「不均一」と記入され、「早期濃染」とは記入されない。   As a result of analyzing the relationship between a medical image and an interpretation report written by a doctor, the inventors of the present application have noticed that many interpretation items directly reflect image contents. For example, although there are differences in the contents entered in the medical image depending on the doctor, with respect to FIG. 17A, the interpretation report shows “early dark staining” indicating that the CT value is high and “uniform” indicating no pattern. ”Is entered, and“ LDA (Low Density Area) ”indicating that the CT value is low and“ unevenness ”indicating that there is a pattern are not entered. On the other hand, for FIG. 17B, “LDA” and “unevenness” are entered in the interpretation report, and “early dark dyeing” is not entered.

また、本願発明者らは、(画像特徴量−読影項目)間の相関関係、(画像特徴量−疾病名)間の相関関係、(読影項目−疾病名)間の相関関係を分析した。この結果、疾病名に対応する画像パターンが1つのみである場合には、全ての二項間関係の値が大きくなる三項が存在し、一方、疾病名に対して複数種類の画像パターンが存在する場合には、図19に示すように、対応する全ての二項間関係(三項間関係)のうち、(画像特徴量−疾病名)間の相関関係のみ低くなる点に着目した。この原因としては、以下が考えられる。つまり、ひとつの疾病名に対して病状がひとつだけ(画像パターンがひとつ)の場合には、画像特徴量の分布が、図18(a)のように偏りのある分布になるため(画像特徴量−疾病名)間の相関が高くなる。これに対して、ひとつの疾病名に対して複数の病状(画像パターン)が存在する場合には、画像特徴量の分布が、図18(b)のように偏りの少ない分布になるため(画像特徴量−疾病名)間の相関が低くなる。一方で、読影項目は画像内容を直接反映したものが多いため(画像特徴量−読影項目)間の相関が高く、同様に疾病名は読影項目の総合値であるため(読影項目−疾病名)間の相関も高くなるためであると考えられる。   The inventors of the present application analyzed the correlation between (image feature amount−interpretation item), the correlation between (image feature amount−disease name), and the correlation between (interpretation item−disease name). As a result, when there is only one image pattern corresponding to the disease name, there are three terms in which the values of all binary relationships are large, while there are multiple types of image patterns for the disease name. In the case where it exists, as shown in FIG. 19, attention is focused on the fact that only the correlation between (image feature amount−disease name) is reduced among all corresponding binary relationships (ternary relationships). Possible causes are as follows. That is, when there is only one disease state for one disease name (one image pattern), the distribution of image feature amounts is a biased distribution as shown in FIG. -Correlation between disease names increases. On the other hand, when there are a plurality of medical conditions (image patterns) for one disease name, the distribution of the image feature amount is a distribution with little bias as shown in FIG. Correlation between feature amount-disease name) becomes low. On the other hand, many of the interpretation items directly reflect the image contents (image feature amount−interpretation item) and the disease name is the total value of the interpretation item (interpretation item−disease name). This is probably because the correlation between the two becomes high.

このように、ひとつの疾病名に対して複数の病状(画像パターン)が存在する場合の三項間関係においては、(画像特徴量−疾病名)間の相関関係よりも、(画像特徴量−読影項目)間の相関関係と(読影項目−疾病名)間の相関関係の方が、対応関係が明確であり、その相関関係の値も信頼性が高いと考えられる。   Thus, in the relationship between the three terms when there are a plurality of medical conditions (image patterns) for one disease name, the (image feature value− The correlation between (interpretation item) and the correlation between (interpretation item-disease name) have a clearer correspondence and the value of the correlation is considered to be more reliable.

これらのことから、疾病名に対して複数の画像パターンが存在する場合に(画像特徴量−疾病名)間の相関関係の値が低下し、本当は重視したい画像特徴量が検索時に重視されなくなる課題に対して、(画像特徴量−読影項目)間の相関関係と(読影項目−疾病名)間の相関関係を使用することで、読影項目を介して(画像特徴量−疾病名)間の相関関係を抽出できることを見出した。   For these reasons, when there are a plurality of image patterns for a disease name, the value of the correlation between (image feature value−disease name) decreases, and the image feature value that is really important is no longer considered important during the search. On the other hand, by using the correlation between (image feature value−interpretation item) and the correlation between (interpretation item−disease name), the correlation between (image feature amount−disease name) via the interpretation item We found that we can extract relationships.

図20を用いて説明すると、例えば、複数の画像パターンが存在する疾病名「肝細胞がん」に対して(画像特徴量−疾病名)間の相関関係を抽出したい場合に、(読影項目−疾病名)間の相関関係が高い「早期濃染」、「LDA」、「均一」、「不均一」を介して、(画像特徴量−読影項目)間の相関関係を抽出することで「肝細胞がん」と相関の高い画像特徴量を正しく抽出することができると考えられる。このうち、実線で示した相関関係が、ある1つの画像パターンの相関関係を示し、破線で示した相関関係が、他の1つの画像パターンの相関関係を示している。   Referring to FIG. 20, for example, when it is desired to extract a correlation between (image feature amount−disease name) for a disease name “hepatocellular carcinoma” having a plurality of image patterns, (interpretation item− By extracting the correlation between (image feature amount-interpretation item) through “early dark staining”, “LDA”, “uniform”, “non-uniform”, which has a high correlation between (name of disease) It is considered that the image feature amount highly correlated with “cell cancer” can be extracted correctly. Among these, the correlation indicated by the solid line indicates the correlation of one image pattern, and the correlation indicated by the broken line indicates the correlation of the other one image pattern.

以下、この着想に基づき構成した読影知識追加手順の詳細について、図2の読影知識抽出装置を参照して説明する。本実施の形態では、事前に獲得した読影知識の値(各二項間関係の相関関係)を参照し、後述の条件を満たさない場合には、読影知識データベース110に読影知識を追加登録する。   Hereinafter, the details of the interpretation knowledge adding procedure configured based on this idea will be described with reference to the interpretation knowledge extracting apparatus of FIG. In this embodiment, the interpretation knowledge value acquired in advance (correlation between the relations between the two terms) is referred to, and if the conditions described later are not satisfied, the interpretation knowledge is additionally registered in the interpretation knowledge database 110.

図2において、読影知識抽出部210、読影知識判定部220、読影項目抽出部230は読影知識の抽出および読影知識の追加のための処理部である。   In FIG. 2, an interpretation knowledge extraction unit 210, an interpretation knowledge determination unit 220, and an interpretation item extraction unit 230 are processing units for extracting interpretation knowledge and adding interpretation knowledge.

読影知識抽出部210は、症例データベース100に格納された複数の症例を解析し、解析の結果得られた読影知識を読影知識データベース110に格納する。   The interpretation knowledge extraction unit 210 analyzes a plurality of cases stored in the case database 100 and stores the interpretation knowledge obtained as a result of the analysis in the interpretation knowledge database 110.

読影知識判定部220は、読影知識データベース110に格納された読影知識を読み込み、読影知識の中で、新たな読影知識を追加する対象(疾病名)を決定する。   The interpretation knowledge determination unit 220 reads interpretation knowledge stored in the interpretation knowledge database 110, and determines a target (disease name) to which new interpretation knowledge is added in the interpretation knowledge.

読影項目抽出部230は、読影知識を追加する対象(疾病名)について相関関係を解析し、読影知識の追加に使用する読影項目の組を抽出する。   The interpretation item extraction unit 230 analyzes the correlation with respect to the subject (disease name) to which interpretation knowledge is added, and extracts a set of interpretation items used for the addition of interpretation knowledge.

読影知識追加時には、読影知識抽出部210は、読影項目抽出部230で抽出された読影項目の組を用いて複数の症例を解析することにより、新たな読影知識を獲得し、読影知識データベース110に格納する。   At the time of adding interpretation knowledge, the interpretation knowledge extracting unit 210 acquires new interpretation knowledge by analyzing a plurality of cases using the set of interpretation items extracted by the interpretation item extracting unit 230, and stores it in the interpretation knowledge database 110. Store.

以下、図21のフローチャートを用いて読影知識追加の手順を説明する。   Hereinafter, the procedure for adding interpretation knowledge will be described with reference to the flowchart of FIG.

ステップS30において、読影知識判定部220は、読影知識データベース110に格納された読影知識を1つ取得する。   In step S30, the interpretation knowledge determination unit 220 acquires one interpretation knowledge stored in the interpretation knowledge database 110.

例えば、読影知識が(画像特徴量−疾病名)間の相関関係(図15参照)である場合、ステップS30で取得される読影知識は、図15の表の1行分(相関関係の数値(以下、相関値という。)NIF個)である。 For example, when the interpretation knowledge is a correlation (see FIG. 15) between (image feature amount−disease name), the interpretation knowledge acquired in step S30 is the one row of the table of FIG. Hereinafter referred to as correlation values) NIF ).

ステップS31において、読影知識判定部220は、ステップS30で取得した読影知識に加えて、読影知識データベース110に新たな読影知識を追加するか否かを判定する。このとき、読影知識判定部220は、三項間の相対関係において、(画像特徴量−読影項目)間の相関と、(読影項目−疾病名)間の相関が大きく、(画像特徴量−疾病名)間の相関が小さくなる組合せが存在するか否かを判定することで、新たな読影知識を追加するか否かを決定する。   In step S31, the interpretation knowledge determination unit 220 determines whether or not to add new interpretation knowledge to the interpretation knowledge database 110 in addition to the interpretation knowledge acquired in step S30. At this time, the interpretation knowledge determination unit 220 has a large correlation between (image feature amount−interpretation item) and correlation between (interpretation item−disease name) in the relative relationship between the three terms, and (image feature amount−disease). It is determined whether or not new interpretation knowledge is to be added by determining whether or not there is a combination that decreases the correlation between the names.

ステップS31の処理を、図22のフローチャートを用いて詳細に説明する。   The process of step S31 will be described in detail using the flowchart of FIG.

ステップS310において、読影知識判定部220は、ステップS30で取得した読影知識が(画像特徴量−疾病名)間の相関関係か否かを判定する。ステップS30で取得した読影知識が(画像特徴量−疾病名)間の相関関係である場合には、ステップS311へ進み、そうでない場合には、ステップS316に進む。   In step S310, the interpretation knowledge determination unit 220 determines whether or not the interpretation knowledge acquired in step S30 is a correlation between (image feature amount−disease name). If the interpretation knowledge acquired in step S30 is a correlation between (image feature amount−disease name), the process proceeds to step S311. Otherwise, the process proceeds to step S316.

ステップS311において、読影知識判定部220は、ステップS30で取得した読影知識の疾病名に対応する(読影項目−疾病名)間の相関関係を読影知識データベース110から読み込む。つまり、読影知識判定部220は、ステップS30で取得した読影知識の疾病名と同じ疾病名についての(読影項目−疾病名)間の相関関係を読影知識データベース110から読み込む。   In step S311, the interpretation knowledge determination unit 220 reads from the interpretation knowledge database 110 the correlation between (interpretation item−disease name) corresponding to the disease name of the interpretation knowledge acquired in step S30. In other words, the interpretation knowledge determination unit 220 reads from the interpretation knowledge database 110 the correlation between (interpretation item−disease name) for the same disease name as that of the interpretation knowledge acquired in step S30.

ステップS312において、読影知識判定部220は、ステップS311で取得した(読影項目−疾病名)間の相関関係において、相関値が相関値閾値以上の読影項目を抽出する。   In step S312, the interpretation knowledge determination unit 220 extracts an interpretation item having a correlation value equal to or greater than a correlation value threshold in the correlation between (interpretation item−disease name) acquired in step S311.

ステップS313において、読影知識判定部220は、ステップS312で抽出した(読影項目−疾病名)間の相関値が相関値閾値以上の読影項目に関して、(読影項目−画像特徴量)間の相関関係を読み込む。つまり、読影知識判定部220は、ステップS312で抽出した(読影項目−疾病名)間の相関値が相関値閾値以上の読影項目と同じ読影項目についての(読影項目−画像特徴量)間の相関関係を読み込む。   In step S313, the interpretation knowledge determination unit 220 calculates the correlation between (interpretation item-image feature amount) regarding the interpretation item whose correlation value between (interpretation item-disease name) extracted in step S312 is equal to or greater than the correlation value threshold. Read. That is, the interpretation knowledge determining unit 220 correlates between (interpretation item-image feature amount) for the same interpretation item as the interpretation item whose correlation value between (interpretation item-disease name) extracted in step S312 is equal to or greater than the correlation value threshold. Read relationship.

ステップS314において、読影知識判定部220は、(a)ステップS30で取得した(画像特徴量−疾病名)間の相関関係が示す相関値と、(b)S311で読み込んだ(読影項目−疾病名)間の相関関係およびS313で読み込んだ(読影項目−画像特徴量)間の相関関係を介した(画像特徴量−疾病名)間の相関関係が示す相関値の差分値を計算する。   In step S314, the interpretation knowledge determination unit 220 (a) the correlation value indicated by the correlation between (image feature amount−disease name) acquired in step S30, and (b) (interpretation item−disease name) read in S311. ) And the correlation value indicated by the correlation between (image feature amount−disease name) via the correlation between (interpretation item−image feature amount) read in S313 is calculated.

ここで、(読影項目−疾病名)間の相関値をwx,j、(読影項目−画像特徴量)間の相関値をwa,i、(画像特徴量−疾病名)間の相関値をwと表す。また、iは画像特徴量の種類を表す添字、jはステップS312抽出された読影項目の種類を表す添字、NはステップS312抽出された読影項目の個数である。これらの相関関係を用いて差分値dを式5のように計算する。 Here, the correlation value between (interpretation item-disease name) is w x, j, the correlation value between (interpretation item-image feature amount) is w a, i , and the correlation value between (image feature amount-disease name). Is represented as w i . Further, i is a number of interpretation item index, the N x, which is step S312 extracts indicating the type of interpretation item index, j is which is step S312 extracts representing the type of image feature amount. Calculating a difference value d w as equation 5 using these correlations.

例えば、疾病名が「肝細胞がん」の場合について考えると、ステップS311で(画像特徴量−疾病名)間の相関関係を取得し、取得した相関関係が示す相関値をwとする。ここで、ステップS312で抽出された読影項目が「早期濃染」、「LDA」、「不均一」であった場合には、読影知識判定部220は、読影知識データベース110に図16の形式で格納された(読影項目−疾病名)間の相関関係テーブルを参照し、(早期濃染−肝細胞がん)間の相関値、(LDA−肝細胞がん)間の相関値、(不均一−肝細胞がん)間の相関値を取得し、wx,jとする。一方で、読影知識判定部220は、(早期濃染−画像特徴量)間の相関値(例えば、(早期濃染−輝度平均値)間の相関値など)を取得し、wa,iとする。このような三項間関係を用いて、式5により差分値dを計算すればよい。 For example, considering the case where the disease name is “hepatocellular carcinoma”, the correlation between (image feature amount−disease name) is acquired in step S311, and the correlation value indicated by the acquired correlation is denoted by w i . Here, if the interpretation items extracted in step S312 are “early dark staining”, “LDA”, and “unevenness”, the interpretation knowledge determination unit 220 stores the interpretation knowledge database 110 in the format shown in FIG. By referring to the stored correlation table between (interpretation item-disease name), correlation value between (early dark staining-hepatocellular carcinoma), correlation value between (LDA-hepatocellular carcinoma), (non-uniformity) -Correlation value between (hepatocellular carcinoma) is obtained and set as w x, j . On the other hand, the interpretation knowledge determination unit 220 acquires a correlation value (for example, a correlation value between (early dark staining-luminance average value)) between (early dark staining-image feature amount), and wa , i To do. Using such a ternary relationship, the difference value d w may be calculated by Equation 5.

ステップS315において、読影知識判定部220は、ステップS314で計算した差分値dが差分閾値より大きいか否かを判定する。 In step S315, the image interpretation knowledge determination unit 220 determines whether the difference value d w calculated in step S314 is larger than the difference threshold.

ステップS314で計算した差分値dが差分閾値より大きい場合には、ステップS318へ進み、差分値dが差分閾値以下場合には、ステップS317に進む。 If the calculated difference value d w is greater than the difference threshold in step S314, the process proceeds to step S318, if the difference value d w is less difference threshold, the process proceeds to step S317.

ステップS316において、読影知識判定部220は、ステップS310での判定結果に従い、読影知識を追加しないと決定する。このとき、ステップS316において疾病名以外の読影知識が読み込まれているため、読影知識の追加に関する情報(以下では「追加情報」と記載)に0を付加し、ステップS31の分岐においては「No」に進む。   In step S316, the interpretation knowledge determination unit 220 determines not to add interpretation knowledge according to the determination result in step S310. At this time, since interpretation knowledge other than the disease name is read in step S316, 0 is added to the information related to the addition of interpretation knowledge (hereinafter referred to as “additional information”), and “No” in the branch of step S31. Proceed to

ステップS317において、読影知識判定部220は、ステップS315での判定結果に従い、読影知識を追加しないと決定する。つまり、ステップS315での判定結果は、ステップS30で取得した(画像特徴量−疾病名)間の相関関係と、(読影項目−疾病名)間の相関関係および(読影項目−画像特徴量)間の相関関係を介した(画像特徴量−疾病名)間の相関関係との間に相違が見られないことを示している。このため、着目している疾病名に対する画像パターンは1種類しか存在しないと判断し、読影知識を追加しないと決定する。このとき、読影知識の追加情報に0を付加し、ステップS31の分岐においては「No」に進む。本実施の形態において、読影知識を追加する場合には、追加情報に1、追加しない場合には追加情報に0を付与する。   In step S317, the interpretation knowledge determination unit 220 determines not to add interpretation knowledge in accordance with the determination result in step S315. That is, the determination result in step S315 is the correlation between (image feature amount−disease name) acquired in step S30, the correlation between (interpretation item−disease name), and (interpretation item−image feature amount). It is shown that there is no difference between the correlation between (image feature amount−disease name) via the correlation. For this reason, it is determined that there is only one type of image pattern for the disease name of interest, and it is determined not to add interpretation knowledge. At this time, 0 is added to the additional information of interpretation knowledge, and the process proceeds to “No” in the branch of step S31. In this embodiment, 1 is added to the additional information when adding interpretation knowledge, and 0 is added to the additional information when not adding.

ステップS318において、読影知識判定部220は、ステップS315での判定結果に従い、読影知識を追加すると決定する。つまり、ステップS315での判定結果は、ステップS30で取得した(画像特徴量−疾病名)間の相関関係と、(読影項目−疾病名)間の相関関係および(読影項目−画像特徴量)間の相関関係を介した(画像特徴量−疾病名)間の相関関係とが異なっていることを示している。このため、着目している疾病名に対する画像パターンが複数種類存在すると判断し、読影知識を追加すると決定する。このとき、読影知識の追加情報に1を付加し、ステップS31の分岐においては「Yes」に進む。   In step S318, the interpretation knowledge determination unit 220 determines to add interpretation knowledge according to the determination result in step S315. That is, the determination result in step S315 is the correlation between (image feature amount−disease name) acquired in step S30, the correlation between (interpretation item−disease name), and (interpretation item−image feature amount). It is shown that the correlation between (image feature amount−disease name) via the correlation is different. Therefore, it is determined that there are a plurality of types of image patterns for the disease name of interest, and it is determined to add interpretation knowledge. At this time, 1 is added to the additional information of the interpretation knowledge, and the process proceeds to “Yes” in the branch of step S31.

ステップS317、S318において付与した追加情報は、図15の(画像特徴量−疾病名)間の相関関係の各行に追加され、図23に示すような形式で読影知識データベース110に格納される。例えば、読影レポートに疾病名1が記入されている場合には、類似症例検索時には、図23の追加情報(ここでは、「1」:相関関係の追加あり)が読み込まれ、(読影項目−疾病名)間の相関関係が追加されたと判定され、後述する追加された相関関係のテーブル(読影知識)が参照される。   The additional information given in steps S317 and S318 is added to each line of the correlation between (image feature amount−disease name) in FIG. 15, and is stored in the interpretation knowledge database 110 in the format shown in FIG. For example, if disease name 1 is entered in the interpretation report, the additional information in FIG. 23 (here, “1”: addition of correlation) is read at the time of similar case search, and (interpretation item−disease) It is determined that a correlation is added, and an added correlation table (interpretation knowledge) described later is referred to.

図21のステップS32において、読影項目抽出部230は、ステップS31で読影知識を追加すると判定された対象の疾病名に対して相関関係の高い読影項目の組を抽出する。   In step S32 of FIG. 21, the interpretation item extraction unit 230 extracts a set of interpretation items having a high correlation with the target disease name determined to add interpretation knowledge in step S31.

ステップS32の処理を、図24のフローチャートを用いて詳細に説明する。   The process of step S32 will be described in detail using the flowchart of FIG.

ステップS320において、読影項目抽出部230は、ステップS30で取得した読影知識の疾病名に対応する(読影項目−疾病名)間の相関関係を1つ読影知識データベース110から読み込む。例えば上記疾病名が疾病名1の場合、図16において、疾病名1に関する読影項目の相関関係(ここでは、疾病名1の列の全相関関係)を読影知識データベース110から読み込む。以下、疾病名「肝細胞がん」の場合を例に説明する。   In step S320, the interpretation item extraction unit 230 reads from the interpretation knowledge database 110 one correlation between (interpretation item-disease name) corresponding to the disease name of the interpretation knowledge acquired in step S30. For example, when the disease name is disease name 1, in FIG. 16, the correlation of interpretation items related to disease name 1 (here, all correlations in the column of disease name 1) is read from the interpretation knowledge database 110. Hereinafter, the case of the disease name “hepatocellular carcinoma” will be described as an example.

ステップS321において、読影項目抽出部230は、ステップS320で取得した(読影項目−疾病名)間の相関関係の中から相関値を一つ取り出し、その相関値が第1閾値より大きいか否かを判定する。取り出した(読影項目−疾病名)間の相関値が第1閾値より大きい場合には、ステップS322に進み、第1閾値以下場合にはステップS323に進む。   In step S321, the interpretation item extraction unit 230 extracts one correlation value from the correlation between (interpretation item-disease name) acquired in step S320, and determines whether the correlation value is greater than a first threshold value. judge. If the correlation value between the extracted (interpretation item-disease name) is larger than the first threshold value, the process proceeds to step S322, and if the correlation value is less than the first threshold value, the process proceeds to step S323.

ステップS322において、読影項目抽出部230は、ステップS320で取得した(読影項目−疾病名)間の相関関係の情報から読影項目を取得し、読影知識を追加する際の読影項目候補に追加する。例えば図16において、相関値が第1閾値より大きい読影項目が「早期濃染」、「LDA」、「不均一」であった場合には、これら全てを読影項目候補として記憶する。   In step S322, the interpretation item extraction unit 230 acquires an interpretation item from the correlation information between (interpretation item−disease name) acquired in step S320, and adds it to the interpretation item candidate when adding interpretation knowledge. For example, in FIG. 16, when the interpretation items whose correlation value is greater than the first threshold are “early dark dyeing”, “LDA”, and “non-uniform”, all of these are stored as interpretation item candidates.

ステップS323において、読影項目抽出部230は、(読影項目−疾病名)間の全ての相関値を第1閾値と比較し終えたか否かを判定する。全ての相関値を第1閾値と比較し終えた場合には、ステップS324に進み、そうでない場合には、ステップS321に戻る。   In step S323, the interpretation item extraction unit 230 determines whether all correlation values between (interpretation item-disease name) have been compared with the first threshold value. If all the correlation values have been compared with the first threshold value, the process proceeds to step S324; otherwise, the process returns to step S321.

ステップS324において、読影項目抽出部230は、ステップS322で抽出した読影項目候補の全組合せを作成する。   In step S324, the interpretation item extraction unit 230 creates all combinations of interpretation item candidates extracted in step S322.

例えば、抽出された読影項目が「早期濃染」、「LDA」、「不均一」の3つであった場合には、「早期濃染、LDA、不均一」、「早期濃染、LDA」、「LDA、不均一」、「早期濃染、不均一」、「早期濃染」、「LDA」、「不均一」の6つ組合せを作成する。   For example, when the extracted interpretation items are “early dark dye”, “LDA”, and “non-uniform”, “early dark dye, LDA, non-uniform”, “early dark dye, LDA”. , “LDA, non-uniform”, “early dark dye, non-uniform”, “early dark dye”, “LDA”, “non-uniform” are created.

ステップS325において、読影項目抽出部230は、ステップS324で作成した読影項目の組ごとに、当該組と、ステップS30で取得した読影知識に含まれる疾病名の間の相関値を抽出する。例えば、疾病名が「肝細胞がん」、読影項目の組が「早期濃染、LDA、不均一」の場合には、疾病名「肝細胞がん」−読影項目「早期濃染」、「LDA」、「不均一」(読影項目の組「早期濃染、LDA、不均一」)の間の相関値を抽出する。この相関値の抽出には、先に述べた(読影項目−疾病名)間の相関値の求め方を使用すればよい。   In step S325, the interpretation item extraction unit 230 extracts a correlation value between the interpretation item created in step S324 and the disease name included in the interpretation knowledge acquired in step S30. For example, when the disease name is “hepatocellular carcinoma” and the set of interpretation items is “early dark staining, LDA, non-uniform”, the disease name “hepatocellular carcinoma” —interpretation items “early dark staining”, “ Correlation values between “LDA” and “non-uniform” (a set of interpretation items “early dark dyeing, LDA, non-uniform”) are extracted. For the extraction of the correlation value, the method for obtaining the correlation value between (interpretation item−disease name) described above may be used.

ステップS326において、読影項目抽出部230は、ステップS325で抽出した相関値が第2閾値より大きいか否かを判定する。ステップS325で抽出した相関値が第2閾値より大きい場合にはステップS327に進み、第2閾値以下の場合には読影項目の抽出を終了する。例えば、疾病名「肝細胞がん」−読影項目「早期濃染」、「LDA」(読影項目の組「早期濃染、LDA」)の相関値を抽出すると、造影されていること(CTが高いこと)を示す「早期濃染」と、造影されていないこと(CTが低いこと)を示す「LDA」とは、相関性が低いため、疾病名「肝細胞がん」−読影項目「早期濃染」、「LDA」の相関値は第2閾値以下となる。このため、読影項目の組として「早期濃染、LDA」は不適切であると判定される。   In step S326, the interpretation item extraction unit 230 determines whether the correlation value extracted in step S325 is greater than the second threshold value. If the correlation value extracted in step S325 is larger than the second threshold value, the process proceeds to step S327. If the correlation value is equal to or smaller than the second threshold value, the extraction of the interpretation item is terminated. For example, when the correlation value of the disease name “hepatocellular carcinoma” —interpretation items “early dark staining”, “LDA” (interpretation item set “early dark staining, LDA”) is extracted, that the contrast is CT (CT "Large staining" indicating high) and "LDA" indicating non-contrast (low CT) are low in correlation, so the disease name "hepatocellular carcinoma"-interpretation item "early" The correlation values of “dark dye” and “LDA” are equal to or lower than the second threshold value. For this reason, “early dark dyeing, LDA” is determined to be inappropriate as a set of interpretation items.

ステップS327において、読影項目抽出部230は、相関値が第2閾値より大きい読影項目の組を、読影知識の追加に使用する読影項目の組として抽出する。例えば、疾病名「肝細胞がん」に対しては、病変領域の画像パターンに対応する「早期濃染」、「LDA、不均一」という2つの読影項目の組が抽出される。   In step S327, the interpretation item extraction unit 230 extracts a set of interpretation items having a correlation value greater than the second threshold as a set of interpretation items used for adding interpretation knowledge. For example, for the disease name “hepatocellular carcinoma”, a set of two interpretation items “early dark stain” and “LDA, non-uniform” corresponding to the image pattern of the lesion area is extracted.

図21のステップS33において、読影知識抽出部210は、ステップS32で抽出した読影項目の組を用いて、読影知識を抽出する。   In step S33 of FIG. 21, the interpretation knowledge extraction unit 210 extracts interpretation knowledge using the set of interpretation items extracted in step S32.

例えば、疾病名「肝細胞がん」に対して、2つの読影項目の組「早期濃染」、「LDA、不均一」が抽出された場合には、読影知識抽出部210は、読影項目「早期濃染」について(画像特徴量−読影項目)間の相関関係を抽出し、疾病名「肝細胞がん」に対する(画像特徴量−疾病名)間の相関関係として保存する。ここで、読影知識の抽出方法は先に述べた(画像特徴量−読影項目)間の相関関係の求め方と同様である。同様に、読影知識抽出部210は、読影項目の組「LDA、不均一」についても(画像特徴量−読影項目)間の相関関係を抽出し、疾病名「肝細胞がん」に対する(画像特徴量−疾病名)間の相関関係として保存する。   For example, when a set of two interpretation items “early dark staining” and “LDA, non-uniform” are extracted for the disease name “hepatocellular carcinoma”, the interpretation knowledge extraction unit 210 reads the interpretation item “ For “early dark staining”, a correlation between (image feature amount−interpretation item) is extracted and stored as a correlation between (image feature amount−disease name) for the disease name “hepatocellular carcinoma”. Here, the method for extracting interpretation knowledge is the same as the method for obtaining the correlation between (image feature amount−interpretation item) described above. Similarly, the interpretation knowledge extraction unit 210 also extracts the correlation between (image feature quantity-interpretation item) for the interpretation item set “LDA, non-uniformity” and sets (image feature for the disease name “hepatocellular carcinoma”. It is stored as a correlation between dose-disease name).

図25に、ステップS33において抽出され、読影知識データベース110に格納される読影知識の格納形式を示す。疾病名1のように読影項目の組が2組存在する場合には、それぞれに対して読影知識が抽出され、その値が全て格納される。例えば、読影レポートに疾病名1が記入されている場合には、類似症例検索時には、図23の追加情報(ここでは、「1」:相関関係の追加あり)が読み込まれ、(読影項目−疾病名)間の相関関係が追加されたと判定され、図25の相関関係のテーブル(読影知識)が参照される。   FIG. 25 shows a storage format of interpretation knowledge extracted in step S33 and stored in the interpretation knowledge database 110. When there are two sets of interpretation items such as disease name 1, the interpretation knowledge is extracted for each, and all of the values are stored. For example, if disease name 1 is entered in the interpretation report, the additional information in FIG. 23 (here, “1”: addition of correlation) is read at the time of similar case search, and (interpretation item−disease) The correlation table (interpretation knowledge) in FIG. 25 is referred to.

ステップS34において、読影知識判定部220は、読影知識データベース110において、読影知識を追加するか否かを未判定の読影知識があるかどうかをチェックする。未判定の読影知識がある場合は、ステップS30に戻り未判定の読影知識が取得された後、ステップS31が実行される。未判定の読影知識がない場合、すなわち、全ての読影知識に対し、ステップS31の読影知識の追加判定、ステップS32の読影項目抽出およびS33の読影知識抽出を実施済の場合は、読影知識の追加を終了する。   In step S <b> 34, the interpretation knowledge determination unit 220 checks whether or not there is undetermined interpretation knowledge in the interpretation knowledge database 110 as to whether or not to add interpretation knowledge. If there is undetermined interpretation knowledge, the process returns to step S30, and after undetermined interpretation knowledge is acquired, step S31 is executed. If there is no undetermined interpretation knowledge, that is, if all the interpretation knowledge has been subjected to the interpretation knowledge addition determination in step S31, the interpretation item extraction in step S32, and the interpretation knowledge extraction in S33, the interpretation knowledge is added. Exit.

以上の方法により、図23に示す各疾病名に対する読影知識の追加情報と、図25に示す追加情報に対応する(画像特徴量−疾病名)間の相関関係がそれぞれ得られる。また、得られた追加情報および相関関係は、図23および図25の形式にて読影知識データベース110に格納される。一方、図3のステップS14の処理により得られた、図14に示す(画像特徴量−読影項目)間の相関関係と、図16に示す(読影項目−疾病名)間の相関関係とには、新たな相関関係が追加されることなく、図14および図16の形式にて読影知識データベース110に格納される。以下で説明する類似症例検索では、この読影知識データベース110を使用する。   By the above method, the correlation between the additional information of the interpretation knowledge for each disease name shown in FIG. 23 and the (image feature amount−disease name) corresponding to the additional information shown in FIG. 25 is obtained. Further, the obtained additional information and correlation are stored in the interpretation knowledge database 110 in the format of FIGS. On the other hand, the correlation between (image feature amount−interpretation item) shown in FIG. 14 and the correlation between (interpretation item−disease name) shown in FIG. 16 obtained by the process of step S14 in FIG. The new interpretation is not added and is stored in the interpretation knowledge database 110 in the format of FIGS. 14 and 16. In the similar case search described below, this interpretation knowledge database 110 is used.

なお、ステップS32で抽出した読影項目の組の情報のみを用いても、類似症例検索には有効である。図26に読影項目の抽出のみを行う読影知識追加処理のフローチャートを示す。図26に示すフローチャートでは、図21に示すフローチャートに示したステップS33の処理(読影知識抽出処理)が無い。つまり、図2の読影知識判定部220において読影知識を追加すると判定された場合に(S31でYes)、読影知識抽出部210は、図27に示す読影項目の組の情報を読影知識として新たに格納する(S32)。例えば、疾病名1に対応する読影項目の組が2組存在する場合には、これら2組の各読影項目について「1」、「0」の情報を格納する。本実施の形態においては、相関の高い読影項目(S32で抽出された読影項目)には「1」を付与し、相関の低い読影項目((S32で抽出されなかった読影項目)には「0」を付与する。例えば、図27の疾病名1の組番号1は、読影項目1と読影項目NIIが相関の高い読影項目であることを示す。類似症例検索時の読影知識の組の使用法については、後で詳細を説明する。 Note that even using only the information of the set of interpretation items extracted in step S32 is effective for similar case retrieval. FIG. 26 shows a flowchart of the interpretation knowledge adding process in which only interpretation item extraction is performed. In the flowchart shown in FIG. 26, there is no processing (interpretation knowledge extraction processing) in step S33 shown in the flowchart shown in FIG. That is, when it is determined that the interpretation knowledge determination unit 220 in FIG. 2 adds the interpretation knowledge (Yes in S31), the interpretation knowledge extraction unit 210 newly sets the interpretation item set information shown in FIG. 27 as the interpretation knowledge. Store (S32). For example, when there are two sets of interpretation items corresponding to the disease name 1, information of “1” and “0” is stored for each of the two sets of interpretation items. In the present embodiment, “1” is assigned to an interpretation item with high correlation (interpretation item extracted in S32), and “0” is assigned to an interpretation item with low correlation (interpretation item not extracted in S32). grant. "for example, the set number 1 disease name 1 of Figure 27. using a set of interpretation knowledge at the time of the similar case retrieval indicating that interpretation items 1 and interpretation item N II is higher interpretation item correlated The method will be described later in detail.

なお、抽出した読影知識は図28のように、追加した読影知識と追加していない読影知識を同じテーブルに格納してもよい。例えば、読影レポートに疾病名1が記入されている場合には、類似症例検索時には、追加情報を読み込むことなく、直接、疾病名1の相関関係テーブルから、疾病名1に対する複数の相関関係を取得することができる。   As for the extracted interpretation knowledge, as shown in FIG. 28, the added interpretation knowledge and the non-added interpretation knowledge may be stored in the same table. For example, when disease name 1 is entered in the interpretation report, a plurality of correlations for disease name 1 are obtained directly from the correlation table of disease name 1 without reading additional information when searching for similar cases. can do.

<類似症例検索>
以下、図1に示す類似症例検索装置の構成を示すブロック図および図29に示す類似症例検索処理のフローチャートを用いて、類似症例検索の手順について説明する。
<Similar case search>
Hereinafter, the procedure of similar case search will be described using the block diagram showing the configuration of the similar case search apparatus shown in FIG. 1 and the flowchart of the similar case search processing shown in FIG.

まず、はじめに読影知識が追加されていない相関関係(疾病名の追加情報が「0」)を用いた類似症例検索手順について説明する。   First, a similar case search procedure using a correlation in which interpretation knowledge is not added (additional information of disease name is “0”) will be described.

ステップS20において、読影対象画像読込部120が、医用画像撮影装置から読影対象画像を取得する。図3に示した読影知識作成時と同じく、本実施の形態で対象とする医用画像撮影装置はマルチスライスCTとし、対象臓器および疾病は、それぞれ肝臓および肝腫瘤とする。読み込まれた画像は、読影対象画像表示部130に表示される。   In step S20, the interpretation target image reading unit 120 acquires an interpretation target image from the medical image photographing apparatus. As in the case of the interpretation knowledge creation shown in FIG. 3, the medical imaging apparatus targeted in this embodiment is a multi-slice CT, and the target organ and disease are a liver and a liver mass, respectively. The read image is displayed on the interpretation target image display unit 130.

ステップS21において、読影者は、読影対象画像表示部130に表示された読影対象画像を参照しながら、レポート入出力部140を通して読影レポートを入力する。マルチスライスCT装置の場合、再構成により通常、体軸に対して垂直な面(axial view)のスライス画像が複数枚得られる。読影者は、これら複数のスライス画像に対し、スライス位置を変えながら病変(本実施の形態では肝腫瘤)の有無を確認し、読影レポートを入力する。読影レポートを入力する際、読影対象画像にて検出した病変の位置(スライス番号、および、スライス画像上における座標や領域情報)を、読影者がマウスなどの入力機器により指定してもよい。座標を指定する場合は、例えば、腫瘤の中心位置をマウスでクリックする。領域を指定する場合は、矩形、円または楕円等で囲む方法や、病変部と正常組織間との境界を自由曲線で囲む方法がある。中心座標のみを指定する場合や、矩形、円または楕円等で囲むことにより領域を指定する場合は、読影者の負担が小さいという利点があるが、画像特徴量抽出のために、別途、前記領域から腫瘤のみの領域を画像処理アルゴリズムにより自動抽出する必要がある。腫瘤領域抽出については、図4のステップS112と同じ手法を用いることができる。読影者により、病変の位置、領域の指定を行わない場合は、ステップS111の対象臓器領域抽出、および、ステップS112の病変領域抽出を行えばよい。   In step S <b> 21, the interpreter inputs an interpretation report through the report input / output unit 140 while referring to the interpretation target image displayed on the interpretation target image display unit 130. In the case of a multi-slice CT apparatus, a plurality of slice images of a plane perpendicular to the body axis are usually obtained by reconstruction. The radiogram interpreter checks the presence or absence of a lesion (hepatic mass in this embodiment) while changing the slice position, and inputs an interpretation report for these slice images. When inputting an interpretation report, the interpreter may specify the position of the lesion detected in the interpretation target image (slice number and coordinates or area information on the slice image) with an input device such as a mouse. When designating the coordinates, for example, the center position of the tumor is clicked with the mouse. When an area is designated, there are a method of surrounding with a rectangle, a circle or an ellipse, or a method of surrounding a boundary between a lesion and a normal tissue with a free curve. When only the center coordinates are specified, or when an area is specified by surrounding it with a rectangle, circle, ellipse, or the like, there is an advantage that the burden on the image reader is small. It is necessary to automatically extract a region of only a tumor from an image processing algorithm. For the extraction of the tumor region, the same technique as in step S112 in FIG. 4 can be used. If the radiogram interpreter does not specify the position and area of the lesion, the target organ area extraction in step S111 and the lesion area extraction in step S112 may be performed.

ステップS22において、読影者からの類似症例検索の要求を受け付ける。   In step S22, a request for similar case retrieval from an interpreter is accepted.

典型的な症状を有する腫瘤の場合や読影者が熟練者の場合、通常は迷うことなく読影レポートの記入が完了する。非典型な症状を有する腫瘤の場合や読影者の熟練度が低い場合などは、読影者が読影端末200において類似症例検索要求を行う。読影対象画像に複数の病変が存在する場合は、診断に迷っている病変を指定した後、類似症例検索要求を行う。   In the case of a mass having typical symptoms or an expert in the interpretation, the interpretation report is usually completed without hesitation. In the case of a mass having an atypical symptom or when the skill level of the interpreter is low, the interpreter makes a similar case search request at the interpretation terminal 200. When there are a plurality of lesions in the image to be interpreted, a similar case search request is made after designating a lesion that is lost in diagnosis.

この病変の指定について説明する。ステップS21の読影レポート記入時に、診断に迷っている病変を含めて既に病変の位置や領域が複数指定されていれば、そのうちのどれかを選択するだけでよい。ステップS21にて、診断に迷っている病変を指定していなければ、ここで新たに病変を指定する。指定の方法として、病変の中心付近の1点を指定してもよいし、病変領域を指定してもよい。中心付近の1点が指定された場合は、指定された点を基準として予め定めたサイズの領域が設定され、この領域の中からステップS112と同じ方法を用いて詳細な病変領域が設定される。病変領域を大まかに指定した場合は、この領域の中からステップS112と同じ方法を用いて詳細な病変領域が設定される。   The designation of this lesion will be described. If a plurality of lesion positions and regions have already been specified including the lesion that is confused for diagnosis when the interpretation report is entered in step S21, it is only necessary to select one of them. In step S21, if a lesion that is not suitable for diagnosis is not designated, a new lesion is designated here. As a designation method, one point near the center of the lesion may be designated, or a lesion area may be designated. When one point near the center is designated, an area of a predetermined size is set with reference to the designated point, and a detailed lesion area is set from this area using the same method as in step S112. . When a lesion area is roughly specified, a detailed lesion area is set from this area using the same method as in step S112.

そして、読影者からの類似症例検索要求があった場合は、ステップS23に進む。この時、読影レポートは記入完了の状態であってもよく、記入途中であってもよい。全く未記入の状態でも後のステップS25での類似症例検索は実行可能であるが、その場合は、本実施の形態の特徴である読影者の着目点に応じた類似症例検索は実行されず、予め設定された標準的な画像特徴量集合で類似症例検索を実行することになる。   If there is a similar case search request from the radiogram interpreter, the process proceeds to step S23. At this time, the interpretation report may be in a completed state or in the middle of entry. Even in a completely blank state, the similar case search in the subsequent step S25 can be executed, but in that case, the similar case search according to the point of interest of the interpreter, which is a feature of the present embodiment, is not executed. A similar case search is executed using a standard image feature amount set in advance.

また、読影レポート記入時間が一定以上経過した場合、もしくは、読影者から読影終了に関する入力があった場合は、図29の処理を終了する。類似症例検索要求、読影終了入力を受理するための処理部は図1には図示していないが、読影端末200のキーボード内等に内蔵された物理的なスイッチでもよいし、医療用の高精細モニタ等で構成される読影対象画像表示部130に表示されたGUIメニュー等でもよい。   If the interpretation report entry time has elapsed for a certain period or when there is an input related to the end of interpretation by the interpreter, the processing in FIG. 29 is terminated. The processing unit for accepting a similar case search request and an interpretation end input is not shown in FIG. 1, but may be a physical switch built in the keyboard of the interpretation terminal 200 or the like, or a medical high definition A GUI menu or the like displayed on the image interpretation target image display unit 130 constituted by a monitor or the like may be used.

ステップS23において、画像特徴抽出部160は、読影対象画像に対して、ステップS22にて指定または抽出された病変領域から画像特徴量を抽出する。指定または抽出された病変領域が複数あればその全てに対して、予め定めているN個の特徴量を抽出する。画像特徴量の抽出方法は、ステップS114と同じである。 In step S23, the image feature extraction unit 160 extracts an image feature amount from the lesion area specified or extracted in step S22 for the image to be interpreted. Designated or extracted lesion area was that for the all if more, to extract the N F characteristic amounts are determined in advance. The image feature extraction method is the same as that in step S114.

ステップS24において、レポート解析部150は、ステップS21にて記入された読影レポートの解析を行う。ここでは、読影知識データベースの作成時におけるステップS12の、読影項目および疾病名の抽出と同じ処理を実行する。   In step S24, the report analysis unit 150 analyzes the interpretation report entered in step S21. Here, the same processing as the extraction of interpretation items and disease names in step S12 when creating the interpretation knowledge database is executed.

ステップS25において、重み決定部170および類似症例検索部180は、読影対象画像および読影者が記入した読影レポートを基にして、症例データベース100から類似症例を検索する。ここでは、ステップS21にて読影者が図5の読影レポートを記入済、ステップS24にて図6の読影項目および疾病名が抽出済、ステップS23で読影対象画像から画像特徴量が抽出済の状況を考える。また、読影知識データベース110には、図14、図16、図23のような画像特徴量、読影項目、疾病名の三項のうち二項間の相関関係が格納済であるとする。さらに、ステップS24において抽出した疾病名については、読影知識が追加されていない(疾病名の追加情報が「0」)とする。本実施の形態では、読影レポートから抽出された読影項目および疾病名の少なくとも1つを基に、類似症例検索にて重み付け距離計算を行う。即ち、抽出された読影項目および疾病名の少なくとも1つと関連する画像特徴量に関しては重みを相対的に大きくし、関連しない画像特徴量に関しては重みを相対的に小さくする。これにより、読影レポートに記入された医師の着目点を反映した類似症例検索が可能となる。つまり、類似症例検索部180は、症例データベース100に記憶されている症例に含まれる医用画像と読影対象画像との間で重み付け距離を算出する。類似症例検索部180は、所定の閾値よりも小さい重み付け距離の算出の元となった医用画像を含む症例を類似症例として、症例データベース100から検索する。または、類似症例検索部180は、小さいものから所定個数の重み付け距離の算出の元となった医用画像を含む症例を類似症例として、症例データベース100から検索する。   In step S25, the weight determination unit 170 and the similar case search unit 180 search for similar cases from the case database 100 based on the image to be interpreted and the interpretation report entered by the interpreter. Here, the interpreter has entered the interpretation report of FIG. 5 in step S21, the interpretation items and disease names in FIG. 6 have been extracted in step S24, and the image feature quantity has been extracted from the interpretation target image in step S23. think of. In addition, it is assumed that the interpretation knowledge database 110 stores the correlation between two terms among the three items of the image feature amount, the interpretation item, and the disease name as shown in FIGS. Furthermore, it is assumed that no interpretation knowledge is added to the disease name extracted in step S24 (additional information on the disease name is “0”). In the present embodiment, the weighted distance calculation is performed in the similar case search based on at least one of the interpretation item and disease name extracted from the interpretation report. That is, the weight is relatively increased for the image feature amount related to at least one of the extracted interpretation item and disease name, and the weight is relatively decreased for the unrelated image feature amount. Thereby, the similar case search reflecting the doctor's point of interest entered in the interpretation report can be performed. That is, the similar case search unit 180 calculates a weighted distance between the medical image included in the case stored in the case database 100 and the image to be interpreted. The similar case search unit 180 searches the case database 100 as a similar case for a case including a medical image from which a weighted distance smaller than a predetermined threshold is calculated. Alternatively, the similar case search unit 180 searches the case database 100 as a similar case for a case including a medical image from which a predetermined number of weighted distances are calculated.

重み付け距離は、例えば式6にて計算できる。   The weighted distance can be calculated by, for example, Expression 6.

ここで、xは、読影対象画像から抽出された複数(N個)の画像特徴量を全て連結したベクトルである。uは、症例データベース100に格納された症例のうち、i番目の症例から抽出された画像特徴量である。異なる種類の画像特徴量を連結する際は、特徴量毎のスケールの違いに影響を受けないよう正準化(平均0、分散1に正規化)を行っておく。 Here, x is a vector obtained by concatenating a plurality of (N F ) image feature amounts extracted from the image to be interpreted. u i is an image feature amount extracted from the i-th case among cases stored in the case database 100. When different types of image feature quantities are connected, canonicalization (normalized to 0 average and 1 variance) is performed so as not to be affected by the difference in scale for each feature quantity.

以下に重み付け方法の具体例を示す。   A specific example of the weighting method is shown below.

(1)読影レポートから読影項目および疾病名の両方が抽出できた場合
このケースは、読影者が読影レポートをほぼ記入終了し、類似症例検索の結果で記入内容の確信を高めようとしている状況に相当する。
(1) When both the interpretation item and the disease name can be extracted from the interpretation report In this case, the interpreter has almost completed the interpretation report, and the result of similar case search is trying to increase the confidence of the entry contents. Equivalent to.

ここでは、(読影項目−画像特徴量)間の相関関係と、(読影項目−疾病名)間の相関関係を用いて重み付けを行う例について説明する。(疾病名−画像特徴量)間の相関関係も使用できなくはないが、上記2つの相関関係のみを用いて重み付けを行う。読影者の思考プロセスは、医用画像に着目する読影項目を判定した後、読影項目の判定結果により疾病名を最終判定していると考えられるためである。   Here, an example will be described in which weighting is performed using a correlation between (interpretation item−image feature amount) and a correlation between (interpretation item−disease name). Although the correlation between (disease name-image feature amount) is not unusable, weighting is performed using only the above two correlations. This is because the interpreter's thought process is considered to have finally determined the disease name based on the determination result of the interpretation item after determining the interpretation item focusing on the medical image.

この時点で、図5の読影レポートから図6のように読影項目として「早期濃染」、「washout」が、疾病名として「肝細胞がん」が抽出されている。重み決定部170は、読影知識データベース110に図16の形式で格納された(読影項目−疾病名)間の相関関係テーブルを参照し、(早期濃染−肝細胞がん)間の相関関係と(washout−肝細胞がん)間の相関関係を取得する。ここでは取得した相関関係を表す数値(相関値)をそのまま重みとして用い、それぞれw,wと表す。また、重み決定部170は、読影知識データベース110に図14の形式で格納された(画像特徴量−読影項目)間の相関関係テーブルを参照し、「早期濃染」と全ての画像特徴量間の相関関係と、「washout」と全ての画像特徴量間の相関関係を取得する。ここでは取得した相関関係を表す数値(相関値)をそのまま重みとして用い、それぞれwa,i,wb,iと表す。ここで、iは画像特徴量の種類を表す添字である。重み決定部170は、これらの重みを用いて、i番目の画像特徴量に対応する重みWを式7のように計算する。 At this point, “early dark stain” and “washout” are extracted as interpretation items and “hepatocellular carcinoma” is extracted as a disease name from the interpretation report of FIG. 5 as shown in FIG. The weight determination unit 170 refers to the correlation table between (interpretation item−disease name) stored in the interpretation knowledge database 110 in the format of FIG. The correlation between (washout-hepatocellular carcinoma) is acquired. Here, the numerical values (correlation values) representing the acquired correlation are used as weights as they are, and are expressed as w x and w y , respectively. Further, the weight determination unit 170 refers to the correlation table between (image feature amount−interpretation item) stored in the interpretation knowledge database 110 in the format of FIG. And the correlation between “washout” and all image feature quantities. Here, the numerical values (correlation values) representing the acquired correlations are used as they are as weights, and are represented as w a, i , w b and i , respectively. Here, i is a suffix indicating the type of image feature amount. Weight determining unit 170, using these weights, the weights W i corresponding to the i-th image feature quantity is calculated as Equation 7.

以上の重み付け方法について、図30に概要を示した。   About the above weighting method, the outline | summary was shown in FIG.

例えば、4番目の画像特徴量「エッジ強度」に対する重みは、wa,4と、wb,4との和として求められる。ここで、wa,4は、(早期濃染−エッジ強度)間の相関関係を表す値wa,4を、同じ読影項目を含む(早期濃染−肝細胞がん)間の相関関係を表す値wで重み付けした値である。wb,4は、(washout−エッジ強度)間の相関関係を表す値wb,4を、同じ読影項目を含む(washaout−肝細胞がん)間の相関関係を表す値wで重み付けした値である。 For example, the weight for the fourth image feature amount “edge strength” is obtained as the sum of w x w a, 4 and w y w b, 4 . Here, w x w a, 4 is a value w a, 4 representing a correlation between (early dark staining-edge intensity) and a correlation between (early dark staining-hepatocellular carcinoma) including the same interpretation item. It is a value weighted by the value w x representing the relationship. w y w b, 4 is a value w b, 4 representing a correlation between (washout-edge strength), and a value w y representing a correlation between (washout-hepatocellular carcinoma) including the same interpretation item. It is a weighted value.

読影項目の個数が2以外の場合でも、(読影項目−疾病名)間の相関関係で重み付けした後の(読影項目−画像特徴量)間の相関関係を加算することで対応可能である。この式により、読影者が着目した読影項目および疾病名、読影項目と疾病名との関連性、および、読影項目と画像特徴量との関連性、を同時に考慮した重みが計算でき、その結果、それらを重視した類似症例検索が可能となる。   Even when the number of interpretation items is other than 2, it can be dealt with by adding the correlation between (interpretation item-image feature amount) after weighting with the correlation between (interpretation item-disease name). By this formula, it is possible to calculate the weight that takes into account the interpretation item and disease name focused by the image interpreter, the relationship between the interpretation item and the disease name, and the relationship between the interpretation item and the image feature amount, Similar case search can be performed with emphasis on them.

また、図29のフローチャートでは類似症例検索要求があった場合のみ類似症例検索を実行するが、読影レポート記入中の他のタイミングで類似症例検索を実行してもよい。他のタイミングとしては、少なくとも1個以上の読影項目または疾病名を記入後、一定時間以上、読影レポートの記入がされない場合などである。これは、読影者が読影に迷っていると解釈し、ヒントとなる類似症例を先回りして提示することにより読影を進展させることを意図した動作方法である。本実施の形態では、少なくとも1個以上の読影項目または疾病名が記入された場合、読影者のその着眼点を基に類似症例検索を実行することができる。以降に、読影レポートから読影項目のみが抽出できた場合、および、疾病名のみが抽出できた場合についても説明する。   In the flowchart of FIG. 29, the similar case search is executed only when there is a similar case search request. However, the similar case search may be executed at another timing during the interpretation report entry. Another timing is when an interpretation report is not entered for a certain period of time after at least one interpretation item or disease name is entered. This is an operation method that is intended to advance interpretation by interpreting that the interpreter is confused about interpretation and proactively presenting similar cases as hints. In this embodiment, when at least one interpretation item or disease name is entered, a similar case search can be executed based on the viewpoint of the interpreter. Hereinafter, a case where only an interpretation item can be extracted from an interpretation report and a case where only a disease name can be extracted will be described.

(2)読影レポートから読影項目のみが抽出できた場合
このケースは、読影者が着目すべき読影項目は判断できたものの、最終的な疾病名の診断に迷っており、類似症例検索の結果で疾病名診断のヒントを得ようとしている状況に相当する。ここでは、(読影項目−画像特徴量)間の相関関係のみを用いて重み付けを行う。
(2) When only the interpretation items can be extracted from the interpretation report In this case, although the interpretation items that the interpreter should focus on have been judged, the final diagnosis of the disease name is lost, and the results of similar case search Corresponds to the situation where you are trying to get a hint for diagnosis of the disease name. Here, weighting is performed using only the correlation between (interpretation item−image feature amount).

この時点で、図示せぬ読影レポートから読影項目として「早期濃染」、「washout」が抽出されているとする。重み決定部170は、読影知識データベース110に図14の形式で格納された(画像特徴量−読影項目)間の相関関係テーブルを参照し、「早期濃染」と全ての画像特徴量間の相関関係と、「washout」と全ての画像特徴量間の相関関係を取得する。ここでは取得した相関関係を表す数値(相関値)をそのまま重みとして用い、それぞれwa,i,wb,iと表す。ここで、iは画像特徴量の種類を表す添字である。これらの重みを用い、i番目の画像特徴量に対応する重みWを、式8のように計算する。 At this time, it is assumed that “early dark dyeing” and “washout” are extracted as interpretation items from an interpretation report (not shown). The weight determination unit 170 refers to the correlation table between (image feature amount-interpretation item) stored in the interpretation knowledge database 110 in the format of FIG. 14, and correlates between “early dark staining” and all image feature amounts. The relationship and the correlation between “washout” and all image feature quantities are acquired. Here, the numerical values (correlation values) representing the acquired correlations are used as they are as weights, and are represented as w a, i , w b and i , respectively. Here, i is a suffix indicating the type of image feature amount. Using these weights, a weight W i corresponding to the i-th image feature amount is calculated as in Expression 8.

以上の重み付け方法について、図31に概要を示した。   About the above weighting method, the outline | summary was shown in FIG.

例えば、4番目の画像特徴量「エッジ強度」に対する重みは、(早期濃染−エッジ強度)間の相関関係を表す値wa,4と、(washout−エッジ強度)間の相関関係を表す値wb,4とを足した値である。 For example, the weight for the fourth image feature quantity “edge strength” is a value w a, 4 representing the correlation between (early darkening−edge strength) and a value representing the correlation between (washout−edge strength). It is a value obtained by adding w b, 4 .

読影項目の個数が2以外の場合も、(読影項目−画像特徴量)間の相関関係を加算することで対応可能である。この式により、読影者が着目した読影項目、および、読影項目と画像特徴量との関連性、を同時に考慮した重みを計算することができ、その結果、それらを重視した類似症例検索が可能となる。   A case where the number of interpretation items is other than 2 can be dealt with by adding the correlation between (interpretation item−image feature amount). With this formula, it is possible to calculate the weight considering the interpretation item focused on by the interpreter and the relationship between the interpretation item and the image feature amount at the same time. Become.

(3)読影レポートから疾病名のみが抽出できた場合
このケースは、読影者が直感等で疾病名を推定したがその根拠となる読影項目の判断に迷っており、類似症例検索の結果で診断根拠(読影項目)のヒントを得ようとしている状況に相当する。ここでは、(疾病名−画像特徴量)間の相関関係のみを用いて重み付けを行う。
(3) When only the disease name can be extracted from the interpretation report In this case, the interpreter estimates the disease name by intuition, but is uncertain about the interpretation item that is the basis, and is diagnosed by the results of similar case search. This corresponds to a situation where a hint of the basis (interpretation item) is being obtained. Here, weighting is performed using only the correlation between (disease name−image feature amount).

この時点で、読影レポートから疾病名として「肝細胞がん」が抽出されているとする。重み決定部170は、読影知識データベース110に図23の形式で格納された(画像特徴量−疾病名)間の相関関係テーブルを参照し、「肝細胞がん」と全ての画像特徴量間の相関関係を取得する。ここでは取得した相関関係を表す数値(相関値)をそのまま重みとして用い、wと表す。ここで、iは画像特徴量の種類を表す添字である。これらの重みを用い、i番目の画像特徴量に対応する重みWを、式9のように計算する。 At this point, it is assumed that “hepatocellular carcinoma” is extracted as a disease name from the interpretation report. The weight determination unit 170 refers to the correlation table between (image feature amount−disease name) stored in the interpretation knowledge database 110 in the format of FIG. 23, and determines between “hepatocellular carcinoma” and all image feature amounts. Get correlation. Directly used as a weight to numeric (correlation value) representing the acquired correlation here, expressed as w i. Here, i is a suffix indicating the type of image feature amount. Using these weights, a weight W i corresponding to the i-th image feature amount is calculated as in Expression 9.

以上の重み付け方法について、図32に概要を示した。   About the above weighting method, the outline | summary was shown in FIG.

例えば、4番目の画像特徴量「エッジ強度」に対する重みは、(肝細胞がん−エッジ強度)間の相関関係を表す値wである。 For example, the weight for the fourth image feature amount “edge strength” is the value w 4 representing the correlation between (hepatocellular carcinoma−edge strength).

疾病名は通常1個であるため、上記の処理を行えばよいが、2個以上の疾病名が記入された場合などは、それらを加算することで対応可能である。加算することにより、2個以上の疾病に対し、平均的な画像特徴量で類似症例検索が可能となる。この式により、読影者が着目した疾病名、および、疾病名と画像特徴量との関連性、を同時に考慮した重みが計算でき、その結果、それらを重視した類似症例検索が可能となる。   Since there is usually only one disease name, the above-described process may be performed. However, when two or more disease names are entered, it is possible to deal with them by adding them. By adding, a similar case search can be performed with an average image feature amount for two or more diseases. With this formula, it is possible to calculate the weight considering the disease name focused on by the image interpreter and the relationship between the disease name and the image feature amount at the same time, and as a result, it is possible to search for similar cases with emphasis on them.

なお、本実施の形態では、式6の重み付け距離を用いて画像間の類似判定を行ったが、用いる特徴量の総次元数が大きくなってくると、計算された距離において、相関値(重み)が小さい(または中程度の)多数の特徴量のために相関値(重み)の大きい特徴量が埋没する可能性がある。その場合は、対応する相関値が所定の閾値以上の画像特徴量のみを距離計算に使用する、あるいは、相関値の上位数個の画像特徴量のみを距離計算に使用するなどの方法を採用してもよい。その場合の個数は事前に定めておけばよい。   In the present embodiment, the similarity determination between images is performed using the weighted distance of Expression 6. However, when the total number of dimensions of the feature amount to be used increases, the correlation value (weight) is calculated at the calculated distance. ) May have a large correlation value (weight) due to a large number of small (or medium) feature values. In that case, a method such as using only image feature quantities whose corresponding correlation values are equal to or greater than a predetermined threshold value for distance calculation, or using only the top few image feature quantities of correlation values for distance calculation is adopted. May be. The number in that case may be determined in advance.

次に読影知識が追加された相関関係(疾病名の追加情報が「1」)を用いた類似症例検索手順について説明する。つまり、図29のステップS25において、ステップS24において抽出した疾病名について、読影知識が追加されている(疾病名の追加情報が「0」)と判断された場合の類似症例検索手順について説明する。   Next, a similar case search procedure using a correlation (additional information of disease name is “1”) added with interpretation knowledge will be described. That is, the similar case search procedure when it is determined in step S25 in FIG. 29 that interpretation knowledge has been added to the disease name extracted in step S24 (additional information of disease name is “0”) will be described.

読影知識が追加された相関関係(疾病名の追加情報が「1」)を用いた類似症例検索手順は、読影知識が追加されていない相関関係(疾病名の追加情報が「0」)を用いた類似症例検索手順と同様である。ただし、重み決定部170による画像特徴量の重み付けが異なる。このため、以下では、重み付け方法の具体例について説明する。   The similar case search procedure using the correlation to which the interpretation knowledge is added (the additional information of the disease name is “1”) uses the correlation (the additional information of the disease name is “0”) to which the interpretation knowledge is not added. This is the same as the similar case search procedure. However, the weighting of the image feature amount by the weight determination unit 170 is different. Therefore, a specific example of the weighting method will be described below.

(1)(画像特徴量−疾病名)間の相関関係が追加されている場合の重み付け方法その1
読影レポートから抽出された疾病名に対して読影知識が追加されている場合の画像特徴量の重み付け方法について、図33および図34を用いて説明する。
(1) Weighting method in the case where a correlation between (image feature amount−disease name) is added, 1
A method for weighting image features when interpretation knowledge is added to a disease name extracted from an interpretation report will be described with reference to FIGS. 33 and 34. FIG.

ここでは特に、読影レポートから疾病名のみが抽出できた場合について説明する。   Here, a case where only the disease name can be extracted from the interpretation report will be described.

このとき、先ほどと同様(疾病名−画像特徴量)間の相関関係のみを用いて重み付けを行う。   At this time, weighting is performed using only the correlation between the disease name and the image feature amount as before.

図29のステップS24終了時点で、読影レポートから疾病名として「肝細胞がん」が抽出されているとする。   It is assumed that “hepatocellular carcinoma” is extracted as a disease name from the interpretation report at the end of step S24 in FIG.

ステップS25において、重み決定部170は、読影知識データベース110に図23の形式で格納された(画像特徴量−疾病名)間の相関関係テーブルにおいて追加情報を参照する。(画像特徴量−疾病名)間の相関関係が追加されている場合には、追加情報には「1」が格納されており、この場合には、図23(図33(a))の相関関係テーブルに含まれる「肝細胞がん」と全ての画像特徴量間の相関関係は取得せず、図25(図33(b))の形式で格納された(画像特徴量−疾病名)間の相関関係テーブルに含まれる「肝細胞がん」と全ての画像特徴量間の相関関係を、組番号ごとに取得する。ここでは取得した相関関係を表す数値(相関値)をそのまま重みとして用い、wと表す。ここで、iは画像特徴量の種類を表す添字である。これらの重みを用い、i番目の画像特徴量に対応する重みWを、式9のように計算する。 In step S25, the weight determination unit 170 refers to the additional information in the correlation table between (image feature amount−disease name) stored in the interpretation knowledge database 110 in the format of FIG. When the correlation between (image feature amount−disease name) is added, “1” is stored in the additional information. In this case, the correlation shown in FIG. 23 (FIG. 33A) is stored. Correlation between “hepatocellular carcinoma” and all image feature amounts included in the relationship table is not acquired, and (image feature amount−disease name) stored in the format of FIG. 25 (FIG. 33B) The correlation between “hepatocellular carcinoma” and all image feature amounts included in the correlation table is acquired for each set number. Directly used as a weight to numeric (correlation value) representing the acquired correlation here, expressed as w i. Here, i is a suffix indicating the type of image feature amount. Using these weights, a weight W i corresponding to the i-th image feature amount is calculated as in Expression 9.

以上の重み付け方法について、図33および図34に概要を示した。   The above weighting method is outlined in FIG. 33 and FIG.

ここで、図33(a)の疾病名1のように(画像特徴量−疾病名)間の相関関係が追加されている場合には(追加情報が1の場合には)、疾病名に対して複数の画像パターンが存在する。このため、図33(b)に示すように相関関係も複数存在する。複数の相関関係が取得された場合には、相関関係ごとに、重みを計算し、類似症例検索に使用する。例えば、「肝細胞がん」に対して、相関関係が2組取得できた場合には、各相関関係について重みを決定し、これら両方について類似症例検索を実行する。   Here, when the correlation between (image feature amount−disease name) is added as in the case of the disease name 1 in FIG. 33A (when the additional information is 1), There are a plurality of image patterns. For this reason, there are a plurality of correlations as shown in FIG. When a plurality of correlations are acquired, a weight is calculated for each correlation and used for similar case search. For example, when two sets of correlations can be acquired for “hepatocellular carcinoma”, a weight is determined for each correlation and a similar case search is performed for both.

各相関関係についての重み付け方法の概要は、図34に示される。例えば、3番目の画像特徴量「平衡相 輝度平均」に対する重みは、(肝細胞がん−平衡相 輝度平均)間の相関関係を表す値wである。 An overview of the weighting method for each correlation is shown in FIG. For example, the weight for the third image feature quantity “equilibrium phase luminance average” is the value w 3 representing the correlation between (hepatocellular carcinoma−equilibrium phase luminance average).

このように、相関関係ごとに重みを決定し類似症例検索を実行することにより、着目点の異なる2通りの類似症例検索結果が得られる。   In this manner, by determining the weight for each correlation and executing the similar case search, two similar case search results with different points of interest can be obtained.

(2)(画像特徴量−疾病名)間の相関関係が追加されている場合の重み付け方法その2
次に、図26に示す手順のように、図21のステップS33に示した読影知識を抽出する処理を行わずに、読影項目の組のみ抽出し、読影知識データベース110に格納した場合(図27参照)の画像特徴量の重み付け方法について、図35および図36を用いて説明する。先ほどと同様、読影レポートから疾病名のみが抽出できた場合について説明する。
(2) Weighting method 2 in the case where a correlation between (image feature amount−disease name) is added
Next, as in the procedure shown in FIG. 26, the process of extracting interpretation knowledge shown in step S33 of FIG. 21 is not performed, and only a set of interpretation items is extracted and stored in the interpretation knowledge database 110 (FIG. 27). (Refer to FIG. 35 and FIG. 36). As before, the case where only the disease name can be extracted from the interpretation report will be described.

このとき、先ほどと異なり(読影項目−画像特徴量)間の相関関係を用いて重み付けを行う。   At this time, weighting is performed using a correlation between (interpretation item−image feature amount) unlike the previous case.

図29のステップS24終了時点で、読影レポートから疾病名として「肝細胞がん」が抽出されているとする。   It is assumed that “hepatocellular carcinoma” is extracted as a disease name from the interpretation report at the end of step S24 in FIG.

ステップS25において、重み決定部170は、読影知識データベース110に図23の形式で格納された(画像特徴量−疾病名)間の相関関係テーブルにおいて追加情報を参照する。(画像特徴量−疾病名)間の相関関係が追加されている場合には、追加情報には「1」が格納されており、この場合には、図23(図35(a))の相関関係テーブルに含まれる「肝細胞がん」と全ての画像特徴量間の相関関係は取得せず、図27(図35(b))の形式で格納された読影項目の組に関する情報を、組番号ごとに取得する。組番号ごとに、取得した読影項目の組を用いて、読影レポートから複数の読影項目が抽出された場合と同様、図14(図35(c))の形式で格納された(読影項目−画像特徴量)間の相関関係テーブルを参照する。例えば、「肝細胞がん」と相関が高い読影項目として「早期濃染」と「washout」が抽出されたとする。このときには、「早期濃染」と全ての画像特徴量間の相関関係と、「washout」と全ての画像特徴量間の相関関係を取得する。ここでは取得した相関関係を表す数値(相関値)をそのまま重みとして用い、それぞれwa,i,wb,iと表す。ここで、iは画像特徴量の種類を表す添字である。これらの重みを用い、i番目の画像特徴量に対応する重みWを、式8のように計算する。 In step S25, the weight determination unit 170 refers to the additional information in the correlation table between (image feature amount−disease name) stored in the interpretation knowledge database 110 in the format of FIG. When the correlation between (image feature amount−disease name) is added, “1” is stored in the additional information. In this case, the correlation shown in FIG. 23 (FIG. 35A) is stored. The correlation between the “hepatocellular carcinoma” included in the relationship table and all the image feature amounts is not acquired, and information on the set of interpretation items stored in the format of FIG. 27 (FIG. 35B) is set. Get by number. As in the case where a plurality of interpretation items are extracted from the interpretation report using the obtained interpretation item pairs for each group number, the interpretation item-image is stored in the format of FIG. 14 (FIG. 35C). Refer to the correlation table between (features). For example, it is assumed that “early dark stain” and “washout” are extracted as interpretation items having high correlation with “hepatocellular carcinoma”. At this time, the correlation between “early dark staining” and all image feature amounts and the correlation between “washout” and all image feature amounts are acquired. Here, the numerical values (correlation values) representing the acquired correlations are used as they are as weights, and are represented as w a, i , w b and i , respectively. Here, i is a suffix indicating the type of image feature amount. Using these weights, a weight W i corresponding to the i-th image feature amount is calculated as in Expression 8.

以上の重み付け方法について、図35および図36に概要を示した。   The above weighting method is outlined in FIG. 35 and FIG.

先ほどと同様、図35(a)の疾病名1のように(画像特徴量−疾病名)間の相関関係が追加されている場合には(追加情報が1の場合には)、疾病名に対して複数の画像パターンが存在する。このため、図35(b)および図35(c)に示すように相関関係も複数存在する。複数の相関関係が取得された場合には、先ほどと同様に取得した相関関係ごとに、重みを計算し、類似症例検索に使用する。   As before, when a correlation between (image feature amount−disease name) is added as in the case of disease name 1 in FIG. 35A (when the additional information is 1), On the other hand, there are a plurality of image patterns. For this reason, a plurality of correlations exist as shown in FIGS. 35 (b) and 35 (c). When a plurality of correlations are acquired, a weight is calculated for each correlation acquired in the same manner as described above and used for similar case search.

各相関関係について重み付け方法の概要は図36に示される。   An overview of the weighting method for each correlation is shown in FIG.

例えば、3番目の画像特徴量「平衡相 輝度平均」に対する重みは、(早期濃染−平衡相 輝度平均)間の相関関係を表す値wa,3と、(washout−平衡相 輝度平均)間の相関関係を表す値wb,3とを足した値である。 For example, the weight for the third image feature amount “balanced phase brightness average” is a value w a, 3 representing the correlation between (early dark dye−balanced phase brightness average) and (washout−balanced phase brightness average). This is a value obtained by adding the value w b, 3 representing the correlation.

このように、相関関係ごとに重みを決定し類似症例検索を実行することにより、着目点の異なる2通りの類似症例検索結果が得られる。   In this manner, by determining the weight for each correlation and executing the similar case search, two similar case search results with different points of interest can be obtained.

以上説明したように本実施の形態における類似症例の検索では、読影レポートから抽出された読影項目および疾病名の少なくとも1つを基に、類似症例検索にて重み付け距離計算を行う。即ち、抽出された読影項目および疾病名の少なくとも1つと関連する画像特徴量に関しては重みを相対的に大きく、関連しない画像特徴量に関しては重みを相対的に小さくする。このとき、疾病名に対応する画像パターンが複数存在する場合であっても、三項関係により相関関係が追加された重みを使用することができる。つまり、疾病名と関連性が高い画像特徴量の組合せが複数存在する場合には、画像特徴量の組合せごとに、読影項目を介した画像特徴量と対象疾病名との間の関連性を示す二項間関係情報を用いて、重み付けを行っている。このため、対象疾病名に対して複数種類の画像パターンが存在する場合であっても、それらを区別して類似症例検索を行うことができる。   As described above, in the similar case search in the present embodiment, the weighted distance calculation is performed in the similar case search based on at least one of the interpretation items and disease names extracted from the interpretation report. That is, the weight is relatively large for the image feature quantity related to at least one of the extracted interpretation item and disease name, and the weight is relatively small for the image feature quantity not related. At this time, even when there are a plurality of image patterns corresponding to the disease name, the weight added with the correlation by the ternary relationship can be used. In other words, when there are a plurality of combinations of image feature quantities that are highly related to the disease name, the relationship between the image feature quantity and the target disease name via the interpretation item is indicated for each combination of image feature quantities. Weighting is performed using the binomial relationship information. For this reason, even when there are a plurality of types of image patterns for the target disease name, it is possible to perform a similar case search while distinguishing them.

これにより、読影レポートに記入された医師の着目点を反映した類似症例検索が可能となる。   Thereby, the similar case search reflecting the doctor's point of interest entered in the interpretation report can be performed.

なお、図1に示す類似症例検索装置は、症例データベース100および読影知識データベース110を備える構成としたが、読影知識データベース110および読影知識データベース110は、必ずしも類似症例検索装置に備えられていなくてもよく、類似症例検索装置が存在する場所とは異なる場所に備えられていても良い。この場合、類似症例検索装置の重み決定部170と類似症例検索部180が、それぞれ、ネットワークを介して読影知識データベース110と症例データベース100に接続されている。   1 is configured to include the case database 100 and the interpretation knowledge database 110, the interpretation knowledge database 110 and the interpretation knowledge database 110 may not necessarily be included in the similar case search apparatus. Of course, it may be provided in a place different from the place where the similar case retrieval apparatus exists. In this case, the weight determination unit 170 and the similar case search unit 180 of the similar case search device are connected to the interpretation knowledge database 110 and the case database 100 via a network, respectively.

同様に、図2に示す読影知識抽出装置に、症例データベース100および読影知識データベース110は、必ずしも備えられていなくてもよく、読影知識抽出装置が存在する場所とは異なる場所に備えられていても良い。この場合、読影知識抽出部210、読影知識判定部220および読影項目抽出部230が、ネットワークを介して読影知識データベース110に接続されており、レポート解析部250および画像特徴抽出部260が、ネットワークを介して症例データベース100に接続されている。   Similarly, the interpretation database shown in FIG. 2 may not necessarily include the case database 100 and the interpretation knowledge database 110, and may be provided in a location different from the location where the interpretation knowledge extraction device exists. good. In this case, the interpretation knowledge extraction unit 210, the interpretation knowledge determination unit 220, and the interpretation item extraction unit 230 are connected to the interpretation knowledge database 110 via a network, and the report analysis unit 250 and the image feature extraction unit 260 are connected to the network. Via the case database 100.

また、本実施の形態では、(画像特徴量−疾病名)間の相関関係が追加されている場合の重み付け方法について、読影レポートから疾病名のみが抽出できた場合を中心に説明したが、先に説明した読影レポートから読影項目および疾病名の両方が抽出できた場合、または読影レポートから読影項目のみが抽出できた場合においても同様に重み付けを行うことが可能である。   Further, in the present embodiment, the weighting method in the case where the correlation between (image feature amount−disease name) has been added has been described focusing on the case where only the disease name can be extracted from the interpretation report. Similarly, when both the interpretation item and the disease name can be extracted from the interpretation report described in the above, or when only the interpretation item can be extracted from the interpretation report, weighting can be performed in the same manner.

また、(画像特徴量−疾病名)間の相関関係が追加されている場合において、相関関係が複数組取得できた場合には、類似症例検索結果としては着目点の異なる複数通りの類似症例検索結果が得られるが、これらは検索結果として全て表示してもよい。さらに、医用画像、読影レポートと同時に着眼点として採用した読影項目の組を表示してもよい。   In addition, in the case where a correlation between (image feature amount−disease name) has been added, when a plurality of correlations can be acquired, a plurality of similar case searches with different points of interest are obtained as similar case search results. Although results are obtained, these may all be displayed as search results. Furthermore, a set of interpretation items adopted as a focus point may be displayed simultaneously with the medical image and the interpretation report.

また、類似症例検索装置の本発明に必須の構成要素は、画像特徴抽出部160と、レポート解析部150と、重み決定部170と、類似症例検索部180とであり、その他の構成要素は、本発明の課題を達成するのに必ずしも必要ではない。   The essential components of the similar case search device of the present invention are the image feature extraction unit 160, the report analysis unit 150, the weight determination unit 170, and the similar case search unit 180. It is not always necessary to achieve the object of the present invention.

また、読影知識抽出装置の本発明に必須の構成要素は、画像特徴抽出部260と、レポート解析部250と、読影知識抽出部210と、読影知識判定部220と、読影項目抽出部230とであり、その他の構成要素は、本発明の課題を達成するのに必ずしも必要ではない。   The essential components of the image interpretation knowledge extraction apparatus of the present invention are the image feature extraction unit 260, the report analysis unit 250, the image interpretation knowledge extraction unit 210, the image interpretation knowledge determination unit 220, and the image interpretation item extraction unit 230. There are other components that are not necessarily required to achieve the object of the present invention.

また、上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクドライブ、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムとして構成されても良い。RAMまたはハードディスクドライブには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。   Further, each of the above devices may be specifically configured as a computer system including a microprocessor, ROM, RAM, hard disk drive, display unit, keyboard, mouse, and the like. A computer program is stored in the RAM or hard disk drive. Each device achieves its functions by the microprocessor operating according to the computer program. Here, the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.

さらに、上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしても良い。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。RAMには、コンピュータプログラムが記憶されている。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、システムLSIは、その機能を達成する。   Furthermore, some or all of the constituent elements constituting each of the above-described devices may be configured by one system LSI (Large Scale Integration). The system LSI is an ultra-multifunctional LSI manufactured by integrating a plurality of components on a single chip, and specifically, a computer system including a microprocessor, ROM, RAM, and the like. . A computer program is stored in the RAM. The system LSI achieves its functions by the microprocessor operating according to the computer program.

さらにまた、上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしても良い。ICカードまたはモジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。ICカードまたはモジュールは、上記の超多機能LSIを含むとしても良い。マイクロプロセッサが、コンピュータプログラムに従って動作することにより、ICカードまたはモジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしても良い。   Furthermore, some or all of the constituent elements constituting each of the above-described devices may be configured from an IC card that can be attached to and detached from each device or a single module. The IC card or module is a computer system that includes a microprocessor, ROM, RAM, and the like. The IC card or the module may include the super multifunctional LSI described above. The IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.

また、本発明は、上記に示す方法であるとしても良い。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしても良いし、前記コンピュータプログラムからなるデジタル信号であるとしても良い。   Further, the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.

さらに、本発明は、上記コンピュータプログラムまたは上記デジタル信号をコンピュータ読取可能な非一時的な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD−ROM、MO、DVD、DVD−ROM、DVD−RAM、BD(Blu−ray Disc(登録商標))、半導体メモリなどに記録したものとしても良い。また、これらの非一時的な記録媒体に記録されている上記デジタル信号であるとしても良い。   Furthermore, the present invention provides a non-transitory recording medium capable of reading the computer program or the digital signal, such as a flexible disk, a hard disk, a CD-ROM, an MO, a DVD, a DVD-ROM, a DVD-RAM, a BD ( It may be recorded on a Blu-ray Disc (registered trademark)), a semiconductor memory, or the like. The digital signal may be recorded on these non-temporary recording media.

また、本発明は、上記コンピュータプログラムまたは上記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしても良い。   In the present invention, the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.

また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、上記メモリは、上記コンピュータプログラムを記憶しており、上記マイクロプロセッサは、上記コンピュータプログラムに従って動作するとしても良い。   The present invention may be a computer system including a microprocessor and a memory, wherein the memory stores the computer program, and the microprocessor operates according to the computer program.

また、上記プログラムまたは上記デジタル信号を上記非一時的な記録媒体に記録して移送することにより、または上記プログラムまたは上記デジタル信号を上記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしても良い。   Further, by recording the program or the digital signal on the non-temporary recording medium and transferring it, or transferring the program or the digital signal via the network or the like, another independent computer It may be implemented by the system.

さらに、上記実施の形態及び上記変形例をそれぞれ組み合わせるとしても良い。   Furthermore, the above embodiment and the above modification examples may be combined.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。   The embodiment disclosed this time should be considered as illustrative in all points and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

本発明は、読影者に参考となる類似症例を検索および提示する類似症例検索装置、類似症例検索装置で用いられる読影知識を抽出する読影知識抽出装置、および、研修読影医のための読影教育装置等に利用可能である。   The present invention relates to a similar case retrieval apparatus that retrieves and presents a similar case to be used as a reference for an interpreter, an interpretation knowledge extraction apparatus that extracts interpretation knowledge used in the similar case retrieval apparatus, and an interpretation education apparatus for a training interpreter Etc. are available.

100 症例データベース
110 読影知識データベース
120 読影対象画像読込部
130 読影対象画像表示部
140 レポート入出力部
150、250 レポート解析部
160、260 画像特徴抽出部
170 重み決定部
180 類似症例検索部
190 類似症例表示部
200 読影端末
210 読影知識抽出部
220 読影知識判定部
230 読影項目抽出部
100 case database 110 interpretation knowledge database 120 interpretation target image reading unit 130 interpretation target image display unit 140 report input / output unit 150, 250 report analysis unit 160, 260 image feature extraction unit 170 weight determination unit 180 similar case search unit 190 similar case display Unit 200 Interpretation Terminal 210 Interpretation Knowledge Extraction Unit 220 Interpretation Knowledge Determination Unit 230 Interpretation Item Extraction Unit

Claims (9)

医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データに類似する症例データを症例データベースより検索する類似症例検索装置であって、
前記読影レポートは、(a)医用画像の特徴を示す文字列である読影項目および(b)医用画像に基づく読影者の診断結果である疾病名のうち少なくとも疾病名を含み、
前記類似症例検索装置は、
読影対象の医用画像である読影対象画像から複数の画像特徴量を抽出する画像特徴抽出部と、
前記読影対象画像に対する読影レポートである対象読影レポートから疾病名を抽出するレポート解析部と、
読影知識データベースに基づいて、画像特徴量毎の重みを決定する重み決定部と、
前記画像特徴抽出部で抽出された前記複数の画像特徴量と、症例データベースに登録されている症例データに含まれる医用画像から抽出される複数の画像特徴量とを、前記重み決定部で決定された画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記症例データベースより検索する類似症例検索部と
を備え、
前記読影知識データベースは、
医用画像から抽出される各画像特徴量と各読影項目との間の関連性を予め定めた第1の二項間関係情報と、
各読影項目と各疾病名との間の関連性を予め定めた第2の二項間関係情報と、
各画像特徴量と各疾病名との間の関連性を予め定めた第3の二項間関係情報と、
疾病名ごとに、疾病名と関連性が高い画像特徴量の組合せが複数存在するか否かを示す存否情報とを含み、
前記重み決定部は、前記読影知識データベースに含まれる前記存否情報に基づいて前記レポート解析部が抽出した疾病名である対象疾病名と関連性が高い画像特徴量の組合せが複数存在すると判断できる場合に、画像特徴量の組合せごとに、前記知識データベースに含まれる前記第1の二項間関係情報および前記第2の二項間関係情報から算出される、読影項目を介した各画像特徴量と前記対象疾病名との間の関連性を示す第4の二項間関係情報を、前記第3の二項間関係情報に代えて用い、前記画像特徴抽出部が抽出した画像特徴量ごとに、当該画像特徴量と前記対象疾病名との間の関連性が高いほど大きな値の重みを決定する
類似症例検索装置。
A similar case retrieval device for retrieving case data similar to case data including a medical image and an interpretation report, which is document data describing a result of interpretation of the medical image, from a case database,
The interpretation report includes (a) an interpretation item that is a character string indicating the characteristics of a medical image and (b) a disease name that is at least a disease name that is a diagnostic result of an interpreter based on the medical image,
The similar case search device includes:
An image feature extraction unit that extracts a plurality of image feature amounts from an image to be interpreted that is a medical image to be interpreted;
A report analysis unit that extracts a disease name from the target interpretation report that is an interpretation report for the interpretation target image;
A weight determining unit for determining a weight for each image feature based on the interpretation knowledge database;
The weight determination unit determines the plurality of image feature amounts extracted by the image feature extraction unit and a plurality of image feature amounts extracted from medical images included in case data registered in a case database. A similar case retrieval unit that retrieves case data including a medical image similar to the image to be interpreted from the case database by weighting and comparing with a weight for each image feature amount,
The interpretation knowledge database is
First binomial relationship information that predetermines a relationship between each image feature amount extracted from the medical image and each interpretation item;
A second binomial relationship information that predetermines the association between each interpretation item and each disease name;
A third binomial relationship information that predetermines the relationship between each image feature and each disease name;
For each disease name, including presence / absence information indicating whether or not there are multiple combinations of image feature quantities highly related to the disease name,
When the weight determination unit can determine that there are a plurality of combinations of image feature quantities highly relevant to the target disease name that is the disease name extracted by the report analysis unit based on the presence / absence information included in the interpretation knowledge database In addition, for each combination of image feature amounts, each image feature amount via an interpretation item calculated from the first binomial relationship information and the second binomial relationship information included in the knowledge database; For each image feature amount extracted by the image feature extraction unit, the fourth binomial relationship information indicating the relationship with the target disease name is used instead of the third binomial relationship information. A similar case retrieval apparatus that determines a larger value weight as the relationship between the image feature quantity and the target disease name is higher.
前記重み決定部は、前記読影知識データベースに含まれる前記存否情報に基づいて前記対象疾病名と関連性が高い画像特徴量の組合せが1種類しか存在しないと判断できる場合に前記第3の二項間関係情報を用い、前記画像特徴抽出部が抽出した画像特徴量ごとに、当該画像特徴量と前記対象疾病名との間の関連性が高いほど大きな値の重みを決定する
請求項1に記載の類似症例検索装置。
When the weight determination unit can determine that there is only one type of image feature amount combination highly relevant to the target disease name based on the presence / absence information included in the interpretation knowledge database, the third two items The weight of a larger value is determined for each image feature amount extracted by the image feature extraction unit using inter-relationship information as the relevance between the image feature amount and the target disease name is higher. Similar case search device.
医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む複数の症例データから、読影知識を抽出する読影知識抽出装置であって、
前記読影レポートは、(a)医用画像の特徴を示す文字列である読影項目または(b)医用画像に基づく読影者の診断結果である疾病名を含み、
前記読影知識抽出装置は、
前記各症例データに含まれる医用画像から複数の画像特徴量を抽出する画像特徴抽出部と、
前記各症例データに含まれる読影レポートから疾病名および読影項目を抽出するレポート解析部と、
前記画像特徴抽出部が抽出した各画像特徴量と前記レポート解析部が抽出した各読影項目との間の関連性を定める第1の二項間関係情報と、前記レポート解析部が抽出した各読影項目と前記レポート解析部が抽出した各疾病名との間の関連性を定める第2の二項間関係情報と、前記画像特徴抽出部が抽出した各画像特徴量と前記レポート解析部が抽出した各疾病名との間の関連性を定める第3の二項間関係情報とを、読影知識として抽出する読影知識抽出部と、
前記第1の二項間関係情報と、前記第2の二項間関係情報と、前記第3の二項間関係情報とに基づいて、疾病名ごとに疾病名と関連性が高い画像特徴量の組合せが複数存在するか否かを判定する読影知識判定部と、
前記第2の二項間関係情報に基づいて、前記読影知識判定部が関連性が高い画像特徴量の組合せが複数存在すると判定した疾病名ごとに、当該疾病名と画像特徴量の組合せとを関連付ける読影項目の組を、画像特徴量の組合せごとに抽出する読影項目抽出部と、
を備え、
前記読影知識抽出部は、さらに、前記読影項目抽出部が抽出した読影項目の組ごとに、当該読影項目の組と前記画像特徴抽出部が抽出した各画像特徴量との間の関連性を定める二項間関係情報を、前記読影知識判定部が関連性が高いと判定した疾病名と画像特徴量の組合せに含まれる各画像特徴量との間の関連性を示す読影知識である第4の二項間関係情報として抽出する
読影知識抽出装置。
An interpretation knowledge extraction device that extracts interpretation knowledge from a plurality of case data including a medical image and an interpretation report that is document data describing a result of interpretation of the medical image.
The interpretation report includes (a) an interpretation item that is a character string indicating the characteristics of a medical image, or (b) a disease name that is a diagnostic result of an interpreter based on the medical image,
The image interpretation knowledge extraction device comprises:
An image feature extraction unit for extracting a plurality of image feature amounts from a medical image included in each case data;
A report analysis unit that extracts disease names and interpretation items from interpretation reports included in each case data;
The first binomial relationship information that defines the relationship between each image feature amount extracted by the image feature extraction unit and each interpretation item extracted by the report analysis unit, and each interpretation extracted by the report analysis unit Second binomial relationship information that defines the relationship between the item and each disease name extracted by the report analysis unit, each image feature amount extracted by the image feature extraction unit, and the report analysis unit An interpretation knowledge extraction unit that extracts third binomial relationship information that defines the relationship between each disease name as interpretation knowledge;
Based on the first binomial relationship information, the second binomial relationship information, and the third binomial relationship information, an image feature amount that is highly related to a disease name for each disease name An interpretation knowledge determination unit that determines whether there are a plurality of combinations of
Based on the second binomial relationship information, for each disease name that the interpretation knowledge determination unit determines that there are a plurality of highly relevant image feature amount combinations, a combination of the disease name and the image feature amount is obtained. An interpretation item extraction unit that extracts a set of associated interpretation items for each combination of image features,
With
The image interpretation knowledge extraction unit further determines, for each set of image interpretation items extracted by the image interpretation item extraction unit, a relationship between the set of image interpretation items and each image feature amount extracted by the image feature extraction unit. The binomial relationship information is the interpretation knowledge indicating the association between the disease name determined by the interpretation knowledge determination unit as being highly relevant and each image feature amount included in the combination of the image feature amounts. Interpretation knowledge extraction device that extracts as binary relational information.
前記読影知識判定部は、(a)前記第3の二項間関係情報から選択される第1の画像特徴量と第1の疾病名との間の関連性を定める第1の相関値と、(b)前記第2の二項間関係情報から選択される前記第1の疾病名と第1の読影項目との間の関連性を定める相関値が相関値閾値以上の前記第1の読影項目について、前記第1の二項間関係情報から選択される前記第1の読影項目と前記第1の画像特徴量との間の関連性を定める第2の相関値との間の差分値を計算し、計算した前記差分値が差分閾値よりも大きい場合に、前記第1の疾病名と関連性が高い画像特徴量の組合せが複数存在すると判定する
請求項3に記載の読影知識抽出装置。
The interpretation knowledge determination unit (a) a first correlation value that defines a relationship between a first image feature amount selected from the third binomial relationship information and a first disease name; (B) The first interpretation item in which a correlation value that defines the relationship between the first disease name selected from the second binomial relationship information and the first interpretation item is a correlation value threshold value or more. A difference value between a first correlation item selected from the first binomial relationship information and a second correlation value defining a relationship between the first image feature quantity The interpretation knowledge extraction device according to claim 3, wherein when the calculated difference value is larger than a difference threshold, it is determined that there are a plurality of combinations of image feature amounts highly related to the first disease name.
前記読影項目抽出部は、前記読影知識判定部が関連性が高い画像特徴量の組合せが複数存在すると判定した疾病名ごとに、前記第2の二項間関係情報が示す当該疾病名との間の相関値が第1閾値よりも大きい読影項目から作成される全ての読影項目の組のうち、当該疾病名との間の相関値が第2の閾値以上となる読影項目の組を、当該疾病名と前記画像特徴量の組合せとを関連付ける読影項目の組として抽出する
請求項3または4に記載の読影知識抽出装置。
The image interpretation item extraction unit is configured to obtain, for each disease name determined by the image interpretation knowledge determination unit that there are a plurality of highly relevant image feature amount combinations, between the disease name indicated by the second binomial relationship information. Among all the interpretation item sets created from the interpretation items whose correlation value is greater than the first threshold value, the interpretation item group whose correlation value with the disease name is greater than or equal to the second threshold value is the disease The interpretation knowledge extraction device according to claim 3 or 4, wherein a name and a combination of image feature values are extracted as a combination of interpretation items.
医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データに類似する症例データを症例データベースより検索する類似症例検索方法であって、
前記読影レポートは、(a)医用画像の特徴を示す文字列である読影項目および(b)医用画像に基づく読影者の診断結果である疾病名のうち少なくとも疾病名を含み、
前記類似症例検索方法は、
読影対象の医用画像である読影対象画像から複数の画像特徴量を抽出する画像特徴抽出ステップと、
前記読影対象画像に対する読影レポートである対象読影レポートから疾病名を抽出するレポート解析ステップと、
読影知識データベースに基づいて、画像特徴量毎の重みを決定する重み決定ステップと、
前記画像特徴抽出ステップで抽出された前記複数の画像特徴量と、症例データベースに登録されている症例データに含まれる医用画像から抽出される複数の画像特徴量とを、前記重み決定ステップで決定された画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記症例データベースより検索する類似症例検索ステップと
を含み、
前記読影知識データベースは、
医用画像から抽出される各画像特徴量と各読影項目との間の関連性を予め定めた第1の二項間関係情報と、
各読影項目と各疾病名との間の関連性を予め定めた第2の二項間関係情報と、
各画像特徴量と各疾病名との間の関連性を予め定めた第3の二項間関係情報と、
疾病名ごとに、疾病名と関連性が高い画像特徴量の組合せが複数存在するか否かを示す存否情報とを含み、
前記重み決定ステップでは、前記読影知識データベースに含まれる前記存否情報に基づいて前記レポート解析ステップで抽出された疾病名である対象疾病名と関連性が高い画像特徴量の組合せが複数存在すると判断できる場合に、画像特徴量の組合せごとに、前記知識データベースに含まれる前記第1の二項間関係情報および前記第2の二項間関係情報から算出される、読影項目を介した各画像特徴量と前記対象疾病名との間の関連性を示す第4の二項間関係情報を、前記第3の二項間関係情報に代えて用い、前記画像特徴抽出ステップで抽出された画像特徴量ごとに、当該画像特徴量と前記対象疾病名との間の関連性が高いほど大きな値の重みを決定する
類似症例検索方法。
A similar case retrieval method for retrieving case data similar to case data including a medical image and an interpretation report, which is document data describing a result of interpretation of the medical image, from a case database,
The interpretation report includes (a) an interpretation item that is a character string indicating the characteristics of a medical image and (b) a disease name that is at least a disease name that is a diagnostic result of an interpreter based on the medical image,
The similar case search method includes:
An image feature extraction step for extracting a plurality of image feature amounts from an image to be interpreted which is a medical image to be interpreted;
A report analysis step of extracting a disease name from a target interpretation report that is an interpretation report for the interpretation target image;
A weight determination step for determining a weight for each image feature based on the interpretation knowledge database;
The plurality of image feature amounts extracted in the image feature extraction step and a plurality of image feature amounts extracted from medical images included in case data registered in a case database are determined in the weight determination step. A similar case search step of searching case data including a medical image similar to the image to be interpreted from the case database by weighting and comparing with a weight for each image feature amount,
The interpretation knowledge database is
First binomial relationship information that predetermines a relationship between each image feature amount extracted from the medical image and each interpretation item;
A second binomial relationship information that predetermines the association between each interpretation item and each disease name;
A third binomial relationship information that predetermines the relationship between each image feature and each disease name;
For each disease name, including presence / absence information indicating whether or not there are multiple combinations of image feature quantities highly related to the disease name,
In the weight determination step, it can be determined that there are a plurality of combinations of image feature quantities highly relevant to the target disease name, which is the disease name extracted in the report analysis step, based on the presence / absence information included in the interpretation knowledge database. In this case, for each combination of image feature amounts, each image feature amount via an interpretation item calculated from the first binomial relationship information and the second binomial relationship information included in the knowledge database. For each image feature amount extracted in the image feature extraction step, the fourth binomial relationship information indicating the relationship between the target disease name and the fourth binomial relationship information is used instead of the third binomial relationship information. A similar case retrieval method for determining a weight of a larger value as the relationship between the image feature amount and the target disease name is higher.
請求項6に記載の類似症例検索方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the similar case search method of Claim 6. 医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む複数の症例データから、読影知識を抽出する読影知識抽出方法であって、
前記読影レポートは、(a)医用画像の特徴を示す文字列である読影項目または(b)医用画像に基づく読影者の診断結果である疾病名を含み、
前記読影知識抽出方法は、
前記各症例データに含まれる医用画像から複数の画像特徴量を抽出する画像特徴抽出ステップと、
前記各症例データに含まれる読影レポートから疾病名および読影項目を抽出するレポート解析ステップと、
前記画像特徴抽出ステップで抽出された各画像特徴量と前記レポート解析ステップで抽出された各読影項目との間の関連性を定める第1の二項間関係情報と、前記レポート解析ステップで抽出された各読影項目と前記レポート解析ステップで抽出された各疾病名との間の関連性を定める第2の二項間関係情報と、前記画像特徴抽出ステップで抽出された各画像特徴量と前記レポート解析ステップで抽出された各疾病名との間の関連性を定める第3の二項間関係情報とを、読影知識として抽出する読影知識抽出ステップと、
前記第1の二項間関係情報と、前記第2の二項間関係情報と、前記第3の二項間関係情報とに基づいて、疾病名ごとに疾病名と関連性が高い画像特徴量の組合せが複数存在するか否かを判定する読影知識判定ステップと、
前記第2の二項間関係情報に基づいて、前記読影知識判定ステップで関連性が高い画像特徴量の組合せが複数存在すると判定された疾病名ごとに、当該疾病名と画像特徴量の組合せとを関連付ける読影項目の組を、画像特徴量の組合せごとに抽出する読影項目抽出ステップと、
を含み、
前記読影知識抽出ステップでは、さらに、前記読影項目抽出ステップで抽出された読影項目の組ごとに、当該読影項目の組と前記画像特徴抽出ステップで抽出された各画像特徴量との間の関連性を定める二項間関係情報を、前記読影知識判定ステップで関連性が高いと判定された疾病名と画像特徴量の組合せに含まれる各画像特徴量との間の関連性を示す読影知識である第4の二項間関係情報として抽出する
読影知識抽出方法。
An interpretation knowledge extraction method for extracting interpretation knowledge from a plurality of case data including a medical image and an interpretation report that is document data describing a result of interpretation of the medical image.
The interpretation report includes (a) an interpretation item that is a character string indicating the characteristics of a medical image, or (b) a disease name that is a diagnostic result of an interpreter based on the medical image,
The interpretation knowledge extraction method is:
An image feature extraction step of extracting a plurality of image feature amounts from the medical image included in each case data;
A report analysis step of extracting disease names and interpretation items from interpretation reports included in each case data;
First binomial relationship information defining a relationship between each image feature amount extracted in the image feature extraction step and each interpretation item extracted in the report analysis step, and extracted in the report analysis step The second binomial relationship information for determining the relationship between each interpretation item and each disease name extracted in the report analysis step, each image feature amount extracted in the image feature extraction step, and the report An interpretation knowledge extraction step for extracting, as interpretation knowledge, third binomial relationship information that defines the relationship between each disease name extracted in the analysis step;
Based on the first binomial relationship information, the second binomial relationship information, and the third binomial relationship information, an image feature amount that is highly related to a disease name for each disease name Interpretation knowledge determination step for determining whether or not a plurality of combinations exist,
Based on the second binomial relation information, for each disease name determined that there are a plurality of image feature amount combinations having high relevance in the interpretation knowledge determination step, a combination of the disease name and the image feature amount An interpretation item extraction step for extracting a set of interpretation items to associate with each image feature amount combination,
Including
In the interpretation knowledge extraction step, for each interpretation item set extracted in the interpretation item extraction step, a relationship between the interpretation item set and each image feature amount extracted in the image feature extraction step Is the interpretation knowledge indicating the relationship between the disease name determined to be highly relevant in the interpretation knowledge determination step and each image feature amount included in the combination of image feature amounts. Interpretation knowledge extraction method that extracts as fourth binomial relation information.
請求項8に記載の読影知識抽出方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the interpretation knowledge extraction method according to claim 8.
JP2011162654A 2011-07-25 2011-07-25 Similar case retrieval device and interpretation knowledge extraction device Active JP5789791B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011162654A JP5789791B2 (en) 2011-07-25 2011-07-25 Similar case retrieval device and interpretation knowledge extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011162654A JP5789791B2 (en) 2011-07-25 2011-07-25 Similar case retrieval device and interpretation knowledge extraction device

Publications (2)

Publication Number Publication Date
JP2013025723A JP2013025723A (en) 2013-02-04
JP5789791B2 true JP5789791B2 (en) 2015-10-07

Family

ID=47783962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011162654A Active JP5789791B2 (en) 2011-07-25 2011-07-25 Similar case retrieval device and interpretation knowledge extraction device

Country Status (1)

Country Link
JP (1) JP5789791B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412317B2 (en) 2020-11-13 2024-01-12 三協立山株式会社 fittings

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015029135A1 (en) * 2013-08-27 2015-03-05 株式会社日立製作所 Incidence rate evaluation device, incidence rate evaluation method, and incidence rate evaluation program
US20150331995A1 (en) * 2014-05-14 2015-11-19 Tiecheng Zhao Evolving contextual clinical data engine for medical data processing
WO2020110520A1 (en) * 2018-11-27 2020-06-04 富士フイルム株式会社 Similarity determination device, method, and program
CN110825867B (en) * 2019-11-01 2023-01-17 科大讯飞股份有限公司 Similar text recommendation method and device, electronic equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4450695B2 (en) * 2004-08-19 2010-04-14 富士通株式会社 Interpretation report analysis program
JP4895645B2 (en) * 2006-03-15 2012-03-14 独立行政法人情報通信研究機構 Information search apparatus and information search program
JP4905099B2 (en) * 2006-12-07 2012-03-28 富士ゼロックス株式会社 Data search system, data search method, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7412317B2 (en) 2020-11-13 2024-01-12 三協立山株式会社 fittings

Also Published As

Publication number Publication date
JP2013025723A (en) 2013-02-04

Similar Documents

Publication Publication Date Title
JP5054252B1 (en) Similar case search device, similar case search method, operation method and program of similar case search device
JP5475923B2 (en) Similar case retrieval apparatus and similar case retrieval method
JP4979842B1 (en) Similar case retrieval apparatus and similar case retrieval method
WO2013001584A1 (en) Similar case history search device and similar case history search method
JP5462414B2 (en) Similar case retrieval device, relevance degree database creation device, similar case retrieval method, and relevance degree database creation method
US9111027B2 (en) Similar case search apparatus and similar case search method
JP5852970B2 (en) CASE SEARCH DEVICE AND CASE SEARCH METHOD
JP6542664B2 (en) System and method for matching patient information to clinical criteria
JP5383431B2 (en) Information processing apparatus, information processing method, and program
US8306960B2 (en) Medical image retrieval system
JP2014029644A (en) Similar case retrieval device and similar case retrieval method
JP2008217362A (en) Similar case retrieving device, method, and program
KR20200077852A (en) Medical image diagnosis assistance apparatus and method generating evaluation score about a plurality of medical image diagnosis algorithm
JP5789791B2 (en) Similar case retrieval device and interpretation knowledge extraction device
JP2008217363A (en) Similar case retrieving device, method, and program
JP5677348B2 (en) CASE SEARCH DEVICE, CASE SEARCH METHOD, AND PROGRAM
KR20200114228A (en) Method and system for predicting isocitrate dehydrogenase (idh) mutation using recurrent neural network
WO2021107099A1 (en) Document creation assistance device, document creation assistance method, and program
Zhou et al. Computer‐aided detection of pulmonary embolism in computed tomographic pulmonary angiography (CTPA): Performance evaluation with independent data sets
JP5642054B2 (en) Medical image retrieval system
JP2007334781A (en) Health instruction support system
JP2013105465A (en) Medical synonym dictionary creating apparatus and medical synonym dictionary creating method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140620

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141008

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150316

R151 Written notification of patent or utility model registration

Ref document number: 5789791

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151