JP2014029644A - Similar case retrieval device and similar case retrieval method - Google Patents

Similar case retrieval device and similar case retrieval method Download PDF

Info

Publication number
JP2014029644A
JP2014029644A JP2012170477A JP2012170477A JP2014029644A JP 2014029644 A JP2014029644 A JP 2014029644A JP 2012170477 A JP2012170477 A JP 2012170477A JP 2012170477 A JP2012170477 A JP 2012170477A JP 2014029644 A JP2014029644 A JP 2014029644A
Authority
JP
Japan
Prior art keywords
interpretation
image feature
image
case
disease type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012170477A
Other languages
Japanese (ja)
Inventor
Kenji Kondo
堅司 近藤
Kazutoyo Takada
和豊 高田
Kazuki Kozuka
和紀 小塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2012170477A priority Critical patent/JP2014029644A/en
Publication of JP2014029644A publication Critical patent/JP2014029644A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a similar case retrieval device capable of efficiently retrieving similar cases with respect to a disease having plural disease types.SOLUTION: The similar case retrieval device includes: an image feature acquisition section 140 that acquires plural image feature quantity outputs from an image to be read; a primary retrieval section 150 that acquires plural case data which have the similarity with an image feature quantity output equal to or greater than a predetermined value; a reading item extraction section 160 that acquires reading items from a reading report included in the acquired case data; a case candidate cluster generating section 170 that generates plural case candidate clusters using the acquired reading items; a weight determination section 180 that identifies a reading item relative to the case candidate cluster to determine, on the basis of a reading knowledge database in which the relativeness between the respective image feature quantity output and the respective reading items are predetermined, a weight with a larger value to a higher relativeness between the image feature quantity output and the reading item; and a secondary retrieve section 190 that retrieves a case data by comparing while weighing the image feature quantity output of medical image included in the image feature quantity output and the case data acquired by the image feature acquisition section 140.

Description

本発明は、読影対象の症例に対して参考となる症例を自動的に検索する類似症例検索装置および類似症例検索方法に関する。   The present invention relates to a similar case search apparatus and a similar case search method for automatically searching for a case that serves as a reference for a case to be interpreted.

近年、CT(Computed Tomography)、MRI(Magnetic Resonance Imaging)等の医用画像装置の発達および普及によりデジタル化された高精細な医用画像が大容量で取得可能になっている。また、医師により読影済の医用画像は読影レポートと共にPACS(Picture Archiving and Communication Systems)に順次蓄積されつつある。ここで、新たな読影の参考とするため、読影対象の医用画像と類似した過去の医用画像を、蓄積済の過去症例から検索する技術が開発され始めている。   In recent years, high-definition medical images that have been digitized can be acquired in a large capacity due to the development and spread of medical imaging devices such as CT (Computed Tomography) and MRI (Magnetic Resonance Imaging). In addition, medical images that have been interpreted by a doctor are being sequentially accumulated in a PACS (Picture Archiving and Communication Systems) together with an interpretation report. Here, in order to refer to a new interpretation, a technique for searching a past medical image similar to a medical image to be interpreted from accumulated past cases has begun to be developed.

類似画像検索では、画像間の類似度を決定する画像特徴量を、検索対象画像に応じて最適化することが重要である。従来は、類似画像検索を行う対象の臓器毎に画像特徴量が設計されることが多く、臓器以外の概念レベル(例えば、疾病の種類、疾病の進行度、または疾病の重症度、等)に対しては、概念レベルが異なっていたとしても同一の画像特徴量を類似画像検索に使用することが殆どであった。   In the similar image search, it is important to optimize the image feature amount that determines the similarity between images according to the search target image. Conventionally, an image feature amount is often designed for each target organ for which a similar image search is performed, and the concept level other than the organ (for example, disease type, disease progression degree, disease severity, etc.) is used. On the other hand, even if the concept level is different, the same image feature amount is mostly used for similar image retrieval.

検索に使用する画像特徴量を、臓器以外の概念レベルに対して動的に変更する類似画像検索法が開示されている(例えば、非特許文献1および特許文献1参照)。   A similar image search method is disclosed in which the image feature amount used for the search is dynamically changed with respect to a concept level other than the organ (see, for example, Non-Patent Document 1 and Patent Document 1).

Jennifer G.Dy et al. “Unsupervised Feature Selection Applied to Content−based Retrieval of Lung Images”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.25, no.3, March 2003Jennifer G. Dy et al. “Unsupervised Feature Selection Applied to Content-based Retrieval of Lung Images”, IEEE Transactions on Pattern Analysis and Machine Intelligence. 25, no. 3, March 2003

特開2009−93563号公報JP 2009-93563 A

しかしながら、従来の類似画像検索法では、同じ疾病であっても病型が異なると画像における病変の見え方が大きく異なってしまう場合には、十分に対応できない。また、病型ごとに画像特徴量の予め用意し、用意した画像特徴量を用いて類似画像検索を行うのは、病型の数が膨大であることを考えると処理時間の観点から現実的ではない。   However, the conventional similar image search method cannot sufficiently cope with the case where the appearance of a lesion in an image greatly differs if the disease type is different even if the disease is the same. Also, preparing image feature amounts for each disease type in advance and performing similar image search using the prepared image feature amounts is not realistic from the viewpoint of processing time, considering that the number of disease types is enormous. Absent.

本発明は、上記従来の課題を解決するもので、複数の病型を持つ疾病に対して、効率的に類似症例を検索することができる類似症例検索装置を提供することを目的とする。   The present invention solves the above-described conventional problems, and an object of the present invention is to provide a similar case search apparatus that can efficiently search for similar cases for diseases having a plurality of disease types.

上記従来の課題を解決するために、本発明の一態様に係る類似症例検索装置は、医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データを複数蓄積した症例データベースから、読影対象の医用画像である読影対象画像に類似する医用画像を含む症例データを検索する類似症例検索装置であって、前記読影対象画像から複数の画像特徴量を取得する画像特徴取得部と、前記画像特徴取得部が取得した前記複数の画像特徴量と、前記症例データベースに登録されている各症例データに含まれる医用画像から取得される複数の画像特徴量とに基づき、前記読影対象画像と各症例データに含まれる医用画像との類似度を算出し、算出された前記類似度が所定値以上である前記医用画像を含む症例データを複数取得する1次検索部と、前記1次検索部が取得した各症例データが含む読影レポートから、医用画像の特徴を言語化した文字列である読影項目を複数抽出する読影項目抽出部と、前記読影項目抽出部が症例データ毎に抽出した複数の読影項目を用いて、読影項目の組み合わせが類似した症例データ群で構成される病型候補クラスタを複数生成する病型候補クラスタ生成部と、前記病型候補クラスタ生成部が生成した複数の病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、医用画像から抽出される各画像特徴量および当該医用画像に対する読影レポートから抽出される各読影項目の関連性を予め定めた読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と当該病型候補クラスタに含まれる読影項目との間の関連性が高いほど大きな値の重みを決定する重み決定部と、前記画像特徴取得部が抽出した前記複数の画像特徴量と、前記症例データベースに登録されている症例データに含まれる医用画像から取得される前記複数の画像特徴量とを、前記重み決定部が決定した画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記症例データベースより検索する2次検索部とを備える。   In order to solve the above-described conventional problem, a similar case search apparatus according to an aspect of the present invention includes a plurality of case data including a medical image and an interpretation report that is document data describing a result of interpretation of the medical image. A similar case retrieval apparatus for retrieving case data including a medical image similar to an interpretation target image that is a medical image to be interpreted from an accumulated case database, and an image for acquiring a plurality of image feature amounts from the interpretation target image Based on a feature acquisition unit, the plurality of image feature amounts acquired by the image feature acquisition unit, and a plurality of image feature amounts acquired from medical images included in each case data registered in the case database, Case data including the medical image in which the similarity between the image to be interpreted and the medical image included in each case data is calculated, and the calculated similarity is a predetermined value or more A plurality of primary search sections to be acquired; and an interpretation item extraction section to extract a plurality of interpretation items that are character strings obtained by verbalizing features of medical images from interpretation reports included in each case data acquired by the primary search section; Using a plurality of interpretation items extracted for each case data by the interpretation item extraction unit, a disease type candidate cluster generation unit that generates a plurality of disease type candidate clusters composed of case data groups with similar combinations of interpretation items; Extracted from each image feature amount extracted from the medical image and an interpretation report for the medical image for each of at least one disease type candidate cluster among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit. For each image feature amount acquired by the image feature acquisition unit, based on an interpretation knowledge database in which relevance of each interpretation item is determined in advance, the image feature amount and the disease A weight determination unit that determines a greater weight as the relevance between the interpretation items included in the candidate cluster is higher, the plurality of image feature amounts extracted by the image feature acquisition unit, and the case database Similar to the image to be interpreted by weighting and comparing the plurality of image feature amounts acquired from the medical image included in the case data included in the case data with weights for each image feature amount determined by the weight determination unit A secondary search unit that searches case data including medical images to be searched from the case database.

なお、本発明は、このような特徴的な処理部を備える類似症例検索装置として実現することができるだけでなく、類似症例検索装置に含まれる特徴的な処理部が実行する処理をステップとする類似症例検索方法として実現することができる。また、類似症例検索装置に含まれる特徴的な処理部としてコンピュータを機能させるためのプログラムまたは類似症例検索方法に含まれる特徴的なステップをコンピュータに実行させるプログラムとして実現することもできる。そして、そのようなプログラムを、CD−ROM(Compact Disc−Read Only Memory)等のコンピュータ読取可能な非一時的な記録媒体やインターネット等の通信ネットワークを介して流通させることができるのは、言うまでもない。   Note that the present invention can be realized not only as a similar case search apparatus including such a characteristic processing unit, but also by using a process executed by a characteristic processing unit included in the similar case search apparatus as a step. This can be realized as a case search method. It can also be realized as a program for causing a computer to function as a characteristic processing unit included in a similar case search apparatus or a program for causing a computer to execute characteristic steps included in a similar case search method. Such a program can be distributed via a computer-readable non-transitory recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet. .

本発明の類似症例検索装置によれば、複数の病型を持つ疾病に対して、効率的に類似症例を検索することができる類似症例検索装置を提供することができる。   According to the similar case retrieval apparatus of the present invention, it is possible to provide a similar case retrieval apparatus that can efficiently retrieve similar cases for diseases having a plurality of disease types.

本発明の実施の形態における類似症例検索装置の構成を示すブロック図The block diagram which shows the structure of the similar case search apparatus in embodiment of this invention 本発明の実施の形態における読影知識データベース作成の手順を示すフローチャートThe flowchart which shows the procedure of the interpretation knowledge database preparation in embodiment of this invention 本発明の実施の形態における画像特徴抽出の手順を示すフローチャートThe flowchart which shows the procedure of the image feature extraction in embodiment of this invention 本発明の実施の形態における胸部CT検査の読影レポートの例を示す図The figure which shows the example of the interpretation report of the chest CT examination in embodiment of this invention 本発明の実施の形態における読影レポートから抽出された読影項目および疾病名を示す図The figure which shows the interpretation item and disease name extracted from the interpretation report in embodiment of this invention 本発明の実施の形態における読影レポートから抽出された読影項目および疾病名、並びに、読影項目と同時に抽出された位置と存在の情報を示す図The figure which shows the information of the interpretation item and disease name extracted from the interpretation report in embodiment of this invention, and the position and presence extracted simultaneously with the interpretation item 本発明の実施の形態における、読影知識抽出のために取得したデータ一式を示す図The figure which shows a data set acquired for the interpretation knowledge extraction in embodiment of this invention. 本発明の実施の形態における、読影項目と画像特徴量との間の相関関係(二値)の概念図The conceptual diagram of the correlation (binary) between the interpretation item and image feature-value in embodiment of this invention 本発明の実施の形態における、読影項目と画像特徴量との間の相関関係(多値)の概念図The conceptual diagram of the correlation (multi-value) between the interpretation item and image feature-value in embodiment of this invention 本発明の実施の形態における、読影知識として抽出した(画像特徴量−読影項目)間の相関関係の格納形式を示す図The figure which shows the storage format of the correlation between the (image feature-value-interpretation item) extracted as interpretation knowledge in embodiment of this invention. 本発明の実施の形態における、医師の診断行為における、類似症例検索装置による類似症例検索処理の位置付けを説明するフローチャートThe flowchart explaining the positioning of the similar case search process by the similar case search device in the diagnosis act of the doctor in the embodiment of the present invention 本発明の実施の形態における類似症例検索の手順を示すフローチャートThe flowchart which shows the procedure of the similar case search in embodiment of this invention 本発明の実施の形態における、類似症例検索画面の一例を示す図The figure which shows an example of the similar case search screen in embodiment of this invention 本発明の実施の形態における、病変位置または領域の指定について説明するための図The figure for demonstrating designation | designated of a lesion position or an area | region in embodiment of this invention 本発明の実施の形態における、1次検索の様子を示す概念図The conceptual diagram which shows the mode of the primary search in embodiment of this invention 本発明の実施の形態における、1次検索の結果により得られた症例に含まれる読影項目の一例を示す図The figure which shows an example of the interpretation item contained in the case obtained by the result of the primary search in embodiment of this invention 本発明の実施の形態における、1次検索の結果により得られた症例に含まれる読影項目の一例を示す図The figure which shows an example of the interpretation item contained in the case obtained by the result of the primary search in embodiment of this invention 本発明の実施の形態における、読影項目ベクトルによるクラスタリング結果の概念図The conceptual diagram of the clustering result by the interpretation item vector in embodiment of this invention 本発明の実施の形態における、読影項目ベクトルによるクラスタリング結果の一例を示す図The figure which shows an example of the clustering result by the interpretation item vector in embodiment of this invention 本発明の実施の形態における、病型候補クラスタを形成する全読影項目ベクトルの平均ベクトルを利用した重み付け方法の概念図The conceptual diagram of the weighting method using the average vector of all the interpretation item vectors which form a disease type candidate cluster in embodiment of this invention 本発明の実施の形態における、類似症例検索装置のユーザ(読影者)に病型候補クラスタを選定させるための表示/入力画面の一例を示す図The figure which shows an example of the display / input screen for making the user (interpreter) of the similar case search device select an illness type candidate cluster in embodiment of this invention. 本発明の実施の形態における、類似症例検索装置のユーザ(読影者)に病型候補クラスタを選定させるための表示/入力画面の一例を示す図The figure which shows an example of the display / input screen for making the user (interpreter) of the similar case search device select an illness type candidate cluster in embodiment of this invention. 本発明の実施の形態における、病型候補クラスタに関する重み付け方法を示す概念図The conceptual diagram which shows the weighting method regarding a disease type candidate cluster in embodiment of this invention 本発明の実施の形態における、複数通りの重み付け検索を行う概念図The conceptual diagram which performs multiple kinds of weighted searches in embodiment of this invention 本発明の実施の形態における、類似症例表示部の表示画面の一例を示す図The figure which shows an example of the display screen of the similar case display part in embodiment of this invention 本発明の実施の形態における、類似症例表示部の表示画面の一例を示す図The figure which shows an example of the display screen of the similar case display part in embodiment of this invention 本発明の実施の形態における、病型候補クラスタに対して、重要な読影項目を特定する方法の概念図The conceptual diagram of the method of specifying an important interpretation item with respect to a disease type candidate cluster in embodiment of this invention. 本発明の実施の形態における、確定診断病名「MAC症」における、特定された読影項目の一例を示す図The figure which shows an example of the specified interpretation item in definite diagnosis disease name "MAC disease" in embodiment of this invention 本発明の実施の形態における、病型候補クラスタに関する重み付け方法を示す概念図The conceptual diagram which shows the weighting method regarding a disease type candidate cluster in embodiment of this invention

(本発明の基礎となった知見)
本発明者は、「背景技術」の欄において記載した、非特許文献1および特許文献1に関し、以下の問題が生じることを見出した。
(Knowledge that became the basis of the present invention)
The present inventor has found that the following problems occur with respect to Non-Patent Document 1 and Patent Document 1 described in the “Background Art” column.

非特許文献1は、検索に使用する画像特徴量を、臓器以外の概念レベルに対して動的に変更する類似画像検索法として、“customized−queries” approach(CQA)という2ステップの検索法を提案している。これは、第一ステップにて、疾病の種類、疾病の進行度または疾病の重症度、等のクラスを最も良好に分類できる画像特徴量を用いて、クエリ画像を分類する。第二ステップにて、分類結果となったクラスに含まれる症例をさらに細分類するために最適化された画像特徴量を用いて、類似画像を検索する。このとき、クラス毎に最適な画像特徴量は教師なし学習(unsupervised learning)により事前に求めておく。また、同文献では、CQAを肺CT画像に対して適用し、従来の1組の画像特徴量を用いた類似画像検索よりも、検索再現率を向上させている。   Non-Patent Document 1 discloses a two-step search method called “customized-queries” approach (CQA) as a similar image search method that dynamically changes the image feature amount used for search to a concept level other than an organ. is suggesting. In the first step, the query image is classified by using an image feature amount that can best classify a class such as a disease type, a disease progression degree, or a disease severity. In a second step, similar images are searched using image feature quantities optimized for further classifying cases included in the class that is the classification result. At this time, an optimal image feature amount for each class is obtained in advance by unsupervised learning. Further, in this document, CQA is applied to a lung CT image, and the retrieval recall rate is improved as compared with a similar image retrieval using a conventional set of image feature amounts.

特許文献1は、症例データベース中の医用画像に付属したテキスト情報を用いて、画像特徴空間を変換した上で、類似症例を検索する検索法を提案している。まず、初期の画像特徴空間にて検索キー画像と類似した候補画像群を検索する。次に候補画像群に関して記述されたテキスト情報からテキスト特徴を抽出し、抽出されたテキスト特徴の中から他と区別し易いテキスト特徴を選択する。そして、選択されたテキスト特徴と関連する画像特徴を用いて画像特徴空間を変換する。テキスト情報は医師の知識が反映されたものであるから、医師の知識を利用した画像特徴空間で類似症例検索を行うことができる。   Patent Document 1 proposes a search method for searching for similar cases after converting an image feature space using text information attached to a medical image in a case database. First, a candidate image group similar to the search key image is searched in the initial image feature space. Next, a text feature is extracted from the text information described with respect to the candidate image group, and a text feature that is easy to distinguish from others is selected from the extracted text features. Then, the image feature space is transformed using the image feature associated with the selected text feature. Since the text information reflects the doctor's knowledge, the similar case search can be performed in the image feature space using the doctor's knowledge.

しかし、非特許文献1では、疾病の種類毎に予め最適化された画像特徴量を用いているため、同じ疾病の種類であっても病型の違いにより、画像における病変の見え方が大きく異なる場合には十分に対応できないという課題を有している。ここで、病型とは英語ではdesease typeと訳され、原因、症状等によって分類された「病気の型」のことである。以下に、様々な病型分類の例を示す。   However, in Non-Patent Document 1, since image feature amounts optimized in advance for each disease type are used, the appearance of lesions in the image varies greatly depending on the disease type even for the same disease type. In some cases, there is a problem that it is not possible to respond sufficiently. Here, the disease type is a “disease type” that is translated into “dease type” in English and is classified according to the cause, symptom, and the like. Examples of various disease type classifications are shown below.

(1)原因で分類された病型の例
糖尿病:1型、2型 (日本糖尿病協会)
(2)症状で分類された病型の例
結核:I型、II型、III型、IV型、V型 (日本結核病学会分類)
統合失調症:破瓜型、緊張型、妄想型 (WHO国際疾病分類第10版(ICD−10))
(3)遺伝子発現パタンで分類された病型の例
乳がん:Luminal A,Luminal B,HER2−enriched,Basal like (Perou, Sorlieらによって提唱)
(1) Examples of disease types classified by cause Diabetes: Type 1 and Type 2 (Japan Diabetes Association)
(2) Examples of disease types classified by symptoms Tuberculosis: Type I, Type II, Type III, Type IV, Type V (Classification of the Japanese Tuberculosis Society)
Schizophrenia: Destructive type, tension type, delusion type (WHO International Classification of Diseases 10th edition (ICD-10))
(3) Examples of disease types classified by gene expression pattern Breast cancer: Luminal A, Luminal B, HER2-enriched, Basal like (Suggested by Perou, Sorlie et al.)

本開示では、病型が症状で分類され、その症状が医用画像で観測され、医用画像から病型が医師により推定可能である状況を対象とする。   The present disclosure is directed to a situation in which a disease type is classified by a symptom, the symptom is observed in a medical image, and the medical disease type can be estimated by a doctor from the medical image.

非特許文献1でも、病型を認識し、病型の種類毎に予め画像特徴量を求めておけば対応可能と思われるが、下記の理由により現実的ではない。   Even in Non-Patent Document 1, it is possible to cope by recognizing a disease type and obtaining an image feature amount in advance for each type of disease type, but this is not practical for the following reasons.

例えば、肺疾患において、肺非結核性抗酸菌症の一種であるMAC(Mycobacterium avium complex)症という疾患がある。このMAC症は、通常、1)結節・気管支拡張型、2)空洞形成型、3)孤立性結節型、4)全身播種型、5)過敏性肺炎型の5病型に分類される(非特許文献2:「胸部のCT 第3版」、編集:村田喜代史、上甲剛、村山貞之、出版:メディカルサイエンスインターナショナル)。   For example, as a pulmonary disease, there is a disease called MAC (Mycobacterium avium complex) disease which is a kind of non-tuberculous mycobacterial disease. This MAC disease is usually classified into five disease types: 1) nodule / bronchial dilation type, 2) cavity formation type, 3) solitary nodule type, 4) systemic dissemination type, 5) hypersensitivity pneumonia type (non) Patent Document 2: “Thoracic CT 3rd Edition”, edited by Kiyo Murata, Takeshi Kamiko, Sadayuki Murayama, published by Medical Science International).

例えば、1)結節・気管支拡張型の画像所見として、小結節および気管支拡張が混在して現れる。2)空洞形成型の画像所見として、空洞性病変や散布性病変を伴う結節影が現れる。4)全身播種型の画像所見として、縦隔リンパ節膨張が現れる。5)過敏性肺炎型では、小葉中心性の粒状影や汎小葉性すりガラス影が主体となり、モザイクパターンも同時に出現し易い。このMAC症の例では、同一疾患であっても、病型により異なる組み合わせの画像所見を呈する。しかも、実際にはその組み合わせの全てが常に出現するとは限らない。加えて、肺疾患では数十〜百数十種の疾病種が存在し、これらの疾病種が有する全ての病型を対象とする画像識別部を作成し、各病型に対して最適な画像特徴量を求めることは非常に困難である。   For example, 1) Nodules and bronchodilation appear together as nodule / bronchial dilation image findings. 2) A nodular shadow with a cavernous lesion or a disseminated lesion appears as a cavity-forming image. 4) Mediastinal lymph node swelling appears as a whole-seeding image. 5) In the hypersensitivity pneumonia type, a lobular central granular shadow and a panlobular ground glass shadow are mainly used, and a mosaic pattern tends to appear at the same time. In this example of MAC disease, even if the disease is the same, image findings of different combinations depending on the disease type are exhibited. Moreover, in practice, not all of the combinations always appear. In addition, there are several tens to hundreds of tens of disease types in lung diseases, and an image identification unit is created for all disease types possessed by these disease types, and an optimal image for each disease type It is very difficult to obtain the feature amount.

特許文献1では、初期の画像検索で取得された候補画像群に含まれるテキスト特徴から他と区別し易いテキスト特徴を選択し、このテキスト特徴と関連する画像特徴を用いて画像特徴空間を変換している。しかしながら、他と区別し易いテキスト特徴が、検索対象画像にとって識別の重要な手掛かりである保証はない。しかも、初期の画像検索での類似度閾値により、候補画像群の集合が影響を受けてしまい、他と区別し易いテキスト特徴が変動してしまう。また、特許文献1には処理の詳細が記述されていないため、本願が解決しようとしている複数の病型が存在する状況で実際にどのような効果が得られるか不明確である。   In Patent Document 1, a text feature that is easily distinguishable from others is selected from text features included in a candidate image group acquired by an initial image search, and an image feature space is converted using the image feature related to the text feature. ing. However, there is no guarantee that a text feature that can be easily distinguished from others is an important clue for identification for a search target image. In addition, the set of candidate images is affected by the similarity threshold in the initial image search, and the text features that are easily distinguished from the other change. Further, since details of processing are not described in Patent Document 1, it is unclear what effect can be actually obtained in a situation where there are a plurality of disease types to be solved by the present application.

このような問題を解決するために、本発明の一態様に係る類似症例検索装置は、医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データを複数蓄積した症例データベースから、読影対象の医用画像である読影対象画像に類似する医用画像を含む症例データを検索する類似症例検索装置であって、前記読影対象画像から複数の画像特徴量を取得する画像特徴取得部と、前記画像特徴取得部が取得した前記複数の画像特徴量と、前記症例データベースに登録されている各症例データに含まれる医用画像から取得される複数の画像特徴量とに基づき、前記読影対象画像と各症例データに含まれる医用画像との類似度を算出し、算出された前記類似度が所定値以上である前記医用画像を含む症例データを複数取得する1次検索部と、前記1次検索部が取得した各症例データが含む読影レポートから、医用画像の特徴を言語化した文字列である読影項目を複数抽出する読影項目抽出部と、前記読影項目抽出部が症例データ毎に抽出した複数の読影項目を用いて、読影項目の組み合わせが類似した症例データ群で構成される病型候補クラスタを複数生成する病型候補クラスタ生成部と、前記病型候補クラスタ生成部が生成した複数の病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、医用画像から抽出される各画像特徴量および当該医用画像に対する読影レポートから抽出される各読影項目の関連性を予め定めた読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と当該病型候補クラスタに含まれる読影項目との間の関連性が高いほど大きな値の重みを決定する重み決定部と、前記画像特徴取得部が抽出した前記複数の画像特徴量と、前記症例データベースに登録されている症例データに含まれる医用画像から取得される前記複数の画像特徴量とを、前記重み決定部が決定した画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記症例データベースより検索する2次検索部とを備える。   In order to solve such a problem, the similar case retrieval apparatus according to one aspect of the present invention includes a plurality of case data including a medical image and an interpretation report that is document data describing a result of interpretation of the medical image. A similar case retrieval apparatus for retrieving case data including a medical image similar to an interpretation target image that is a medical image to be interpreted from an accumulated case database, and an image for acquiring a plurality of image feature amounts from the interpretation target image Based on a feature acquisition unit, the plurality of image feature amounts acquired by the image feature acquisition unit, and a plurality of image feature amounts acquired from medical images included in each case data registered in the case database, Case data including the medical image in which the similarity between the image to be interpreted and the medical image included in each case data is calculated, and the calculated similarity is a predetermined value or more A plurality of primary search sections to be acquired; and an interpretation item extraction section to extract a plurality of interpretation items that are character strings obtained by verbalizing features of medical images from interpretation reports included in each case data acquired by the primary search section; Using a plurality of interpretation items extracted for each case data by the interpretation item extraction unit, a disease type candidate cluster generation unit that generates a plurality of disease type candidate clusters composed of case data groups with similar combinations of interpretation items; Extracted from each image feature amount extracted from the medical image and an interpretation report for the medical image for each of at least one disease type candidate cluster among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit. For each image feature amount acquired by the image feature acquisition unit, based on an interpretation knowledge database in which relevance of each interpretation item is determined in advance, the image feature amount and the disease A weight determination unit that determines a greater weight as the relevance between the interpretation items included in the candidate cluster is higher, the plurality of image feature amounts extracted by the image feature acquisition unit, and the case database Similar to the image to be interpreted by weighting and comparing the plurality of image feature amounts acquired from the medical image included in the case data included in the case data with weights for each image feature amount determined by the weight determination unit A secondary search unit that searches case data including medical images to be searched from the case database.

この構成によると、複数の病型を持つ疾病に対しても、予め病型を定義したり病型毎の検索用画像特徴量を用意すること無しに、1次検索の結果により得られた症例に含まれる「読影項目」を利用して画像特徴量を最適化することができる。具体的には、1次検索により得られた症例に含まれる「読影項目」を利用して、病型に準じたクラスタを動的に生成し、そのクラスタに含まれる「読影項目」に関連する画像特徴量を重視した画像検索を行う。これにより、検索元の画像に対し、可能性のある病型に対応した画像特徴量で検索を行うことができる。   According to this configuration, even for diseases having a plurality of disease types, cases obtained as a result of the primary search without defining disease types in advance or preparing search image feature values for each disease type The image feature amount can be optimized using the “interpretation item” included in the. Specifically, using “interpretation items” included in cases obtained by the primary search, a cluster according to the disease type is dynamically generated and related to the “interpretation items” included in the cluster. Perform image search with emphasis on image features. Thereby, it is possible to perform a search with an image feature amount corresponding to a possible disease type for the search source image.

「読影項目」とは、本明細書では、「読影医が、読影対象の医用画像の特徴を言語化した文字列」と定義する。使用する医用画像撮影装置または対象臓器等により、読影項目として使用される用語はほぼ限定される。読影項目の例として、分葉状、棘状、不整形、境界明瞭、輪郭不明瞭、低濃度、高濃度、低吸収、高吸収、スリガラス状、石灰化、モザイク状、早期濃染、低エコー、高エコー、毛羽立ち、等がある。   In this specification, “interpretation item” is defined as “a character string in which the characteristics of a medical image to be interpreted by an interpretation doctor are verbalized”. The terms used as interpretation items are almost limited depending on the medical imaging apparatus or target organ used. Examples of interpretation items include lobed, spiny, irregular, clear border, blurred outline, low density, high density, low absorption, high absorption, ground glass, calcification, mosaic, early dark stain, low echo, There is high echo, fluffing, etc.

例えば、前記重み決定部は、前記病型候補クラスタ生成部が生成した前記複数の病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、前記読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と当該病型候補クラスタに含まれる読影項目との間の関連性がより高く、かつ当該病型候補クラスタに含まれる読影項目の出現頻度がより高いほど、より大きな値の重みを決定しても良い。   For example, the weight determination unit may determine the image feature based on the interpretation knowledge database for each of at least one disease type candidate cluster among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit. For each image feature amount acquired by the acquisition unit, the relationship between the image feature amount and the interpretation item included in the disease type candidate cluster is higher, and the appearance frequency of the interpretation item included in the disease type candidate cluster The higher the value, the larger the weight may be determined.

この構成によると、病型候補クラスタに含まれる読影項目の出現頻度が高いほど、より重みを大きくすることができる。これにより、読影項目の出現頻度を加味した画像特徴量への重み付けを行うことができ、より検索精度を向上させることができる。   According to this configuration, the higher the appearance frequency of the interpretation items included in the disease type candidate cluster, the greater the weight. Thereby, it is possible to perform weighting on the image feature amount in consideration of the appearance frequency of the interpretation item, and the search accuracy can be further improved.

また、前記2次検索部は、前記画像特徴取得部より抽出された前記複数の画像特徴量と、前記症例データベースに登録されている症例データのうち前記1次検索部が取得した症例データに含まれる医用画像から取得される前記複数の画像特徴量とを、前記重み決定部が決定した画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記1次検索部が取得した複数の症例データより検索しても良い。   The secondary search unit is included in the plurality of image feature amounts extracted from the image feature acquisition unit and case data acquired by the primary search unit among case data registered in the case database. A case including a medical image similar to the image to be interpreted by weighting and comparing the plurality of image feature amounts acquired from a medical image to be weighted with a weight for each image feature amount determined by the weight determination unit Data may be searched from a plurality of case data acquired by the primary search unit.

この構成によると、1次検索部が取得した症例データを対象として、2次検索部により症例データの検索が行われる。このため、症例データの絞込みを効率的に行うことができる。   According to this configuration, case data search is performed by the secondary search unit for the case data acquired by the primary search unit. For this reason, case data can be narrowed down efficiently.

また、前記病型候補クラスタ生成部は、前記読影項目抽出部より症例データ毎に抽出された複数の読影項目を用いて、読影項目の組み合わせが類似し、かつ、症例データに付与されている確定診断病名が同一である、症例データ群で構成される病型候補クラスタを複数生成しても良い。   In addition, the disease type candidate cluster generation unit uses a plurality of interpretation items extracted for each case data from the interpretation item extraction unit, and the combination of interpretation items is similar and the confirmation is given to the case data A plurality of disease type candidate clusters composed of case data groups having the same diagnosis disease name may be generated.

この構成によると、疾病名ごとに、症例データをクラスタリングして病型候補クラスタを生成することができる。このため、生成された病型候補クラスタは、各疾病の病型に準じていると考えられる。   According to this configuration, it is possible to generate a disease type candidate cluster by clustering case data for each disease name. For this reason, it is considered that the generated disease type candidate cluster conforms to the disease type of each disease.

また、上述の類似症例検索装置は、さらに、前記2次検索部の検索結果をユーザに提示する提示部を備えていても良い。   The similar case search apparatus described above may further include a presentation unit that presents the search result of the secondary search unit to the user.

この構成によると、ユーザに検索結果を提示することができる。   According to this configuration, the search result can be presented to the user.

また、前記提示部は、前記病型候補クラスタ生成部が生成した病型候補クラスタ毎に、前記2次検索部が検索した症例データをユーザに提示しても良い。   The presenting unit may present the case data searched by the secondary search unit to the user for each disease type candidate cluster generated by the disease type candidate cluster generation unit.

病型候補クラスタごとに、検索された症例データが提示される。このため、ユーザは、病型候補と症例データとの対応付けを容易に行うことができる。   The retrieved case data is presented for each disease type candidate cluster. Therefore, the user can easily associate the disease type candidate with the case data.

また、前記重み決定部は、前記病型候補クラスタ生成部が生成した前記複数の病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、当該病型候補クラスタに含まれる読影項目のうち少なくとも1つの読影項目を特定し、前記読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と前記特定した読影項目との間の関連性が高いほど大きな値の重みを決定しても良い。   In addition, the weight determination unit includes, for each of at least one disease type candidate cluster among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit, an interpretation item included in the disease type candidate cluster. And at least one interpretation item is identified, and based on the interpretation knowledge database, for each image feature amount acquired by the image feature acquisition unit, the relationship between the image feature amount and the identified interpretation item is high A larger value weight may be determined.

病型候補クラスタに含まれる読影項目のうち、特定された読影項目に基づいて画像特徴量の重み付けが行われる。   Image feature amounts are weighted based on the specified interpretation items among the interpretation items included in the disease type candidate cluster.

また、上述の類似症例検索装置は、さらに、前記病型候補クラスタ生成部が生成した病型候補クラスタ毎に、前記2次検索部が検索した症例データと前記重み決定部が特定した読影項目とをユーザに提示する提示部を備えていても良い。   Further, the similar case search device described above further includes, for each disease type candidate cluster generated by the disease type candidate cluster generation unit, case data searched by the secondary search unit and interpretation items specified by the weight determination unit. May be provided to the user.

この構成によると、ユーザは、どのような読影項目を用いると、どのような検索結果が得られるかを知ることができる。   According to this configuration, the user can know what interpretation results are used and what search results are obtained.

また、上述の類似症例検索装置は、さらに、前記病型候補クラスタ生成部が生成した複数の病型候補クラスタのうちの、ユーザによるいずれかの病型候補クラスタの選択入力を受け付ける入力部を備え、前記重み決定部は、前記病型候補クラスタ生成部が生成した前記複数の病型候補クラスタのうち、前記入力部で受け付けられた選択入力が示す病型候補クラスタの各々に対し、当該病型候補クラスタに含まれる読影項目のうち少なくとも1つの読影項目を特定し、前記読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と前記特定した読影項目との間の関連性が高いほど大きな値の重みを決定しても良い。   Further, the similar case search apparatus described above further includes an input unit that receives a selection input of any disease type candidate cluster by the user from among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit. The weight determination unit, for each of the disease type candidate clusters indicated by the selection input received by the input unit among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit, Identify at least one interpretation item among the interpretation items included in the candidate cluster, and for each image feature amount acquired by the image feature acquisition unit based on the interpretation knowledge database, the image feature amount and the specified interpretation item You may determine the weight of a big value, so that the relationship between is high.

読影項目をユーザに選択させることにより、ユーザの着目点を反映させて画像特徴量の重み付けを行うことができる。これにより、ユーザの着目点を反映させた症例データの検索を行うことができる。   By causing the user to select an interpretation item, it is possible to weight the image feature amount by reflecting the user's point of interest. Thereby, the case data reflecting the user's point of interest can be searched.

なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD−ROMなどの記録媒体で実現されても良く、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されても良い。   These general or specific modes may be realized by a system, a method, an integrated circuit, a computer program, or a recording medium such as a computer-readable CD-ROM. The system, method, integrated circuit, computer program Alternatively, it may be realized by any combination of recording media.

以下、本発明の実施の形態について、図面を参照しながら説明する。なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、構成要素、構成要素の接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that each of the embodiments described below shows a specific example of the present invention. Numerical values, components, connection modes of components, steps, order of steps, and the like shown in the following embodiments are merely examples, and are not intended to limit the present invention. In addition, among the constituent elements in the following embodiments, constituent elements that are not described in the independent claims indicating the highest concept are described as optional constituent elements.

(実施の形態)
図1は、本発明の実施の形態における類似症例検索装置のブロック図である。
(Embodiment)
FIG. 1 is a block diagram of a similar case retrieval apparatus according to an embodiment of the present invention.

<構成>
類似症例検索装置は、医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データを複数蓄積した症例データベースから、読影対象の医用画像に類似する医用画像を含む症例データを検索する。類似症例検索装置は、症例データベース100と、読影知識データベース110と、読影対象画像読込部120と、読影対象画像表示部130と、画像特徴取得部140と、1次検索部150と、読影項目抽出部160と、病型候補クラスタ生成部170と、重み決定部180と、2次検索部190と、類似症例表示部200とを含む。また、類似症例検索装置は、図示せぬ読影レポート入力部を含む。
<Configuration>
The similar case retrieval apparatus obtains a medical image similar to a medical image to be interpreted from a case database in which a plurality of case data including a medical image and an interpretation report that is document data describing a result of interpretation of the medical image is stored. Search for case data. The similar case search device includes a case database 100, an interpretation knowledge database 110, an interpretation target image reading unit 120, an interpretation target image display unit 130, an image feature acquisition unit 140, a primary search unit 150, and an interpretation item extraction. Unit 160, disease type candidate cluster generation unit 170, weight determination unit 180, secondary search unit 190, and similar case display unit 200. The similar case retrieval apparatus includes an interpretation report input unit (not shown).

症例データベース100は、CT(Computed Tomography)またはMRI(Magnetic Resonance Imaging)等の医用画像(本開示中では「画像データ」のことを単に「画像」と言う)と、その医用画像を読影した結果である読影レポートとの対から構成される症例データ(以下、単に「症例」と言う。)を複数格納したデータベースである。読影知識データベース110は、複数の症例を解析することにより得た読影知識を格納したデータベースである。読影知識データベース110の詳細については後述する。症例データベース100および読影知識データベース110は、HDD(Hard Disk Drive)などの記憶装置に記憶される。   The case database 100 includes a medical image such as CT (Computed Tomography) or MRI (Magnetic Resonance Imaging) (in the present disclosure, “image data” is simply referred to as “image”) and a result obtained by reading the medical image. It is a database storing a plurality of case data (hereinafter simply referred to as “cases”) composed of a pair with a certain interpretation report. The interpretation knowledge database 110 is a database that stores interpretation knowledge obtained by analyzing a plurality of cases. Details of the interpretation knowledge database 110 will be described later. The case database 100 and the interpretation knowledge database 110 are stored in a storage device such as an HDD (Hard Disk Drive).

読影対象画像読込部120は、CTやMRI等の医用画像撮影装置で撮影された読影対象の医用画像である読影対象画像を、医用画像撮影装置または外部接続された記憶装置などから読み込む。   The interpretation target image reading unit 120 reads an interpretation target image, which is a medical image to be interpreted, taken by a medical image photographing apparatus such as CT or MRI from a medical image photographing apparatus or an externally connected storage device.

読影対象画像表示部130は、医療用の高精細モニタ等で構成され、読影対象画像読込部120で読み込んだ読影対象画像を表示する。   The interpretation target image display unit 130 includes a medical high-definition monitor or the like, and displays the interpretation target image read by the interpretation target image reading unit 120.

画像特徴取得部140は、読影対象画像読込部120で読み込まれた読影対象画像から複数種類の画像特徴量を抽出することにより、画像特徴量を取得し、画像特徴ベクトルを生成する。なお、画像特徴取得部140は、画像特徴量を抽出する代わりに、外部(例えば、ネットワークに接続された端末装置)から画像特徴量を受信することにより、画像特徴量を取得しても良い。   The image feature acquisition unit 140 acquires image feature amounts by extracting a plurality of types of image feature amounts from the interpretation target images read by the interpretation target image reading unit 120, and generates an image feature vector. Note that the image feature acquisition unit 140 may acquire the image feature amount by receiving the image feature amount from the outside (for example, a terminal device connected to the network) instead of extracting the image feature amount.

1次検索部150は、画像特徴取得部140で生成した画像特徴ベクトルと、症例データベース100に格納している症例データに含まれる医用画像から抽出された画像特徴ベクトルとを比較することにより、読影対象画像と症例データに含まれる医用画像との類似度を算出し、予め定めた所定値以上の類似度を有する複数の症例データを取得する。なお、本実施の形態では、症例データベース100に、症例データに含まれる医用画像から抽出された画像特徴ベクトルが予め記憶されているものとする。この画像特徴量ベクトルの抽出方法は、画像特徴取得部140による画像特徴量ベクトルの抽出方法と同じである。   The primary search unit 150 interprets an image by comparing the image feature vector generated by the image feature acquisition unit 140 with an image feature vector extracted from a medical image included in case data stored in the case database 100. The degree of similarity between the target image and the medical image included in the case data is calculated, and a plurality of case data having a degree of similarity equal to or greater than a predetermined value is acquired. In the present embodiment, it is assumed that image feature vectors extracted from medical images included in case data are stored in advance in case database 100. This image feature quantity vector extraction method is the same as the image feature quantity vector extraction method performed by the image feature acquisition unit 140.

読影項目抽出部160は、1次検索部150で取得した症例データが含む読影レポートから、医用画像の特徴を言語化した文字列である読影項目を症例データ毎に抽出する。   The interpretation item extraction unit 160 extracts, for each case data, an interpretation item that is a character string obtained by verbalizing the characteristics of the medical image from the interpretation report included in the case data acquired by the primary search unit 150.

病型候補クラスタ生成部170は、1次検索部150で取得した複数の症例データに対し、読影項目抽出部160で症例データ毎に取得した読影項目を用いて、読影項目の組み合わせが類似した症例データ群で構成される病型候補クラスタを複数生成する。   The disease type candidate cluster generation unit 170 uses the interpretation items acquired for each case data by the interpretation item extraction unit 160 for a plurality of case data acquired by the primary search unit 150, and the cases having similar combinations of interpretation items A plurality of candidate disease type clusters composed of data groups are generated.

重み決定部180は、病型候補クラスタ生成部170で複数生成した病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、医用画像から抽出される各画像特徴量と医用画像に対する読影レポートから抽出される各読影項目との間の関連性を予め定めた読影知識データベース110、および、病型候補クラスタに含まれる症例データが含む読影項目とに基づいて、画像特徴取得部140が抽出した画像特徴量ごとに、画像特徴量と読影項目との間の関連性が高いほど大きな値の重みを決定する。   The weight determination unit 180 applies to each image feature amount and medical image extracted from the medical image for each of at least one disease type candidate cluster among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit 170. Based on the interpretation knowledge database 110 in which the relationship between each interpretation item extracted from the interpretation report is determined in advance and the interpretation items included in the case data included in the disease type candidate cluster, the image feature acquisition unit 140 For each extracted image feature amount, a higher weight is determined as the relevance between the image feature amount and the interpretation item is higher.

2次検索部190は、画像特徴取得部140が抽出した複数の画像特徴量と、症例データベース100に登録されている症例データに含まれる医用画像から抽出される複数の画像特徴量とを、重み決定部180が決定した画像特徴量毎の重みで重み付けして比較することにより、読影対象画像に類似する医用画像を含む症例データを症例データベース100より検索する。   The secondary search unit 190 weights the plurality of image feature amounts extracted by the image feature acquisition unit 140 and the plurality of image feature amounts extracted from the medical images included in the case data registered in the case database 100. Case data including a medical image similar to the image to be interpreted is searched from the case database 100 by weighting and comparing with the weight for each image feature amount determined by the determination unit 180.

類似症例表示部200は、2次検索部190の検索結果をユーザに提示する提示部の一例であり、2次検索部190で検索された症例データを表示する。類似症例表示部200は、読影対象画像表示部130を構成する高精細モニタと同じ機種で別途構成されていても良く、読影対象画像表示部130を構成する高精細モニタに読影対象画像と類似症例を同時に表示しても良い。なお、類似症例表示部200と読影対象画像表示部130との機種は異なっていても良い。   The similar case display unit 200 is an example of a presentation unit that presents the search result of the secondary search unit 190 to the user, and displays the case data searched by the secondary search unit 190. The similar case display unit 200 may be separately configured with the same model as the high-definition monitor that constitutes the interpretation target image display unit 130. The similar case display unit 200 is similar to the interpretation target image and the similar case on the high-definition monitor that constitutes the interpretation target image display unit 130. May be displayed simultaneously. Note that the similar case display unit 200 and the interpretation target image display unit 130 may be of different models.

図示せぬ読影レポート入力部は、ユーザからの読影レポート入力を受け付ける。つまり、ユーザは、読影対象画像表示部130に表示された読影対象画像、および、類似症例表示部200に表示された類似症例を参考にしつつ、読影レポートを、図示せぬ読影レポート入力部に入力する。読影レポート入力部は、キーボードやマウスなどにより構成される。   An interpretation report input unit (not shown) receives an interpretation report input from the user. That is, the user inputs an interpretation report into an interpretation report input unit (not shown) while referring to the interpretation target image displayed on the interpretation target image display unit 130 and the similar case displayed on the similar case display unit 200. To do. The interpretation report input unit is composed of a keyboard, a mouse, and the like.

読影対象画像表示部130、類似症例表示部200、および、図示せぬ読影レポート入力部は、読影端末210を構成する。   The interpretation target image display unit 130, the similar case display unit 200, and the interpretation report input unit (not shown) constitute an interpretation terminal 210.

類似症例検索装置のユーザ(読影者)は、放射線科医、臨床医などの読影を行う医師である。ただし、ユーザは、これらに限定されるものではなく、臨床検査技師や医学生などのように医師免許を持たない者の場合もある。   The user (interpretator) of the similar case retrieval apparatus is a doctor who performs interpretation such as a radiologist and a clinician. However, the user is not limited to these, and may be a person who does not have a doctor's license, such as a clinical laboratory technician or a medical student.

<動作>
以後、類似症例検索装置の各部の動作について詳細に説明する。
<Operation>
Hereinafter, the operation of each part of the similar case retrieval apparatus will be described in detail.

<読影知識データベースの事前作成>
類似症例検索を行うに当たり、事前に読影知識を作成し、読影知識データベース110に格納しておく。読影知識は、医用画像とその医用画像を読影した結果である読影レポートとの対から構成される“症例”を複数集めたものから作成される。症例として、症例データベース100に格納されたものを用いても良いし、他のデータベースに格納されたものを用いても良い。必要な症例数は、種種のデータマイニングアルゴリズムを用いて何らかの法則性および知識を得るために十分となる数である。通常は数百〜数万個のデータが用いられる。本実施の形態では、読影知識データベース110に格納される読影知識として、医用画像から抽出される各画像特徴量と、当該医用画像に対する読影レポートから抽出される各読影項目との間の関連性、つまり、(画像特徴量−読影項目)の二項間の相関関係を用いる。
<Preparation of interpretation knowledge database>
In performing similar case search, interpretation knowledge is created in advance and stored in the interpretation knowledge database 110. The interpretation knowledge is created from a collection of a plurality of “cases” composed of a pair of a medical image and an interpretation report that is a result of interpretation of the medical image. As cases, those stored in the case database 100 may be used, or cases stored in other databases may be used. The required number of cases is sufficient to obtain some kind of law and knowledge using various data mining algorithms. Usually, hundreds to tens of thousands of data are used. In this embodiment, as the interpretation knowledge stored in the interpretation knowledge database 110, the relationship between each image feature amount extracted from the medical image and each interpretation item extracted from the interpretation report for the medical image, That is, the correlation between the two terms (image feature amount−interpretation item) is used.

「画像特徴量」としては、医用画像における臓器もしくは病変部分の形状に関するもの、または輝度分布に関するものなどがある。画像特徴量として、例えば、非特許文献3:「根本,清水,萩原,小畑,縄野,“多数の特徴量からの特徴選択による乳房X線像上の腫瘤影判別精度の改善と高速な特徴選択法の提案”,電子情報通信学会論文誌D−II,Vol.J88−D−II,No.2,pp.416−426,2005年2月」に490種類の特徴量を用いることが記載されている。本実施の形態においても、医用画像の撮像に使用した医用画像撮影装置(モダリティ)または読影の対象臓器ごとに予め定めた数十〜数百種の画像特徴量を用いる。   Examples of the “image feature amount” include those related to the shape of an organ or a lesion in a medical image, or those related to a luminance distribution. For example, Non-Patent Document 3: “Nemoto, Shimizu, Sugawara, Obata, Nawano,” Improvement of mass shadow discrimination accuracy on breast X-ray image and high-speed feature selection by feature selection from multiple feature amounts "Proposal of the method", IEICE Transactions D-II, Vol. J88-D-II, No. 2, pp. 416-426, February 2005 describes the use of 490 features. ing. Also in the present embodiment, several tens to several hundreds of image feature amounts determined in advance for each medical image capturing apparatus (modality) used for capturing a medical image or each target organ for interpretation are used.

以下、図2のフローチャートを用いて読影知識データベース作成の手順を説明する。本実施の形態で対象とする、つまり使用する医用画像撮影装置はマルチスライスCTとし、対象臓器は肺とする。   Hereinafter, the procedure for creating the interpretation knowledge database will be described with reference to the flowchart of FIG. The medical image capturing apparatus to be used in this embodiment, that is, to be used is a multi-slice CT, and the target organ is a lung.

ステップS10では、読影知識を得るための症例が格納されたデータベースから症例を1つ取得する。ここで読影知識を得るための症例の総数をC個とする。1つの症例は、医用画像とその医用画像を読影した結果である読影レポートとの対で構成されている。医用画像がマルチスライスCT装置により取得された場合、1つの症例は多数枚のスライス画像を含むことになる。また、通常、マルチスライスCT画像を医師が読影する場合、重要なスライス画像1〜数枚を、キー画像として読影レポートに添付する。以後、多数枚のスライス画像集合、あるいは、数枚のキー画像を単に「医用画像」、「画像」と呼ぶこともある。   In step S10, one case is acquired from a database storing cases for obtaining interpretation knowledge. Here, the total number of cases for obtaining interpretation knowledge is C. One case is composed of a pair of a medical image and an interpretation report that is a result of interpretation of the medical image. When a medical image is acquired by a multi-slice CT apparatus, one case includes a large number of slice images. In general, when a doctor interprets a multi-slice CT image, one to several important slice images are attached to the interpretation report as key images. Hereinafter, a large number of slice image sets or several key images may be simply referred to as “medical images” or “images”.

ステップS11では、医用画像から画像特徴量を抽出する。ステップS11の処理を、図3のフローチャートを用いて詳細に説明する。   In step S11, an image feature amount is extracted from the medical image. The process of step S11 will be described in detail using the flowchart of FIG.

ステップS111では、対象臓器の領域を抽出する。本実施の形態では肺領域を抽出する。肺領域抽出法として、例えば、非特許文献4:「北坂,森,長谷川,鳥脇,“可変ベジエ曲面による形状モデルを用いた3次元胸部X線CT像からの肺野領域抽出”,電子情報通信学会論文誌D−II,Vol.J83−D−II,No.1,pp.165−174,2000年1月」等の手法を用いることができる。   In step S111, the region of the target organ is extracted. In this embodiment, a lung region is extracted. Non-patent document 4: “Kitazaka, Mori, Hasegawa, Toriwaki,“ Lung field extraction from 3D chest X-ray CT image using shape model with variable Bezier curved surface ”, electronic information communication A method such as “Academic Journal D-II, Vol. J83-D-II, No. 1, pp. 165-174, January 2000” can be used.

ステップS112では、ステップS111で抽出された臓器領域から病変領域を抽出する。本実施の形態では肺領域から病変領域を抽出する。病変領域の抽出法として、例えば、非特許文献5:「長谷川,森,鳥脇,安野,片田,“3次元ディジタル画像処理による胸部連続CT像からの肺がん候補領域の自動抽出”,電子情報通信学会論文誌D−II,Vol.J76−D−II,No.8,pp.1587−1594,1993年8月」等の手法を用いることができる。但し、上記文献を含め、現時点では、炎症や腫瘍などの病的変化が狭い範囲内に限られている「限局性」と呼ばれる病変の自動抽出は多く提案されているが、「びまん性」と呼ばれる臓器内に広く広がった病変を正確に抽出する技術は確立されていない。そのため、びまん性肺疾患の場合は、医師等により手動で抽出することが望ましい。画像診断済の症例では、病変が含まれたスライス画像をキー画像として指定したり、病変の位置を矢印や領域で指定しているため、その情報を用いて病変領域を抽出することができる。ここで、i番目の症例における画像から抽出した病変の数をMiとすると、病変は(症例番号,病変番号)の組(i,j)で特定できる。ここで、1≦i≦C,1≦j≦Miである。   In step S112, a lesion area is extracted from the organ area extracted in step S111. In the present embodiment, a lesion area is extracted from a lung area. As a method for extracting a lesion area, for example, Non-Patent Document 5: “Hasegawa, Mori, Toriwaki, Anno, Katada,“ Automatic extraction of lung cancer candidate areas from chest CT images by three-dimensional digital image processing ”, IEICE Techniques such as “Paper Journal D-II, Vol. J76-D-II, No. 8, pp. 1587-1594, August 1993” can be used. However, including the above documents, at the present time, many automatic extractions of lesions called “localization” in which pathological changes such as inflammation and tumor are limited to a narrow range have been proposed, but “diffuse” A technique for accurately extracting a lesion that has spread widely in a so-called organ has not been established. Therefore, in the case of diffuse lung disease, it is desirable to extract manually by a doctor or the like. In a case having undergone image diagnosis, a slice image including a lesion is designated as a key image, and the position of the lesion is designated by an arrow or a region. Therefore, the lesion region can be extracted using the information. Here, if the number of lesions extracted from the image in the i-th case is Mi, the lesion can be specified by a set (i, j) of (case number, lesion number). Here, 1 ≦ i ≦ C and 1 ≦ j ≦ Mi.

ステップS113では、ステップS112で抽出された病変領域のうち、1つの領域を選択する。   In step S113, one region is selected from the lesion regions extracted in step S112.

ステップS114では、ステップS113で選択された病変領域から画像特徴量を抽出する。本実施の形態では、画像特徴量として、非特許文献6:「平野,長谷川,鳥脇,大松,江口,“3次元胸部CT像からのインタラクティブな肺腫瘤領域抽出と良悪性鑑別への応用”,電子情報通信学会論文誌D−II,Vol.J87−D−II,No.1,pp.237−247,2004年1月」および非特許文献7:「Yoshikazu Uchiyama, Shigehiko Katsuragawa, Hiroyuki Abe, Junji Shiraishi, Feng Li, Qiang Li, Chao−Tong Zhang, Kenji Suzuki, and Kunio Doi, “Quantitative computerized analysis of diffuse lung disease in high−resolution computed tomography”, Med. Phys. 30, 2440 (2003)」に記載された画像特徴量を用いる。この画像特徴量数をNIF個とする。本ステップで抽出された画像特徴量は、(症例番号,この症例(医用画像)から抽出された腫瘤番号,画像特徴量番号)の組(i,j,k)で特定できる。ここで、1≦i≦C,1≦j≦M,1≦k≦NIFである。 In step S114, an image feature amount is extracted from the lesion area selected in step S113. In this embodiment, non-patent document 6: “Hirano, Hasegawa, Toriwaki, Omatsu, Eguchi,“ Interactive lung tumor region extraction from 3D chest CT images and application to benign / malignant discrimination ”, IEICE Transactions D-II, Vol. J87-D-II, No. 1, pp. 237-247, January 2004 ”and Non-Patent Document 7:“ Yoshikazu Uchiyama, Shigehiko Katsuragawa, Hiroyuki Abe, Jun. ” Shirai, Feng Li, Qiang Li, Chao-Tong Zhang, Kenji Suzuki, and Kunio Doi, “Quantitatively computerized analysis of diffuses -resolution computed tomography ", Med. Phys. 30, 2440 (2003)" using the image feature amount described in. The number of image feature amounts is NIF . The image feature amount extracted in this step can be specified by a set (i, j, k) of (case number, tumor number extracted from this case (medical image), image feature amount number). Here, 1 ≦ i ≦ C, 1 ≦ j ≦ M i , and 1 ≦ k ≦ N IF .

ステップS115では、ステップS112で抽出された病変領域のうち未選択の病変があるかどうかをチェックし、未選択の病変がある場合は、ステップS113に戻り未選択の病変領域を選択した後、ステップS114を再実行する。未選択の病変がない場合、すなわち、ステップS112で抽出された全ての病変領域に対し、ステップS114の画像特徴量選択を行った場合は図3のフローチャートの処理を終了し、図2のフローチャートに戻る。   In step S115, it is checked whether or not there is an unselected lesion among the lesion areas extracted in step S112. If there is an unselected lesion, the process returns to step S113 to select an unselected lesion area. Re-execute S114. When there is no unselected lesion, that is, when the image feature amount selection in step S114 is performed for all the lesion areas extracted in step S112, the processing of the flowchart of FIG. 3 is terminated, and the flowchart of FIG. Return.

図2のステップS12では、読影レポートの解析処理を行う。具体的には読影レポートから読影項目および疾病名を抽出する。   In step S12 of FIG. 2, an interpretation report analysis process is performed. Specifically, an interpretation item and a disease name are extracted from the interpretation report.

本実施の形態では読影項目が格納された読影項目単語辞書、および疾病名が格納された疾病名単語辞書を用いる形態素解析および構文解析を行う。これらの処理により、各単語辞書に格納された単語と一致する単語を抽出する。形態素解析技術としては、例えば、非特許文献8:MeCab(http://mecab.sourceforge.net)や非特許文献9:ChaSen(http://chasen−legacy .sourceforge.jp)等が、構文解析技術としては、非特許文献10:KNP(http:/ /nlp.kuee.kyoto−u.ac.jp/nl−resource/knp.html)、非特許文献11:CaboCha(http://chasen.org/〜taku/software/cabocha/)等が存在する。読影レポートは医師により読影レポート独特の表現で記述されることが多いので、読影レポートに特化した形態素解析技術、構文解析技術、各単語辞書を開発することが望ましい。   In the present embodiment, morphological analysis and syntax analysis are performed using an interpretation item word dictionary storing interpretation items and a disease name word dictionary storing disease names. Through these processes, a word that matches the word stored in each word dictionary is extracted. As morphological analysis techniques, for example, Non-Patent Document 8: MeCab (http://mecab.sourceforge.net) and Non-Patent Document 9: ChaSen (http://chasen-legacy.sourceforge.jp) are syntactically analyzed. Non-patent document 10: KNP (http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp.html), Non-patent document 11: CaboCha (http://chasen.org) / ~ Take / software / cabocha /) etc. exist. Interpretation reports are often described by doctors with expressions unique to interpretation reports, so it is desirable to develop morphological analysis technology, syntax analysis technology, and word dictionaries specialized for interpretation reports.

図4は胸部CT検査の読影レポートの例であり、図5は図4の読影レポートから抽出された読影項目および疾病名を示す。i番目の症例における読影レポートから抽出した読影項目の数をNとすると、読影項目は(症例番号,読影項目番号)の組(i,j)で特定できる。ここで、1≦i≦C,1≦j≦Nである。 FIG. 4 is an example of an interpretation report of a chest CT examination, and FIG. 5 shows interpretation items and disease names extracted from the interpretation report of FIG. When i-th number of interpretation items extracted from the image interpretation report in case the N i, interpretation items can be identified by (case number, image interpretation item number) pairs of (i, j). Here, 1 ≦ i ≦ C and 1 ≦ j ≦ N i .

また、図5では、読影項目および疾病名の単語のみを抽出しているが、読影レポートにおける病変の位置や存在/非存在を表す文字列を同時に抽出しても良い。このため、読影項目だけでなく位置や存在/非存在の情報も合わせて抽出することで、後で説明する読影知識の抽出に有効となる。図6に、読影項目と同時に位置情報、存在/非存在情報を抽出した例を示す。例えば、図4の読影レポートを解析し、「右S6に浸潤影を認め」という文節から「浸潤影」の位置属性として「右S6」、存在/非存在属性として「認める(認め)」が抽出される。また、「リンパ節腫大は認めない」という文節から「リンパ節」の存在/非存在属性として「認めない」が抽出される。   In FIG. 5, only the interpretation item and the disease name word are extracted, but a character string indicating the position and presence / absence of a lesion in the interpretation report may be extracted simultaneously. For this reason, extracting not only the interpretation items but also the position and presence / absence information together is effective in extracting interpretation knowledge described later. FIG. 6 shows an example in which position information and presence / absence information are extracted simultaneously with the interpretation items. For example, the interpretation report of FIG. 4 is analyzed, and “right S6” is extracted as the position attribute of “infiltration shadow” and “acknowledgement (recognition)” is present as the presence / absence attribute from the phrase “recognition of infiltration shadow in right S6”. Is done. Also, “not recognized” is extracted as the presence / absence attribute of “lymph node” from the phrase “no lymph node enlargement”.

ステップS13では、読影知識を得るための症例が格納されたデータベースにおいて未取得の症例があるかどうかをチェックし、未取得の症例がある場合は、ステップS10に戻り未取得の症例を取得した後、ステップS11およびS12を実行する。未取得の症例がない場合、すなわち、全ての症例に対し、ステップS11の画像特徴抽出およびステップS12のレポート解析を実施済の場合は、ステップS14に進む。   In step S13, it is checked whether or not there is an unacquired case in the database storing cases for obtaining interpretation knowledge. If there is an unacquired case, the process returns to step S10 and an unacquired case is acquired. Steps S11 and S12 are executed. If there are no unacquired cases, that is, if image feature extraction in step S11 and report analysis in step S12 have been performed for all cases, the process proceeds to step S14.

ステップS11とステップS12の結果は相互に依存しないため、実行順は逆でも構わない。   Since the results of step S11 and step S12 do not depend on each other, the execution order may be reversed.

ステップS14に到達した時点で、例えば、図7で表されるデータ一式が取得される。つまり、症例ごとに画像特徴量と読影項目と疾病名とが取得される。症例番号1の症例については、医用画像中にM個の病変が含まれており、各病変から抽出される画像特徴量の個数はNIF個である。また、読影レポート中の読影項目の数はN個である。例えば、病変番号(1,1)で示される1つ目の病変のうち、1つ目の画像特徴量の値は0.851である。また、読影項目番号(1,1)で示される1つ目の読影項目の値は「浸潤影」である。図7の例では、各画像特徴量は0以上1以下の数値であり、読影項目および疾病名は文字列である。画像特徴量として負の値または1より大きな値をとるものを用いても良い。また、読影項目および疾病名として、予め定めた単語IDの形式にてデータを格納しても良い。 When the process reaches step S14, for example, a set of data represented in FIG. 7 is acquired. That is, an image feature amount, an interpretation item, and a disease name are acquired for each case. For the case of case number 1, M 1 lesions are included in the medical image, and the number of image feature amounts extracted from each lesion is NIF . In addition, the number of image interpretation items in the radiology report is one N. For example, the value of the first image feature value of the first lesion indicated by the lesion number (1, 1) is 0.851. The value of the first interpretation item indicated by the interpretation item number (1, 1) is “infiltration shadow”. In the example of FIG. 7, each image feature amount is a numerical value from 0 to 1, and the interpretation item and the disease name are character strings. An image feature value having a negative value or a value larger than 1 may be used. Further, data may be stored in the form of a predetermined word ID as an interpretation item and a disease name.

ステップS14では、ステップS11で得られた画像特徴量、および、ステップS12で得られた読影項目および疾病名から、読影知識を抽出する。本実施の形態では、画像特徴量と読影項目の二項の相関関係を、読影知識とする。   In step S14, interpretation knowledge is extracted from the image feature amount obtained in step S11 and the interpretation item and disease name obtained in step S12. In the present embodiment, the correlation between the two terms of the image feature quantity and the interpretation item is taken as interpretation knowledge.

<(画像特徴量−読影項目)間の相関関係>
1対の(画像特徴量,読影項目)間の相関関係の求め方について説明する。相関関係の表現形態は複数あるが、ここでは相関比を用いる。相関比は、質的データと量的データとの間の相関関係を表す指標であり、(式1)で表される。
<Correlation between (image feature-interpretation item)>
A method of obtaining the correlation between a pair of (image feature amount, interpretation item) will be described. Although there are a plurality of expression forms of the correlation, the correlation ratio is used here. The correlation ratio is an index representing a correlation between qualitative data and quantitative data, and is expressed by (Equation 1).

Figure 2014029644
Figure 2014029644

読影レポート中に、ある読影項目を含む場合および含まない場合の2カテゴリを考え、これを質的データとする。医用画像から抽出した、ある画像特徴量の値そのものを量的データとする。例えば、読影知識を抽出するための症例データベースに含まれる全症例に対し、読影レポートを、ある読影項目を含むものまたは含まないものに区分する。ここでは、読影項目「浸潤影」と画像特徴量「病変領域の輝度平均値」との相関比を求める方法について説明する。(式1)においては、カテゴリi=1を「浸潤影」を含むもの、カテゴリi=2を「浸潤影」を含まないものとする。読影レポートに「浸潤影」を含む症例から抽出した病変画像の「病変領域の輝度平均値」であるj番目の観測値をx1jとする。また、読影レポートに「浸潤影」を含まない症例から抽出した病変画像の「病変領域の輝度平均値」であるj番目の観測値をx2jとする。   In the interpretation report, two categories of cases where an interpretation item is included and not included are considered as qualitative data. The value of a certain image feature amount itself extracted from the medical image is used as quantitative data. For example, for all cases included in the case database for extracting interpretation knowledge, the interpretation report is classified into those including or not including a certain interpretation item. Here, a method of obtaining the correlation ratio between the interpretation item “infiltration shadow” and the image feature amount “luminance average value of lesion area” will be described. In (Expression 1), it is assumed that category i = 1 includes “infiltration shadow” and category i = 2 does not include “infiltration shadow”. The j-th observed value that is the “average luminance value of the lesion area” of the lesion image extracted from the case that includes “infiltration shadow” in the interpretation report is assumed to be x1j. Further, the j-th observed value that is the “brightness average value of the lesion area” of the lesion image extracted from the case that does not include “infiltration shadow” in the interpretation report is assumed to be x2j.

「浸潤影」とは、肺胞内への細胞成分や液体成分の貯留によって生じる陰影であり、肺炎、肺感染症などで出現する。CT画像においては、血管影が透けて見えないくらいの濃い陰影であり、−200HU〜+300HU程度のCT値をとる。読影レポートに「浸潤影」を含む場合では、病変のCT値が−200HU〜+300HU程度の症例が多くなり、読影レポートに「浸潤影」を含まない場合には、病変のCT値はさまざまな値をとる。よって、画像特徴量「病変領域の輝度平均値」と読影項目「浸潤影」とでは相関比が大きく(1に近く)なることが予想される。また、浸潤影は病変の形状には依存しないため、画像特徴量「病変の円形度」と読影項目「浸潤影」との相関比は小さく(0に近く)なることが予想される。このようにして、全ての読影項目と全ての画像特徴量との間の相関比を計算する。   The “infiltration shadow” is a shadow caused by accumulation of cell components and liquid components in the alveoli, and appears due to pneumonia, lung infection, and the like. In the CT image, the shadow is so deep that the blood vessel shadow cannot be seen through, and has a CT value of about −200 HU to +300 HU. When the interpretation report includes “invasion shadow”, there are many cases where the CT value of the lesion is about −200 HU to +300 HU, and when the interpretation report does not include “invasion shadow”, the CT value of the lesion has various values. Take. Therefore, it is expected that the correlation ratio between the image feature amount “brightness average value of the lesion area” and the interpretation item “infiltration shadow” is large (close to 1). Further, since the infiltration shadow does not depend on the shape of the lesion, it is expected that the correlation ratio between the image feature amount “circularity of the lesion” and the interpretation item “infiltration shadow” is small (close to 0). In this way, the correlation ratio between all interpretation items and all image feature amounts is calculated.

図8に、読影項目と画像特徴量との間の相関関係(ここでは、相関比)の概念図を示す。左側には複数の読影項目、右側には複数の画像特徴量の名称が列挙されている。そして、相関比が閾値以上の読影項目と画像特徴量の間が実線で結ばれている。相関比は0以上1以下の値をとるため、閾値として0.3〜0.7程度の値を用いることができる。計算した相関比を最終的に閾値で二値化すると、図8のような情報が求められることになる。   FIG. 8 shows a conceptual diagram of the correlation (here, the correlation ratio) between the interpretation item and the image feature amount. A plurality of interpretation items are listed on the left side, and names of a plurality of image feature amounts are listed on the right side. An interpretation item having a correlation ratio equal to or greater than a threshold and an image feature amount are connected by a solid line. Since the correlation ratio takes a value of 0 or more and 1 or less, a value of about 0.3 to 0.7 can be used as the threshold value. When the calculated correlation ratio is finally binarized with a threshold value, information as shown in FIG. 8 is obtained.

図9に、読影項目と画像特徴量との間の相関関係(例えば、相関比)の別の概念図を示す。この図では、読影項目「小粒状影」と複数の画像特徴量相関比を多値表現しており、読影項目と画像特徴量の間の実線の太さが相関比の大きさに相当している。「小粒状影」とは、直径2〜3mm大の微細病変が多数存在するのが特徴である。他の読影項目と比較して、病変の大きさで明確に区別できるため画像特徴量「病変面積」との相関が大きくなっている。   FIG. 9 shows another conceptual diagram of the correlation (for example, correlation ratio) between the interpretation item and the image feature amount. In this figure, the interpretation item “small granular shadow” and a plurality of image feature amount correlation ratios are expressed in multiple values, and the thickness of the solid line between the interpretation item and the image feature amount corresponds to the magnitude of the correlation ratio. Yes. “Small granular shadow” is characterized by the presence of many fine lesions having a diameter of 2 to 3 mm. Compared with the other interpretation items, the correlation with the image feature amount “lesion area” is large because it can be clearly distinguished by the size of the lesion.

相関比の値に着目することで、ある読影項目と相関の高い画像特徴量を特定することができる。実際には1つの症例には、複数の病変を含む場合が多く、その場合は読影レポートには複数の病変に関する記載が含まれることになる。例えば、1回のCT画像撮影にて、スライス画像が複数得られ、そのスライス画像列には複数の病変が含まれることも多く、1つの病変からは複数の画像特徴量が抽出される。そのため、(1人の患者から検出された病変数)×(画像特徴量の種類数)の個数だけ画像特徴量が得られ、これら複数の画像特徴量と、1つの読影レポートから抽出された複数の読影項目や疾病名との相関関係を求める必要がある。もちろん大量の症例を用いることにより、対応が正しく得られる可能性があるが、図6のように病変位置を用いる等して、読影レポートの記載と、対応する画像特徴量とをある程度事前に対応づけることができれば、より正確に相関関係を求めることができる。   By paying attention to the value of the correlation ratio, it is possible to specify an image feature amount having a high correlation with a certain interpretation item. Actually, one case often includes a plurality of lesions, and in that case, the interpretation report includes descriptions about the plurality of lesions. For example, a plurality of slice images are obtained by one CT image capturing, and the slice image sequence often includes a plurality of lesions, and a plurality of image feature amounts are extracted from one lesion. Therefore, as many image feature amounts as (number of lesions detected from one patient) × (number of types of image feature amounts) are obtained, and a plurality of image feature amounts and a plurality of image feature values extracted from one interpretation report are obtained. It is necessary to obtain the correlation with the interpretation items and disease names. Of course, there is a possibility that the correspondence can be obtained correctly by using a large number of cases, but the description of the interpretation report and the corresponding image feature amount are handled to some extent in advance by using the lesion position as shown in FIG. If it can be attached, a correlation can be calculated | required more correctly.

先の説明では、質的データが、ある読影項目を含むものおよび含まないものの2カテゴリである場合について説明したが、ある読影項目(例えば、「境界明瞭」)と、その対義語となる読影項目(例えば、「境界不明瞭」)との2カテゴリであっても良い。また、読影項目が「低濃度」、「中濃度」、「高濃度」などの序数尺度の場合は、それらの各々をカテゴリとして(この例では3カテゴリ)、相関比を計算しても良い。   In the above description, the case where the qualitative data is in two categories, including and not including a certain interpretation item, has been described. However, a certain interpretation item (for example, “clear border”) and its interpretation item ( For example, two categories such as “unclear boundary”) may be used. When the interpretation items are ordinal scales such as “low density”, “medium density”, and “high density”, the correlation ratio may be calculated using each of them as a category (three categories in this example).

また、「低濃度」、「低輝度」、「低吸収」などの同義語については、予め同義語辞書を作成しておき、それらを同一の読影項目として扱う。   For synonyms such as “low density”, “low luminance”, and “low absorption”, a synonym dictionary is created in advance, and these are treated as the same interpretation item.

以上の方法にて、ステップS14の処理を行うと、図10のような、(画像特徴量−読影項目)間の相関関係が得られる。なお表中の数値は相関比である。相関比は0以上1以下の値をとる。また、得られた相関関係は、図10の形式にて読影知識データベース110に格納される。   When the process of step S14 is performed by the above method, a correlation between (image feature amount−interpretation item) as shown in FIG. 10 is obtained. The numbers in the table are correlation ratios. The correlation ratio takes a value between 0 and 1. Further, the obtained correlation is stored in the interpretation knowledge database 110 in the format of FIG.

<類似症例検索>
以下、類似症例検索の処理手順について説明する。
<Similar case search>
Hereinafter, the processing procedure of the similar case search will be described.

図11は、医師の診断行為における、類似症例検索装置による類似症例検索処理の位置付けを説明するフローチャートである。   FIG. 11 is a flowchart for explaining the positioning of the similar case search process by the similar case search device in the diagnosis act of the doctor.

医師または検査技師は、CT装置またはMRI装置等を用いて、診断対象となる患者の画像を撮影することにより、取得する(S1)。   The doctor or laboratory technician obtains the image of the patient to be diagnosed by using a CT apparatus or an MRI apparatus (S1).

時を隔てて、類似症例検索装置が、S1の処理において取得された画像を読影対象画像として、当該読影対象画像に類似する類似症例を検索する(S2)。S2の処理については後述する。   At similar intervals, the similar case search device searches for similar cases similar to the image to be interpreted using the image acquired in the processing of S1 as the image to be interpreted (S2). The process of S2 will be described later.

医師は、S1で取得された読影対象画像と、類似症例検索装置が検索した類似症例とに基づいて、患者を診断する(S3)。   The doctor diagnoses the patient based on the image to be interpreted acquired in S1 and the similar case retrieved by the similar case retrieval device (S3).

つまり、類似症例検索装置による類似症例の検索は、医師による患者の診断における判断材料を提供する役割を果たす。   That is, the search for similar cases by the similar case search apparatus plays a role of providing a judgment material in diagnosis of a patient by a doctor.

次に、図12に示す図11のS2の処理の詳細について説明する。   Next, details of the process of S2 of FIG. 11 shown in FIG. 12 will be described.

図13に示す類似症例検索画面表示例は、図1の読影対象画像表示部130、類似症例表示部200、読影レポート入力部(図1に不図示)で構成される読影端末210の画面表示例である。   The similar case search screen display example shown in FIG. 13 is a screen display example of the interpretation terminal 210 configured by the interpretation target image display unit 130, the similar case display unit 200, and the interpretation report input unit (not shown in FIG. 1) of FIG. It is.

ステップS20では、読影対象画像読込部120が、医用画像撮影装置から読影対象画像を取得する。図2の読影知識データベース作成時と同じく、本実施の形態で対象とする医用画像撮影装置はマルチスライスCTとし、対象臓器は肺とする。読み込まれた画像(図13における読影対象画像300)は、読影対象画像表示部130に表示される。   In step S20, the interpretation target image reading unit 120 acquires an interpretation target image from the medical image photographing apparatus. As in the case of creating the interpretation knowledge database in FIG. 2, the medical imaging apparatus targeted in this embodiment is a multi-slice CT, and the target organ is a lung. The read image (interpretation target image 300 in FIG. 13) is displayed on the interpretation target image display unit 130.

ステップS21では、類似症例検索を行いたい対象の病変の指定を読影者から受け付ける。指定は、読影対象画像表示部130の画面上(読影対象画像300)で、マウスを用いて病変部をクリックすることにより行われる。   In step S21, designation of a target lesion for which a similar case search is to be performed is accepted from the radiogram interpreter. The designation is performed by clicking a lesioned part on the screen of the interpretation target image display unit 130 (interpretation target image 300) using a mouse.

この病変の指定について説明する。指定の方法として、病変の中心付近の1点を指定しても良いし、病変領域(輪郭線)を指定しても良い。中心付近の1点が指定された場合は、指定された点を基準としてその近傍領域から図3のステップS112と同じ方法を用いて詳細な病変領域を設定する。病変領域を大まかに指定した場合は、この領域の中からステップS112と同じ方法を用いて詳細な病変領域を設定する。   The designation of this lesion will be described. As a designation method, one point near the center of the lesion may be designated, or a lesion area (outline) may be designated. When one point near the center is designated, a detailed lesion area is set using the same method as step S112 in FIG. When the lesion area is roughly specified, a detailed lesion area is set from this area by using the same method as in step S112.

病変位置または領域の指定について、図14を用いて説明する。図14に示す読影対象画像400(ここでは胸部CT)には、胸部の周囲410と、対象臓器(ここでは肺)420と、病変領域430との像が含まれる。座標を指定する場合は、例えば、病変の中心位置付近(図14の点440)をマウスでクリックする。領域を指定する場合は、図14の病変領域430を矩形、円または楕円で囲む方法や、病変部(図14の病変領域430)と正常組織(図14の病変領域430の外側)間との境界を自由曲線で指定する方法がある。中心座標のみを指定する場合や、矩形、円または楕円等で囲むことにより領域を指定する場合は、読影者の負担が小さいという利点があるが、画像特徴量抽出のために、別途、正確な病変領域を画像処理アルゴリズムにより自動抽出する必要がある。病変領域抽出については、ステップS112と同じ手法を用いることができる。   The designation of the lesion position or region will be described with reference to FIG. An image to be interpreted 400 (here, chest CT) shown in FIG. 14 includes images of the periphery 410 of the chest, the target organ (here, lung) 420, and the lesion area 430. When designating the coordinates, for example, the vicinity of the center position of the lesion (point 440 in FIG. 14) is clicked with the mouse. When specifying an area, a method of surrounding the lesion area 430 in FIG. 14 with a rectangle, circle, or ellipse, or between a lesion area (lesion area 430 in FIG. 14) and a normal tissue (outside the lesion area 430 in FIG. 14). There is a way to specify the boundary with a free curve. When only the center coordinates are specified, or when an area is specified by surrounding it with a rectangle, circle, ellipse, etc., there is an advantage that the burden on the interpreter is small. It is necessary to automatically extract a lesion area by an image processing algorithm. For the lesion area extraction, the same technique as in step S112 can be used.

ステップS22では、画像特徴取得部140は、読影対象画像に対して、ステップS21にて指定または抽出された病変領域から抽出された画像特徴量を取得する。画像特徴量の種類および種類数はステップS114でのそれらと同一である。すなわち種類数はNIF個である。指定または抽出された病変領域が複数あればその全てに対して、NIF個の画像特徴量を取得する。画像特徴量の抽出は画像特徴取得部140内で実施しても良いし、他に存在する画像特徴抽出部で実施しても良い。 In step S22, the image feature acquisition unit 140 acquires an image feature amount extracted from the lesion area specified or extracted in step S21 for the image to be interpreted. The types and number of types of image feature amounts are the same as those in step S114. That is, the number of types is NIF . If there are a plurality of designated or extracted lesion areas, NIF image feature amounts are acquired for all of them. The extraction of the image feature amount may be performed in the image feature acquisition unit 140 or may be performed by another existing image feature extraction unit.

ステップS23では、1次検索部150は、症例データベース100の中から、ステップS22で取得された画像特徴量に類似した画像特徴量を有する症例を複数取得する。具体的には、症例データベース100に記憶されている症例に含まれる医用画像から抽出された画像特徴量と読影対象画像から抽出された画像特徴量との間で(式2)のようなユークリッド距離を算出し、距離が所定の閾値よりも小さい症例を検索結果候補症例として、症例データベース100から取得する。(式2)において、xは読影対象画像から抽出された複数(NIF個)の画像特徴量を全て連結したベクトルである。uは、症例データベース100に格納された症例のうち、i番目の症例から抽出された画像特徴量である。異なる種類の画像特徴量を連結する際は、画像特徴量毎のスケールの違いに影響を受けないよう正準化(平均0、分散1に正規化)を行っておく。 In step S23, the primary search unit 150 acquires a plurality of cases having an image feature amount similar to the image feature amount acquired in step S22 from the case database 100. Specifically, the Euclidean distance between (Equation 2) between the image feature amount extracted from the medical image included in the case stored in the case database 100 and the image feature amount extracted from the image to be interpreted. And a case whose distance is smaller than a predetermined threshold is acquired from the case database 100 as a search result candidate case. In (Expression 2), x is a vector obtained by concatenating all ( NIF ) image feature amounts extracted from the image to be interpreted. u i is an image feature amount extracted from the i-th case among cases stored in the case database 100. When different types of image feature quantities are connected, canonicalization (normalized to 0 average and 1 variance) is performed so as not to be affected by the difference in scale for each image feature quantity.

Figure 2014029644
Figure 2014029644

この1次検索の様子を、図15に示す。図15は、全NIF次元の画像特徴空間において、ステップS22で取得された画像特徴量を検索元として、所定の距離閾値以内の画像特徴量を特定した様子を示すイメージ図である。ステップS23では、所定の距離閾値以内の画像特徴量を有する過去症例を複数取得する。なお、ユークリッド距離の代わりに、単純類似度(余弦類似度)を用いても良い。この場合、所定の類似度閾値以上の画像特徴量を特定し、取得することになる。ここでは、本開示の特徴の一つである「重要な画像特徴量に対する重み付け」を行っていないので、検索元症例と候補症例との検索適合率(本類似症例検索装置のユーザである医師が認める類似症例である割合)は、それほど高くない。この段階では大まかに候補症例を検索し、その候補症例に含まれるテキスト特徴の集合を得ることを目的とする。後述するステップS25でのクラスタリングのために、少なくとも、検索対象元の症例と鑑別すべき疾病名が数個が含まれる程度の数の症例群を取得する。画像診断で疾病名を1つに絞りきれない場合、読影レポートには通常1〜数個程度の疑いのある疾病名が記載される。ここでは、疾病名5個が含まれるように類似度の閾値を調整し、症例群を取得することとする。 The state of this primary search is shown in FIG. FIG. 15 is an image diagram showing a state in which an image feature amount within a predetermined distance threshold is specified using the image feature amount acquired in step S22 as a search source in the image feature space of all N IF dimensions. In step S23, a plurality of past cases having image feature amounts within a predetermined distance threshold are acquired. A simple similarity (cosine similarity) may be used instead of the Euclidean distance. In this case, an image feature amount that is equal to or greater than a predetermined similarity threshold is specified and acquired. Here, since “weighting with respect to important image feature amounts”, which is one of the features of the present disclosure, is not performed, the search relevance rate between the search source case and the candidate case (the doctor who is the user of the similar case search apparatus The percentage of similar cases to be recognized is not so high. At this stage, the purpose is to roughly search for candidate cases and obtain a set of text features included in the candidate cases. For clustering in step S25, which will be described later, at least a number of case groups is acquired so as to include several disease names that should be distinguished from the search source case. When the disease name cannot be narrowed down to one in the image diagnosis, usually one to several suspected disease names are described in the interpretation report. Here, the threshold of similarity is adjusted so that five disease names are included, and a group of cases is acquired.

ステップS24では、読影項目抽出部160は、ステップS23で取得された症例群から、症例毎に読影項目を抽出する。各症例は読影済であるため、それぞれ読影レポートが付属している。自然言語文で作成された読影レポートについては、ステップS12と同様の処理を用いて読影項目を抽出する。標準化された表記、属性を用いて生成されている構造化レポートの場合は、画像所見に相当するキーワード(読影項目)を抽出する。そして、抽出された読影項目を用いて読影項目ベクトルを生成する。ここで、読影項目ベクトルとは、読影項目の種類数分の次元数(NII次元)を持ち、着目している症例が読影項目kを含む時、k次元目の要素をその読影項目の出現回数で表したものである。なお、出現回数を用いる代わりに、tf−idf(tf: Term Frequency, idf: Inverse Document Frequency)等の指標を用いても良い。このtf−idfを用いると、単語の出現回数に加えて、多くの読影レポートに出現する読影項目の重要度を下げ、特定の読影レポートにしか出現しない読影項目の重要度を上げるような出現回数の補正を行うことができる。また、読影項目には表記の揺らぎが存在するため、予め同義語辞書を用意しておき、読影項目ベクトルの各次元は同義語で縮退させた次元を用いても良い。各症例から抽出された読影項目の例を図16に示す。図16では、1回以上出現した読影項目キーワードの表記を表中に記載している。また、各読影項目ベクトルには、その属性として確定診断病名(疾病名)を付与しておいても良い。確定診断病名を付与している場合に、確定診断病名毎に症例をソートすると図17に示すような読影項目の例が得られる。確定診断病名の使用法については別途説明する。   In step S24, the interpretation item extraction unit 160 extracts an interpretation item for each case from the case group acquired in step S23. Since each case has been interpreted, an interpretation report is attached. For an interpretation report created with a natural language sentence, an interpretation item is extracted using the same process as in step S12. In the case of a structured report generated using standardized notation and attributes, keywords (interpretation items) corresponding to image findings are extracted. Then, an interpretation item vector is generated using the extracted interpretation items. Here, the interpretation item vector has the number of dimensions (NII dimensions) as many as the number of types of interpretation items, and when the focused case includes the interpretation item k, the element of the k-th dimension is the number of occurrences of the interpretation item. It is represented by. An index such as tf-idf (tf: Term Frequency, idf: Inverse Document Frequency) may be used instead of using the number of appearances. Using this tf-idf, in addition to the number of appearances of words, the number of appearances that lowers the importance of interpretation items appearing in many interpretation reports and increases the importance of interpretation items that appear only in specific interpretation reports Can be corrected. Moreover, since there is a fluctuation of notation in the interpretation item, a synonym dictionary may be prepared in advance, and each dimension of the interpretation item vector may be a dimension reduced by the synonym. An example of the interpretation items extracted from each case is shown in FIG. In FIG. 16, the notation of the interpretation item keyword that appears one or more times is shown in the table. Each interpretation item vector may be given a definite diagnosis disease name (disease name) as its attribute. In the case where a definite diagnosis disease name is given, if the cases are sorted for each definite diagnosis disease name, an example of an interpretation item as shown in FIG. 17 is obtained. The usage of the definite diagnosis disease name will be explained separately.

ステップS25では、病型候補クラスタ生成部170は、ステップS24で症例毎に生成した読影項目ベクトルを用いて、読影項目の組み合わせが類似した症例データ群で構成される病型候補クラスタを複数生成する。生成された病型候補クラスタの総数をNCALLとする。病型候補クラスタは、例えば、症例毎の読影項目ベクトルの集合に対してK平均法などのクラスタリング手法を用いて生成することができる。なお、階層型クラスタリングなどの他手法を用いることもできる(クラスタリング手法については、例えば、非特許文献12:「多変量データの分類−判別分析・クラスター分析」、佐藤義治著、朝倉書店、などの書籍を参照のこと)。ステップS24で説明した通り、読影項目ベクトルとは、読影項目の種類数分の次元数を持ち、その症例がある読影項目を含む時、対応する要素がその読影項目の出現回数で表されたベクトルである。例えば、図16において、記載されている読影項目は全て1回出現したものとすると、症例番号1の症例(以下、「症例1」という)の読影項目ベクトルは(1,0,0,1,0,0,0,0,…)となる。症例1では、読影項目として「空洞性病変」と「結節」が出現するので、1番目と4番目の要素が1となる。「空洞性病変」が2回出現する場合は、症例1の読影項目ベクトルは(2,0,0,1,0,0,0,0,…)となる。このような読影項目ベクトルに対し、クラスタリングを行う。クラスタリングにより、読影項目の組み合わせが類似した症例同士が同じクラスタを形成することになる。クラスタリングを行った結果のイメージ図を図18に示す。ここで、NII次元の読影項目空間を張る各軸は、各読影項目に相当する。ここで、読影項目は「読影対象の医用画像の特徴を言語化した文字列」と定義済であり、読影項目(の組み合わせ)が類似していることは、医用画像に表れる症状(の組み合わせ)が類似していることに相当する。よって、このクラスタは上述の「病型」に準じた集合になる。ここで、“準じた”と言及する理由は以下の通りである。このクラスタは単に読影項目の組み合わせが類似した症例に分類した集合であるだけで、実際の病型とは必ずしも一致しない。また、異なる確定診断病名に対応する症例同士を含むため「病型」とは呼べない。 In step S25, the disease type candidate cluster generation unit 170 generates a plurality of disease type candidate clusters composed of case data groups with similar combinations of interpretation items, using the interpretation item vectors generated for each case in step S24. . Let N CALL be the total number of generated disease type candidate clusters. A disease type candidate cluster can be generated using a clustering technique such as a K-average method for a set of interpretation item vectors for each case. Other methods such as hierarchical clustering can also be used (for example, Non-Patent Document 12: “Classification of multivariate data—discriminant analysis / cluster analysis”, Yoshiharu Sato, Asakura Shoten, etc.) See the book). As described in step S24, the interpretation item vector is a vector having dimensions corresponding to the number of types of interpretation items, and when the case includes a certain interpretation item, the corresponding element is represented by the number of appearances of the interpretation item. It is. For example, in FIG. 16, assuming that all the interpretation items described appear once, the interpretation item vector of the case of case number 1 (hereinafter referred to as “case 1”) is (1, 0, 0, 1, 0, 0, 0, 0, ...). In case 1, “cavity lesion” and “nodule” appear as interpretation items, so the first and fourth elements are 1. When the “cavity lesion” appears twice, the interpretation item vector of case 1 is (2, 0, 0, 1, 0, 0, 0, 0,...). Clustering is performed on such interpretation item vectors. By clustering, cases with similar combinations of interpretation items form the same cluster. An image of the result of clustering is shown in FIG. Here, each axis extending the NII-dimensional interpretation item space corresponds to each interpretation item. Here, the interpretation item is defined as “a character string obtained by verbalizing the characteristics of a medical image to be interpreted”, and that the interpretation item (combination) is similar is a symptom (combination) that appears in the medical image. Corresponds to the similarity. Therefore, this cluster becomes a set according to the above-mentioned “disease type”. Here, the reason for referring to “according to” is as follows. This cluster is simply a set classified into cases with similar combinations of interpretation items, and does not necessarily match the actual disease type. Moreover, since it includes cases corresponding to different definite diagnosis disease names, it cannot be called “disease type”.

なお、図17に示したように、各読影項目に、その属性として確定診断病名が付与されている場合は、確定診断病名毎に、読影項目の組み合わせが類似した症例データ群で構成される病型候補クラスタを複数生成する。   As shown in FIG. 17, when a definitive diagnosis disease name is given to each interpretation item as an attribute, a disease composed of case data groups in which combinations of interpretation items are similar for each definite diagnosis disease name. Generate multiple type candidate clusters.

MAC症に対応する読影項目ベクトルのクラスタリング結果の例を、図19に示す。図19では、18個の症例からNCALL=4個のクラスタが生成されている。これらのクラスタは、MAC症に関する症例群から構成されていると考えると、クラスタ番号1のクラスタ(以下、クラスタ番号iのクラスタをクラスタiと表記する)およびクラスタ2は「空洞形成型」、クラスタ3は「結節・気管支拡張型」、クラスタ4は「孤立性結節型」の症例が中心となって構成されていることが、含まれる読影項目から推定できる。画像特徴空間で類似した症例群は、疾病名が異なっていても読影項目(の組み合わせ)が類似している可能性が高い。よって、確定診断病名を用いなくても、本開示の目的を達成することができる。 An example of the clustering result of the interpretation item vectors corresponding to MAC disease is shown in FIG. In FIG. 19, N CALL = 4 clusters are generated from 18 cases. Considering that these clusters are composed of cases related to MAC disease, the cluster with cluster number 1 (hereinafter, the cluster with cluster number i is referred to as cluster i) and cluster 2 are “cavity-forming”, cluster It can be estimated from the interpretation items included that 3 is composed mainly of “nodule / bronchial dilation” and cluster 4 is composed of “isolated nodule”. A group of cases similar in the image feature space is likely to have similar interpretation items (combinations) even if the disease names are different. Therefore, the object of the present disclosure can be achieved without using a definite diagnosis disease name.

なお、確定診断病名を用いる場合は、生成されたクラスタがさらに実際の病型に対応し易くなる。   Note that when a definite diagnosis disease name is used, the generated cluster can more easily correspond to an actual disease type.

ステップS26では、重み決定部180は、ステップS25で生成した病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、医用画像から抽出される各画像特徴量と当該医用画像に対する読影レポートから抽出される各読影項目との間の関連性を予め定めた読影知識データベース、および、病型候補クラスタに含まれる読影項目ベクトルが含む読影項目とに基づいて、ステップS11で抽出した画像特徴量ごとに、画像特徴量と病型候補クラスタに含まれる読影項目ベクトルが含む読影項目との間の関連性が高いほど大きな値の重みを決定する。   In step S26, the weight determination unit 180 interprets each image feature amount extracted from the medical image and interpretation of the medical image for each of at least one disease type candidate cluster among the disease type candidate clusters generated in step S25. The image features extracted in step S11 based on the interpretation knowledge database in which the relevance between each interpretation item extracted from the report is predetermined and the interpretation items included in the interpretation item vector included in the disease type candidate cluster. For each quantity, a higher weight is determined as the relationship between the image feature quantity and the interpretation item included in the interpretation item vector included in the disease type candidate cluster is higher.

重みの決定方法について説明する。ここでは、病型候補クラスタを形成する全読影項目ベクトルの平均ベクトルを、「平均読影項目ベクトル」と名づけ、これを利用する。ここで、図19におけるクラスタ番号1のクラスタの平均読影項目ベクトルをv1=(0.7,0,0,0.4,0.1,0,0,0,...)とする。すなわち、読影項目「空洞性病変」の影響が0.7、「気管支拡張」および「気道性」の影響が共に0、「結節」の影響が0.4、「実質影」の影響が0.1、…であると考えることができる。よって、読影項目「空洞性病変」と各画像特徴量との重みに0.7を乗じた値と、「結節」と各画像特徴量との重みに0.4を乗じた値と、「実質影」と各画像特徴量との重みに0.1を乗じた値とを、対応する画像特徴量毎に加算することで、各画像特徴量への重みが計算できる。以上を図で表すと図20のようになる。全ての読影項目と、全ての画像特徴量の間には0以上1以下の値を持つ相関比が付与されている。ここでは、平均読影項目ベクトルの対応する要素が0である読影項目を除いて、重みを表す線分を表示している。病型候補クラスタ1に着目した場合、画像特徴量1に対応する重みは、(0.7×w1,1+0.4×w4,1+0.1×w5,1)のように計算できる。 A method for determining the weight will be described. Here, the average vector of all the interpretation item vectors forming the disease type candidate cluster is named “average interpretation item vector” and is used. Here, it is assumed that the average interpretation item vector of the cluster of cluster number 1 in FIG. 19 is v1 = (0.7, 0, 0, 0.4, 0.1, 0, 0, 0,...). That is, the influence of the interpretation item “cavity lesion” is 0.7, the influence of “bronchial dilation” and “airway” are both 0, the influence of “nodule” is 0.4, and the influence of “substantial shadow” is 0. It can be thought of as 1,. Therefore, a value obtained by multiplying the weight of the interpretation item “cavity lesion” and each image feature amount by 0.7, a value obtained by multiplying the weight of the “nodule” and each image feature amount by 0.4, The weight to each image feature amount can be calculated by adding a value obtained by multiplying the weight of each shadow image and each image feature amount by 0.1 for each corresponding image feature amount. This is illustrated in FIG. A correlation ratio having a value between 0 and 1 is assigned between all the interpretation items and all the image feature amounts. Here, line segments representing weights are displayed except for interpretation items whose corresponding element of the average interpretation item vector is 0. When attention is paid to the disease type candidate cluster 1, the weight corresponding to the image feature amount 1 is calculated as (0.7 × w 1,1 + 0.4 × w 4,1 + 0.1 × w 5,1 ). it can.

なお、ステップS25で生成した病型候補クラスタの全て(NCALL個)ではなく、一部の病型候補クラスタを選定して、重みベクトルを計算しても良い。ここで、重みベクトルを計算する対象となる病型候補クラスタの数をNCW(1≦NCW≦NCALL)とする。本類似症例検索装置による病型候補クラスタの自動選定の基準として、読影対象画像(検索元画像)と病型候補クラスタとの、画像特徴空間における距離を利用することができる。ステップS25で生成された病型候補クラスタは、図18で表されるように読影項目空間でのクラスタであるため、これを画像特徴空間のクラスタに変換して、各クラスタに含まれる症例と検索元症例とを比較する。読影項目空間の画像特徴空間への変換は、病型候補クラスタ毎に、当該病型候補クラスタに含まれる症例の画像特徴ベクトルを取得し、それらの平均ベクトル、つまり病型候補クラスタを代表する画像特徴ベクトルを作成することにより対応できる。この病型候補クラスタ毎の代表画像特徴ベクトルとステップS22で抽出された検索元症例の画像特徴量とを比較し、所定の距離以内の代表画像特徴ベクトル、または、距離の小さいものから所定数の代表画像特徴ベクトルを選択することで、一部の病型候補クラスタを選定することができる。 Note that some of the disease type candidate clusters may be selected instead of all of the disease type candidate clusters generated in step S25 (N CALL pieces), and the weight vector may be calculated. Here, let N CW (1 ≦ N CW ≦ N CALL ) be the number of disease type candidate clusters for which weight vectors are calculated. As a reference for automatic selection of disease type candidate clusters by the similar case search device, the distance in the image feature space between the image to be interpreted (search source image) and the disease type candidate cluster can be used. Since the disease type candidate cluster generated in step S25 is a cluster in the interpretation item space as shown in FIG. 18, it is converted into a cluster in the image feature space, and the cases included in each cluster are searched. Compare the original case. For the conversion of the interpretation item space into the image feature space, for each disease type candidate cluster, image feature vectors of cases included in the disease type candidate cluster are obtained, and an average vector thereof, that is, an image representing the disease type candidate cluster. This can be done by creating a feature vector. The representative image feature vector for each disease type candidate cluster is compared with the image feature quantity of the search source case extracted in step S22, and a predetermined number of representative image feature vectors within a predetermined distance or those having a small distance are used. By selecting representative image feature vectors, some disease type candidate clusters can be selected.

また、本類似症例検索装置のユーザ(読影者)が病型候補クラスタを選定しても良い。この場合には、ステップS25とステップS26の間に病型候補クラスタの選択処理を設けても良い。この選択処理は、複数の病型候補クラスタについて、病型候補クラスタを構成する上で支配的な読影項目(の組み合わせ)をユーザに提示し、ユーザに選択させることで実現できる。図示しない入力部が、ユーザによる病型候補クラスタの選択入力を受け付ける。ここでは、平均読影項目ベクトルの要素が所定の閾値以上である読影項目を表示する。図21にその画面表示例を示す。読影端末210の画面には、「検索パタン」の選択入力を受け付けるボタン501と、病型候補クラスタを説明する読影項目(の組み合わせ)503とが表示されている。この「検索パタン」は、読影項目(の組み合わせ)に対応しており、病型に準じたものと見なすことができる。ユーザは、ステップS26にて特定した病型候補クラスタ毎の代表読影項目(の組み合わせ)を参照し、読影対象画像を良く表現しているとユーザが判断した検索パタンに対応するボタン501をマウスでクリックすると、病型候補クラスタが選定されることになる。なお、ステップS25で、確定診断病名毎に病型候補クラスタを生成した場合は、図22のように、読影端末210の画面に、検索パタンと合わせて、確定診断病名502も合わせて表示することができる。これにより、ユーザが病型候補クラスタを選定する際のさらに有用な補助情報になる。   In addition, a user (interpreter) of the similar case search apparatus may select a disease type candidate cluster. In this case, a disease type candidate cluster selection process may be provided between step S25 and step S26. This selection process can be realized by presenting (interpreting) a dominant interpretation item in composing a disease type candidate cluster to a user for a plurality of disease type candidate clusters and allowing the user to select. An input unit (not shown) receives selection input of a disease type candidate cluster by the user. Here, an interpretation item whose average interpretation item vector element is equal to or greater than a predetermined threshold is displayed. FIG. 21 shows an example of the screen display. On the screen of the interpretation terminal 210, a button 501 for accepting a selection input of “search pattern” and an interpretation item (combination) 503 for explaining a disease type candidate cluster are displayed. This “search pattern” corresponds to the interpretation item (combination thereof) and can be regarded as conforming to the disease type. The user refers to the representative interpretation items (combinations) for each disease type candidate cluster identified in step S26, and uses the mouse to select a button 501 corresponding to the search pattern determined by the user that the interpretation target image is well represented. Click to select a disease type candidate cluster. When a disease type candidate cluster is generated for each confirmed diagnosis disease name in step S25, the confirmed diagnosis disease name 502 is also displayed on the screen of the interpretation terminal 210 together with the search pattern as shown in FIG. Can do. Thereby, it becomes more useful auxiliary information when the user selects a disease type candidate cluster.

ステップS27では、2次検索部190は、ステップS22で抽出した画像特徴量、及び、ステップS26で決定したNCW個の重みベクトルを用いて、症例データベース100から類似症例を検索する。NCW通りの重みベクトルは、それぞれNCW個の病型候補クラスタに対応する重み付け検索のために用いられる。まず、1個の重みベクトルを用いた重み付け検索方法について、説明する。 In step S27, the secondary search unit 190 searches for a similar case from the case database 100 using the image feature quantity extracted in step S22 and the N CW weight vectors determined in step S26. The N CW weight vectors are used for weighted searches corresponding to N CW disease type candidate clusters, respectively. First, a weighted search method using one weight vector will be described.

<1個の重みベクトルを用いた重み付け検索>
2次検索部190は、症例データベース100に記憶されている症例に含まれる医用画像から抽出された画像特徴量と読影対象画像から抽出された画像特徴量との間で重み付け距離を算出する。2次検索部190は、重み付け距離が所定の閾値よりも小さい症例を類似症例として、症例データベース100から検索する。または、2次検索部190は、重み付け距離が小さいものから所定個数分の症例を類似症例として、症例データベース100から検索する。
<Weighted search using one weight vector>
The secondary search unit 190 calculates a weighted distance between the image feature amount extracted from the medical image included in the case stored in the case database 100 and the image feature amount extracted from the interpretation target image. The secondary search unit 190 searches the case database 100 for cases having a weighted distance smaller than a predetermined threshold as similar cases. Alternatively, the secondary search unit 190 searches the case database 100 for a predetermined number of cases having a small weighting distance as similar cases.

重み付け距離は、例えば(式3)にて計算できる。ここで、xは、読影対象画像から抽出された複数(NIF個)の画像特徴量を全て連結したベクトルである。uは、症例データベース100に格納された症例のうち、i番目の症例から抽出された画像特徴量である。異なる種類の画像特徴量を連結する際は、画像特徴量毎のスケールの違いに影響を受けないよう正準化(平均0、分散1に正規化)を行っておく。wは、j番目の画像特徴量に関する重みである。ここでは、ステップS26で計算した重みを用いる。 The weighted distance can be calculated by, for example, (Equation 3). Here, x is a vector in which a plurality of ( NIF ) image feature amounts extracted from the image to be interpreted are all connected. u i is an image feature amount extracted from the i-th case among cases stored in the case database 100. When different types of image feature quantities are connected, canonicalization (normalized to 0 average and 1 variance) is performed so as not to be affected by the difference in scale for each image feature quantity. w j is a weight related to the j-th image feature amount. Here, the weight calculated in step S26 is used.

Figure 2014029644
Figure 2014029644

本実施の形態では、ステップS26で病型候補クラスタ毎に決定した重みを基に、重み付け距離計算を行う。即ち、病型候補クラスタのうち支配的な読影項目(つまり、平均読影項目ベクトルの要素の値が大きい読影項目)に関しては重みを相対的に大きく、同時に、読影項目と相関の大きい画像特徴量に関しては重みを相対的に大きくする。これにより、病型候補クラスタの特徴を反映した類似症例検索が可能となる。これを図23を用いて説明する。図23の(a)は、ステップS26において、病型候補クラスタに対応する平均読影項目ベクトルを入力として重みベクトルWを取得する様子を示している。ステップS26で説明したとおり、この重みベクトルWは、平均読影項目ベクトルの要素と、読影項目と画像特徴量間の相関関係から計算される。図23の(b)では、重みベクトルWを用いて、NIF個の画像特徴量に対して、それぞれ重み付けを行う。即ち、平均読影項目ベクトルにおいて支配的な読影項目の特徴をよく表現する画像特徴量に大きく重み付けをして検索する。 In the present embodiment, weighted distance calculation is performed based on the weight determined for each disease type candidate cluster in step S26. That is, for the dominant interpretation items (that is, interpretation items having a large average interpretation item vector element value) among the disease type candidate clusters, the weight is relatively large, and at the same time, the image feature amount having a large correlation with the interpretation item. Increases the weight relatively. This makes it possible to search for similar cases that reflect the characteristics of the disease type candidate cluster. This will be described with reference to FIG. (A) of FIG. 23 shows how the weight vector W is acquired in step S26 using the average interpretation item vector corresponding to the disease type candidate cluster as an input. As described in step S26, the weight vector W is calculated from the elements of the average interpretation item vector and the correlation between the interpretation item and the image feature amount. In (b) of FIG. 23, using the weight vector W, with respect to N IF pieces of image feature amounts, performed respectively weighted. In other words, the image feature quantity that well expresses the characteristic of the dominant interpretation item in the average interpretation item vector is heavily weighted for retrieval.

<NCW個の重みベクトルを用いた重み付け検索>
2次検索部190は、複数(NCW個)の病型候補クラスタのそれぞれに対して、重み付け検索を行う。各病型候補クラスタは、その病型候補クラスタに含まれる読影項目の組み合わせが類似するように生成されている。すなわち、診断対象症例を、複数の病型として見た場合に、病型ごとに類似症例を検索することになる。図24に、複数通りの重み付け検索を行うイメージ図を示す。それぞれの病型候補クラスタに含まれる読影項目が異なるため、NIF次元の画像特徴空間への重み付けがそれぞれ異なるように検索が行われる。
<Weighted search using N CW weight vectors>
The secondary search unit 190 performs a weighted search for each of a plurality (N CW ) of disease type candidate clusters. Each disease type candidate cluster is generated so that combinations of interpretation items included in the disease type candidate cluster are similar. That is, when a diagnosis target case is viewed as a plurality of disease types, similar cases are searched for each disease type. FIG. 24 shows an image diagram in which a plurality of weighted searches are performed. Since the interpretation items included in each disease type candidate cluster are different, the search is performed so that the weighting to the image feature space of the NIF dimension is different.

なお、ここでは、症例データベース100に記憶されている症例を対象として2次検索を行なう例について説明したが、検索対象症例を1次検索結果の症例に限定して2次検索を行なっても良い。対象を限定することで、高速な検索が可能となる。一方、症例データベース100から2次検索を行なう場合は、着目点を限定することで、画像特徴量の全次元を等しく扱う1次検索で漏れてしまった症例を検索することができる。   Although an example in which a secondary search is performed for cases stored in the case database 100 has been described here, a secondary search may be performed by limiting the search target cases to cases of the primary search result. . By limiting the target, a high-speed search becomes possible. On the other hand, when performing a secondary search from the case database 100, by limiting the points of interest, it is possible to search for cases that have been leaked in the primary search that treats all dimensions of the image feature amount equally.

ステップS28では、類似症例表示部200は、検索された類似症例を、図13の類似症例表示領域320に表示する。類似症例表示領域320の表示画面の例を図25に示す。図25では、重視した読影項目毎に、最も類似度が高い検索結果画像とそのレポートを表示している。重視した読影項目とは、例えば、各病型候補クラスタの平均読影項目ベクトルの要素の値が所定の閾値以上の読影項目である。読影対象画像300に対し、「重視した読影項目」322の観点で類似症例を検索した場合に、読影者は、検索される検索結果画像323と読影レポート324を参考にすることで、読影対象画像300の読影の参考とすることができる。特に、画像の見方(着眼点)に慣れていない研修医や、専門外の臓器を扱う読影医にとっては、「重視した読影項目」322を確認することで、読影スキルを向上させることができる。   In step S28, the similar case display unit 200 displays the searched similar cases in the similar case display area 320 of FIG. An example of the display screen of the similar case display area 320 is shown in FIG. In FIG. 25, the search result image with the highest similarity and its report are displayed for each important interpretation item. An important interpretation item is, for example, an interpretation item whose element value of the average interpretation item vector of each disease type candidate cluster is equal to or greater than a predetermined threshold. When similar cases are searched from the viewpoint of “important interpretation items” 322 with respect to the interpretation target image 300, the interpreter refers to the search result image 323 and the interpretation report 324 to be searched for, thereby interpreting the interpretation target image 300. It can be used as a reference for 300 interpretations. In particular, for a resident who is not accustomed to viewing (focusing on) an image or an interpreting doctor who handles an unspecialized organ, the interpretation skill can be improved by confirming the “important interpretation item” 322.

なお、確定診断病名を用いる場合の類似症例表示部200の表示画面の例を図26に示す。図26では、確定診断病名321と「重視した読影項目」322毎に、最も類似度が高い検索結果画像323とその読影レポート324が表示されている。読影者は、読影対象画像300に対し、確定診断病名321および「重視した読影項目」322の観点で類似症例を検索した場合に、検索される検索結果画像323と読影レポート324を参考にすることで、読影対象画像300の読影の参考とすることができる。   In addition, the example of the display screen of the similar case display part 200 in the case of using a definite diagnosis disease name is shown in FIG. In FIG. 26, for each confirmed diagnosis disease name 321 and “important interpretation item” 322, a search result image 323 having the highest similarity and an interpretation report 324 are displayed. When an image interpreter searches similar images from the viewpoint of a definitive diagnosis disease name 321 and “important image interpretation items” 322 with respect to the image to be interpreted 300, the image interpreter refers to the retrieved search result image 323 and the image interpretation report 324. Thus, it can be used as a reference for interpretation of the interpretation target image 300.

かかる構成によれば、1次検索部150において、まず画像として大まかに類似した過去症例を複数取得し、読影項目抽出部160において、取得した症例から読影項目を抽出する。また、病型候補クラスタ生成部170において、読影項目の組み合わせが類似したクラスタを生成し、重み決定部180において、クラスタ毎に重みを決定し、2次検索部190において、重み付け検索を行う。このことで、予め病型毎に画像特徴量セットを用意すること無しに、検索対象画像と類似した画像群の情報を元に画像特徴量に対し重み付けを行うことができ、医学的な観点に応じた類似症例検索を効率的に行うことが可能となる。   According to this configuration, the primary search unit 150 first acquires a plurality of past cases roughly similar as images, and the interpretation item extraction unit 160 extracts interpretation items from the acquired cases. In addition, the disease type candidate cluster generation unit 170 generates clusters having similar combinations of interpretation items, the weight determination unit 180 determines a weight for each cluster, and the secondary search unit 190 performs weighted search. This makes it possible to weight image feature amounts based on information of image groups similar to the search target image without preparing an image feature amount set for each disease type in advance. The corresponding similar case search can be efficiently performed.

(実施の形態の変形例)
上述の実施の形態の図12のステップS26において、病型候補クラスタに相当する読影項目のうち、重要な読影項目を少なくとも1つ特定しても良い。病型候補クラスタには多数の症例が含まれるため、出現頻度の低い読影項目を用いると、いくらその読影項目に対する重みの値が小さくなるとはいえ検索ノイズの原因になる可能性がある。この課題に対応するため、出現頻度の高い読影項目を特定して用いることができる。主要な画像所見2〜3個の組み合わせで病型が定義されることが多いことから、ここでは2個の読影項目を特定することとする。
(Modification of the embodiment)
In step S26 of FIG. 12 of the above-described embodiment, at least one important interpretation item may be specified among the interpretation items corresponding to the disease type candidate cluster. Since a disease type candidate cluster includes a large number of cases, using an interpretation item with a low appearance frequency may cause search noise even though the weight value for the interpretation item becomes small. In order to deal with this problem, it is possible to specify and use an interpretation item with a high appearance frequency. Since a disease type is often defined by a combination of 2 to 3 main image findings, two interpretation items are specified here.

関連する読影項目の特定方法について説明する。病型候補クラスタを構成する上で支配的な読影項目を特定するため、ここでは、ステップS25で生成した病型候補クラスタ毎に生成した代表ベクトルを利用する。クラスタの代表ベクトルとして、クラスタを形成する全読影項目ベクトルの平均ベクトルを計算する。図27に、計算したクラスタ1の代表ベクトルv=(0.7,0,0,0.4,0.1,0,0,0,…)を示す。そして、代表ベクトルvと読影項目iを表す各軸(単位ベクトルu)とのなす角度θが、所定の角度θTH以内となる読影項目を特定する。θは、(式4)により算出することができる。なおθTHは予め定めておく。 A method for identifying related interpretation items will be described. In order to identify the interpretation items dominant in configuring the disease type candidate cluster, here, the representative vector generated for each disease type candidate cluster generated in step S25 is used. As a representative vector of the cluster, an average vector of all interpretation item vectors forming the cluster is calculated. FIG. 27 shows the calculated representative vector v of cluster 1 = (0.7, 0, 0, 0.4, 0.1, 0, 0, 0,...). Then, an interpretation item in which an angle θ i formed by the representative vector v and each axis (unit vector u i ) representing the interpretation item i is within a predetermined angle θTH is specified. θ i can be calculated by (Equation 4). Note that θTH is determined in advance.

Figure 2014029644
Figure 2014029644

ここでは、クラスタの代表ベクトルと読影項目を表す軸の単位ベクトルのなす角を利用して、支配的な読影項目ベクトルを特定したが、他の方法により支配的な読影項目ベクトルを特定しても良い。例えば、各クラスタを構成する読影項目の出現割合(=出現回数/クラスタを構成する症例数)が大きいものから上位2個の読影項目を選び、支配的な読影項目を特定しても良い。また、読影項目の個数を固定するのではなく、上記の角度に関する所定条件や出現回数条件を満たす読影項目を特定しても良い。この場合、読影項目の個数の上限を定めておいても良い。   Here, the dominant interpretation item vector is specified using the angle between the cluster representative vector and the unit vector of the axis representing the interpretation item, but the dominant interpretation item vector may be identified by other methods. good. For example, the top two interpretation items may be selected from those having a large appearance ratio (= number of appearances / number of cases constituting the cluster) of the interpretation items constituting each cluster, and the dominant interpretation item may be specified. Further, instead of fixing the number of interpretation items, it is also possible to specify interpretation items that satisfy the predetermined conditions and the appearance frequency conditions regarding the angle. In this case, an upper limit of the number of interpretation items may be set.

次に、重み決定方法に関して説明する。図28では、クラスタ番号1において、「空洞性病変」、「結節」、の2つの読影項目が特定されている。重み決定部180は、読影知識データベース110に図10の形式で格納された(画像特徴量−読影項目)間の相関関係テーブルを参照し、「空洞性病変」と全ての画像特徴量間の相関関係、および、「結節」と全ての画像特徴量間の相関関係を取得する。ここでは取得した相関関係を表す数値(相関比)をそのまま重みとして用い、それぞれw1,i,w2,iと表す。ここで、iは画像特徴量の種類を現す添字である。これらの重みを用い、i番目の画像特徴量に対応する重みWを、(式5)のように計算する。(式5)において、Kは特定された読影項目の個数を表し、「空洞性病変」と「結節」が特定されている場合K=2である。図28のクラスタ番号3,4ではK=3である。 Next, the weight determination method will be described. In FIG. 28, in the cluster number 1, two interpretation items of “cavity lesion” and “nodule” are specified. The weight determination unit 180 refers to the correlation table between (image feature amount−interpretation item) stored in the interpretation knowledge database 110 in the format of FIG. 10, and correlates between “cavity lesion” and all image feature amounts. Relationships and correlations between “nodules” and all image feature quantities are acquired. Here, the numerical value (correlation ratio) representing the acquired correlation is used as a weight as it is, and is expressed as w1 , i , w2 , i , respectively. Here, i is a subscript indicating the type of the image feature amount. Using these weights, the weights W i corresponding to the i-th image feature amount, calculated as (Equation 5). In (Expression 5), K represents the number of specified interpretation items, and K = 2 when “cavity lesion” and “nodule” are specified. In cluster numbers 3 and 4 in FIG. 28, K = 3.

Figure 2014029644
Figure 2014029644

次に、1個の重みベクトルを用いた重み付け検索について説明する。   Next, weighted search using one weight vector will be described.

本変形例では、ステップS26で病型候補クラスタ毎に特定された、読影項目を基に、類似症例検索にて重み付け距離計算を行う。即ち、特定された読影項目と相関の大きい画像特徴量に関しては重みを相対的に大きく、相関の小さい画像特徴量に関しては重みを相対的に小さくする。これにより、病型候補クラスタの特徴を反映した類似症例検索が可能となる。これを図29を用いて説明する。図29の(a)は、ステップS26で特定された、読影項目「空洞性病変」と「結節」から決定された重みベクトルWを取得する様子を示している。ステップS26で説明したとおり、この重みベクトルWは、「空洞性病変」と全ての画像特徴量との間の相関関係、および、「結節」と全ての画像特徴量との間の相関関係の、対応する要素の和で構成されている。図29の(b)では、重みベクトルWを用いて、NIF個の画像特徴量に対して、それぞれ重み付けを行う。即ち、「空洞性病変」および「結節」の特徴をよく表現する画像特徴量に大きく重み付けをして検索する。これは、「空洞性病変」および「結節」の特徴を持つ病型として、診断対象症例を見た場合の類似症例を検索することに相当する。 In this modification, weighted distance calculation is performed by similar case search based on the interpretation items specified for each disease type candidate cluster in step S26. That is, the weight is relatively large for an image feature amount having a large correlation with the specified interpretation item, and the weight is relatively small for an image feature amount having a small correlation. This makes it possible to search for similar cases that reflect the characteristics of the disease type candidate cluster. This will be described with reference to FIG. FIG. 29A shows a state in which the weight vector W determined from the interpretation items “cavity lesion” and “nodule” identified in step S26 is acquired. As described in step S26, the weight vector W is obtained by calculating the correlation between the “cavity lesion” and all the image feature amounts, and the correlation between the “nodule” and all the image feature amounts. It consists of the sum of the corresponding elements. In (b) of FIG. 29, using the weight vector W, with respect to N IF pieces of image feature amounts, performed respectively weighted. That is, the search is performed by heavily weighting the image feature amount that well expresses the features of “cavity lesion” and “nodule”. This corresponds to searching for similar cases when the diagnosis target case is viewed as a disease type having the characteristics of “cavity lesion” and “nodule”.

以上説明した点以外は、実施の形態と同様である。   Except for the points described above, this embodiment is the same as the embodiment.

かかる構成によれば、1次検索部150において、まず画像として大まかに類似した過去症例を複数取得し、読影項目抽出部160において、取得した症例から読影項目を抽出する。また、病型候補クラスタ生成部170において、読影項目の組み合わせが類似したクラスタを生成し、重み決定部180において、クラスタ毎に重みを決定し、2次検索部190において、重み付け検索を行う。このことで、予め病型毎に画像特徴量セットを用意すること無しに、検索対象画像と類似した画像群の情報を元に画像特徴量に対し重み付けを行うことができ、医学的な観点に応じた類似症例検索を効率的に行うことが可能となる。加えて、出現頻度の高い読影項目を特定して用いることで、出現頻度の低い読影項目を用いる際に問題となり易い検索ノイズを抑制することができる。   According to this configuration, the primary search unit 150 first acquires a plurality of past cases roughly similar as images, and the interpretation item extraction unit 160 extracts interpretation items from the acquired cases. In addition, the disease type candidate cluster generation unit 170 generates clusters having similar combinations of interpretation items, the weight determination unit 180 determines a weight for each cluster, and the secondary search unit 190 performs weighted search. This makes it possible to weight image feature amounts based on information of image groups similar to the search target image without preparing an image feature amount set for each disease type in advance. The corresponding similar case search can be efficiently performed. In addition, by specifying and using interpretation items with a high appearance frequency, search noise that tends to be a problem when using an interpretation item with a low appearance frequency can be suppressed.

なお、上述の実施の形態では、類似症例表示部200は、2次検索部190の検索結果を表示することによりユーザに提示したが、類似症例表示部200の代わりに、2次検索部190の検索結果を印刷したり、記憶装置に書き込んだりする出力部を備えていても良い。   In the above-described embodiment, the similar case display unit 200 is presented to the user by displaying the search result of the secondary search unit 190. However, instead of the similar case display unit 200, the secondary search unit 190 You may provide the output part which prints a search result or writes in a memory | storage device.

以上、実施の形態および実施の形態の変形例について説明したが、類似症例検索装置に必須の構成要素は、画像特徴取得部140、1次検索部150、読影項目抽出部160、病型候補クラスタ生成部170、重み決定部180および2次検索部190であり、それ以外の構成要素は必ずしも類似症例検索装置に備えられていなくても良い。   As described above, the embodiment and the modification of the embodiment have been described. However, the essential components for the similar case search apparatus are the image feature acquisition unit 140, the primary search unit 150, the interpretation item extraction unit 160, and the disease type candidate cluster. The generation unit 170, the weight determination unit 180, and the secondary search unit 190, and other components may not necessarily be included in the similar case search apparatus.

本発明は、読影者に参考となる類似症例を検索および提示する類似症例検索装置、および、研修読影医のための読影教育装置等に利用可能である。   INDUSTRIAL APPLICABILITY The present invention can be used for a similar case retrieval apparatus that retrieves and presents a similar case that is a reference to an interpreter, an interpretation education apparatus for a training interpreter, and the like.

100 症例データベース
110 読影知識データベース
120 読影対象画像読込部
130 読影対象画像表示部
140 画像特徴取得部
150 1次検索部
160 読影項目抽出部
170 病型候補クラスタ生成部
180 重み決定部
190 2次検索部
200 類似症例表示部
210 読影端末
300 読影対象画像
320 類似症例表示領域
321 確定診断病名
322 重視した読影項目
323 検索結果画像
324 読影レポート
400 読影対象画像
410 胸部の周囲
420 対象臓器
430 病変領域
440 点
501 ボタン
502 確定診断病名
503 読影項目
100 Case Database 110 Interpretation Knowledge Database 120 Interpretation Target Image Reading Unit 130 Interpretation Target Image Display Unit 140 Image Feature Acquisition Unit 150 Primary Search Unit 160 Interpretation Item Extraction Unit 170 Disease Type Candidate Cluster Generation Unit 180 Weight Determination Unit 190 Secondary Search Unit 200 Similar Case Display Unit 210 Interpretation Terminal 300 Interpretation Target Image 320 Similar Case Display Area 321 Definitive Diagnosis Disease Name 322 Imported Interpretation Item 323 Retrieval Result Image 324 Interpretation Report 400 Interpretation Target Image 410 Surrounding Chest 420 Target Organ 430 Lesion Area 440 Point 501 Button 502 Confirmation diagnosis disease name 503 Interpretation item

Claims (11)

医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データを複数蓄積した症例データベースから、読影対象の医用画像である読影対象画像に類似する医用画像を含む症例データを検索する類似症例検索装置であって、
前記読影対象画像から複数の画像特徴量を取得する画像特徴取得部と、
前記画像特徴取得部が取得した前記複数の画像特徴量と、前記症例データベースに登録されている各症例データに含まれる医用画像から取得される複数の画像特徴量とに基づき、前記読影対象画像と各症例データに含まれる医用画像との類似度を算出し、算出された前記類似度が所定値以上である前記医用画像を含む症例データを複数取得する1次検索部と、
前記1次検索部が取得した各症例データが含む読影レポートから、医用画像の特徴を言語化した文字列である読影項目を複数抽出する読影項目抽出部と、
前記読影項目抽出部が症例データ毎に抽出した複数の読影項目を用いて、読影項目の組み合わせが類似した症例データ群で構成される病型候補クラスタを複数生成する病型候補クラスタ生成部と、
前記病型候補クラスタ生成部が生成した複数の病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、医用画像から抽出される各画像特徴量および当該医用画像に対する読影レポートから抽出される各読影項目の関連性を予め定めた読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と当該病型候補クラスタに含まれる読影項目との間の関連性が高いほど大きな値の重みを決定する重み決定部と、
前記画像特徴取得部が抽出した前記複数の画像特徴量と、前記症例データベースに登録されている症例データに含まれる医用画像から取得される前記複数の画像特徴量とを、前記重み決定部が決定した画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記症例データベースより検索する2次検索部と
を備える類似症例検索装置。
Includes a medical image similar to an image to be interpreted, which is a medical image to be interpreted, from a case database in which a plurality of case data including a medical image and an interpretation report, which is document data describing the result of interpretation of the medical image, is stored A similar case retrieval device for retrieving case data,
An image feature acquisition unit that acquires a plurality of image feature amounts from the image to be interpreted;
Based on the plurality of image feature amounts acquired by the image feature acquisition unit and a plurality of image feature amounts acquired from medical images included in each case data registered in the case database, A primary search unit that calculates a similarity with a medical image included in each case data, and obtains a plurality of case data including the medical image in which the calculated similarity is equal to or greater than a predetermined value;
An interpretation item extraction unit that extracts a plurality of interpretation items that are character strings obtained by verbalizing the characteristics of the medical image from the interpretation report included in each case data acquired by the primary search unit;
Using a plurality of interpretation items extracted for each case data by the interpretation item extraction unit, a disease type candidate cluster generation unit that generates a plurality of disease type candidate clusters composed of case data groups with similar combinations of interpretation items;
Extracted from each image feature amount extracted from the medical image and an interpretation report for the medical image for each of at least one disease type candidate cluster among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit. For each image feature amount acquired by the image feature acquisition unit based on an interpretation knowledge database in which relevance of each interpretation item is determined in advance, between the image feature amount and the interpretation item included in the disease type candidate cluster A weight determination unit that determines the weight of a larger value as the relationship of
The weight determination unit determines the plurality of image feature amounts extracted by the image feature acquisition unit and the plurality of image feature amounts acquired from medical images included in case data registered in the case database. A similar case retrieval apparatus comprising: a secondary retrieval unit that retrieves case data including a medical image similar to the interpretation target image from the case database by weighting and comparing with the weight for each image feature amount.
前記重み決定部は、前記病型候補クラスタ生成部が生成した前記複数の病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、前記読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と当該病型候補クラスタに含まれる読影項目との間の関連性がより高く、かつ当該病型候補クラスタに含まれる読影項目の出現頻度がより高いほど、より大きな値の重みを決定する
請求項1に記載の類似症例検索装置。
The weight determination unit, based on the interpretation knowledge database, for each of at least one disease type candidate cluster among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit, the image feature acquisition unit For each acquired image feature amount, the relationship between the image feature amount and the interpretation item included in the disease type candidate cluster is higher, and the frequency of appearance of the interpretation item included in the disease type candidate cluster is higher. The similar case search device according to claim 1, wherein the weight of a larger value is determined as the value is higher.
前記2次検索部は、前記画像特徴取得部より抽出された前記複数の画像特徴量と、前記症例データベースに登録されている症例データのうち前記1次検索部が取得した症例データに含まれる医用画像から取得される前記複数の画像特徴量とを、前記重み決定部が決定した画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記1次検索部が取得した複数の症例データより検索する
請求項1または2に記載の類似症例検索装置。
The secondary search unit includes the plurality of image feature amounts extracted from the image feature acquisition unit and medical data included in case data acquired by the primary search unit among case data registered in the case database. Case data including a medical image similar to the image to be interpreted is compared by weighting the plurality of image feature amounts acquired from the image with weights for each image feature amount determined by the weight determination unit. The similar case search device according to claim 1, wherein the search is performed from a plurality of case data acquired by the primary search unit.
前記病型候補クラスタ生成部は、前記読影項目抽出部より症例データ毎に抽出された複数の読影項目を用いて、読影項目の組み合わせが類似し、かつ、症例データに付与されている確定診断病名が同一である、症例データ群で構成される病型候補クラスタを複数生成する
請求項1〜3のいずれか1項に記載の類似症例検索装置。
The disease type candidate cluster generation unit uses a plurality of interpretation items extracted for each case data by the interpretation item extraction unit, the combination of interpretation items is similar, and the definitive diagnosis disease name given to the case data The similar case search device according to any one of claims 1 to 3, wherein a plurality of disease type candidate clusters including the same case data group are generated.
さらに、
前記2次検索部の検索結果をユーザに提示する提示部を備える
請求項1〜4のいずれか1項に記載の類似症例検索装置。
further,
The similar case search apparatus of any one of Claims 1-4 provided with the presentation part which shows a user the search result of the said secondary search part.
前記提示部は、前記病型候補クラスタ生成部が生成した病型候補クラスタ毎に、前記2次検索部が検索した症例データをユーザに提示する
請求項5に記載の類似症例検索装置。
The similar case search device according to claim 5, wherein the presentation unit presents the case data searched by the secondary search unit to a user for each disease type candidate cluster generated by the disease type candidate cluster generation unit.
前記重み決定部は、前記病型候補クラスタ生成部が生成した前記複数の病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、当該病型候補クラスタに含まれる読影項目のうち少なくとも1つの読影項目を特定し、前記読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と前記特定した読影項目との間の関連性が高いほど大きな値の重みを決定する
請求項1に記載の類似症例検索装置。
The weight determination unit includes, for each of at least one disease type candidate cluster among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit, among interpretation items included in the disease type candidate cluster. Specify at least one interpretation item, and based on the interpretation knowledge database, for each image feature amount acquired by the image feature acquisition unit, the higher the relationship between the image feature amount and the specified interpretation item, the greater The similar case retrieval apparatus according to claim 1, wherein weights of values are determined.
さらに、
前記病型候補クラスタ生成部が生成した病型候補クラスタ毎に、前記2次検索部が検索した症例データと前記重み決定部が特定した読影項目とをユーザに提示する提示部を備える
請求項7に記載の類似症例検索装置。
further,
8. A presentation unit that presents the case data searched by the secondary search unit and the interpretation items specified by the weight determination unit for each disease type candidate cluster generated by the disease type candidate cluster generation unit. The similar case search device described in 1.
さらに、
前記病型候補クラスタ生成部が生成した複数の病型候補クラスタのうちの、ユーザによるいずれかの病型候補クラスタの選択入力を受け付ける入力部を備え、
前記重み決定部は、前記病型候補クラスタ生成部が生成した前記複数の病型候補クラスタのうち、前記入力部で受け付けられた選択入力が示す病型候補クラスタの各々に対し、当該病型候補クラスタに含まれる読影項目のうち少なくとも1つの読影項目を特定し、前記読影知識データベースに基づき、前記画像特徴取得部が取得した画像特徴量毎に、当該画像特徴量と前記特定した読影項目との間の関連性が高いほど大きな値の重みを決定する
請求項7に記載の類似症例検索装置。
further,
Of the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit, comprising an input unit that receives selection input of any disease type candidate cluster by the user,
The weight determination unit, for each of the disease type candidate clusters indicated by the selection input received by the input unit among the plurality of disease type candidate clusters generated by the disease type candidate cluster generation unit, Identify at least one interpretation item among the interpretation items included in the cluster, and for each image feature amount acquired by the image feature acquisition unit based on the interpretation knowledge database, the image feature amount and the specified interpretation item The similar case search device according to claim 7, wherein the weight of a larger value is determined as the relationship between the higher values.
医用画像と当該医用画像を読影した結果が記載された文書データである読影レポートとを含む症例データを複数蓄積した症例データベースから、読影対象の医用画像である読影対象画像に類似する医用画像を含む症例データを検索する類似症例検索方法であって、
前記読影対象画像から複数の画像特徴量を取得する画像特徴取得ステップと、
前記画像特徴取得ステップで取得された前記複数の画像特徴量と、前記症例データベースに登録されている各症例データに含まれる医用画像から取得される複数の画像特徴量とに基づき、前記読影対象画像と各症例データに含まれる医用画像との類似度を算出し、算出された前記類似度が所定値以上である前記医用画像を含む症例データを複数取得する1次検索ステップと、
前記1次検索ステップで取得された各症例データが含む読影レポートから、医用画像の特徴を言語化した文字列である読影項目を複数抽出する読影項目抽出ステップと、
前記読影項目抽出ステップより症例データ毎に抽出された複数の読影項目を用いて、読影項目の組み合わせが類似した症例データ群で構成される病型候補クラスタを複数生成する病型候補クラスタ生成ステップと、
前記病型候補クラスタ生成ステップで生成された複数の病型候補クラスタのうち、少なくとも1つの病型候補クラスタの各々に対し、医用画像から抽出される各画像特徴量および当該医用画像に対する読影レポートから抽出される各読影項目の関連性を予め定めた読影知識データベースに基づき、前記画像特徴取得ステップで取得された画像特徴量毎に、当該画像特徴量と当該病型候補クラスタに含まれる読影項目との間の関連性が高いほど大きな値の重みを決定する重み決定ステップと、
前記画像特徴取得ステップで抽出された前記複数の画像特徴量と、前記症例データベースに登録されている症例データに含まれる医用画像から取得される前記複数の画像特徴量とを、前記重み決定ステップで決定された画像特徴量毎の重みで重み付けして比較することにより、前記読影対象画像に類似する医用画像を含む症例データを前記症例データベースより検索する2次検索ステップと
を含む類似症例検索方法。
Includes a medical image similar to an image to be interpreted, which is a medical image to be interpreted, from a case database in which a plurality of case data including a medical image and an interpretation report, which is document data describing the result of interpretation of the medical image, is stored A similar case search method for searching case data,
An image feature acquisition step of acquiring a plurality of image feature amounts from the image to be interpreted;
Based on the plurality of image feature amounts acquired in the image feature acquisition step and a plurality of image feature amounts acquired from medical images included in each case data registered in the case database, the image to be interpreted A primary search step of obtaining a plurality of case data including the medical image in which the calculated similarity is equal to or greater than a predetermined value;
An interpretation item extraction step for extracting a plurality of interpretation items, which are character strings obtained by verbalizing the characteristics of the medical image, from the interpretation report included in each case data acquired in the primary search step;
A disease type candidate cluster generation step for generating a plurality of disease type candidate clusters composed of case data groups with similar combinations of interpretation items using a plurality of interpretation items extracted for each case data from the interpretation item extraction step; ,
Of each of the plurality of disease type candidate clusters generated in the disease type candidate cluster generation step, for each of at least one disease type candidate cluster, from each image feature amount extracted from the medical image and an interpretation report for the medical image Based on the interpretation knowledge database in which the relevance of each extracted interpretation item is determined in advance, for each image feature amount acquired in the image feature acquisition step, the image feature amount and the interpretation item included in the disease type candidate cluster A weight determination step for determining the weight of a larger value as the relationship between
In the weight determination step, the plurality of image feature amounts extracted in the image feature acquisition step and the plurality of image feature amounts acquired from medical images included in case data registered in the case database. A similar case search method comprising: a secondary search step of searching case data including a medical image similar to the interpretation target image from the case database by weighting and comparing with the determined weight for each image feature amount.
請求項10に記載の類似症例検索方法をコンピュータに実行させるためのプログラム。   The program for making a computer perform the similar case search method of Claim 10.
JP2012170477A 2012-07-31 2012-07-31 Similar case retrieval device and similar case retrieval method Pending JP2014029644A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012170477A JP2014029644A (en) 2012-07-31 2012-07-31 Similar case retrieval device and similar case retrieval method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012170477A JP2014029644A (en) 2012-07-31 2012-07-31 Similar case retrieval device and similar case retrieval method

Publications (1)

Publication Number Publication Date
JP2014029644A true JP2014029644A (en) 2014-02-13

Family

ID=50202157

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012170477A Pending JP2014029644A (en) 2012-07-31 2012-07-31 Similar case retrieval device and similar case retrieval method

Country Status (1)

Country Link
JP (1) JP2014029644A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015230650A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Information processing method, information processing device and program
KR101604086B1 (en) * 2014-03-11 2016-03-17 계명대학교 산학협력단 Integrated computer-aided diagnosis system using heterogeneous bio data for diagnosis and similar patient search from database
WO2016094450A1 (en) * 2014-08-27 2016-06-16 Bioneur, Llc Systems and methods for rare disease prediction and treatment
JP2016206937A (en) * 2015-04-22 2016-12-08 株式会社リクルートホールディングス Image appropriateness or inappropriateness determination device, image appropriateness or inappropriateness determination method and image appropriateness or inappropriateness determination program
WO2017179503A1 (en) 2016-04-13 2017-10-19 Canon Kabushiki Kaisha Medical diagnosis support apparatus, information processing method, medical diagnosis support system, and program
JP2018050671A (en) * 2016-09-26 2018-04-05 カシオ計算機株式会社 Diagnosis support apparatus, image processing method in diagnosis support apparatus, and program
CN109545382A (en) * 2018-10-30 2019-03-29 平安科技(深圳)有限公司 A kind of identical case recognition methods and calculating equipment based on big data
US10248759B2 (en) 2015-03-13 2019-04-02 Konica Minolta Laboratory U.S.A., Inc. Medical imaging reference retrieval and report generation
US10282516B2 (en) 2015-03-13 2019-05-07 Konica Minolta Laboratory U.S.A., Inc. Medical imaging reference retrieval
JP2019179445A (en) * 2018-03-30 2019-10-17 正晃テック株式会社 Program, method and system for aiding in inputting a pathological diagnosis sentence
JP2019212296A (en) * 2018-05-31 2019-12-12 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program
CN111640480A (en) * 2020-05-21 2020-09-08 上海联影智能医疗科技有限公司 Medical report generation method, computer device, and storage medium
CN112133391A (en) * 2020-09-17 2020-12-25 吾征智能技术(北京)有限公司 Disease cognitive system based on abnormal eyebrows of human body
CN112466472A (en) * 2021-02-03 2021-03-09 北京伯仲叔季科技有限公司 Case text information retrieval system
CN113488189A (en) * 2021-08-03 2021-10-08 罗慕科技(北京)有限公司 Similar case retrieval device, method and computer-readable storage medium
US11423537B2 (en) 2017-10-13 2022-08-23 Canon Kabushiki Kaisha Diagnosis assistance apparatus, and information processing method

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101604086B1 (en) * 2014-03-11 2016-03-17 계명대학교 산학협력단 Integrated computer-aided diagnosis system using heterogeneous bio data for diagnosis and similar patient search from database
JP2015230650A (en) * 2014-06-06 2015-12-21 キヤノン株式会社 Information processing method, information processing device and program
WO2016094450A1 (en) * 2014-08-27 2016-06-16 Bioneur, Llc Systems and methods for rare disease prediction and treatment
US10248759B2 (en) 2015-03-13 2019-04-02 Konica Minolta Laboratory U.S.A., Inc. Medical imaging reference retrieval and report generation
US10282516B2 (en) 2015-03-13 2019-05-07 Konica Minolta Laboratory U.S.A., Inc. Medical imaging reference retrieval
JP2016206937A (en) * 2015-04-22 2016-12-08 株式会社リクルートホールディングス Image appropriateness or inappropriateness determination device, image appropriateness or inappropriateness determination method and image appropriateness or inappropriateness determination program
US11238588B2 (en) 2016-04-13 2022-02-01 Canon Kabushiki Kaisha Medical diagnosis support apparatus, information processing method, medical diagnosis support system, and program
WO2017179503A1 (en) 2016-04-13 2017-10-19 Canon Kabushiki Kaisha Medical diagnosis support apparatus, information processing method, medical diagnosis support system, and program
JP2018050671A (en) * 2016-09-26 2018-04-05 カシオ計算機株式会社 Diagnosis support apparatus, image processing method in diagnosis support apparatus, and program
US11823386B2 (en) 2017-10-13 2023-11-21 Canon Kabushiki Kaisha Diagnosis assistance apparatus, and information processing method
US11423537B2 (en) 2017-10-13 2022-08-23 Canon Kabushiki Kaisha Diagnosis assistance apparatus, and information processing method
JP2019179445A (en) * 2018-03-30 2019-10-17 正晃テック株式会社 Program, method and system for aiding in inputting a pathological diagnosis sentence
JP2019212296A (en) * 2018-05-31 2019-12-12 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program
JP7366583B2 (en) 2018-05-31 2023-10-23 キヤノンメディカルシステムズ株式会社 Medical information processing device, method and program
CN109545382A (en) * 2018-10-30 2019-03-29 平安科技(深圳)有限公司 A kind of identical case recognition methods and calculating equipment based on big data
CN111640480A (en) * 2020-05-21 2020-09-08 上海联影智能医疗科技有限公司 Medical report generation method, computer device, and storage medium
CN111640480B (en) * 2020-05-21 2023-09-26 上海联影智能医疗科技有限公司 Medical report generation method, computer device, and storage medium
CN112133391A (en) * 2020-09-17 2020-12-25 吾征智能技术(北京)有限公司 Disease cognitive system based on abnormal eyebrows of human body
CN112133391B (en) * 2020-09-17 2024-01-26 吾征智能技术(北京)有限公司 Disease cognitive system based on abnormal eyebrows of human body
CN112466472A (en) * 2021-02-03 2021-03-09 北京伯仲叔季科技有限公司 Case text information retrieval system
CN112466472B (en) * 2021-02-03 2021-05-18 北京伯仲叔季科技有限公司 Case text information retrieval system
CN113488189A (en) * 2021-08-03 2021-10-08 罗慕科技(北京)有限公司 Similar case retrieval device, method and computer-readable storage medium

Similar Documents

Publication Publication Date Title
JP2014029644A (en) Similar case retrieval device and similar case retrieval method
JP5054252B1 (en) Similar case search device, similar case search method, operation method and program of similar case search device
Yan et al. DeepLesion: automated mining of large-scale lesion annotations and universal lesion detection with deep learning
JP5852970B2 (en) CASE SEARCH DEVICE AND CASE SEARCH METHOD
US8934695B2 (en) Similar case searching apparatus and similar case searching method
Ma et al. Automatic segmentation of the prostate on CT images using deep learning and multi-atlas fusion
JP5383431B2 (en) Information processing apparatus, information processing method, and program
JP5462414B2 (en) Similar case retrieval device, relevance degree database creation device, similar case retrieval method, and relevance degree database creation method
CN102428469B (en) For retrieving and check the device of medical image
US8953857B2 (en) Similar case searching apparatus and similar case searching method
JP2019153250A (en) Device, method, and program for supporting preparation of medical document
WO2013001584A1 (en) Similar case history search device and similar case history search method
JP2019082881A (en) Image retrieval device, method and program
US11062448B2 (en) Machine learning data generation support apparatus, operation method of machine learning data generation support apparatus, and machine learning data generation support program
US20220285011A1 (en) Document creation support apparatus, document creation support method, and program
WO2020209382A1 (en) Medical document generation device, method, and program
JPWO2019193982A1 (en) Medical document creation support device, medical document creation support method, and medical document creation support program
Gundreddy et al. Assessment of performance and reproducibility of applying a content‐based image retrieval scheme for classification of breast lesions
JP2010237930A (en) Case image retrieval device, method, and program
JP5789791B2 (en) Similar case retrieval device and interpretation knowledge extraction device
Rehman Khan et al. Cloud‐Based Framework for COVID‐19 Detection through Feature Fusion with Bootstrap Aggregated Extreme Learning Machine
JP2024009108A (en) Document creation support apparatus, document creation support method, and program
WO2023274599A1 (en) Methods and systems for automated follow-up reading of medical image data
JP2013105465A (en) Medical synonym dictionary creating apparatus and medical synonym dictionary creating method
Ferreira et al. Interpretable multi-stream ensemble learning for radiographic pattern recognition