JP2023057036A - Device and method for processing medical image - Google Patents

Device and method for processing medical image Download PDF

Info

Publication number
JP2023057036A
JP2023057036A JP2022149811A JP2022149811A JP2023057036A JP 2023057036 A JP2023057036 A JP 2023057036A JP 2022149811 A JP2022149811 A JP 2022149811A JP 2022149811 A JP2022149811 A JP 2022149811A JP 2023057036 A JP2023057036 A JP 2023057036A
Authority
JP
Japan
Prior art keywords
features
medical image
region
interest
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022149811A
Other languages
Japanese (ja)
Inventor
リシン イァン
Lixin Yan
重治 大湯
Shigeharu Oyu
ゴンワン リー
Gengwan Li
チリン シャオ
Qilin Xiao
ヤンホア ワン
Yanhua Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Medical Systems Corp
Original Assignee
Canon Medical Systems Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Medical Systems Corp filed Critical Canon Medical Systems Corp
Publication of JP2023057036A publication Critical patent/JP2023057036A/en
Pending legal-status Critical Current

Links

Images

Abstract

To improve accuracy for quantitatively analyzing a medical image.SOLUTION: A device for processing a medical image includes generation means, display means and differentiation means. The generation means generates a first feature representing an image feature from a medical image including a region of interest. The display means displays the first feature. The differentiation means differentiates the region of interest of the medical image on the basis of the first feature and outputs a differentiation result relating to the region of interest.SELECTED DRAWING: Figure 1

Description

本明細書及び図面に開示の実施形態は、医用画像処理装置及び医用画像処理方法に関する。 The embodiments disclosed in this specification and drawings relate to a medical image processing apparatus and a medical image processing method.

従来、癌や異常な解剖学的構造等の病変部位を早期発見するために、X線撮影装置、CT装置、超音波検出装置等の医用画像収集装置が多く用いられている。医用画像収集装置を用いて被検体を撮像して医用画像を取得した後に、医師が医用画像を読影することによって、医用画像における病変部位の臨床的な特徴が見出される。 2. Description of the Related Art Conventionally, many medical image acquisition devices such as X-ray imaging devices, CT devices, and ultrasonic detection devices have been used for early detection of lesions such as cancer and abnormal anatomical structures. 2. Description of the Related Art After imaging a subject using a medical image acquisition device to obtain a medical image, a doctor interprets the medical image to find clinical features of a lesion site in the medical image.

このような診断では、病変部位の性質を判断することが特に重要である。例えば、腫瘍部位に対する良性・悪性鑑別の場合には、現在のところ、通常、悪性のリスクや可能性は何らかの病理学的特徴に関連することが発見されている。医師は、読影によって、疑似的部位に対する病理学的特徴の説明(description)を経験的に作成し、それらの特徴を臨床的特徴として記録することができる。そのうち、一部の臨床的特徴は、定量化されて、病変が悪性かどうか、或いはその程度などの病変の総合的な性質の評価や判断に用いることができる。このような臨床的特徴は、臨床解釈可能特徴と呼ばれる。この臨床解釈可能特徴は、従来、診療ガイドライン等の標準によって規定されることが多い。例えば、診療ガイドラインとして、胸部画像報告及びデータシステムBI-RADS(Breast Imaging-Reporting and Data System)が知られている。このような診療ガイドラインや各種研究報告では、臨床解釈可能特徴に基づいた病変の判断基準が記載されており、医師は、医用画像の読影結果を病変の性質の判断基準に照合することで、病巣の性質について判断して評価することができる。 Determining the nature of the lesion site is particularly important in such diagnosis. For example, in the case of benign/malignant differentiation for tumor sites, it is currently found that the risk or likelihood of malignancy is usually associated with some pathological feature. The interpretation allows the physician to empirically develop descriptions of the pathological features for the pseudo-sites and record those features as clinical features. Among them, some clinical characteristics can be quantified and used to evaluate and judge the comprehensive properties of the lesion, such as whether the lesion is malignant or its degree. Such clinical features are called clinically interpretable features. This clinically interpretable feature is traditionally often defined by standards such as clinical practice guidelines. For example, a breast imaging-reporting and data system BI-RADS (Breast Imaging-Reporting and Data System) is known as a clinical practice guideline. In such clinical practice guidelines and various research reports, lesion judgment criteria based on clinically interpretable features are described. can judge and evaluate the nature of

また、従来、人による読影の方法に加え、癌等の疾病のスクリーニングの精度と標準化を向上させるために、人工知能や機械学習システムを用いて、医師による読影の意思決定を支援する技術がある。例えば、人工知能/機械学習システムを用いて、人間の専門家による意思決定を支援することが行われる。 In addition to conventional methods of human interpretation, there are technologies that use artificial intelligence and machine learning systems to help doctors make decisions about interpretation in order to improve the accuracy and standardization of screening for diseases such as cancer. . For example, artificial intelligence/machine learning systems are used to assist decision-making by human experts.

また、画像処理装置によって、医用画像から腫瘍等の特定部位に対応する領域の標準的な形態/テクスチャ特徴や動力学的特徴等の画像基礎特徴を抽出し、抽出した画像基礎特徴に基づいてサポートベクトルマシン、ランダムフォレスト等の機械学習アルゴリズムを用いて腫瘍の良性・悪性を鑑別する方法がある。或いは、コンボリューション神経ネットワークによって抽出された深層特徴を標準的な特徴と組み合わせることで、良性/悪性腫瘍を鑑別する方法がある。この方法では、例えば、病変有無又は病変程度の学習データを用いて、各種画像特徴量に基づいて病変有無又は病変程度を判定する判別器を学習する。また、人による画像特徴の視覚判断を学習データとして、臨床解釈可能特徴の特徴量を学習する方法もある。また、これらの方法を単純に組み合わせた方法も考えられる。 In addition, using an image processing device, image basic features such as standard morphological/textural features and dynamic features of areas corresponding to specific regions such as tumors are extracted from medical images, and support is provided based on the extracted image basic features. There are methods to distinguish between benign and malignant tumors using machine learning algorithms such as vector machines and random forests. Alternatively, there is a method of distinguishing benign/malignant tumors by combining deep features extracted by a convolutional neural network with standard features. In this method, for example, learning data on the presence or absence of lesions or the degree of lesions is used to learn a classifier for determining the presence or absence of lesions or the degree of lesions based on various image feature amounts. There is also a method of learning feature amounts of clinically interpretable features using human visual judgment of image features as learning data. A simple combination of these methods is also conceivable.

しかしながら、例えば、辺縁、辺縁強調、不均一性等のように、腫瘍のいくつかの臨床解釈可能特徴は医師の診断に有用であるが、従来の人による読影では、読影者間の違いが大きいことが問題となっている。また、医師による臨床解釈可能特徴の評価結果を教師データとして学習した場合、この読影者間の違いが、得られた推論器の判定精度の制約となり、高い判定精度を実現することが難しいという問題がある。 However, while some clinically interpretable features of tumors, e.g., margins, margin enhancement, heterogeneity, etc., are useful for the physician's diagnosis, conventional human interpretation does not account for inter-interpreter differences. The problem is that is large. In addition, when the evaluation results of clinically interpretable features by doctors are used as training data for learning, the differences between radiologists limit the accuracy of the resulting inference, making it difficult to achieve high accuracy. There is

一方、医用画像中の画像基礎特徴を利用して病巣を判定する方法では、画像基礎特徴に制限があるため、正確な結果を得ることが困難である。 On the other hand, it is difficult to obtain accurate results in the method of determining a lesion using image basic features in a medical image, because of limitations on image basic features.

また、深層学習を用いて深層特徴を抽出する方法では、抽出される特徴は解釈不能なものであり、腫瘍等の病巣の定量化分析にも不利である。また、病変有無又は病変程度を学習データとして学習した場合、判別器の中間特徴量は臨床解釈不能なものであるため、この中間特徴量を表示してもユーザはその妥当性を判断することができない。また、上記方法を組み合わせた方法では、画像特徴の視覚判断を学習データとして学習した特徴量を表示すれば、ユーザがその特徴量について妥当性を確認して修正することが可能であるが、前述した臨床解釈可能特徴は読影者に依存するものであるため、学習結果が必ずしも病変有無又は病変程度の判断に最適なものにならないという問題がある。 In addition, in the method of extracting deep features using deep learning, the extracted features cannot be interpreted, which is disadvantageous for quantitative analysis of lesions such as tumors. Further, when learning the presence or absence of lesions or the degree of lesions as learning data, the intermediate feature amount of the discriminator cannot be interpreted clinically. Can not. In addition, in a method that combines the above methods, if the feature amount learned by using the visual judgment of the image feature as learning data is displayed, the user can check the validity of the feature amount and correct it. Since the clinically interpretable features obtained depend on the interpreter, there is a problem that the learning results are not always optimal for judging the presence or absence of lesions or the extent of lesions.

米国特許第9208556号明細書U.S. Pat. No. 9,208,556 米国特許第8345940号明細書U.S. Pat. No. 8,345,940 国際公開第2017/165801号WO2017/165801 特開2018-061771号公報JP 2018-061771 A 特表2001-511372号公報Japanese Patent Publication No. 2001-511372 特開2016-007270号公報JP 2016-007270 A

本明細書及び図面に開示の実施形態が解決しようとする課題の一つは、医用画像の定量化分析の精度を向上させることである。ただし、本明細書及び図面に開示の実施形態により解決しようとする課題は上記課題に限られない。後述する実施形態に示す各構成による各効果に対応する課題を他の課題として位置付けることもできる。 One of the problems to be solved by the embodiments disclosed in the specification and drawings is to improve the accuracy of quantitative analysis of medical images. However, the problems to be solved by the embodiments disclosed in this specification and drawings are not limited to the above problems. A problem corresponding to each effect of each configuration shown in the embodiments described later can be positioned as another problem.

実施形態に係る医用画像処理装置は、生成手段と、表示手段と、鑑別手段とを備える。生成手段は、関心領域を含む医用画像から画像特徴を表す第1の特徴を生成する。表示手段は、前記第1の特徴を表示する。鑑別手段は、前記第1の特徴に基づいて、前記医用画像における前記関心領域を鑑別し、前記関心領域に関する鑑別結果を出力する。 A medical image processing apparatus according to an embodiment includes generation means, display means, and discrimination means. A generator generates a first feature representing an image feature from a medical image including the region of interest. A display means displays the first characteristic. The discriminating means discriminates the region of interest in the medical image based on the first feature, and outputs a discrimination result regarding the region of interest.

図1は、第1の実施形態に係る医用画像処理装置の機能構成の一例を示すブロック図である。FIG. 1 is a block diagram showing an example of the functional configuration of the medical image processing apparatus according to the first embodiment. 図2は、第1の実施形態に係る医用画像処理装置におけるモデル生成手段による学習過程を示す模式図である。FIG. 2 is a schematic diagram showing a learning process by the model generating means in the medical image processing apparatus according to the first embodiment. 図3は、第1の実施形態におけるモデル適用過程を示す模式図である。FIG. 3 is a schematic diagram showing a model application process in the first embodiment. 図4は、第1の実施形態に係る医用画像処理装置における表示手段に表示される画面の一例を示す図である。FIG. 4 is a diagram showing an example of a screen displayed on display means in the medical image processing apparatus according to the first embodiment. 図5は、第1の実施形態に係る医用画像処理装置におけるモデル生成過程を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining the model generation process in the medical image processing apparatus according to the first embodiment. 図6は、第1の実施形態に係る医用画像処理装置における画像鑑別処理方法を説明するためのフローチャートである。FIG. 6 is a flowchart for explaining an image discrimination processing method in the medical image processing apparatus according to the first embodiment. 図7は、第2の実施形態に係る医用画像処理装置の機能構成の一例を示すブロック図である。FIG. 7 is a block diagram showing an example of the functional configuration of a medical image processing apparatus according to the second embodiment; 図8は、第2の実施形態における臨床解釈可能特徴の生成過程を示す模式図である。FIG. 8 is a schematic diagram showing the process of generating clinically interpretable features in the second embodiment. 図9は、第2の実施形態に係る医用画像処理装置における表示手段に表示される画面の一例を示す図である。FIG. 9 is a diagram showing an example of a screen displayed on display means in the medical image processing apparatus according to the second embodiment. 図10は、第2の実施形態に係る医用画像処理装置における画像鑑別処理方法を説明するためのフローチャートである。FIG. 10 is a flowchart for explaining the image discrimination processing method in the medical image processing apparatus according to the second embodiment. 図11は、第3の実施形態に係る医用画像処理装置の機能構成の一例を示すブロック図である。FIG. 11 is a block diagram showing an example of the functional configuration of a medical image processing apparatus according to the third embodiment; 図12は、第3の実施形態における反復方法に基づく最適化処理過程を示す模式図である。FIG. 12 is a schematic diagram showing the optimization process based on the iterative method in the third embodiment. 図13は、第3の実施形態に係る医用画像処理装置における画像鑑別処理方法を説明するためのフローチャートである。FIG. 13 is a flowchart for explaining the image discrimination processing method in the medical image processing apparatus according to the third embodiment.

実施形態に係る医用画像処理装置は、関心領域を含む医用画像から画像特徴を表す第1の特徴を生成する生成手段と、前記第1の特徴を表示する表示手段と、前記第1の特徴に基づいて、前記医用画像における前記関心領域を鑑別し、前記関心領域に関する鑑別結果を出力する鑑別手段とを備える。 A medical image processing apparatus according to an embodiment includes generating means for generating a first feature representing an image feature from a medical image including a region of interest, display means for displaying the first feature, and discrimination means for discriminating the region of interest in the medical image based on the information and outputting a discrimination result regarding the region of interest.

また、実施形態に係る医用画像処理装置における医用画像処理方法は、生成手段が、関心領域を含む医用画像から画像特徴を表す第1の特徴を生成するステップと、表示手段が、前記第1の特徴を表示するステップと、鑑別手段が、前記第1の特徴に基づいて、前記医用画像における前記関心領域を鑑別し、前記関心領域に関する鑑別結果を出力するステップとを含む。 Further, in the medical image processing method in the medical image processing apparatus according to the embodiment, the generation means generates a first feature representing an image feature from a medical image including a region of interest; displaying a feature; and discriminating means discriminating the region of interest in the medical image based on the first feature and outputting a discrimination result for the region of interest.

実施形態に係る医用画像処理装置及び医用画像処理方法によれば、主観的な影響を受けることなく、医用画像の定量化分析の精度を向上させることができる。 According to the medical image processing apparatus and the medical image processing method according to the embodiments, the accuracy of quantitative analysis of medical images can be improved without subjective influence.

また、前記医用画像処理装置において、前記生成手段は、前記医用画像を取得し、前記医用画像に対して所定の分割処理を行うことで、前記医用画像における前記関心領域を決定する分割手段と、前記関心領域を含む医用画像を入力として臨床解釈可能特徴を出力する第2の判別モデルを用いて、前記関心領域を含む前記医用画像から前記関心領域の前記臨床解釈可能特徴を生成する臨床解釈可能特徴生成手段とを含み、前記鑑別手段は、画像特徴を入力として前記関心領域に関する鑑別結果を出力する第1の判別モデル用いて、前記臨床解釈可能特徴生成手段によって生成された前記臨床解釈可能特徴を前記画像特徴として前記第1の判別モデルに入力することにより、前記関心領域に関する鑑別結果を出力してもよい。 Further, in the medical image processing apparatus, the generation means acquires the medical image and performs predetermined division processing on the medical image to determine the region of interest in the medical image; clinically interpretable to generate the clinically interpretable features of the region of interest from the medical image containing the region of interest using a second discriminant model that takes as input a medical image containing the region of interest and outputs clinically interpretable features. and a feature generating means, wherein the discriminating means generates the clinically interpretable features generated by the clinically interpretable feature generating means using a first discriminant model that inputs image features and outputs a discrimination result for the region of interest. may be input to the first discrimination model as the image feature to output a discrimination result relating to the region of interest.

前記医用画像処理装置を学習させる際には、第1段階として、前記画像特徴及び前記臨床解釈可能特徴から鑑別結果を算出する第1の判別モデルを学習し、第2段階として、臨床解釈可能特徴を出力する第2の判別モデルを学習する。第1段階においては、画像から算出した画像特徴及び医師が判定した視覚判断画像特徴が第1の判定モデルに入力され、良性又は悪性の確定診断結果が教師データとして用いられて、第1の判別モデルが学習される。第2段階においては、画像から算出した画像特徴及び第2の判別モデルの出力である臨床解釈可能特徴が第1の判別モデルに入力され、良性又は悪性の確定診断結果が教師データとして用いられて、第2の判別モデルが学習される。 When training the medical image processing apparatus, as a first step, a first discriminant model for calculating a discrimination result from the image feature and the clinically interpretable feature is learned, and as a second step, the clinically interpretable feature Learn a second discriminant model that outputs . In the first stage, the image features calculated from the image and the visual judgment image features judged by the doctor are input to the first judgment model. the model is learned. In the second step, the image features calculated from the image and the clinically interpretable features output from the second discriminant model are input to the first discriminant model, and the definitive diagnosis result of benign or malignant is used as teacher data. , a second discriminant model is learned.

以上の医用画像処理装置によれば、最終的な学習である第2の判別モデルの学習において、臨床解釈可能特徴の学習に視覚判断の特徴量を用いないため、主観に影響されることなく、病変有無又は病変程度の判定精度を最適化することができる。また、臨床解釈可能特徴を画面に表示することによって、ユーザが妥当性を判断することができ、必要な場合は修正を行うことが可能になる。 According to the medical image processing apparatus described above, in the learning of the second discriminant model, which is the final learning, since the feature amount of visual judgment is not used for learning the clinically interpretable feature, The accuracy of determining the presence or absence of lesions or the degree of lesions can be optimized. The on-screen display of the clinically interpretable features also allows the user to judge validity and make corrections if necessary.

また、前記医用画像処理装置において、前記生成手段は、前記医用画像を取得し、前記医用画像に対して所定の分割処理を行うことで、前記医用画像における前記関心領域を決定する分割手段と、前記関心領域を含む医用画像から画像基礎特徴を抽出する画像基礎特徴抽出手段と、前記画像基礎特徴と臨床解釈可能特徴とを関連付けた変換モデルを用いて、前記画像基礎特徴抽出手段によって抽出された前記画像基礎特徴から、前記関心領域の前記臨床解釈可能特徴を生成する臨床解釈可能特徴生成手段とを含み、前記鑑別手段は、前記臨床解釈可能特徴生成手段によって生成された前記臨床解釈可能特徴に基づいて、前記関心領域を分類し、前記関心領域に関する分類結果を鑑別結果として出力してもよい。 Further, in the medical image processing apparatus, the generation means acquires the medical image and performs predetermined division processing on the medical image to determine the region of interest in the medical image; Extracted by the image basic feature extraction means using an image basic feature extraction means for extracting image basic features from a medical image including the region of interest, and a conversion model that associates the image basic features with clinically interpretable features clinically interpretable feature generating means for generating said clinically interpretable features of said region of interest from said image basis features, said discriminating means being adapted to said clinically interpretable features generated by said clinically interpretable feature generating means. Based on this, the region of interest may be classified, and a classification result relating to the region of interest may be output as a discrimination result.

以上の医用画像処理装置によれば、医用画像から臨床解釈可能特徴を自動的に抽出することができ、主観的な要因を低減して、抽出される臨床解釈可能特徴の精度を向上させることができるため、医師による主観的な判断に比べて、定量化分析の精度を向上させ、読影作業を再現可能に標準化することができる。 According to the medical image processing apparatus described above, it is possible to automatically extract clinically interpretable features from a medical image, reduce subjective factors, and improve the accuracy of the extracted clinically interpretable features. Therefore, the accuracy of the quantitative analysis can be improved and the interpretation work can be reproducibly standardized compared to the subjective judgment by the doctor.

また、本実施形態による分類結果は、診療ガイドラインによって規定された臨床解釈可能特徴に基づいて得られるものであり、そのため、深層学習方法に基づいて画像を分析する方法に比べて、理解がより直感的であり、結果を解釈する上で利点がある。 In addition, the classification results according to the present embodiment are obtained based on clinically interpretable features defined by clinical practice guidelines, and are therefore more intuitive to understand than methods of analyzing images based on deep learning methods. It is targeted and has advantages in interpreting the results.

以下、図面を参照して、医用画像処理装置及び医用画像処理方法の好適な実施形態について詳細に説明する。 Preferred embodiments of a medical image processing apparatus and a medical image processing method will be described in detail below with reference to the drawings.

本実施形態に係る医用画像処理装置は、例えば、複数の機能モジュールから構成され、各機能モジュールを、独立したコンピュータ等のプロセッサ及びメモリを有する機器にソフトウェアとしてインストールしたり、複数の機器に分散してインストールしたりし、特定のプロセッサがメモリに記憶された医用画像処理装置の各機能モジュールを実行することによって実現される。また、本実施形態に係る医用画像処理装置は、医用画像処理装置の各機能を実行可能な回路としてハードウェアの形態で実現されてもよい。その場合に、医用画像処理装置を実現する回路は、インターネット等のネットワークを介して、データの送受信やデータの収集を行うことができる。また、本実施形態に係る医用画像処理装置は、CT装置や磁気共鳴イメージング装置等の医用画像収集装置における一部として、当該医用画像収集装置に直接実装されてもよい。 The medical image processing apparatus according to the present embodiment is composed of, for example, a plurality of functional modules, and each functional module is installed as software in a device having a processor and memory such as an independent computer, or distributed to a plurality of devices. It is implemented by executing each functional module of the medical image processing apparatus stored in memory by a specific processor. Further, the medical image processing apparatus according to this embodiment may be implemented in the form of hardware as a circuit capable of executing each function of the medical image processing apparatus. In this case, the circuit that implements the medical image processing apparatus can transmit and receive data and collect data via a network such as the Internet. Also, the medical image processing apparatus according to the present embodiment may be directly mounted in a medical image acquisition apparatus such as a CT apparatus or a magnetic resonance imaging apparatus as part of the medical image acquisition apparatus.

また、以下の説明では、乳腺を対象として撮像された医用画像を例とし、本実施形態に係る医用画像処理装置が、当該医用画像に存在する結節や腫瘍に対して、分類(病変有無)又は病変程度等の鑑別処理を行う場合の動作について説明する。しかしながら、本実施形態はこれに限定されるものではなく、他の医用画像における特定部位の分類や分類等の鑑別処理にも適用することが可能である。 Further, in the following description, a medical image captured of a mammary gland is taken as an example, and the medical image processing apparatus according to the present embodiment classifies (presence or absence of lesion) or A description will be given of the operation in the case of performing discrimination processing such as the degree of lesion. However, the present embodiment is not limited to this, and can also be applied to classification of specific regions in other medical images and discrimination processing such as classification.

(第1の実施形態)
まず、図1~図6を参照して、第1の実施形態について説明する。
(First embodiment)
First, a first embodiment will be described with reference to FIGS. 1 to 6. FIG.

図1は、第1の実施形態に係る医用画像処理装置の機能構成の一例を示すブロック図である。 FIG. 1 is a block diagram showing an example of the functional configuration of the medical image processing apparatus according to the first embodiment.

図1に示すように、第1の実施形態に係る医用画像処理装置100は、生成手段10と、表示手段20と、鑑別手段30と、修正手段40と、モデル生成手段50とを備えている。 As shown in FIG. 1, the medical image processing apparatus 100 according to the first embodiment includes generation means 10, display means 20, discrimination means 30, correction means 40, and model generation means 50. .

モデル生成手段50は、医用画像処理装置100で用いられる処理モデルを生成する。 A model generating means 50 generates a processing model used in the medical image processing apparatus 100 .

本実施形態では、モデル生成手段50は、医用画像における病変有無又は病変程度等の鑑別結果が検証されたサンプル画像データと、当該サンプル画像データについて得られた視覚判断画像特徴を含む画像特徴とを第1の学習データとして取得し、ニューラルネットワーク等の深層学習方法によって訓練を行うことで、画像特徴を入力として関心領域に関する鑑別結果を出力する判別モデル1を生成する。 In the present embodiment, the model generating means 50 generates sample image data for which discrimination results such as the presence or absence of lesions or the degree of lesions in medical images have been verified, and image features including visual judgment image features obtained for the sample image data. Acquired as first learning data and trained by a deep learning method such as a neural network, a discriminant model 1 is generated that outputs a discrimination result relating to a region of interest with image features as input.

また、モデル生成手段50は、第1の学習データのうちのサンプル画像データ及び鑑別結果に対応する臨床解釈可能特徴を第2の学習データとして、ニューラルネットワーク等の深層学習方法によって訓練を行うことで、関心領域を含む医用画像を入力として臨床解釈可能特徴を出力する判別モデル2を生成する。 In addition, the model generation means 50 performs training by a deep learning method such as a neural network using the clinically interpretable features corresponding to the sample image data and the discrimination result of the first learning data as the second learning data. , generates a discriminant model 2 that takes as input a medical image containing a region of interest and outputs clinically interpretable features.

ここで、視覚判断画像特徴とは、医師等の臨床的な経験を有する者が、医用画像を観察する読影行為によって医用画像から見つけたり推定したりする臨床上の画像特徴である。すなわち、視覚判断画像特徴は、人による判定に基づいて定量化された画像特徴であるといえる。例えば、視覚判断画像特徴は、腫瘍の形状や辺縁状態に関する判断等の画像特徴である。 Here, the visual judgment image feature is a clinical image feature that a person with clinical experience such as a doctor finds or estimates from a medical image through interpretation of the medical image. That is, it can be said that the visually determined image feature is an image feature quantified based on human determination. For example, visual judgment image features are image features such as judgments about the shape and marginal state of a tumor.

モデル生成手段50による判別モデル1の学習では、このような視覚判断画像特徴を含む学習データを用いて訓練が行われる。 In the learning of the discriminant model 1 by the model generating means 50, training is performed using learning data including such visual judgment image features.

図2は、第1の実施形態に係る医用画像処理装置におけるモデル生成手段による学習過程を示す模式図である。 FIG. 2 is a schematic diagram showing a learning process by the model generating means in the medical image processing apparatus according to the first embodiment.

ここで、図2の(a)は、判別モデル1を学習する場合の模式図を示している。 Here, (a) of FIG. 2 shows a schematic diagram when the discriminant model 1 is learned.

図2の(a)に示すように、判別モデル1を学習する際には、病変有無又は病変程度の判定結果が既に得られているサンプル画像データを取得するとともに、サンプル画像データである医用画像の特徴及び医用画像から視覚によって得られた視覚判断画像特徴等の画像特徴を取得し、これらの画像特徴を示す特徴量と病変有無又は病変程度の判定結果とを学習データとすることにより、ニューラルネットワーク等の深層学習の方法を用いて判別モデル1を学習する。これにより、画像特徴を入力として関心領域に関する鑑別結果を出力する判別モデル1が得られる。 As shown in (a) of FIG. 2, when learning the discriminant model 1, sample image data for which the determination result of the presence or absence of a lesion or the extent of a lesion has already been obtained is obtained, and a medical image that is the sample image data is acquired. By acquiring image features such as visual judgment image features obtained visually from medical images and the features of the image, and using the feature values indicating these image features and the judgment results of the presence or absence of lesions or the extent of lesions as learning data, neural A discriminant model 1 is learned using a deep learning method such as a network. As a result, a discriminant model 1 is obtained that takes image features as input and outputs discrimination results relating to the region of interest.

また、図2の(b)は、判別モデル2を学習する場合の模式図を示している。 In addition, FIG. 2(b) shows a schematic diagram when learning the discriminant model 2. As shown in FIG.

判別モデル2の学習は、判別モデル1を学習した上で、図2の(a)における視覚判断画像特徴の部分を判別モデル2に置き換え、判別モデル1を学習する際に用いた学習データにおけるサンプル画像データと病変有無又は病変程度の判定結果とを学習データとして、ニューラルネットワーク等の深層学習の方法を用いて判別モデル2を学習する。ここで、モデル生成手段50は、判別モデル2を学習する際に、サンプル画像データと病変有無又は病変程度の判定結果とに基づいて、サンプル画像データと病変有無又は病変程度の判定結果とに対応する臨床解釈可能特徴を得ることができる。こうして、サンプル画像データと病変有無又は病変程度の判定結果とを学習データとすることにより、関心領域を含む医用画像を入力として臨床解釈可能特徴を出力する判別モデル2を学習することができる。或いは、モデル生成手段50は、判別モデル1を学習する際に生じる視覚判断画像特徴を判別モデル2が出力する臨床解釈可能特徴として訓練することにより、関心領域を含む医用画像を入力として臨床解釈可能特徴を出力する判別モデル2を学習してもよい。図2の(b)に示すように、視覚判断画像特徴の代わりに判別モデル2が出力する臨床的解釈可能特徴を判別モデル1に入力することによって、正確な病変有無又は病変程度の判定結果を得ることができる。 In the learning of the discriminant model 2, after learning the discriminant model 1, the portion of the visual judgment image feature in (a) of FIG. The discriminant model 2 is learned using a deep learning method such as a neural network using the image data and the determination result of the presence/absence of a lesion or the degree of a lesion as learning data. Here, when learning the discriminant model 2, the model generating means 50 corresponds to the sample image data and the determination result of the presence or absence of a lesion or the degree of lesion based on the sample image data and the determination result of the presence or absence of a lesion or the degree of a lesion. It is possible to obtain clinically interpretable features that In this way, by using the sample image data and the determination result of the presence or absence of a lesion or the degree of a lesion as learning data, it is possible to learn the discriminant model 2 that outputs a clinically interpretable feature from a medical image including a region of interest. Alternatively, the model generating means 50 trains the visual judgment image features generated when learning the discriminant model 1 as clinically interpretable features output by the discriminant model 2, thereby enabling clinical interpretation using a medical image including the region of interest as an input. A discriminant model 2 that outputs features may be learned. As shown in FIG. 2(b), by inputting the clinically interpretable features output by the discriminant model 2 into the discriminant model 1 in place of the visual judgment image features, accurate lesion presence/absence or lesion degree determination results can be obtained. Obtainable.

ここで、臨床解釈可能特徴とは、特定の部位を臨床的に説明するものであり、定量化可能な特徴を意味する。このような定量化可能な特徴は、解釈しやすいため、病変の性質の評価やスコアリング等の読影関連処理に適用されることが多い。また、臨床解釈可能特徴は、説明のための特徴であり、業界内の診療ガイドライン又は基準によって具体的な内容を決定・解釈することができる。 Here, a clinically interpretable feature means a quantifiable feature that clinically describes a specific site. Because such quantifiable features are easy to interpret, they are often applied to interpretation-related processes such as lesion quality assessment and scoring. Also, clinically interpretable features are descriptive features whose specific content can be determined and interpreted according to clinical practice guidelines or standards within the industry.

例えば、臨床解釈可能特徴は、診療ガイドラインによって規定された臨床解釈可能特徴である。また、臨床解釈可能特徴は、臨床的に解釈可能な形態学特徴である臨床解釈可能形態学的特徴、及び、臨床的に解釈可能な動力学的特徴である臨床解釈可能動力学的特徴を含む。 For example, clinically interpretable features are clinically interpretable features defined by clinical practice guidelines. Also, the clinically interpretable features include clinically interpretable morphological features, which are clinically interpretable morphological features, and clinically interpretable kinetic features, which are clinically interpretable kinetic features. .

例えば、乳腺関連分野の場合、乳腺画像レポート及びデータシステムBI-RADS(Breast Imaging-Reporting and Data System)などを参照して、円形、楕円形、分葉形、不規則形等の腫瘍形状を説明する特徴、スムーズ、針状、不規則等の境界を説明する特徴、均一性(Homogeneous)、不均一性、環状強調等の強調モデルを説明する特徴等の臨床解釈可能特徴を規定することができる。これらの特徴をそれぞれ定量化することによって、臨床解釈可能特徴を表現することができる。 For example, in the case of mammary gland-related fields, refer to breast imaging-reporting and data system BI-RADS (Breast Imaging-Reporting and Data System), etc. to describe tumor shapes such as round, oval, lobed, and irregular. It is possible to define clinically interpretable features such as features that are smooth, features that describe boundaries such as smooth, acicular, irregular, etc., features that describe enhancement models such as Homogeneous, Heterogeneous, Annular enhancement, etc. . By quantifying each of these features, a clinically interpretable feature can be expressed.

第1の実施形態では、モデル生成手段50は、上述したように、判別モデル1と判別モデル2とを生成する。それにより、生成手段10及び鑑別手段30が、それぞれ、モデル生成手段50によって生成されたモデルを用いて医用画像の処理を行うことができる。 In the first embodiment, the model generation means 50 generates the discriminant model 1 and the discriminant model 2 as described above. Thereby, the generating means 10 and the discriminating means 30 can process medical images using the models generated by the model generating means 50, respectively.

生成手段10は、関心領域を含む医用画像から画像特徴を表す各種の特徴を生成する。ここで、生成手段10が生成する各種の特徴は、「第1の特徴」に対応する。具体的には、生成手段10は、分割手段11と、臨床解釈可能特徴生成手段12とを含む。 Generating means 10 generates various features representing image features from a medical image including a region of interest. Here, the various features generated by the generating means 10 correspond to the "first feature". Specifically, generating means 10 includes dividing means 11 and clinically interpretable feature generating means 12 .

分割手段11は、医用画像を取得し、取得した医用画像に対して分割処理を行うことで、関心領域を特定する。本実施形態では、医用画像は、乳腺の透視図等の医用画像であり、分割対象の画像には、何れも結節や腫瘍の陰影部分が存在する。分割手段11は、取得した医用画像に対して、通常の分割処理を行うことで、乳腺部分と、乳腺の中での結節や腫瘍が存在する陰影部分とを分割し、陰影部分を関心領域とする。具体的な分割方法は、既存の任意の分割方法を用いることができるため、ここでは説明を省略する。 The dividing unit 11 acquires a medical image and performs a dividing process on the acquired medical image to specify a region of interest. In the present embodiment, the medical image is a medical image such as a perspective view of a mammary gland, and any image to be segmented includes shadowed portions of nodules and tumors. The dividing means 11 performs normal dividing processing on the obtained medical image to divide the mammary gland part and the shadow part where the nodule or tumor exists in the mammary gland, and divide the shadow part into the region of interest. do. Since any existing dividing method can be used as a specific dividing method, description thereof is omitted here.

臨床解釈可能特徴生成手段12は、関心領域を含む医用画像を入力として臨床解釈可能特徴を出力する判別モデル2を用いて、分割手段11によって分割された関心領域を含む医用画像から関心領域の臨床解釈可能特徴を生成する。具体的には、臨床解釈可能特徴生成手段12は、関心領域を含む医用画像を判別モデル2に入力して、当該医用画像における関心領域の臨床上の特徴を解釈可能に説明する臨床解釈可能特徴を判別モデル2から取得することにより、当該医用画像から関心領域の臨床解釈可能特徴を生成する。 A clinically interpretable feature generating means 12 uses a discriminant model 2 which receives a medical image including a region of interest as an input and outputs a clinically interpretable feature, and uses the discrimination model 2 to output a clinically interpretable feature from the medical image including the region of interest divided by the dividing means 11. Generate interpretable features. Specifically, the clinically interpretable feature generation means 12 inputs a medical image including a region of interest to the discriminant model 2, and generates a clinically interpretable feature that interpretably describes the clinical features of the region of interest in the medical image. from the discriminant model 2 to generate clinically interpretable features of the region of interest from the medical image.

表示手段20は、臨床解釈可能特徴生成手段12によって生成された臨床解釈可能特徴を表示する。例えば、表示手段20は、医用画像の臨床解釈可能特徴を示す定量化データと関連情報とを並べた画面を表示してもよいし、判別モデル2から出力された複数の臨床解釈可能特徴を数値の高低又は確率の高低に応じて順次表示する画面を表示してもよい。なお、臨床解釈可能特徴についての定量化表示は、具体的なデータで表示してもよいし、データに対応したヒストグラム等のグラフで表示してもよい。 Display means 20 displays the clinically interpretable features generated by clinically interpretable feature generating means 12 . For example, the display means 20 may display a screen in which quantified data representing the clinically interpretable features of the medical image and related information are arranged side by side, or may display a plurality of clinically interpretable features output from the discriminant model 2 as numerical values. The screen may be displayed sequentially according to the level of the probability or the level of the probability. Note that the quantified display of the clinically interpretable features may be displayed as specific data or as a graph such as a histogram corresponding to the data.

また、表示手段20は、臨床解釈可能特徴をユーザ対話型インタフェースに表示してもよい。それにより、ユーザが、画像を観察することで、対話型インタフェースに臨床解釈可能特徴の説明や数値に対する変更を入力することが可能になる。 The display means 20 may also display the clinically interpretable features in a user interactive interface. This allows the user to enter changes to descriptions and numerical values of clinically interpretable features in an interactive interface by viewing the image.

修正手段40は、ユーザの入力を受け付け、受け付けたユーザの入力に基づいて、表示手段20によって表示された臨床解釈可能特徴を修正する。 Modification means 40 receives user input and modifies the clinically interpretable features displayed by display means 20 based on the received user input.

鑑別手段30は、臨床解釈可能特徴に基づいて、医用画像における関心領域を鑑別し、当該関心領域に関する鑑別結果を出力する。 The discriminating means 30 discriminates a region of interest in the medical image based on the clinically interpretable features and outputs a discrimination result regarding the region of interest.

具体的には、鑑別手段30は、画像特徴を入力として関心領域に関する鑑別結果を出力する判別モデル1を用いて、臨床解釈可能特徴生成手段12によって生成された臨床解釈可能特徴を判別モデル1に入力することにより、判別モデル1から関心領域の病変有無又は病変程度等の判定結果を取得して、当該関心領域に関する鑑別結果を出力する。 Specifically, the discriminating means 30 uses the discriminant model 1 which receives image features as input and outputs discrimination results related to the region of interest, and converts the clinically interpretable features generated by the clinically interpretable feature generating means 12 into the discriminant model 1. By inputting the information, determination results such as the presence or absence of a lesion in the region of interest or the extent of the lesion are obtained from the discrimination model 1, and the discrimination result regarding the region of interest is output.

図3は、第1の実施形態におけるモデル適用過程を示す模式図である。 FIG. 3 is a schematic diagram showing a model application process in the first embodiment.

図3に示すように、医用画像処理装置100が医用画像の関心領域に対して病変有無又は病変程度を判定する場合、臨床解釈可能特徴生成手段12は、医用画像を判別モデル2に入力して臨床解釈可能特徴を出力し、表示手段20及び修正手段40は、臨床解釈可能特徴を表示及び修正する。また、鑑別手段30は、臨床解釈可能特徴を画像特徴として判別モデル1に入力することにより、病変有無又は病変程度に対する判定結果を出力する。このように、図3に示すような適用過程では、判別モデル1及び判別モデル2の2つのモデルを用いることで、視覚判断画像特徴のような主観的な特徴が現れず、主観的な影響が少なくなる。具体的には、判別モデル2は最終的に鑑別結果を教師データとして学習したものであるため、判別モデル2が出力する臨床解釈可能特徴は、視覚判断画像特徴に含まれる読影者依存の影響が相対的に少なくなる。そのため、本構成によれば、鑑別結果が主観の影響を受けにくくなるという特徴がある。 As shown in FIG. 3, when the medical image processing apparatus 100 determines the presence or absence of a lesion or the degree of a lesion in a region of interest in a medical image, the clinically interpretable feature generating means 12 inputs the medical image to the discrimination model 2 and Outputting the clinically interpretable features, the display means 20 and the modifying means 40 display and modify the clinically interpretable features. Further, the discriminating means 30 outputs a determination result regarding the presence/absence of a lesion or the degree of a lesion by inputting clinically interpretable features into the discriminant model 1 as image features. Thus, in the application process as shown in FIG. 3, by using two models, the discriminant model 1 and the discriminant model 2, subjective features such as visual judgment image features do not appear, and subjective influences do not appear. less. Specifically, since the discriminant model 2 is finally learned using the discrimination results as teacher data, the clinically interpretable features output by the discriminant model 2 are influenced by the reader-dependent included in the visual judgment image features. relatively less. Therefore, according to this configuration, there is a feature that the discrimination result is less likely to be influenced by subjectivity.

なお、表示手段20は、臨床解釈可能特徴と、鑑別手段30の判別モデル1に基づいた出力結果を表示画面に同時に表示してもよい。この場合には、修正手段40が臨床解釈可能特徴の大きさを変更すると、鑑別手段30の判別モデル1による病変有無又は病変程度の判定結果も更新される。 The display means 20 may simultaneously display the clinically interpretable features and the output result based on the discriminant model 1 of the discrimination means 30 on the display screen. In this case, when the modifying means 40 changes the size of the clinically interpretable feature, the determination result of the presence or absence of lesion or the degree of lesion by the discriminant model 1 of the discriminating means 30 is also updated.

例えば、判別モデル1が機械学習アルゴリズムを用いて得られた分類尺度ベクトルを個々の画像特徴で構築したモデルである場合に、判別モデル1は、医用画像中の画像特徴からなる分類尺度ベクトルに対応する病変予測陽性率を出力してもよい。その場合に、表示手段20には、画像特徴としての臨床解釈可能特徴に関する参照情報、例えば、臨床解釈可能特徴の名称、該臨床解釈可能特徴の画像群における確率情報等が予め記憶されていてもよい。そして、表示手段20は、これらの参照情報を、ユーザによる参照を容易にするために、生成された臨床解釈可能特徴のデータ及び病変予測陽性率とともに表示画面上に表示してもよい。 For example, when the discriminant model 1 is a model in which a classification scale vector obtained using a machine learning algorithm is constructed from individual image features, the discrimination model 1 corresponds to a classification scale vector consisting of image features in a medical image. You may output the lesion prediction positive rate. In this case, even if the display means 20 preliminarily stores reference information related to clinically interpretable features as image features, such as names of clinically interpretable features, probability information of the clinically interpretable features in an image group, and the like. good. Then, the display means 20 may display this reference information together with the generated clinically interpretable feature data and lesion prediction positive rate on the display screen for easy reference by the user.

図4は、第1の実施形態に係る医用画像処理装置における表示手段に表示される画面の一例を示す図である。 FIG. 4 is a diagram showing an example of a screen displayed on display means in the medical image processing apparatus according to the first embodiment.

図4に示す画面領域R100aには、複数の領域R110、R120、R160、R170、R180が含まれる。ここで、領域R110には、その中の腫瘍部分が病変(良性又は悪性)であるか否かを判定する必要のある医用画像が表示される。また、領域R120には、ID、氏名等の患者情報が表示される。そして、図4に示す例では、領域R160、R170及びR180それぞれに、臨床解釈可能特徴の説明(名称)及びそれに対応する判別モデル1の出力結果が示されている。 A screen region R100a shown in FIG. 4 includes a plurality of regions R110, R120, R160, R170, and R180. Here, the region R110 displays a medical image in which it is necessary to determine whether or not the tumor portion therein is a lesion (benign or malignant). Patient information such as ID and name is displayed in the area R120. In the example shown in FIG. 4, descriptions (names) of clinically interpretable features and output results of the discriminant model 1 corresponding thereto are shown in regions R160, R170 and R180, respectively.

例えば、領域R160では、辺縁平滑の臨床解釈可能特徴を有する場合に、当該臨床的技術的特徴に基づいて算出される予測陽性率が27.0%であるということが示されている。また、領域R160では、参照情報として、識別妥当性尺度である信頼区間が20.4%~34.3%であることと、参照群として、当該特徴が、良性腫瘍の医用画像からなる良性群に出現する確率が83.0%であり、悪性腫瘍の医用画像からなる悪性群に出現する確率が45.1%であることとがさらに示されている。 For example, in the region R160, it is shown that the predicted positive rate calculated based on the clinical technical features is 27.0% when it has the clinically interpretable feature of marginal smoothness. Further, in region R160, as reference information, the confidence interval, which is a measure of discriminative validity, is 20.4% to 34.3%, and as a reference group, the feature is a benign group consisting of medical images of benign tumors. It has further been shown that the probability of appearance in the malignant tumor is 83.0% and the probability of appearance in the malignant group consisting of medical imaging of malignant tumors is 45.1%.

また、領域R170では、辺縁平滑及び非下降の2つの臨床解釈可能特徴を有する場合に、該臨床的技術的特徴に基づいて算出された予測陽性率が1.9%であることが示されている。また、領域R170では、参照情報として、信頼区間が0.2%~6.5%であることと、参照群として、当該組合せの特徴が、良性腫瘍の医用画像からなる良性群に出現する確率が72.1%であり、悪性腫瘍の医用画像からなる悪性群に出現する確率が2.5%であることとがさらに示されている。 In addition, in region R170, when having two clinically interpretable features of smooth margins and non-descending, it is shown that the predicted positive rate calculated based on the clinical technical features is 1.9%. ing. Further, in region R170, as reference information, the confidence interval is 0.2% to 6.5%, and as reference group, the probability that the feature of the combination appears in a benign group consisting of medical images of benign tumors is 72.1% and the probability of appearing in the malignant group consisting of medical imaging of malignant tumors is 2.5%.

また、領域R180では、辺縁平滑、非下降及び均一の3つの臨床解釈可能特徴を有する場合に、該臨床的技術的特徴に基づいて算出された予測陽性率が3.2%であることが示されている。また、領域R180では、参照情報として、信頼区間が0.1%~6.7%であることと、参照群として、当該組合せの特徴が、良性腫瘍の医用画像からなる良性群に出現する確率が20.4%であり、悪性腫瘍の医用画像からなる悪性群に出現する確率が1.2%であることとがさらに示されている。 In addition, in region R180, when there are three clinically interpretable features of smooth margins, non-descending and uniform, the predicted positive rate calculated based on the clinical technical features is 3.2%. It is shown. In the region R180, the confidence interval is 0.1% to 6.7% as reference information, and the probability that the feature of the combination appears in a benign group consisting of medical images of benign tumors as a reference group. is 20.4% and the probability of appearing in the malignant group consisting of medical imaging of malignant tumors is 1.2%.

以上のような表示により、図4には、対象となる医用画像がどのようなパターンを示しているかが表され、かつ、良性/悪性の程度が表されている。 With the display as described above, FIG. 4 shows what kind of pattern the target medical image shows, and also shows the degree of benign/malignant.

なお、表示手段20は、識別妥当性尺度に基づいて表示するか否かを決定してもよい。例えば、図4に示す例では、領域R180における信頼区間の上限(予測陽性率上限)が16.7%であり、その数値が領域R160と領域R170との間にあることから、領域R180の参照価値が領域R160及び領域R170を下回ることが分かる。そのため、表示手段20は、このような場合には、領域R180を表示しないと決定してもよい。 Note that the display means 20 may determine whether or not to display based on the identification validity scale. For example, in the example shown in FIG. 4, the upper limit of the confidence interval (prediction positive rate upper limit) in the region R180 is 16.7%, and the numerical value is between the regions R160 and R170. It can be seen that the values are below regions R160 and R170. Therefore, display means 20 may determine not to display region R180 in such a case.

また、図4の表示画面は一例に過ぎず、本実施形態はこれに限定されるものではない。例えば、表示手段20は、判別モデル2から出力される臨床解釈可能特徴の特徴に合わせて、他の形態で画面を表示するようにしてもよい。 Moreover, the display screen of FIG. 4 is merely an example, and the present embodiment is not limited to this. For example, the display means 20 may display the screen in another form in accordance with the features of the clinically interpretable features output from the discriminant model 2 .

図5は、第1の実施形態に係る医用画像処理装置におけるモデル生成過程を説明するためのフローチャートである。 FIG. 5 is a flowchart for explaining the model generation process in the medical image processing apparatus according to the first embodiment.

図5に示すように、モデルの作成を行う際には、まず、モデル生成手段50は、病変有無又は病変程度が検証された鑑別結果を含むサンプル画像セットを取得する(ステップS501)。また、モデル生成手段50は、サンプル画像セットから生成された、視覚判断画像特徴を含む画像特徴と病変有無/程度の鑑別結果とを学習データとして訓練を行うことで、判別モデル1を生成する(ステップS502)。 As shown in FIG. 5, when creating a model, first, the model generating means 50 acquires a sample image set including discrimination results in which the presence or absence of a lesion or the degree of a lesion is verified (step S501). In addition, the model generating means 50 generates a discriminant model 1 by performing training using image features including visual judgment image features generated from the sample image set and discrimination results of lesion presence/absence/degree as learning data ( step S502).

そして、モデル生成手段50は、判別モデル1を訓練する際に用いた学習データにおける病変有無/程度の鑑別結果のみを学習データとして、判別モデル1を訓練する際に生じる視覚判断画像特徴を判別モデル2から出力される臨床解釈可能特徴として訓練を行うことで、判別モデル2を生成する(ステップS503)。 Then, the model generating means 50 uses only the discrimination result of lesion presence/absence/degree in the learning data used for training the discriminant model 1 as learning data, and converts the visual judgment image features generated when training the discriminant model 1 into the discriminant model. A discriminant model 2 is generated by training the clinically interpretable features output from 2 (step S503).

これにより、画像特徴を入力として関心領域に関する鑑別結果を出力する判別モデル1と、関心領域を含む医用画像を入力として臨床解釈可能特徴を出力する判別モデル2とが生成され、判別モデル1と判別モデル2とが医用画像処理装置100に配置される(ステップS504)。 As a result, a discriminant model 1 that receives an image feature as an input and outputs a discriminative result related to the region of interest, and a discriminant model 2 that receives a medical image including the region of interest as an input and outputs a clinically interpretable feature are generated. Model 2 is placed in the medical image processing apparatus 100 (step S504).

次に、第1の実施形態に係る医用画像処理装置100が行う処理の全体の流れについて説明する。 Next, the overall flow of processing performed by the medical image processing apparatus 100 according to the first embodiment will be described.

図6は、第1の実施形態に係る医用画像処理装置における画像鑑別処理方法を説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining an image discrimination processing method in the medical image processing apparatus according to the first embodiment.

図6に示すように、まず、分割手段11は、処理すべき医用画像を取得し(ステップS601)、当該医用画像に対して器官分割及び腫瘍分割を行うことで、乳腺及び乳腺における腫瘍部分を分割し、分割された腫瘍領域を関心領域とする(ステップS602)。 As shown in FIG. 6, first, the dividing means 11 acquires a medical image to be processed (step S601), and performs organ division and tumor division on the medical image, thereby dividing the mammary gland and the tumor portion in the mammary gland. The tumor region is divided, and the divided tumor region is set as the region of interest (step S602).

続いて、臨床解釈可能特徴生成手段12は、分割された医用画像を判別モデル2に入力することにより、医用画像の臨床解釈可能特徴を出力する(ステップS603)。 Subsequently, the clinically interpretable feature generating means 12 outputs the clinically interpretable features of the medical image by inputting the divided medical image to the discriminant model 2 (step S603).

そして、表示手段20は、生成された臨床解釈可能特徴を表示し(ステップS604)、修正手段40は、臨床解釈可能特徴に対する修正を受け付けたか否かを判断する(ステップS605)。 Then, the display means 20 displays the generated clinically interpretable features (step S604), and the correction means 40 determines whether or not corrections to the clinically interpretable features have been received (step S605).

ここで、予め設定された一定期間内に臨床解釈可能特徴に対する修正が受け付けられなかった場合(ステップS605:No)、鑑別手段30は、臨床解釈可能特徴を判別モデル1に入力することにより、関心領域の病変有無又は病変程度を示す鑑別結果を出力する(ステップS606)。 Here, if the modification of the clinically interpretable features is not received within a predetermined period of time (step S605: No), the discriminating means 30 inputs the clinically interpretable features into the discriminant model 1 to A discrimination result indicating the presence or absence of a lesion in the area or the degree of lesion is output (step S606).

一方、予め設定された一定期間内に臨床解釈可能特徴に対する修正が受け付けられた場合(ステップS605:Yes)、鑑別手段30は、修正後の臨床解釈可能特徴を判別モデル1に入力することにより、関心領域の病変有無又は病変程度を示す鑑別結果を出力する(ステップS607)。 On the other hand, if the correction of the clinically interpretable features is received within a predetermined period of time (step S605: Yes), the discriminating means 30 inputs the corrected clinically interpretable features into the discriminant model 1, A discrimination result indicating the presence or absence of a lesion in the region of interest or the degree of lesion is output (step S607).

上述した第1の実施形態によれば、医用画像の鑑別を行う際に、視覚判断画像特徴ではなく、臨床解釈可能特徴を用いることにより、主観的な影響を受けることなく、鑑別の精度を向上させることができる。また、臨床解釈可能特徴の臨床的解釈可能性は、従来のニューラルネットワーク学習で生じられる中間特徴のような解釈不能な特徴とは異なるため、臨床解釈可能特徴をユーザに表示することにより、ユーザは、該特徴の妥当性をより容易に判断して修正することができ、鑑別処理の信頼性をさらに保証することができる。また、医用画像から、容易に理解できる臨床解釈可能特徴を直接得ることができる判別モデルを利用することにより、読影の効率を向上させることができる。 According to the above-described first embodiment, the accuracy of discrimination is improved without subjective influence by using clinically interpretable features instead of visual judgment image features when discriminating medical images. can be made Also, because the clinical interpretability of clinically interpretable features is different from uninterpretable features such as intermediate features that occur in traditional neural network learning, by displaying clinically interpretable features to the user, the user can , the validity of the features can be determined and corrected more easily, further ensuring the reliability of the identification process. In addition, the efficiency of interpretation can be improved by using a discriminant model that can directly obtain easily understood clinically interpretable features from medical images.

(第1の実施形態の変形例)
なお、第1の実施形態では、医用画像処理装置100が、モデル生成手段50を備え、当該モデル生成手段50によって判別モデル1及び判別モデル2を生成して医用画像処理装置100に配置することとしたが、実施形態はこれに限られない。例えば、医用画像処理装置100は、生成済みの判別モデル1及び判別モデル2を外部から直接取得して処理してもよい。この場合には、医用画像処理装置100は、モデル生成手段50を備えなくてもよい。
(Modification of the first embodiment)
In the first embodiment, the medical image processing apparatus 100 includes the model generating means 50, and the discriminant model 1 and the discriminant model 2 are generated by the model generating means 50 and arranged in the medical image processing apparatus 100. However, embodiments are not limited to this. For example, the medical image processing apparatus 100 may directly acquire the generated discriminant model 1 and discriminant model 2 from the outside and process them. In this case, the medical image processing apparatus 100 does not need to include the model generating means 50. FIG.

また、第1の実施形態では、医用画像処理装置100が、修正手段40を備えることにより、臨床解釈可能特徴に対する修正を受け付けることとしたが、実施形態はこれに限られない。例えば、医用画像処理装置100は、修正手段40を備えることなく、臨床解釈可能特徴に対する修正を許容せずに、判別モデル2によって生成された臨床解釈可能特徴を直接用いて関心領域の鑑別を行うようにしてもよい。 In addition, in the first embodiment, the medical image processing apparatus 100 is provided with the correction means 40 to accept correction of the clinically interpretable features, but the embodiment is not limited to this. For example, the medical image processing apparatus 100 discriminates the region of interest directly using the clinically interpretable features generated by the discriminant model 2 without including the modifying means 40 and without allowing modifications to the clinically interpretable features. You may do so.

(第2の実施形態)
次に、図7~図10を参照して、第2の実施形態について説明する。第2の実施形態に係る医用画像処理装置の構成は、第1の実施形態に比べて、生成手段10及び鑑別手段30が行う処理が異なり、モデル生成手段50を備えていない点が主に異なっている。以下では、第2の実施形態について、第1の実施形態と相違する点を主に説明し、同一又は類似の構成については同一の符号を付すこととして重複する説明を適宜に省略する。
(Second embodiment)
Next, a second embodiment will be described with reference to FIGS. 7 to 10. FIG. The configuration of the medical image processing apparatus according to the second embodiment is different from that of the first embodiment in that the processes performed by the generation means 10 and the discrimination means 30 are different, and the model generation means 50 is not provided. ing. In the following, the second embodiment will be mainly described with respect to the differences from the first embodiment, and the same or similar configurations will be denoted by the same reference numerals, and redundant description will be omitted as appropriate.

図7は、第2の実施形態に係る医用画像処理装置の機能構成の一例を示すブロック図である。 FIG. 7 is a block diagram showing an example of the functional configuration of a medical image processing apparatus according to the second embodiment;

図7に示すように、第2の実施形態に係る医用画像処理装置100aは、生成手段10aと、表示手段20と、鑑別手段30aと、修正手段40とを備えている。 As shown in FIG. 7, the medical image processing apparatus 100a according to the second embodiment includes generation means 10a, display means 20, discrimination means 30a, and correction means 40. FIG.

ここで、生成手段10aは、分割手段11と、画像基礎特徴抽出手段13と、臨床解釈可能特徴生成手段12aとを含む。 Here, the generation means 10a includes a division means 11, an image basis feature extraction means 13, and a clinically interpretable feature generation means 12a.

分割手段11は、医用画像を取得し、取得した医用画像に対して分割処理を行うことで、関心領域を決定する。本実施形態では、医用画像は、乳腺の透視図等の医用画像であり、分割対象の画像には、何れも結節や腫瘍の陰影部分が存在する。分割手段11は、取得した医用画像に対して、通常の分割処理を行うことで、乳腺部分と、乳腺の中での結節や腫瘍が存在する陰影部分とを分割し、陰影部分を関心領域とする。具体的な分割方法は、既存の任意の分割方法を用いることができるため、ここでは説明を省略する。 The dividing unit 11 obtains a medical image and performs a dividing process on the obtained medical image to determine a region of interest. In the present embodiment, the medical image is a medical image such as a perspective view of a mammary gland, and any image to be segmented includes shadowed portions of nodules and tumors. The dividing means 11 performs normal dividing processing on the obtained medical image to divide the mammary gland part and the shadow part where the nodule or tumor exists in the mammary gland, and divide the shadow part into the region of interest. do. Since any existing dividing method can be used as a specific dividing method, description thereof is omitted here.

画像基礎特徴抽出手段13は、関心領域を含む医用画像から画像基礎特徴を抽出する。 The image basic feature extraction means 13 extracts image basic features from the medical image including the region of interest.

ここで、画像基礎特徴とは、測定によって画像から正確に得ることができる画像特徴を意味し、例えば、一般的な基礎形態学的特徴、基礎テクスチャ特徴、及び、基礎動力学的特徴を含む。このうち、基礎形態学的特徴は、例えば、輪郭の外側境界サイズ、領域サイズ等の図形の形態学的構造を示すものである。また、基礎テクスチャ特徴は、例えば、画像テクスチャの太さ、密度等の画像又は関心領域の表面特徴を示すものである。また、基礎動力学的特徴は、画像上の動的な特徴であり、例えば、多時相造影画像に対して基礎動力学的特徴を抽出する場合には、造影画像と造影前画像との比較による強調割合や、強調後の1番目の時相画像から最も明るい時相画像に至るまでの時間差や、最も明るい時の画像の強調割合等の動力学的特徴がある。 Here, image basic features mean image features that can be accurately obtained from an image by measurement, and include, for example, general basic morphological features, basic texture features, and basic dynamic features. Among these, the basic morphological features indicate the morphological structure of the figure, such as the outer boundary size of the outline, the area size, and the like. Also, the basic texture feature indicates the surface features of the image or region of interest, such as the thickness and density of the image texture. In addition, the basic dynamic feature is a dynamic feature on the image. For example, when extracting the basic dynamic feature for the multiphase contrast-enhanced image, the dynamic features such as the enhancement rate by , the time difference from the first temporal image after enhancement to the brightest temporal image, and the enhancement rate of the brightest image.

臨床解釈可能特徴生成手段12aは、予め生成された、画像基礎特徴と臨床解釈可能特徴とを関連付けた変換モデルを用いて、画像基礎特徴抽出手段13によって抽出された画像基礎特徴を当該変換モデルに代入することで、当該画像基礎特徴から、関心領域の臨床解釈可能特徴を生成する。 The clinically interpretable feature generating means 12a uses a pre-generated conversion model that associates the image basic features with the clinically interpretable features, and converts the image basic features extracted by the image basic feature extraction means 13 into the conversion model. Substitution produces clinically interpretable features of the region of interest from the image basis features.

ここで、臨床解釈可能特徴とは、特定の部位を臨床的に説明するものであり、定量化可能な特徴を意味する。このような定量化可能な特徴は、解釈しやすいため、病変の性質の評価やスコアリング等の読影関連処理に適用されることが多い。臨床解釈可能特徴は、説明のための特徴であり、具体的な内容が業界内の診療ガイドライン又は基準によって決定・解釈することができる。例えば、乳腺関連分野の場合、乳腺画像レポート及びデータシステムBI-RADS(Breast Imaging-Reporting and Data System)などを参照して、円形、楕円形、分葉形、不規則形等の腫瘍形状を説明する特徴、スムーズ、針状、不規則等の境界を説明する特徴、均一性(Homogeneous)、不均一性、環状強調等の強調モデルを説明する特徴等を含む臨床解釈可能特徴を決定することができる。これらの特徴は、それぞれ定量化によって表現することができる。さらに、臨床解釈可能特徴は、特定の部位の動態を説明する臨床解釈可能動力学的特徴も含む。例えば、造影剤が使用される場合には、造影剤が被検体内に注入されて吸収される過程があり、この過程において、乳腺腫瘍部位等の特定の部位が異なる「明るさ」を示すことや、「明るさ」の変化の様態が異なることがある。BI-RADSには、例えば、先に明るくなってから徐々に暗くなる特徴(washout)、開始時に強調が速い特徴(fast)、開始時に強調が遅い特徴(Slow)等の臨床解釈可能動力学的特徴が規定されている。 Here, a clinically interpretable feature means a quantifiable feature that clinically describes a specific site. Because such quantifiable features are easy to interpret, they are often applied to interpretation-related processes such as lesion quality assessment and scoring. Clinically interpretable features are descriptive features whose specific content can be determined and interpreted by clinical guidelines or standards within the industry. For example, in the case of mammary gland-related fields, refer to breast imaging-reporting and data system BI-RADS (Breast Imaging-Reporting and Data System), etc. to describe tumor shapes such as round, oval, lobed, and irregular. It is possible to determine clinically interpretable features, including features that are smooth, features that describe boundaries such as smooth, acicular, irregular, etc., features that describe enhancement models such as homogeneous, non-uniformity, and annular enhancement. can. Each of these features can be expressed by quantification. In addition, clinically interpretable features also include clinically interpretable kinetic features that describe the dynamics of specific sites. For example, when a contrast agent is used, there is a process in which the contrast agent is injected into the subject and absorbed. Also, the mode of change in "brightness" may be different. BI-RADS includes clinically interpretable kinetic features such as, for example, early bright and then gradually dark features (washout), features with fast onset enhancement (fast), and features with slow onset enhancement (Slow). characteristics are specified.

また、臨床解釈可能特徴生成手段12aによって用いられる画像基礎特徴と臨床解釈可能特徴とを関連付けた変換モデルは、臨床解釈可能特徴生成モデルとも呼ばれ、過去に読影が完了した画像ケースをサンプルデータとして機械学習により予め生成されたモデルである。このような機械学習によって生成されたモデルは、各画像基礎特徴にそれぞれ重みを付与し、所定のアルゴリズムによって、臨床解釈可能特徴を得るものである。 Further, the conversion model that associates the image basic features and the clinically interpretable features used by the clinically interpretable feature generation means 12a is also called a clinically interpretable feature generation model, and image cases that have been interpreted in the past are used as sample data. It is a model generated in advance by machine learning. A model generated by such machine learning assigns a weight to each basic image feature, and obtains a clinically interpretable feature by a predetermined algorithm.

ここで、例えば、臨床解釈可能特徴生成モデルは、多項式モデルである。 Here, for example, the clinically interpretable feature generation model is a polynomial model.

例えば、臨床解釈可能特徴生成モデルは、次式(1)のような線形の多項式モデルであってもよい。 For example, the clinically interpretable feature generation model may be a linear polynomial model such as the following equation (1).

Figure 2023057036000002
Figure 2023057036000002

式(1)において、χ、χ~χは、それぞれ、画像基礎特徴を表すパラメータ、又は、画像基礎特徴のパラメータからなる数式である。また、yは、予め定義された臨床解釈可能特徴を表すパラメータである。また、w、w~wは、それぞれ、χ、χ~χに付与される重みであり、bは、多項式の重みである。 In Equation (1), χ 1 , χ 2 to χ n are parameters representing basic image features or mathematical expressions composed of parameters of basic image features. Also, y is a parameter representing a predefined clinically interpretable feature. Also, w 1 , w 2 to w n are weights assigned to χ 1 , χ 2 to χ n , respectively, and b is a polynomial weight.

このうち、χ、χ~χは、臨床解釈可能特徴yに影響を及ぼすと考えられる画像基礎特徴である。ここで、臨床解釈可能特徴に含まれる臨床解釈可能形態学的特徴は、画像の基礎形態学的特徴に関連し、臨床解釈可能特徴に含まれる臨床解釈可能動力学的特徴は、画像の基礎動力学的特徴に関連することとする。そして、臨床解釈可能特徴生成手段12aは、画像の基礎形態学的特徴と臨床解釈可能形態学的特徴とを関連付けた変換モデルを用いて、臨床解釈可能形態学的特徴を生成し、画像の基礎動力学的特徴と臨床解釈可能動力学的特徴とを関連付けた変換モデルを用いて、臨床解釈可能動力学的特徴を生成することによって、複数の臨床解釈可能特徴を得る。 Of these, χ 1 , χ 2 to χ n are image basis features that are considered to influence the clinically interpretable feature y. Here, the clinically interpretable morphological features included in the clinically interpretable features are related to the basic morphological features of the image, and the clinically interpretable kinetic features included in the clinically interpretable features are related to the basic dynamics of the image. related to academic characteristics. Then, the clinically interpretable feature generation means 12a generates clinically interpretable morphological features using a conversion model that associates the basic morphological features of the image with the clinically interpretable morphological features, A plurality of clinically interpretable features are obtained by generating clinically interpretable kinetic features using a transformation model that associates the kinetic features with the clinically interpretable kinetic features.

なお、以上に示した多項式は、臨床解釈可能特徴生成モデルの一例であるが、本実施形態はこれに限定されるものではなく、他のアルゴリズムであってもよい。すなわち、臨床解釈可能特徴生成モデルは、サンプルデータを用いて機械学習の方法によって生成されるモデルであればよく、例えば、次式(2)のような非線形の形であってもよい。 The polynomials shown above are an example of the clinically interpretable feature generation model, but the present embodiment is not limited to this, and other algorithms may be used. That is, the clinically interpretable feature generation model may be a model generated by a machine learning method using sample data, and may be, for example, in a non-linear form as in Equation (2) below.

Figure 2023057036000003
Figure 2023057036000003

式(2)において、χ、χ~χは、それぞれ、画像基礎特徴を表すパラメータ、又は、画像基礎特徴のパラメータからなる数式である。また、yは、予め定義された臨床解釈可能特徴を表すパラメータである。また、w、w~wは、それぞれχ 、χ ~χ に付与される重みであり、bは、多項式の重みである。 In Equation (2), χ 1 , χ 2 to χ n are parameters representing basic image features or mathematical expressions composed of parameters of basic image features. Also, y is a parameter representing a predefined clinically interpretable feature. Also, w 1 , w 2 to w n are weights given to χ 1 2 and χ 2 2 to χ n 2 , respectively, and b is a polynomial weight.

例えば、臨床解釈可能特徴生成手段12aは、上述した式(1)、式(2)のように構成された変換モデルを用いて、当該変換モデルに画像基礎特徴χ、χ~χを代入することで、定量化された臨床解釈可能特徴yを生成する。なお、臨床解釈可能特徴yは、複数であってもよく、臨床解釈可能特徴yが複数存在する場合には、臨床解釈可能特徴yごとに対応する変換モデルが用いられる。本例の場合には、臨床解釈可能特徴yの個数と同じ数の複数の多項式が用いられる。 For example, the clinically interpretable feature generating means 12a uses the transformation model configured as in the above-described equations (1) and (2) to generate the image basic features χ 1 , χ 2 to χ n in the transformation model. The substitution produces a quantified clinically interpretable feature y. Note that there may be a plurality of clinically interpretable features y, and when there are a plurality of clinically interpretable features y, a conversion model corresponding to each clinically interpretable feature y is used. In this example, as many polynomials as there are clinically interpretable features y are used.

図8は、第2の実施形態における臨床解釈可能特徴の生成過程を示す模式図である。 FIG. 8 is a schematic diagram showing the process of generating clinically interpretable features in the second embodiment.

図8の左側には、分割手段11が、12個の被検体の医用画像を取得し、それぞれについて乳腺腫瘍を分割した画像が示されている。これらの乳腺腫瘍の画像が画像基礎特徴抽出手段13に入力されることにより、画像基礎特徴抽出手段13は、入力された画像から腫瘍部分の体積、周長、長軸、平坦度等の画像基礎特徴を抽出する。これらの画像基礎特徴は、画像から直接測定して得ることができる。例えば、腫瘍部分の長軸の長さを測定することによって、長軸の画像基礎特徴を得ることができる。 The left side of FIG. 8 shows images obtained by dividing the mammary gland tumors of the medical images of 12 subjects obtained by the dividing means 11 . These mammary gland tumor images are input to the image-based feature extraction means 13, and the image-based feature extraction means 13 extracts image-based data such as volume, circumference, major axis, and flatness of the tumor portion from the input image. Extract features. These image basis features can be obtained by direct measurements from the image. For example, long axis image basis features can be obtained by measuring the length of the long axis of the tumor segment.

そして、画像基礎特徴抽出手段13は、これらの画像基礎特徴を臨床解釈可能特徴生成手段12aに入力し、それにより、臨床解釈可能特徴生成手段12aは、臨床解釈可能特徴生成モデルを用いて、臨床解釈可能特徴を生成して出力する。 Then, the image basis feature extraction means 13 inputs these image basis features to the clinically interpretable feature generation means 12a, whereby the clinically interpretable feature generation means 12a uses the clinically interpretable feature generation model to generate the clinical Generate and output interpretable features.

鑑別手段30aは、臨床解釈可能特徴生成手段12aによって生成された臨床解釈可能特徴に基づいて、関心領域を分類し、関心領域に関する分類結果を鑑別結果として出力する。 The discriminating means 30a classifies the region of interest based on the clinically interpretable features generated by the clinically interpretable feature generating means 12a, and outputs a classification result regarding the region of interest as a discrimination result.

具体的には、鑑別手段30aは、臨床解釈可能特徴生成手段12aによって生成された臨床解釈可能特徴と、臨床解釈可能特徴の閾値とを照合し、照合結果に基づいて、関心領域に関する分類結果を出力する。 Specifically, the discriminating means 30a compares the clinically interpretable features generated by the clinically interpretable feature generating means 12a with threshold values of the clinically interpretable features, and based on the results of the matching, classifies the region of interest. Output.

例えば、関心領域が乳腺の腫瘍部分である場合、図8に示すような動作によって、臨床解釈可能特徴生成手段12aが、各腫瘍部分の臨床解釈可能特徴を出力する。そして、鑑別手段30aは、これらの臨床解釈可能特徴を乳腺画像レポート及びデータシステムBI-RADS(Breast Imaging-Reporting and Data System)などによって規定された判断基準と照合することにより、腫瘍部分の臨床解釈可能特徴に対応する、腫瘍が良性であるか悪性であるかの分類結果、又は、腫瘍の判断結果を得る。 For example, if the region of interest is a tumor portion of the mammary gland, the clinically interpretable feature generating means 12a outputs clinically interpretable features of each tumor portion by the operation shown in FIG. Then, the discriminating means 30a compares these clinically interpretable features with judgment criteria defined by breast imaging-reporting and data system BI-RADS (Breast Imaging-Reporting and Data System) or the like, thereby clinically interpreting the tumor portion. A result of classifying the tumor as benign or malignant or a judgment result of the tumor corresponding to the possible characteristics is obtained.

なお、鑑別手段30aは、臨床解釈可能特徴の数値範囲と分類結果とが関連付けられた対応表を予め記憶しておき、臨床解釈可能特徴を取得した際に、当該臨床解釈可能特徴に基づいて対応表を検索して、対応する分類結果を得るようにしてもよい。 Note that the discrimination means 30a stores in advance a correspondence table in which numerical ranges of clinically interpretable features are associated with classification results, and when acquiring clinically interpretable features, performs correspondence based on the clinically interpretable features. A table may be searched to obtain the corresponding classification result.

また、鑑別手段30aは、悪性腫瘍の判断に限らず、良性腫瘍の種類を細分化するために用いられてもよい。 Further, the discrimination means 30a may be used not only for judging malignant tumors, but also for subdividing types of benign tumors.

表示手段20は、臨床解釈可能特徴生成手段12aによって生成された臨床解釈可能特徴を表示する。 The display means 20 displays the clinically interpretable features generated by the clinically interpretable feature generating means 12a.

修正手段40は、ユーザの入力を受け付け、受け付けたユーザの入力に基づいて、表示手段20に表示される臨床解釈可能特徴を修正する。 The modifying means 40 receives user input and modifies the clinically interpretable features displayed on the display means 20 based on the received user input.

なお、表示手段20は、臨床解釈可能特徴と、鑑別手段30の判別モデル1に基づいた出力結果を表示画面に同時に表示してもよい。この場合には、修正手段40が臨床解釈可能特徴の大きさを変更すると、鑑別手段30の判別モデル1による病変有無又は病変程度の判定結果も更新される。 The display means 20 may simultaneously display the clinically interpretable features and the output result based on the discriminant model 1 of the discrimination means 30 on the display screen. In this case, when the modifying means 40 changes the size of the clinically interpretable feature, the determination result of the presence or absence of lesion or the degree of lesion by the discriminant model 1 of the discriminating means 30 is also updated.

図9は、第2の実施形態に係る医用画像処理装置における表示手段に表示される画面の一例を示す図である。 FIG. 9 is a diagram showing an example of a screen displayed on display means in the medical image processing apparatus according to the second embodiment.

図9に示す画面領域R100には、複数の領域R110、R120、R130、R131、R140、R150が含まれる。領域R110には、その中の腫瘍部分が病変(良性又は悪性)であるか否かを判定する必要のある医用画像が表示される。また、領域R120には、ID、氏名等の患者情報が示される。そして、図9に示す例では、領域R130、R140、R150それぞれに、臨床解釈可能特徴生成手段12aによって生成される3つの臨床解釈可能特徴の説明と、関連する参照群の確率範囲とが示されている。さらに、領域R130、R140、R150それぞれの左下側に、臨床解釈可能特徴生成手段12aによって生成される特徴量の具体的な定量化数値が示されている。 A screen region R100 shown in FIG. 9 includes a plurality of regions R110, R120, R130, R131, R140, and R150. A region R110 displays a medical image in which it is necessary to determine whether a tumor portion is a lesion (benign or malignant). In addition, patient information such as ID and name is shown in the region R120. In the example shown in FIG. 9, regions R130, R140, and R150 respectively show descriptions of the three clinically interpretable features generated by the clinically interpretable feature generating means 12a and the probability ranges of the associated reference groups. ing. Furthermore, specific quantified numerical values of the feature values generated by the clinically interpretable feature generating means 12a are shown on the lower left side of each of the regions R130, R140, and R150.

例えば、領域R130では、辺縁平滑の特徴について示されており、参照群として、当該特徴が、良性腫瘍の医用画像からなる良性群に出現する確率が83.0%であり、悪性腫瘍の医用画像からなる悪性群に出現する確率が45.1%であることが示されている。また、領域R140では、辺縁平滑かつ非下降(Non-washout)の特徴について示されており、参照群として、当該特徴が、良性腫瘍の医用画像からなる良性群に出現する確率が72.0%であり、悪性腫瘍の医用画像からなる悪性群に出現する確率が2.5%であることが示されている。また、領域R150では、辺縁平滑、非下降(Non-washout)かつ不均一の特徴について示されており、参照群として、当該特徴が、良性腫瘍の医用画像からなる良性群に出現する確率が20.0%であり、悪性腫瘍の医用画像からなる悪性群に出現する確率が1.5%であることが示されている。 For example, in region R130, a smooth margin feature is shown, and as a reference group, the feature has a probability of appearing in a benign group consisting of medical images of benign tumors with a probability of 83.0% and a medical image of malignant tumors. It has been shown to have a 45.1% probability of appearing in the malignant cluster of imaging. Also shown in region R140 is a smooth-margined non-washout feature, with a probability of 72.0 for this feature appearing in a benign group of medical images of benign tumors as a reference group. %, with a 2.5% probability of appearing in the malignant group consisting of medical imaging of malignant tumors. Also shown in region R150 are smooth-margined, non-washout, and heterogeneous features, and as a reference group, the probability that the feature appears in a benign group of medical images of benign tumors is 20.0% and a 1.5% probability of appearing in the malignant group consisting of medical images of malignant tumors.

また、各特徴量の上方には、チェックボックスR1、R2、R3がさらに設けられている。ユーザは、チェックボックスR1、R2、R3を選択することにより、どの臨床解釈可能特徴を画像特徴として鑑別に用いるか、即ち、どの特徴の特徴量を鑑別手段30aの処理に用いるかを選択することができる。例えば、図9では、チェックボックスR1がチェックされており、それにより、領域R131において、鑑別手段30aから出力された判別結果が「悪性腫瘍の確率は0.3」であることが示されている。 Check boxes R1, R2, and R3 are further provided above each feature amount. By selecting check boxes R1, R2, and R3, the user selects which clinically interpretable features are to be used for discrimination as image features, that is, which feature quantities are to be used for the processing of the discrimination means 30a. can be done. For example, in FIG. 9, the check box R1 is checked, thereby indicating that the discrimination result output from the discriminating means 30a is "the probability of malignant tumor is 0.3" in the region R131. .

なお、図9の表示画面は一例に過ぎず、本実施形態はこれに限定されるものではない。例えば、臨床解釈可能特徴生成手段12aによって生成される臨床解釈可能特徴の特徴に合わせて、他の形態で画面を表示してもよい。例えば、表示手段20は、臨床解釈可能特徴生成手段12aによって生成された全ての臨床解釈可能特徴が鑑別手段30aの処理に用いられる場合に、臨床解釈可能特徴生成手段12aによって生成された複数の臨床解釈可能特徴の特徴量を直接リスト表示してもよい。また、表示手段20は、臨床解釈可能特徴の特徴量を直接変更可能な形態で、ユーザの入力を受け付けることも可能である。 Note that the display screen in FIG. 9 is merely an example, and the present embodiment is not limited to this. For example, the screen may be displayed in another form in accordance with the features of the clinically interpretable features generated by the clinically interpretable feature generating means 12a. For example, the display means 20 displays the plurality of clinical interpretable features generated by the clinically interpretable feature generating means 12a when all the clinically interpretable features generated by the clinically interpretable feature generating means 12a are used in the processing of the discriminating means 30a. The features of the interpretable features may be listed directly. In addition, the display means 20 can also receive user input in a form in which the feature amount of the clinically interpretable feature can be directly changed.

また、例えば、表示手段20は、医用画像の臨床解釈可能特徴を示す定量化データと関連情報とを並べた画面を表示してもよい。或いは、表示手段20は、臨床解釈可能特徴生成手段12aによって生成された複数の臨床解釈可能特徴を数値の高低又は確率の高低に応じて順次に示す画面を表示してもよい。なお、臨床解釈可能特徴についての定量化表示は、具体的なデータで表示されてもよいし、データに対応したヒストグラム等のグラフで表示されてもよい。 Further, for example, the display means 20 may display a screen in which quantified data indicating clinically interpretable features of a medical image and related information are arranged side by side. Alternatively, the display means 20 may display a screen that sequentially shows a plurality of clinically interpretable features generated by the clinically interpretable feature generating means 12a according to the numerical value or probability. Note that the quantified display of the clinically interpretable features may be displayed as specific data, or as a graph such as a histogram corresponding to the data.

次に、第2の実施形態に係る医用画像処理装置100aが行う処理の全体の流れについて説明する。 Next, the overall flow of processing performed by the medical image processing apparatus 100a according to the second embodiment will be described.

図10は、第2の実施形態に係る医用画像処理装置における画像鑑別処理方法を説明するためのフローチャートである。 FIG. 10 is a flowchart for explaining the image discrimination processing method in the medical image processing apparatus according to the second embodiment.

図10に示すように、まず、分割手段11は、処理すべき医用画像を取得し(ステップS301)、当該医用画像に対して器官分割及び腫瘍分割を行うことで、乳腺及び乳腺における腫瘍部分を分割し、分割された腫瘍領域を関心領域とする(ステップS302)。 As shown in FIG. 10, the dividing means 11 first acquires a medical image to be processed (step S301), and performs organ division and tumor division on the medical image, thereby dividing the mammary gland and the tumor portion in the mammary gland. The tumor region is divided, and the divided tumor region is set as the region of interest (step S302).

続いて、画像基礎特徴抽出手段13は、分割された医用画像から基礎形態学的特徴と基礎動力学的特徴とを抽出する(ステップS303)。 Subsequently, the image basic feature extraction means 13 extracts basic morphological features and basic dynamic features from the divided medical image (step S303).

続いて、臨床解釈可能特徴生成手段12aは、機械学習により予め生成された変換モデルを用いて、画像の基礎形態学的特徴から臨床解釈可能形態学的特徴を生成し、画像の基礎動力学的特徴から臨床解釈可能動力学的特徴を生成する(ステップS304)。 Subsequently, the clinically interpretable feature generation means 12a uses a transformation model generated in advance by machine learning to generate clinically interpretable morphological features from the basic morphological features of the image, and the basic dynamics of the image. Generating clinically interpretable kinetic features from the features (step S304).

そして、表示手段20は、生成された臨床解釈可能特徴を表示し(ステップS305)、修正手段40は、臨床解釈可能特徴に対する修正を受け付けたか否かを判断する(ステップS306)。 Then, the display means 20 displays the generated clinically interpretable features (step S305), and the correction means 40 determines whether or not corrections to the clinically interpretable features have been accepted (step S306).

ここで、予め設定された一定期間内に臨床解釈可能特徴に対する修正が受け付けられなかった場合(ステップS306:No)、鑑別手段30aは、各臨床解釈可能特徴を診療ガイドラインなどに記載の判断範囲と照合することにより、各腫瘍領域を対応する臨床レベルに分類し、分類結果を出力する(ステップS307)。 Here, if the modification of the clinically interpretable features is not accepted within a predetermined period of time (step S306: No), the discrimination means 30a sets each clinically interpretable feature within the judgment range described in the clinical practice guideline or the like. By matching, each tumor region is classified into the corresponding clinical level, and the classification result is output (step S307).

一方、予め設定された一定期間内に臨床解釈可能特徴に対する修正を受け付けられた場合(ステップS306:Yes)、鑑別手段30aは、修正後の各臨床解釈可能特徴を診療ガイドラインなどに記載の判断範囲と照合することにより、各腫瘍領域を対応する臨床レベルに分類し、分類結果を出力する(ステップS308)。 On the other hand, if the correction of the clinically interpretable features is received within a predetermined period of time (step S306: Yes), the discriminating means 30a determines each clinically interpretable feature after the correction within the judgment range described in the clinical practice guideline or the like. to classify each tumor region into the corresponding clinical level, and output the classification result (step S308).

なお、第2の実施形態では、乳腺腫瘍を含む画像の分類を例に、本実施形態の医用画像処理装置を説明してきたが、本実施形態の医用画像処理装置100aは、乳腺腫瘍の画像を処理するものに限られず、任意の部位の画像を取得して当該部位を分類処理することが可能である。 Note that in the second embodiment, the medical image processing apparatus of the present embodiment has been described by taking an example of classifying an image containing a mammary gland tumor. It is possible to obtain an image of an arbitrary site and classify the site without being limited to what is processed.

上述した第2の実施形態によれば、画像から得られる画像基礎特徴を臨床解釈可能特徴に変換し、臨床解釈可能特徴に基づいて関心領域を分類することにより、医用画像から臨床解釈可能特徴を自動的に抽出することができ、主観的な要因を低減して、抽出される臨床解釈可能特徴の精度を向上させることができるため、医師による主観的な判断に比べて、定量化分析の精度を向上させ、読影作業を再現可能に標準化することができる。 According to the second embodiment described above, clinically interpretable features are extracted from a medical image by converting image basis features obtained from the image into clinically interpretable features and classifying regions of interest based on the clinically interpretable features. Accuracy of quantified analysis compared to subjective judgment by physicians, as it can be automatically extracted, subjective factors can be reduced, and the accuracy of extracted clinically interpretable features can be improved and reproducibly standardize the reading process.

(第3の実施形態)
次に、図11~図13を参照して、第3の実施形態について説明する。第3の実施形態に係る医用画像処理装置の構成は、第2の実施形態に基づくものであり、第2の実施形態に比べて、モデル生成手段50aと最適化手段60とをさらに備え、修正手段40を備えていない点が主に異なっている。以下では、第3の実施形態について、第1及び第2の実施形態と相違する点を主に説明することとし、同一又は類似の構成については同一の符号を付すこととして重複する説明を適宜に省略する。
(Third embodiment)
Next, a third embodiment will be described with reference to FIGS. 11 to 13. FIG. The configuration of the medical image processing apparatus according to the third embodiment is based on the second embodiment, and further includes a model generating means 50a and an optimizing means 60 compared to the second embodiment. The main difference is that the means 40 is not provided. In the following, the third embodiment will be mainly described for the points that are different from the first and second embodiments, and the same or similar configurations will be denoted by the same reference numerals, and duplicate description will be appropriately omitted. omitted.

図11は、第3の実施形態に係る医用画像処理装置の機能構成の一例を示すブロック図である。 FIG. 11 is a block diagram showing an example of the functional configuration of a medical image processing apparatus according to the third embodiment;

図11に示すように、第3の実施形態に係る医用画像処理装置100bは、生成手段10aと、表示手段20と、鑑別手段30aと、最適化手段60と、モデル生成手段50aとを備えている。 As shown in FIG. 11, a medical image processing apparatus 100b according to the third embodiment includes generation means 10a, display means 20, discrimination means 30a, optimization means 60, and model generation means 50a. there is

本実施形態では、モデル生成手段50aは、サンプル画像データと、当該サンプル画像データに対応する臨床解釈可能特徴とを取得し、機械学習を用いて、画像基礎特徴と臨床解釈可能特徴とを関連付けた変換モデルを生成する。 In this embodiment, the model generating means 50a obtains sample image data and clinically interpretable features corresponding to the sample image data, and uses machine learning to associate the image basic features with the clinically interpretable features. Generate a conversion model.

例えば、モデル生成手段50aは、既存の画像読影ケース等のサンプルデータが入力された場合に、機械学習を用いて臨床解釈可能特徴生成モデルを生成する。ここで、サンプルデータは、例えば、医用画像データと、医師が当該医用画像を読影して説明した当該医用画像の臨床解釈可能特徴のデータとを含む。そして、モデル生成手段50aは、このようなサンプルデータを用いて、医用画像データから画像基礎特徴を抽出し、抽出した当該画像基礎特徴と医用画像データとに対応する臨床解釈可能特徴を用いて機械学習を行うことにより、第2の実施形態に記載の式(1)又は式(2)のような、画像基礎特徴と臨床解釈可能特徴とを関連付けた変換モデルを生成する。 For example, the model generation means 50a generates a clinically interpretable feature generation model using machine learning when sample data such as an existing image interpretation case is input. Here, the sample data includes, for example, medical image data and clinically interpretable feature data of the medical image described by a doctor by interpreting the medical image. Then, the model generating means 50a uses such sample data to extract basic image features from the medical image data, and uses clinically interpretable features corresponding to the extracted basic image features and the medical image data to produce machine images. Through learning, a conversion model is generated that associates image basic features and clinically interpretable features, such as Equation (1) or Equation (2) described in the second embodiment.

このとき、例えば、3D医用画像について腫瘍部分の形状に関する臨床解釈可能特徴が得られる変換モデルを生成するために、χを画像中の腫瘍部分の体積の2乗と表面の3乗との比とし、χを短軸と長軸との比とし、χを中軸と長軸との比としてもよい。これにより、モデル生成手段50aは、サンプルデータ中の医用画像上で、これらの画像基礎特徴の組み合わせパラメータを測定して算出し、また、サンプルデータにおける、形態が円形、楕円形、分葉形、不規則形等であることを示す臨床解釈可能形態特徴を定量化し、これらの設定されたパラメータ及び定量化された臨床解釈可能特徴に基づいて機械学習を行うことにより、画像の基礎形態特徴と臨床解釈可能形態特徴を関連付けた変換モデルを生成することができる。 Then, for a 3D medical image, for example, to generate a transformation model that yields clinically interpretable features about the shape of the tumor segment, χ 1 is the ratio of the volume squared to the surface cube of the tumor segment in the image. , χ2 may be the ratio of the short axis to the long axis, and χ3 may be the ratio of the middle axis to the long axis. As a result, the model generation means 50a measures and calculates the combination parameters of these image basic features on the medical image in the sample data, and also determines the shape of the sample data as circular, elliptical, lobed, By quantifying the clinically interpretable morphological features that indicate irregular shapes, etc., and performing machine learning based on these set parameters and the quantified clinically interpretable features, the basic morphological features of the image and the clinical A transformation model can be generated that associates interpretable morphological features.

また、例えば、多時相造影画像に対して、造影剤が被検体内に注入・吸収される過程における腫瘍部分の輝度変化態様である臨床解釈可能動力学的特徴を得ることができる変換モデルを生成するために、χを強調割合IE=(S2-S0)/S0とし、χをピーク時間(強調後1分となる時の1番目の時相画像から最も明るくとなるときまでの時間差、単位はs(秒))とし、χを最も明るいときの画像強調割合MEIP=(Speak-S0)/S0としてもよい。ここで、S0は、造影前の画像であり、S2は、例えば、強調後2分の時の造影画像であり、Speakは、最も明るいときの造影画像である。これにより、モデル生成手段50aは、サンプルデータにおける医用画像上で、これら3つの基礎動力学的特徴を測定して算出し、また、サンプルデータにおける腫瘍部位の輝度変化様態を表すfast、slow、washout等の臨床解釈可能動力学的特徴を定量化し、これらの設定されたパラメータ及び定量化された臨床解釈可能動力学的特徴に基づいて機械学習を行うことにより、画像の基礎動力学的特徴と臨床解釈可能動力学的特徴とを関連付けた変換モデルを生成することができる。 In addition, for example, for multi-phase contrast-enhanced images, a conversion model capable of obtaining clinically interpretable dynamic features, which are the brightness change modes of the tumor portion during the process of injection and absorption of the contrast agent into the subject, is provided. To generate it, χ 1 is the enhancement ratio IE = (S2-S0)/S0, and χ 2 is the peak time (the time difference from the first temporal image at 1 minute after enhancement to the brightest time). , the unit is s (seconds)), and χ3 may be the brightest image enhancement rate MEIP=(Speak-S0)/S0. Here, S0 is the pre-contrast image, S2 is the contrast-enhanced image at, for example, 2 minutes after enhancement, and Speak is the brightest contrast-enhanced image. As a result, the model generating means 50a measures and calculates these three basic dynamic features on the medical image in the sample data, and also calculates the fast, slow, washout By quantifying clinically interpretable dynamic features such as and performing machine learning based on these set parameters and quantified clinically interpretable dynamic features, the basic dynamic features of the image and the clinical A transformation model can be generated that associates interpretable dynamic features.

また、例えば、腫瘍部位の境界のぼかし程度である臨床解釈可能特徴を得ることができる変換モデルを生成するために、χを画像の画素勾配とし、χを腫瘍部位の外部から腫瘍部位に放射される放射線上の画素変化としてもよい。これにより、モデル生成手段50aは、サンプルデータにおける医用画像上でこれら2つの画像基礎特徴を測定して算出し、また、サンプルデータにおける腫瘍部位の境界のぼかし程度を表す臨床解釈可能特徴を定量化し、これらの設定されたパラメータ及び定量化された臨床解釈可能特徴と基づいて機械学習を行うことにより、画像基礎特徴と臨床解釈可能特徴とを関連付けた変換モデルを生成することができる。 Also, in order to generate a transformation model that can obtain clinically interpretable features, for example, the degree of blurring of the boundaries of the tumor site, χ1 is the pixel gradient of the image, and χ2 is from outside the tumor site to the tumor site. It may be a pixel change on emitted radiation. As a result, the model generating means 50a measures and calculates these two basic image features on the medical image in the sample data, and quantifies the clinically interpretable feature representing the degree of blurring of the boundary of the tumor site in the sample data. , by performing machine learning based on these set parameters and quantified clinically interpretable features, it is possible to generate a transformation model that associates the image basis features with the clinically interpretable features.

以上、いくつかのモデル生成の例を挙げたが、モデル生成手段50aが生成する変換モデルは、以上の例に限られるものではない。例えば、モデル生成手段50aは、サンプルデータの内容に応じて、変換モデルを生成してもよい。 Although some examples of model generation have been given above, the conversion model generated by the model generation means 50a is not limited to the above examples. For example, the model generating means 50a may generate a conversion model according to the content of sample data.

分割手段11は、医用画像を取得し、取得した医用画像に対して分割処理を行うことで、関心領域を決定する。本実施形態では、医用画像は、乳腺の透視図等の医用画像であり、分割手段11は、取得した医用画像に対して、通常の分割処理を行うことで、乳腺部分と、乳腺に結節や腫瘍が存在する陰影部分とを分割し、陰影部分を関心領域とする。 The dividing unit 11 obtains a medical image and performs a dividing process on the obtained medical image to determine a region of interest. In the present embodiment, the medical image is a medical image such as a perspective view of the mammary gland, and the dividing means 11 performs normal division processing on the obtained medical image to divide the mammary gland into a mammary gland part and a nodule or a mammary gland. The shadowed portion where the tumor exists is divided, and the shadowed portion is defined as the region of interest.

画像基礎特徴抽出手段13は、関心領域を含む医用画像から画像基礎特徴を抽出する。 The image basic feature extraction means 13 extracts image basic features from the medical image including the region of interest.

臨床解釈可能特徴生成手段12aは、モデル生成手段50aによって生成された変換モデルを用いて、画像基礎特徴抽出手段13によって抽出された画像基礎特徴を当該変換モデルに代入することで、当該画像基礎特徴から、画像中の関心領域を説明する臨床解釈可能特徴を生成する。 The clinically interpretable feature generating means 12a substitutes the image basic features extracted by the image basic feature extracting means 13 into the transformation model using the transformation model generated by the model generating means 50a, thereby obtaining the image basic features to generate clinically interpretable features that describe regions of interest in the image.

鑑別手段30aは、臨床解釈可能特徴生成手段12aによって生成された臨床解釈可能特徴に基づいて、関心領域を分類し、関心領域に関する分類結果を鑑別結果として出力する。 The discriminating means 30a classifies the region of interest based on the clinically interpretable features generated by the clinically interpretable feature generating means 12a, and outputs a classification result regarding the region of interest as a discrimination result.

具体的には、鑑別手段30aは、臨床解釈可能特徴生成手段12aによって生成された臨床解釈可能特徴と、臨床解釈可能特徴とを照合し、照合結果に基づいて、関心領域に関する分類結果を出力する。 Specifically, the discriminating means 30a compares the clinically interpretable features generated by the clinically interpretable feature generating means 12a with the clinically interpretable features, and outputs a classification result regarding the region of interest based on the results of the matching. .

例えば、鑑別手段30aは、予め設定されている臨床解釈可能特徴に関する分類閾値を用いて、分類結果を出力する。例えば、鑑別手段30aは、乳腺腫瘍について、定量化された臨床解釈可能特徴が分類閾値に達した又は超えている場合に、当該臨床解釈可能特徴を悪性腫瘍に分類し、定量化された臨床解釈可能特徴が分類閾値未満である場合に、当該臨床解釈可能特徴を良性腫瘍に分類する。この分類閾値は、例えば、BI-RADSのような診療ガイドラインの記載、或いは研究報告の記載に基づいて設定されてもよい。 For example, the discriminating means 30a outputs a classification result using preset classification thresholds for clinically interpretable features. For example, the differentiating means 30a may classify the quantified clinically interpretable feature as malignant if the quantified clinically interpretable feature reaches or exceeds a classification threshold for a mammary tumor, and the quantified clinical interpretation Classify the clinically interpretable feature as a benign tumor if the possible feature is below the classification threshold. This classification threshold may be set, for example, based on descriptions in clinical guidelines such as BI-RADS, or descriptions in research reports.

最適化手段60は、より精度の高い分類結果が得られるように、関心領域の分類処理を最適化する。 The optimization means 60 optimizes the classification process of the region of interest so as to obtain a more accurate classification result.

具体的には、最適化手段60は、関心領域に関する分類結果についての臨床検証データを取得し、当該臨床検証データを用いて、鑑別手段30aによって関心領域の分類が行われる際に用いられる臨床解釈可能特徴の閾値又は変換モデルの重みを最適化する。 Specifically, the optimizing means 60 acquires clinical verification data on the classification result of the region of interest, and uses the clinical verification data to perform the clinical interpretation used when the region of interest is classified by the discriminating means 30a. Optimizing the possible feature thresholds or weights of the transformation model.

より具体的には、最適化手段60は、関心領域に関する分類結果についての臨床検証データを取得し、当該臨床検証データに分類結果が近づくように、鑑別手段30aによって関心領域の分類が行われる際に用いられる臨床解釈可能特徴の閾値及び変換モデルの重みを分類結果が収束するまで繰り返し調整する。 More specifically, the optimizing means 60 acquires clinical verification data about the classification result of the region of interest, and when the region of interest is classified by the discrimination means 30a so that the classification result approaches the clinical verification data, Iteratively adjusts the thresholds of the clinically interpretable features and the weights of the transformation model used in , until the classification results converge.

例えば、最適化手段60は、鑑別手段30aから出力される分類結果についての臨床検証データとして、医用画像に対応する被検体の生検結果を取得し、当該臨床検証データに分類結果が近づくように、臨床解釈可能特徴の分類閾値及び変換モデルの重みを、最後に得られた分類結果が収束するまで繰り返し調整する。 For example, the optimization means 60 acquires the biopsy results of the subject corresponding to the medical image as clinical verification data for the classification results output from the discrimination means 30a, and adjusts the classification results to approximate the clinical verification data. , the classification thresholds of the clinically interpretable features and the weights of the transformation model are iteratively adjusted until the finally obtained classification results converge.

ここで、臨床検証データとしては、例えば、医師による判断等の他の検査データを用いてもよいが、被検体の生検結果は真実値に相当するため、認識性能が医師による主観的な判断より優れていると考えられる。 Here, as the clinical verification data, for example, other test data such as judgment by a doctor may be used. considered better.

なお、分類結果の収束は、分類結果と臨床検証データとが完全に一致することに限られず、予め設定された精度の目標を達成することでもよい。 Note that the convergence of the classification results is not limited to a complete match between the classification results and the clinical verification data, and may be attainment of a preset accuracy target.

図12は、第3の実施形態における反復方法に基づく最適化処理過程を示す模式図である。 FIG. 12 is a schematic diagram showing the optimization process based on the iterative method in the third embodiment.

図12において、左から右へ示すように、まず、ステップS51において、複数の医用画像(例えば、12枚の医用画像)から抽出された画像基礎特徴が臨床解釈可能特性生成手段12aに入力されることにより、臨床解釈可能特性生成手段12aは、変換モデルを用いて、各医用画像の臨床解釈可能特徴を生成する。ここで、変換モデルは、前述した式(1)におけるw、w~w、bのようなモデル重みを含む。続いて、ステップS52において、臨床解釈可能特徴が鑑別手段30aに入力されることにより、鑑別手段30aは、臨床解釈可能特徴を分類閾値と比較して腫瘍の良性/悪性予測を行うことで、各医用画像に対する良性/悪性予測結果を出力する。 As shown from left to right in FIG. 12, first, in step S51, image basic features extracted from a plurality of medical images (for example, 12 medical images) are input to the clinically interpretable feature generating means 12a. Thus, the clinically interpretable feature generating means 12a uses the transformation model to generate clinically interpretable features for each medical image. Here, the transformation model includes model weights such as w 1 , w 2 to w n , b in equation (1) described above. Subsequently, in step S52, the clinically interpretable features are input to the discrimination means 30a, and the discrimination means 30a compares the clinically interpretable features with classification thresholds to make a benign/malignant prediction of the tumor, thereby Output benign/malignant prediction results for medical images.

続いて、良性/悪性予測結果が最適化手段60に入力されることにより、最適化手段60は、分類結果の精度の目標値、例えば、80%と、各医用画像に関する被検体の生検結果等の良性/悪性検証結果とを取得する。 Subsequently, the benign/malignant prediction results are input to the optimization means 60, and the optimization means 60 determines the accuracy target value of the classification results, for example, 80%, and the biopsy results of the subject for each medical image. etc. to obtain benign/malignant verification results.

そして、最適化手段60は、予測結果と検証結果とを比較して、各医用画像の良性/悪性予測結果の精度を算出する。例えば、12枚の医用画像のうちの9枚の医用画像の予測結果が検証結果と同じであった場合には、分類結果の精度は75%となり、目標値である80%未満となる。この場合、最適化手段60は、ステップS51で用いられたモデル重み及びステップS52で用いられた分類閾値をそれぞれ調整し、調整後の各値で分類処理を再度実行することで、新たな予測結果を再度取得する。 The optimization means 60 then compares the prediction result and the verification result to calculate the accuracy of the benign/malignant prediction result for each medical image. For example, if the prediction results for 9 out of 12 medical images are the same as the verification results, the accuracy of the classification results is 75%, which is less than the target value of 80%. In this case, the optimization means 60 adjusts the model weights used in step S51 and the classification thresholds used in step S52, respectively, and executes the classification process again with each value after adjustment, resulting in a new prediction result again.

その後、最適化手段60は、新たに得られた予測結果を検証結果と再度比較して分類結果の精度を算出し、当該精度が目標値以上であれば、最適化動作を停止し、当該精度が目標値未満であれば、モデル重み及び分類閾値を再度調整する。このようにして、最適化手段60は、新たに得られた精度が目標値以上になるまで、或いは、新たに得られた精度が目標値にそれ以上近づくことができない状態になる(精度が収束する)まで、モデル重み及び閾値に対する調整を反復して実行する。 After that, the optimization means 60 compares the newly obtained prediction result with the verification result again to calculate the accuracy of the classification result. is less than the target value, the model weights and classification thresholds are adjusted again. In this way, the optimizer 60 will continue until the newly obtained accuracy is greater than or equal to the target value, or until the newly obtained accuracy can no longer approach the target value (accuracy converges). Iteratively perform adjustments to the model weights and thresholds until

このような反復調整を行うことによって、変換モデルにおいて用いられる重みと鑑別手段30aにより用いられる分類閾値を最適化することができ、それにより、分類結果の精度を向上させることができる。 By performing such iterative adjustments, the weights used in the transformation model and the classification thresholds used by the discriminator 30a can be optimized, thereby improving the accuracy of the classification results.

表示手段20は、臨床解釈可能特徴生成手段12aによって生成された臨床解釈可能特徴を表示する。なお、表示手段20は、予測結果を表示してもよい。 The display means 20 displays the clinically interpretable features generated by the clinically interpretable feature generating means 12a. In addition, the display means 20 may display a prediction result.

以下、第3の実施形態に係る医用画像処理装置100bが行う処理の全体の流れについて説明する。 The overall flow of processing performed by the medical image processing apparatus 100b according to the third embodiment will be described below.

図13は、第3の実施形態に係る医用画像処理装置における画像鑑別処理方法を説明するためのフローチャートである。 FIG. 13 is a flowchart for explaining the image discrimination processing method in the medical image processing apparatus according to the third embodiment.

図13に示すように、まず、モデル生成手段50aは、サンプルデータを取得し、機械学習を用いて、臨床解釈可能特徴生成モデルを生成する(ステップS901)。 As shown in FIG. 13, first, the model generating means 50a acquires sample data and uses machine learning to generate a clinically interpretable feature generation model (step S901).

続いて、分割手段11は、処理すべき医用画像を取得し(ステップS902)、当該医用画像に対して器官分割及び腫瘍分割を行うことで、乳腺及び乳腺における腫瘍部分を分割し、分割された腫瘍領域を関心領域とする(ステップS903)。 Subsequently, the dividing means 11 acquires a medical image to be processed (step S902), performs organ division and tumor division on the medical image, thereby dividing the mammary gland and the tumor portion in the mammary gland, The tumor region is set as the region of interest (step S903).

続いて、画像基礎特徴抽出手段13は、分割された医用画像から画像基礎特徴を抽出する(ステップS904)。 Subsequently, the image basic feature extraction means 13 extracts image basic features from the divided medical image (step S904).

続いて、臨床解釈可能特徴生成手段12aは、モデル生成手段50aによって生成された変換モデルを用いて、画像基礎特徴から臨床解釈可能特徴を生成し、表示手段20は、臨床解釈可能特徴を表示する(ステップS905)。その後、鑑別手段30aは、臨床解釈可能特徴と分類閾値とを比較することにより、腫瘍領域を分類し、分類結果を出力する(ステップS906)。 Subsequently, the clinically interpretable feature generation means 12a uses the transformation model generated by the model generation means 50a to generate clinically interpretable features from the image basic features, and the display means 20 displays the clinically interpretable features. (Step S905). Thereafter, the discriminating means 30a classifies the tumor region by comparing the clinically interpretable features and the classification threshold, and outputs the classification result (step S906).

続いて、最適化手段60は、医用画像に対応する検証結果を取得し、変換モデルの精度を算出する(ステップS907)。その後、最適化手段60は、変換モデルの精度が予め設定された目標値を越えたか否か、或いは精度が収束したか否かを判断する(ステップS908)。そして、最適化手段60は、変換モデルの精度が予め設定された目標値を越えた場合、或いは、精度を更に最適化することができない、即ち、精度が収束したと判断した場合には(ステップS908:Yes)、最適化の処理を終了する。 Subsequently, the optimization means 60 acquires the verification result corresponding to the medical image and calculates the accuracy of the conversion model (step S907). After that, the optimization means 60 determines whether or not the accuracy of the conversion model has exceeded a preset target value, or whether or not the accuracy has converged (step S908). When the accuracy of the transformation model exceeds a preset target value, or when it is determined that the accuracy cannot be further optimized, that is, when the accuracy has converged (step S908: Yes), the optimization process ends.

一方、変換モデルの精度が予め設定された目標値を超えておらず、かつ、変換モデルの精度が前回算出した精度を越えた、即ち、精度が収束していない場合には(ステップS908:No)、最適化手段60は、ステップS901で生成した変換モデルの重み、及び、ステップS906で用いた臨床解釈可能特徴の分類閾値を調整する(ステップS909)。そして、医用画像処理装置100bは、ステップS903~ステップS908を繰り返し実行することにより、同群の医用画像に対して分類処理を再度実行し、ステップS908において再度判断を行う。このようにして、医用画像処理装置100bは、算出された変換モデルの精度が目標値を超える、或いは、精度が収束するまで反復処理を行う。 On the other hand, if the accuracy of the conversion model does not exceed the preset target value and the accuracy of the conversion model exceeds the previously calculated accuracy, that is, if the accuracy has not converged (step S908: No ), the optimization means 60 adjusts the weights of the transformation model generated in step S901 and the classification thresholds of the clinically interpretable features used in step S906 (step S909). Then, the medical image processing apparatus 100b repeats steps S903 to S908 to re-execute classification processing on the same group of medical images, and makes determination again in step S908. In this manner, the medical image processing apparatus 100b performs iterative processing until the accuracy of the calculated transformation model exceeds the target value or until the accuracy converges.

上述した第3の実施形態によれば、画像から得られた画像基礎特徴を臨床解釈可能特徴に変換し、臨床解釈可能特徴に基づいて関心領域を分類することにより、第2の実施形態と同一の技術的効果を奏することができる。 According to the third embodiment described above, the image basis features obtained from the image are transformed into clinically interpretable features, and the regions of interest are classified based on the clinically interpretable features, thereby performing the same steps as the second embodiment. can produce the technical effect of

また、第3の実施形態によれば、生検結果等の正確な検証結果を用いて、変換モデルの重みと臨床解釈可能特徴の分類閾値とを逐次的に反復最適化することにより、同種画像の分類処理において、より優れたモデルと分類閾値とを取得することができ、分類の精度を向上させることができる。ここで、識別性能は、医師による主観的な判断よりも優れている。これにより、コンピュータによる診断支援の目的を達成することができる。 Further, according to the third embodiment, accurate verification results, such as biopsy results, are used to sequentially iteratively optimize the weights of the transformation model and the classification thresholds of the clinically interpretable features, so that allogeneic image In the classification process of , a better model and classification threshold can be obtained, and the accuracy of classification can be improved. Here, the identification performance is superior to subjective judgment by a doctor. Accordingly, the purpose of diagnostic support by computer can be achieved.

(第3の実施形態の変形例)
なお、第3の実施形態では、2Dの医用画像を例に説明してきたが、処理の対象とされる医用画像は、3Dの医用画像であってもよい。
(Modification of the third embodiment)
In the third embodiment, a 2D medical image has been described as an example, but the medical image to be processed may be a 3D medical image.

また、第3の実施形態では、モデル生成手段50aを省略し、既に生成されている変換モデルを直接用いて処理を行い、最適化手段60によって、既に生成されている変換モデルの重みを直接最適化してもよい。 Further, in the third embodiment, the model generating means 50a is omitted, the process is performed directly using the already generated transformation model, and the optimization means 60 directly optimizes the weights of the already generated transformation model. may be changed.

また、第3の実施形態では、最適化手段60は、分類の精度を目標値に収束させるように、臨床解釈可能特徴の分類閾値と変換モデルの重みを同時に調整することとしたが、実施形態はこれに限られない。例えば、最適化手段60は、重みを固定して臨床解釈可能特徴の分類閾値のみを調整してもよいし、或いは臨床解釈可能特徴の分類閾値を固定して変換モデルの重みのみを調整してもよい。或いは、これらの調節形態を反復中に組み合わせてもよい。 Further, in the third embodiment, the optimization means 60 simultaneously adjusts the classification threshold of the clinically interpretable feature and the weight of the conversion model so that the classification accuracy converges to the target value. is not limited to this. For example, the optimizer 60 may fix the weights and adjust only the classification thresholds for the clinically interpretable features, or fix the classification thresholds for the clinically interpretable features and adjust only the transform model weights. good too. Alternatively, these forms of regulation may be combined during iteration.

また、各実施形態で説明した医用画像処理装置は、鑑別手段の分類結果に基づいて医用画像の分類結果が記載されたレポートを自動的に生成するレポート生成手段をさらに備えてもよい。これにより、分類結果をより容易にチェックすることが可能になる。 Further, the medical image processing apparatus described in each embodiment may further include report generating means for automatically generating a report describing the classification result of the medical image based on the classification result of the discriminating means. This makes it possible to check the classification results more easily.

また、第3の実施形態では、最適化手段60は、算出された精度と目標値との比較を用いて、反復するか否かを判定することとしたが、実施形態はこれに限られない。例えば、最適化手段60は、下記の式(3)に示すような損失関数を作成し、損失関数の目標値を予め設定しておき、損失関数の結果と目標値とを比較することにより、反復処理を行うか否かを判断するようにしてもよい。 Further, in the third embodiment, the optimization means 60 determines whether or not to repeat using the comparison between the calculated accuracy and the target value, but the embodiment is not limited to this. . For example, the optimization means 60 creates a loss function as shown in the following equation (3), presets a target value of the loss function, and compares the result of the loss function with the target value. It may be determined whether or not to repeat processing.

Figure 2023057036000004
Figure 2023057036000004

式(3)において、yは、生検結果(真値)を表し、その値として、0又は1をとり、0は良性を表し、1は悪性を表す。また、y^は、予測結果を表し、その値として、0又は1をとり、0は良性を表し、1は悪性を表す。ここで、Lの値が小さければ小さいほど、y^がyに近いことが証明される。この場合には、Lの値が目標値以下になるまで反復処理が行われる。 In the formula (3), y represents the biopsy result (true value) and takes 0 or 1 as its value, 0 representing benign and 1 representing malignant. In addition, y represents a prediction result, and takes 0 or 1 as its value, 0 representing benign and 1 representing malignant. Here it is proved that the smaller the value of L, the closer y is to y. In this case, the iterative process is performed until the value of L is less than or equal to the target value.

なお、上述した実施形態は、例として挙げられるものであり、医用画像処理装置及び医用画像処理方法の構成は、各実施形態で説明したものに限られない。 The embodiments described above are given as examples, and the configurations of the medical image processing apparatus and the medical image processing method are not limited to those described in each embodiment.

例えば、上述した実施形態において、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散又は統合の具体的形態は図示のものに限られず、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散又は統合して構成することができる。さらに、各装置にて行なわれる各処理機能は、その全部又は任意の一部が、プロセッサ及び当該プロセッサで解析実行されるプログラムによって実現され、或いは、ワイヤードロジックによるハードウェアとして実現され得る。 For example, in the above-described embodiments, each component of each device illustrated is functionally conceptual, and does not necessarily need to be physically configured as illustrated. That is, the specific form of distribution or integration of each device is not limited to the illustrated one, and all or part of them can be functionally or physically distributed or distributed in arbitrary units according to various loads, usage conditions, etc. Can be integrated and configured. Further, each processing function performed by each device may be implemented in whole or in part by a processor and a program analyzed and executed by the processor, or may be implemented as hardware by wired logic.

また、上述した実施形態で説明した医用画像処理装置及び医用画像処理方法は、例えば、予め用意されたプログラムをパーソナルコンピュータやワークステーション等のコンピュータで実行することにより実現することができる。このプログラムは、インターネット等のネットワークを介して配信され得る。また、このプログラムは、さらに、ハードディスク、フレキシブルディスク(Flexible Disk:FD)、CD(Compact Disk)-ROM(Read Only Memory)、MO(Magneto-Optical disk)、DVD(Digital Versatile Disk)等のコンピュータ読み取り可能な非一時的な記録媒体に記録されて、コンピュータにより記録媒体から読み出されて実行されることができる。 Moreover, the medical image processing apparatus and the medical image processing method described in the above-described embodiments can be realized, for example, by executing a program prepared in advance on a computer such as a personal computer or a workstation. This program can be distributed via a network such as the Internet. In addition, this program can be read from a hard disk, flexible disk (FD), CD (Compact Disk)-ROM (Read Only Memory), MO (Magneto-Optical disk), DVD (Digital Versatile Disk), and other computer-readable media. It can be recorded in a possible non-temporary recording medium, read out from the recording medium by a computer, and executed.

また、上述した実施形態で説明した生成手段、分割手段、臨床解釈可能特徴生成手段、表示手段、鑑別手段、修正手段、モデル生成手段、画像基礎特徴抽出手段、最適化手段は、例えば、プロセッサにより実現される。その場合に、これらの各手段が有する処理機能は、例えば、コンピュータによって実行可能なプログラムの形態で記憶回路に記憶される。そして、各手段は、記憶回路に記憶された各プログラムを読み出して実行することにより、各プログラムに対応する処理機能を実現する。換言すると、各実施形態における医用画像処理装置は、各手段が各プログラムを読み出した状態で、図1、図7、図11に示す機能構成を有することとなる。その場合に、図5、図6、図10、図13に示す各ステップの処理は、例えば、各手段が、各処理機能に対応するプログラムを記憶回路から読み出して実行することにより実現される。 Further, the generation means, division means, clinically interpretable feature generation means, display means, discrimination means, correction means, model generation means, image basic feature extraction means, and optimization means described in the above-described embodiments can be performed by, for example, a processor. Realized. In that case, the processing functions possessed by each means are stored in a memory circuit in the form of a computer-executable program, for example. Each means implements a processing function corresponding to each program by reading and executing each program stored in the storage circuit. In other words, the medical image processing apparatus in each embodiment has the functional configuration shown in FIGS. 1, 7, and 11 in a state where each means reads each program. In that case, the processing of each step shown in FIGS. 5, 6, 10, and 13 is implemented by, for example, each means reading out a program corresponding to each processing function from a storage circuit and executing it.

また、各実施形態において、各処理部は、単一のプロセッサによって実現されるものに限られず、複数の独立したプロセッサを組み合わせて構成され、各プロセッサがプログラムを実行することによって各処理機能を実現するものであってもよい。また、各処理部が有する処理機能は、単一又は複数の処理回路に適宜に分散又は統合されて実現されてもよい。また、各処理部が有する処理機能は、回路等のハードウェアのみ、ソフトウェアのみ、又は、ハードウェアとソフトウェアとの混合によって実現されても構わない。また、ここでは、各処理機能に対応するプログラムが単一の記憶回路に記憶される場合の例を説明したが、実施形態はこれに限られない。例えば、各処理機能に対応するプログラムが複数の記憶回路に分散して記憶され、各処理部が、各記憶回路から各プログラムを読み出して実行する構成としても構わない。 In addition, in each embodiment, each processing unit is not limited to being implemented by a single processor, but is configured by combining a plurality of independent processors, and each processor implements each processing function by executing a program. It may be something to do. Also, the processing functions of each processing unit may be appropriately distributed or integrated in a single or a plurality of processing circuits and implemented. Moreover, the processing function of each processing unit may be realized by only hardware such as circuits, only software, or a mixture of hardware and software. Also, although the example in which the programs corresponding to each processing function are stored in a single storage circuit has been described here, the embodiments are not limited to this. For example, programs corresponding to each processing function may be distributed and stored in a plurality of storage circuits, and each processing unit may read and execute each program from each storage circuit.

また、本明細書で用いられている「プロセッサ」という文言は、例えば、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)、又は、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等の回路を意味する。ここで、記憶回路にプログラムを保存する代わりに、プロセッサの回路内にプログラムを直接組み込むように構成しても構わない。この場合、プロセッサは、回路内に組み込まれたプログラムを読み出し実行することで機能を実現する。また、本実施形態の各プロセッサは、プロセッサごとに単一の回路として構成される場合に限らず、複数の独立した回路を組み合わせて1つのプロセッサとして構成され、その機能を実現するようにしてもよい。 In addition, the term "processor" used in this specification is, for example, a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or an application specific integrated circuit (ASIC), a programmable Means circuits such as logic devices (for example, Simple Programmable Logic Device (SPLD), Complex Programmable Logic Device (CPLD), and Field Programmable Gate Array (FPGA)) do. Here, instead of storing the program in the memory circuit, the program may be configured to be directly embedded in the circuit of the processor. In this case, the processor implements its functions by reading and executing the program embedded in the circuit. Further, each processor of the present embodiment is not limited to being configured as a single circuit for each processor, but may be configured as one processor by combining a plurality of independent circuits to realize its function. good.

また、上述した実施形態で説明した各処理のうち、自動的に行なわれるものとして説明した処理の全部又は一部を手動的に行なうこともでき、或いは、手動的に行なわれるものとして説明した処理の全部又は一部を公知の方法で自動的に行なうこともできる。この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。 Further, among the processes described in the above embodiments, all or part of the processes described as being automatically performed can be manually performed, or the processes described as being manually performed can be performed manually. can also be performed automatically by known methods. In addition, information including processing procedures, control procedures, specific names, and various data and parameters shown in the above documents and drawings can be arbitrarily changed unless otherwise specified.

なお、本明細書において扱う各種データは、典型的にはデジタルデータである。 Various data handled in this specification are typically digital data.

以上説明した少なくとも一つの実施形態によれば、医用画像の定量化分析の精度を向上させることができる。 According to at least one embodiment described above, the accuracy of quantitative analysis of medical images can be improved.

いくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更、実施形態同士の組み合わせを行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。 While several embodiments have been described, these embodiments are provided by way of example and are not intended to limit the scope of the invention. These embodiments can be implemented in various other forms, and various omissions, replacements, changes, and combinations of embodiments can be made without departing from the scope of the invention. These embodiments and their modifications are included in the scope and spirit of the invention, as well as the scope of the invention described in the claims and equivalents thereof.

100、100a、100b 医用画像処理装置
10、10a 生成手段
11 分割手段
12、12a 臨床解釈可能特徴生成手段
20 表示手段
30、30a 鑑別手段
40 修正手段
50、50a モデル生成手段
13 画像基礎特徴抽出手段
60 最適化手段
100, 100a, 100b medical image processing apparatus 10, 10a generation means 11 division means 12, 12a clinically interpretable feature generation means 20 display means 30, 30a discrimination means 40 correction means 50, 50a model generation means 13 image basic feature extraction means 60 optimization measures

Claims (15)

関心領域を含む医用画像から画像特徴を表す第1の特徴を生成する生成手段と、
前記第1の特徴を表示する表示手段と、
前記第1の特徴に基づいて、前記医用画像における前記関心領域を鑑別し、前記関心領域に関する鑑別結果を出力する鑑別手段と
を備える、医用画像処理装置。
generating means for generating a first feature representing an image feature from a medical image containing a region of interest;
display means for displaying the first characteristic;
A medical image processing apparatus, comprising: discrimination means for discriminating the region of interest in the medical image based on the first characteristic and outputting a discrimination result regarding the region of interest.
ユーザの入力に基づいて、前記表示手段によって表示された前記第1の特徴を修正する修正手段をさらに備える、
請求項1に記載の医用画像処理装置。
further comprising modifying means for modifying said first characteristic displayed by said display means based on user input;
The medical image processing apparatus according to claim 1.
前記生成手段は、前記関心領域を含む医用画像から画像基礎特徴を抽出し、前記画像基礎特徴に基づいて前記第1の特徴を生成する、
請求項1又は2に記載の医用画像処理装置。
The generating means extracts image basic features from a medical image containing the region of interest, and generates the first features based on the image basic features.
The medical image processing apparatus according to claim 1 or 2.
前記関心領域に関する鑑別結果は、病変有無又は病変程度である、
請求項1又は2に記載の医用画像処理装置。
The differential result of the region of interest is the presence or absence of a lesion or the degree of a lesion.
The medical image processing apparatus according to claim 1 or 2.
前記第1の特徴は、診療ガイドラインによって規定された臨床解釈可能特徴である、
請求項1又は2に記載の医用画像処理装置。
said first characteristic is a clinically interpretable characteristic defined by a clinical practice guideline;
The medical image processing apparatus according to claim 1 or 2.
前記生成手段は、
前記医用画像を取得し、前記医用画像に対して所定の分割処理を行うことで、前記医用画像における前記関心領域を決定する分割手段と、
前記関心領域を含む医用画像を入力として臨床解釈可能特徴を出力する第2の判別モデルを用いて、前記関心領域を含む前記医用画像から前記関心領域の前記臨床解釈可能特徴を生成する臨床解釈可能特徴生成手段と
を含み、
前記鑑別手段は、画像特徴を入力として前記関心領域に関する鑑別結果を出力する第1の判別モデル用いて、前記臨床解釈可能特徴生成手段によって生成された前記臨床解釈可能特徴を前記画像特徴として前記第1の判別モデルに入力することにより、前記関心領域に関する鑑別結果を出力する、
請求項5に記載の医用画像処理装置。
The generating means is
a dividing unit that acquires the medical image and performs predetermined dividing processing on the medical image to determine the region of interest in the medical image;
clinically interpretable to generate the clinically interpretable features of the region of interest from the medical image containing the region of interest using a second discriminant model that takes as input a medical image containing the region of interest and outputs clinically interpretable features. and
The discriminating means uses a first discriminant model that outputs a discrimination result regarding the region of interest with image features as input, and uses the clinically interpretable features generated by the clinically interpretable feature generating means as the image features. By inputting to the discrimination model of 1, outputting the discrimination result for the region of interest,
The medical image processing apparatus according to claim 5.
前記鑑別結果が検証されたサンプル画像データと、前記サンプル画像データについて得られた視覚判断画像特徴を含む画像特徴とを第1の学習データとして取得し、訓練を行うことで、前記第1の判別モデルを生成するモデル生成手段であって、
前記第1の学習データのうちの前記サンプル画像データ及び前記鑑別結果に対応する臨床解釈可能特徴を第2の学習データとして、訓練を行うことで、前記第2の判別モデルを生成するモデル生成手段をさらに備える、
請求項6に記載の医用画像処理装置。
By acquiring sample image data for which the discrimination result is verified and image features including visual judgment image features obtained for the sample image data as first learning data and performing training, the first discrimination A model generating means for generating a model,
Model generation means for generating the second discriminant model by performing training using the sample image data of the first learning data and the clinically interpretable features corresponding to the discrimination result as second learning data. further comprising
The medical image processing apparatus according to claim 6.
前記生成手段は、
前記医用画像を取得し、前記医用画像に対し所定の分割処理を行うことで、前記医用画像における前記関心領域を決定する分割手段と、
前記関心領域を含む医用画像から画像基礎特徴を抽出する画像基礎特徴抽出手段と、
前記画像基礎特徴と臨床解釈可能特徴とを関連付けた変換モデルを用いて、前記画像基礎特徴抽出手段によって抽出された前記画像基礎特徴から、前記関心領域の前記臨床解釈可能特徴を生成する臨床解釈可能特徴生成手段と
を含み、
前記鑑別手段は、前記臨床解釈可能特徴生成手段によって生成された前記臨床解釈可能特徴に基づいて、前記関心領域を分類し、前記関心領域に関する分類結果を鑑別結果として出力する、
請求項5に記載の医用画像処理装置。
The generating means is
a dividing unit that acquires the medical image and performs predetermined dividing processing on the medical image to determine the region of interest in the medical image;
image basic feature extraction means for extracting image basic features from a medical image including the region of interest;
clinically interpretable to generate the clinically interpretable features of the region of interest from the image basis features extracted by the image basis feature extracting means using a transform model that associates the image basis features and clinically interpretable features. and
The discriminating means classifies the region of interest based on the clinically interpretable features generated by the clinically interpretable feature generating means, and outputs a classification result regarding the region of interest as a discrimination result.
The medical image processing apparatus according to claim 5.
サンプル画像データと、前記サンプル画像データに対応する臨床解釈可能特徴とを取得し、機械学習を用いて、前記変換モデルを生成するモデル生成手段をさらに備える、
請求項8に記載の医用画像処理装置。
further comprising model generation means for obtaining sample image data and clinically interpretable features corresponding to the sample image data and using machine learning to generate the transformation model;
The medical image processing apparatus according to claim 8.
前記臨床解釈可能特徴は、臨床的に解釈可能な形態学特徴である臨床解釈可能形態学的特徴、及び、臨床的に解釈可能な動力学的特徴である臨床解釈可能動力学的特徴を含む、
請求項5に記載の医用画像処理装置。
The clinically interpretable features include a clinically interpretable morphological feature that is a clinically interpretable morphological feature and a clinically interpretable kinetic feature that is a clinically interpretable kinetic feature,
The medical image processing apparatus according to claim 5.
前記変換モデルは、多項式モデルである、
請求項8に記載の医用画像処理装置。
wherein the transformation model is a polynomial model,
The medical image processing apparatus according to claim 8.
前記鑑別手段は、前記臨床解釈可能特徴生成手段によって生成された前記臨床解釈可能特徴と、前記臨床解釈可能特徴の閾値とを照合し、照合結果に基づいて、前記関心領域に関する分類結果を出力する、
請求項8に記載の医用画像処理装置。
The discriminating means compares the clinically interpretable features generated by the clinically interpretable feature generating means with a threshold of the clinically interpretable features, and outputs a classification result regarding the region of interest based on the matching result. ,
The medical image processing apparatus according to claim 8.
前記分類結果についての臨床検証データを取得し、前記臨床検証データを用いて、前記鑑別手段によって前記関心領域の分類が行われる際に用いられる臨床解釈可能特徴の閾値又は前記変換モデルの重みを最適化する最適化手段をさらに備える、
請求項8に記載の医用画像処理装置。
Obtaining clinical validation data for the classification results, and using the clinical validation data to optimize clinically interpretable feature thresholds or weights of the transformation model used when the region of interest is classified by the discriminating means. further comprising an optimization means for optimizing
The medical image processing apparatus according to claim 8.
前記分類結果についての臨床検証データを取得し、前記臨床検証データに前記分類結果が近づくように、前記鑑別手段によって前記関心領域の分類が行われる際に用いられる臨床解釈可能特徴の閾値及び前記変換モデルの重みを前記分類結果が収束するまで繰り返し調整する最適化手段をさらに備える、
請求項8に記載の医用画像処理装置。
clinically interpretable feature thresholds and the transformation used when the region of interest is classified by the discriminating means to obtain clinical validation data for the classification result, and to bring the classification result closer to the clinical validation data; further comprising an optimizer that iteratively adjusts model weights until the classification results converge;
The medical image processing apparatus according to claim 8.
生成手段が、関心領域を含む医用画像から画像特徴を表す第1の特徴を生成するステップと、
表示手段が、前記第1の特徴を表示するステップと、
鑑別手段が、前記第1の特徴に基づいて、前記医用画像における前記関心領域を鑑別し、前記関心領域に関する鑑別結果を出力するステップと
を含む、医用画像処理方法。
generating means for generating a first feature representing an image feature from a medical image including a region of interest;
display means displaying said first characteristic;
A medical image processing method, comprising: discriminating means discriminating the region of interest in the medical image based on the first feature, and outputting a discrimination result regarding the region of interest.
JP2022149811A 2021-10-08 2022-09-21 Device and method for processing medical image Pending JP2023057036A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202111170342.4 2021-10-08
CN202111170342.4A CN115965562A (en) 2021-10-08 2021-10-08 Medical image processing apparatus and medical image processing method

Publications (1)

Publication Number Publication Date
JP2023057036A true JP2023057036A (en) 2023-04-20

Family

ID=85897961

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022149811A Pending JP2023057036A (en) 2021-10-08 2022-09-21 Device and method for processing medical image

Country Status (2)

Country Link
JP (1) JP2023057036A (en)
CN (1) CN115965562A (en)

Also Published As

Publication number Publication date
CN115965562A (en) 2023-04-14

Similar Documents

Publication Publication Date Title
US11423541B2 (en) Assessment of density in mammography
US7736313B2 (en) Detecting and classifying lesions in ultrasound images
US11455723B2 (en) Second reader suggestion
CN107133638B (en) Multi-parameter MRI prostate cancer CAD method and system based on two classifiers
US20080097942A1 (en) System and Method for Automated Suspicious Object Boundary Determination
JP2008520317A (en) System and method for automatically detecting and segmenting tumor boundaries in medical image data
KR20180022607A (en) Determination of result data on the basis of medical measurement data from various measurements
WO2006013514A1 (en) System and method for automated suspicious object boundary determination
US20210220670A1 (en) Systems and Methods for Accelerated Online Adaptive Radiation Therapy
US7873196B2 (en) Medical imaging visibility index system and method for cancer lesions
JP2006340835A (en) Displaying method for abnormal shadow candidate, and medical image processing system
JP2023057036A (en) Device and method for processing medical image
Zhao et al. HS–GS: a method for multicenter MR image standardization
US20230401697A1 (en) Radiogenomics for cancer subtype feature visualization
Zhang et al. Hippocampus MRI diagnosis based on deep learning in application of preliminary screening of Alzheimer’s disease
Fadillah et al. The Combination of Contrast Stretching and Histogram Equalization Methods to Optimizing Radiology Image Quality
Way Computer-aided diagnosis of pulmonary nodules on thoracic computed tomography
JP2021083771A (en) Medical image processing device, medical image analysis device and standard image creation program
WO2022112731A1 (en) Decision for double reader
CN116740386A (en) Image processing method, apparatus, device and computer readable storage medium
GB2574659A (en) Immediate workup