JP6990540B2 - Video processing equipment, video processing methods, and video processing programs - Google Patents
Video processing equipment, video processing methods, and video processing programs Download PDFInfo
- Publication number
- JP6990540B2 JP6990540B2 JP2017164029A JP2017164029A JP6990540B2 JP 6990540 B2 JP6990540 B2 JP 6990540B2 JP 2017164029 A JP2017164029 A JP 2017164029A JP 2017164029 A JP2017164029 A JP 2017164029A JP 6990540 B2 JP6990540 B2 JP 6990540B2
- Authority
- JP
- Japan
- Prior art keywords
- determination
- range
- learning
- medical image
- judgment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 196
- 238000003672 processing method Methods 0.000 title claims description 9
- 230000003902 lesion Effects 0.000 claims description 138
- 238000000034 method Methods 0.000 claims description 97
- 230000007717 exclusion Effects 0.000 claims description 53
- 238000013135 deep learning Methods 0.000 claims description 16
- 238000013528 artificial neural network Methods 0.000 claims description 14
- 238000001514 detection method Methods 0.000 claims description 10
- 230000006870 function Effects 0.000 claims description 3
- 230000003211 malignant effect Effects 0.000 description 85
- 238000012549 training Methods 0.000 description 50
- 238000012360 testing method Methods 0.000 description 20
- 238000003745 diagnosis Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 12
- 238000009607 mammography Methods 0.000 description 11
- 238000013500 data storage Methods 0.000 description 10
- 238000007689 inspection Methods 0.000 description 9
- 238000010801 machine learning Methods 0.000 description 9
- 230000035945 sensitivity Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 4
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 4
- 238000011176 pooling Methods 0.000 description 4
- 206010028980 Neoplasm Diseases 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 3
- 210000000481 breast Anatomy 0.000 description 3
- 238000002059 diagnostic imaging Methods 0.000 description 3
- 201000010099 disease Diseases 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 230000000762 glandular Effects 0.000 description 3
- 210000005075 mammary gland Anatomy 0.000 description 3
- 210000001519 tissue Anatomy 0.000 description 3
- 206010006187 Breast cancer Diseases 0.000 description 2
- 208000026310 Breast neoplasm Diseases 0.000 description 2
- 201000011510 cancer Diseases 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001839 endoscopy Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- MCSXGCZMEPXKIW-UHFFFAOYSA-N 3-hydroxy-4-[(4-methyl-2-nitrophenyl)diazenyl]-N-(3-nitrophenyl)naphthalene-2-carboxamide Chemical compound Cc1ccc(N=Nc2c(O)c(cc3ccccc23)C(=O)Nc2cccc(c2)[N+]([O-])=O)c(c1)[N+]([O-])=O MCSXGCZMEPXKIW-UHFFFAOYSA-N 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000002308 calcification Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 210000004003 subcutaneous fat Anatomy 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
Description
本発明は、映像処理装置、映像処理方法、および映像処理プログラムに関し、特に入力された医療映像から病変部を検出して表示する映像処理装置、映像処理方法、および映像処理プログラムに関する。 The present invention relates to a video processing apparatus, a video processing method, and a video processing program, and more particularly to a video processing device, a video processing method, and a video processing program that detects and displays a lesion portion from an input medical image.
従来から、身体の外側から診るだけでは分からない臓器の形態、病変の有無などを画像として映し出すことで診断を行う画像診断が知られている。画像診断は、例えばエックス線や超音波、磁気共鳴などを用いて映像化したものや、内視鏡検査や眼底カメラなどの可視光線のもとで撮影された検査画像をもとに医師が診断している。 Conventionally, image diagnosis is known in which a diagnosis is made by displaying an image of the morphology of an organ, the presence or absence of a lesion, etc., which cannot be understood only by diagnosing from the outside of the body. Image diagnosis is made by a doctor based on images made using, for example, X-rays, ultrasound, magnetic resonance, etc., or inspection images taken under visible light such as endoscopy and fundus cameras. ing.
ところが、このような検査画像から情報を読み解くことは容易ではなく、多くの専門知識や豊富な経験や症例が必要とされている。一方で、画像診断を専門に行う専門医を育成するには多くの時間とコストがかかるため、専門医が不足し、診療所などの医療施設では、症例に接する機会が少ない一般の医師が画像診断を行うこともある。 However, it is not easy to decipher the information from such inspection images, and a lot of specialized knowledge, abundant experience and cases are required. On the other hand, it takes a lot of time and cost to train specialists who specialize in diagnostic imaging, so there is a shortage of specialists, and in medical facilities such as clinics, general doctors who have few opportunities to come into contact with cases perform diagnostic imaging. Sometimes I do it.
近年では、コンピュータ機能や人工知能技術の技術水準が向上し、人工知能の技術を活用した画像判断のシステムは様々な産業分野で応用されており、医療分野においても人工知能を用いた開発が進んでいる。 In recent years, the technological level of computer functions and artificial intelligence technology has improved, and image judgment systems that utilize artificial intelligence technology have been applied in various industrial fields, and development using artificial intelligence is progressing in the medical field as well. I'm out.
例えば、コンピュータに過去の検査画像を解析させ、その結果から有用な規則やルールから得られるアルゴリズムを利用して、コンピュータが新たな検査画像を認識し、病変の有無、その病変が良性か悪性かを区別する機械学習という技術が可能になってきた(たとえば、特許文献1参照)。 For example, letting a computer analyze past inspection images and using algorithms obtained from useful rules and rules from the results, the computer recognizes new inspection images, and the presence or absence of lesions and whether the lesions are benign or malignant. A technique called machine learning that distinguishes between the two has become possible (see, for example, Patent Document 1).
しかし、このような病変候補検証器では、特定領域内での病変候補の有無や、信頼度は把握できるが、病変の詳細な位置や、病変の形状、病変の進行度を明確に把握することができなかった。 However, such a lesion candidate verifier can grasp the presence or absence of a lesion candidate in a specific area and the reliability, but clearly grasp the detailed position of the lesion, the shape of the lesion, and the degree of progression of the lesion. I couldn't.
図21は、従来の病変検出装置の一例を示すブロック図である。
図21に示すように、病変検出装置10は、映像入力部11、病変候補検出器12、周辺客体検出器13、病変候補検証器14、候補除去器15、およびディスプレイ部16を備えている。
FIG. 21 is a block diagram showing an example of a conventional lesion detection device.
As shown in FIG. 21, the
映像入力部11は、例えば超音波またはエックス線などを用いて人体の特定部位を医療映像装置20で撮影した医療映像を受信する。
病変候補検出器12は、医療映像を分析して、病変候補の可否、および存在する病変候補の位置を検出する。
The
The
周辺客体検出器13は、医療映像内で複数の解剖学的客体として、映像内の皮膚、脂肪、腺組織、筋肉、骨などを検出する。
病変候補検証器14は、病変候補検出器12によって検出された病変候補、および周辺客体検出器13によって検出された解剖学的客体を、解剖学的脈絡に関連した情報を含む脈絡情報30にもとづいて、検出された病変候補が実際に悪性病変か否かを検証する。
The
The
候補除去器15は、病変候補検証器14によって検証された結果を受信し、検出された病変候補のうち、病変候補検証器14によって陰性と判定された病変候補を除去したのち、のこりの病変候補をディスプレイ部16に出力する。
The
例えば、病変候補検出器12は、映像入力部11より受信した医療映像を分析した後、医療映像内の一定の領域を「信頼度85%の病変候補」であると決定することで、病変候補を検出する。
For example, the
周辺客体検出器13は、映像入力部11より受信した医療映像を分析した後、医療映像内の一定の領域を「信頼度95%の皮下脂肪」であると決定することで、病変候補を検出する。
The
これにより病変候補検証器14は、病変候補検出器12が病変候補として検出した特定領域Aと解剖学的客体が存在する位置とを比較し、脈絡情報30を参照することで、特定領域Aが実際に病変であるか、または陰性であるかを判断する。
As a result, the
図22は、病変検出装置を用いて、検査画像から病変候補を検出した検出画像を示す図である。
図22に示すように、病変候補検出画像40は、画像内の複数の特定領域において、2つの病変候補領域41および42、腺組織領域43が表示されている。
FIG. 22 is a diagram showing a detection image in which a lesion candidate is detected from an inspection image using a lesion detection device.
As shown in FIG. 22, in the lesion
病変候補領域41は信頼度が69%と表示され、病変候補42は信頼度が12%と表示されている。このように病変候補は、ユーザにとって容易に識別することができる。また特定領域は、病変候補検出器12が自動で検出することもできるが、医師が特定領域を決定し、その医師が決定した特定領域を病変候補検証器14が検証し、病変であるか、または陰性であるかを判断して表示することもできる。
The
ところが、病変候補検出器12や医師によって特定された領域を検証することで、領域内が病変または陰性であるかを表示することはできるが、病変全体の形状を把握することはできなかった。
However, by verifying the region identified by the
具体的には、医師は検査画像内で矩形の特定領域を決定し、その特定範囲で病変候補の検証を行った結果を数値で表示する。つまり医師が決定した特定領域内での結果しか見ることはできない。このため病変周辺の境界線を明確に表示することは困難であり、病変全体の形状を把握することはできなかった。 Specifically, the doctor determines a specific rectangular area in the examination image, and displays the result of verifying the lesion candidate in the specific area numerically. In other words, you can only see the results within a specific area determined by the doctor. Therefore, it was difficult to clearly display the boundary line around the lesion, and it was not possible to grasp the shape of the entire lesion.
本発明はこのような点に鑑みてなされたものであり、医療映像内における病変部位の位置および形状を明確に表示する映像処理装置、映像処理方法、および映像処理プログラムを提供することを目的とする。 The present invention has been made in view of these points, and an object of the present invention is to provide an image processing device, an image processing method, and an image processing program that clearly display the position and shape of a lesion site in a medical image. do.
本発明では上記問題を解決するために、入力された医療映像から特定病変を検出して表示する映像処理装置において、判定範囲を特定する判定範囲特定手段と、前記判定範囲で特定病変の有無を判定する判定手段と、前記判定範囲を移動させる判定範囲移動手段と、前記判定手段が判定した結果に応じて前記判定範囲を強調して表示する強調表示手段とを備えることを特徴とする映像処理装置が提供される。 In the present invention, in order to solve the above problem, in an image processing device that detects and displays a specific lesion from an input medical image, a determination range specifying means for specifying a determination range and the presence or absence of a specific lesion in the determination range are determined. An image processing characterized by comprising a determination means for determining, a determination range moving means for moving the determination range, and a highlighting means for highlighting and displaying the determination range according to the result of determination by the determination means. Equipment is provided.
これにより、判定範囲特定手段が、判定範囲を特定し、判定手段が、判定範囲で特定病変の有無を判定し、判定範囲移動手段が、判定範囲を移動させ、強調表示手段が、判定手段が判定した結果に応じて判定範囲を強調して表示する。 As a result, the determination range specifying means specifies the determination range, the determination means determines the presence or absence of the specific lesion in the determination range, the determination range moving means moves the determination range, and the highlighting means is the determination means. The judgment range is highlighted and displayed according to the judgment result.
また、本発明では、入力された医療映像から特定病変を検出して表示する映像処理方法において、判定範囲特定手段が、判定範囲を特定するステップと、判定手段が、前記判定範囲で特定病変の有無を判定するステップと、判定範囲移動手段が、前記判定範囲を移動させるステップと、強調表示手段が、前記判定手段が判定した結果に応じて前記判定範囲を強調して表示するステップとを備えることを特徴とする映像処理方法が提供される。 Further, in the present invention, in the image processing method of detecting and displaying a specific lesion from the input medical image, the determination range specifying means steps to specify the determination range, and the determination means determines the specific lesion in the determination range. It includes a step of determining the presence / absence, a step of moving the determination range by the determination range moving means, and a step of highlighting and displaying the determination range according to the result of the determination by the highlighting means. A video processing method characterized by this is provided.
これにより、判定範囲特定手段が、判定範囲を特定し、判定手段が、判定範囲で特定病変の有無を判定し、判定範囲移動手段が、判定範囲を移動させ、強調表示手段が、判定手段が判定した結果に応じて判定範囲を強調して表示する。 As a result, the determination range specifying means specifies the determination range, the determination means determines the presence or absence of the specific lesion in the determination range, the determination range moving means moves the determination range, and the highlighting means is the determination means. The judgment range is highlighted and displayed according to the judgment result.
また、本発明では、入力された医療映像から特定病変を検出して表示する映像処理プログラムにおいて、コンピュータを、判定範囲を特定する判定範囲特定手段、前記判定範囲で特定病変の有無を判定する判定手段、前記判定範囲を移動させる判定範囲移動手段、前記判定手段が判定した結果に応じて前記判定範囲を強調して表示する強調表示手段として機能させることを特徴とする映像処理プログラムが提供される。 Further, in the present invention, in an image processing program that detects and displays a specific lesion from an input medical image, a computer is used as a determination range specifying means for specifying a determination range, and a determination for determining the presence or absence of a specific lesion in the determination range. Provided is a video processing program characterized by functioning as a means, a determination range moving means for moving the determination range, and a highlighting means for highlighting and displaying the determination range according to a result determined by the determination means. ..
これにより、判定範囲特定手段が、判定範囲を特定し、判定手段が、判定範囲で特定病変の有無を判定し、判定範囲移動手段が、判定範囲を移動させ、強調表示手段が、判定手段が判定した結果に応じて判定範囲を強調して表示する。 As a result, the determination range specifying means specifies the determination range, the determination means determines the presence or absence of the specific lesion in the determination range, the determination range moving means moves the determination range, and the highlighting means is the determination means. The judgment range is highlighted and displayed according to the judgment result.
本発明の映像処理装置、映像処理方法、および映像処理プログラムによれば、判定範囲特定手段が、判定範囲を特定し、判定手段が、判定範囲で特定病変の有無を判定し、判定範囲移動手段が、判定範囲を移動させ、強調表示手段が、判定手段が判定した結果に応じて判定範囲を強調して表示するので、医療映像内における特定病変の位置や形状を明確に表示することができる。 According to the image processing apparatus, the image processing method, and the image processing program of the present invention, the determination range specifying means specifies the determination range, the determination means determines the presence or absence of a specific lesion in the determination range, and the determination range moving means. However, since the determination range is moved and the highlighting means highlights and displays the determination range according to the result of the determination by the determination means, the position and shape of the specific lesion in the medical image can be clearly displayed. ..
以下、本発明の実施の形態を、図面を参照して詳細に説明する。
図1は、本実施の形態に係る映像処理装置の概念を示す図である。
映像処理装置100は、判定手段110および映像処理手段120を備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing a concept of a video processing device according to the present embodiment.
The
判定手段110は、例えば脳の働きを模したニューラルネットワークを用いたディープラーニングと呼ばれる機械学習技術を用いたものであって、画像認識、音声認識、言語処理などに用いられるものである。 The determination means 110 uses, for example, a machine learning technique called deep learning using a neural network that imitates the function of the brain, and is used for image recognition, voice recognition, language processing, and the like.
あらかじめ判定手段110に学習医療映像である良性の医療映像と悪性の医療映像とを学習させ、後に悪性病変の有無を判定するための判定医療映像を判定手段110に認識させることで、その認識した判定医療映像が良性か悪性かを判定させることができる。 The determination means 110 was made to learn a benign medical image and a malignant medical image which are learning medical images in advance, and later, the determination means 110 was made to recognize the determination medical image for determining the presence or absence of a malignant lesion. Judgment It is possible to judge whether the medical image is benign or malignant.
映像処理手段120は判定手段110に接続されており、外部から接続された医療映像装置200で撮影した判定医療映像を映像処理手段120に入力することで、その判定医療映像を映像処理手段120が判定手段110に判定させる。その判定手段110が判定した結果から、悪性病変の位置や形状を明確にするための映像処理を映像処理手段120が行う。
The image processing means 120 is connected to the determination means 110, and by inputting the determination medical image taken by the
具体的には、医療映像装置200で撮影された判定医療映像の一部を映像処理手段120が切り取り、判定手段110が良性か悪性かを判断する。映像処理手段120は、判定手段110が判断した結果を受け取り、例えば、その結果が悪性だった場合のみ該当する部位の色彩を変更して判定医療映像内で該当部位を強調表示する。これにより判定医療映像内の悪性部分のみ色彩が変更されるので、悪性病変の位置や形状を明確にすることができる。
Specifically, the image processing means 120 cuts out a part of the determination medical image taken by the
医療映像装置200は、例えばエックス線装置、コンピュータ断層撮影装置、核磁気共鳴画像装置、超音波検査装置などによって撮影される医療映像である。この医療映像装置200によって撮影された静止画や動画を映像処理装置100が処理を行うことで、映像処理装置100に接続された表示装置300に病変の位置や形状を明確にした映像を出力することができる。
The
表示装置300は、例えばパソコンに接続されることで与えられた情報を表示するディスプレイや、入力された情報を印刷して表示するプリンターや、写真などを現像する現像機などが挙げられる。
Examples of the
この映像処理装置100を介して出力された判定医療映像は、病変の位置や形状が明確に表示されているので、医師が判定医療映像を見る際に見落としがないよう注意喚起ができ、医師の正確な診断率が上昇する。
なお、映像処理手段120に接続した外部接続機器により、指示値を入力することで、入力した映像の判定開始や、出力する映像の解像度などを指示することができる。
Since the position and shape of the lesion are clearly displayed in the judgment medical image output via the
By inputting an instruction value by an externally connected device connected to the image processing means 120, it is possible to instruct the start of determination of the input image, the resolution of the output image, and the like.
図2は、判定手段の詳細を示す図である。
図2に示すように、判定手段110は、判定処理部111および学習データ記憶部112を備えている。
FIG. 2 is a diagram showing details of the determination means.
As shown in FIG. 2, the determination means 110 includes a
判定処理部111は、あらかじめ学習医療映像を入力することにより判定処理部111に学習をさせ、その学習したデータは学習データ記憶部112に蓄積される。学習は、判定処理部111に学習させるための情報であるトレーニングデータセットと呼ばれる訓練用データや、学習したデータを検証するためのテストデータセットと呼ばれるテスト用データを用いて学習させる。
The
また映像処理手段120によって切り取られて入力される判定医療映像の一部は、学習データ記憶部112に蓄積された学習データを利用することで、判定処理部111が悪性か良性かの判断処理を行い、その結果を映像処理手段120で悪性病変を明確にするための映像処理を行った後に、悪性病変が明確になった判定医療映像が表示装置300で表示される。
Further, a part of the determination medical image cut and input by the image processing means 120 uses the learning data stored in the learning
図3は、判定処理部の詳細を示す図である。
図3に示すように、判定処理部111は、学習情報調整部1110、学習部1111および判定部1112を備えている。
FIG. 3 is a diagram showing details of the determination processing unit.
As shown in FIG. 3, the
学習情報調整部1110は、学習部1111に効率よく学習させるために、外部から入力された学習医療映像の情報量を調整するためのものである。入力される学習医療映像は、あらかじめ病変を有する医療映像を格子状に分割したものであり、良性と悪性とがわかるようにラベル付けされたものである。またこれらのラベル付けされた学習医療映像は、それぞれテスト用データと訓練用データとに分けられている。
The learning
良性と悪性とに分類された学習医療映像は、良性と悪性との情報量に偏りがあるため、学習情報調整部1110は、この比率が異なった学習医療映像のバランスを調整することで学習部1111に正しく学習させることができる。
Since the learning medical images classified into benign and malignant have a bias in the amount of information between benign and malignant, the learning
まず学習情報調整部1110は、良性の訓練用データを複数のグループに分割する。分割された良性の訓練用データの1つは、悪性の訓練用データ量と等しくなるように学習情報調整部1110が分割を行う。
First, the learning
1つの悪性の訓練用データに対して、分割した良性の訓練用データを入れ替えながら、悪性の訓練用データ量と良性の訓練用データ量とが等しくなるように学習情報調整部1110が学習部1111に学習させる。
While exchanging the divided benign training data for one malignant training data, the learning
これにより比較的データ量の少ない悪性の訓練用データを、データ量の多い良性の訓練用データに対応させて学習させることができるので、全体的な学習量を減らさずに良性と悪性とのバランスを取りながら、学習部1111に大量の訓練用データを学習させることができる。
As a result, malignant training data with a relatively small amount of data can be trained in correspondence with benign training data with a large amount of data, so the balance between benign and malignant can be achieved without reducing the overall amount of learning. It is possible to make the
学習部1111は、学習情報調整部1110が調整した学習医療映像を実際に学習するためのものであり、学習データ記憶部112および判定部1112に接続されている。
具体的な学習例としては、学習情報調整部1110で調整された学習医療映像が学習部1111に入力され、入力された学習医療映像は、畳み込みニューラルネットワークを用いたディープラーニングによって、入力された学習医療映像の特徴を抽出して学習部1111は学習する。学習した学習データは学習データ記憶部112に蓄積される。
The
As a specific learning example, the learning medical image adjusted by the learning
判定部1112は、映像処理手段120が切り取った判定医療映像の一部を、学習データ記憶部112に蓄積された学習データを利用することで、その判定医療映像の一部が良性か悪性かを判断し、その判定部1112が判断した結果は、映像処理手段120に送信される。
The
図4は、映像処理手段の詳細を示す図である。
図4に示すように、映像処理手段120は、判定除外処理部121、判定範囲設定部122、判定範囲移動部123、および色彩変更部124を備えている。
FIG. 4 is a diagram showing details of the video processing means.
As shown in FIG. 4, the image processing means 120 includes a determination
判定除外処理部121は、医療映像装置200により入力された判定医療映像を格子状に分割し、分割された判定医療映像のうち判定対象以外の部分を取り除くためのものである。
The determination
具体的には、医療映像装置200により撮影される判定医療映像には、判定対象以外の部分も含んだ映像が撮影される。例えば、乳ガンなどの検査で用いられるマンモグラフィ検査で撮影された映像には、必ず映像全体に乳房が撮影されているわけではなく、実際は乳房以外の部分も映り込んでいる。
Specifically, the determination medical image taken by the
この乳房以外の部分を判定の対象外として取り除くことで、判定処理部111が判定する情報量を低減させることができる。これにより判定処理部111が判定する判定医療映像全体の判定時間を短縮することができる。
By removing the portion other than the breast as a target of determination, the amount of information determined by the
判定範囲設定部122は、判定除外処理部121により判定除外処理が行われた判定医療映像のうち、一部を切り取って判定処理部111に判定をさせるための判定範囲を定める、図示しない判定枠Fを設定するためのものである。
The judgment
判定範囲移動部123は、判定範囲設定部122により設定された判定枠Fを、判定医療映像内で移動させるためのものである。これにより移動した判定枠Fの軌跡上を判定処理部111が悪性か良性かを判定することができ、判定枠Fが判定医療映像内すべてを移動することで判定医療映像全体の判定処理を行うことができる。
The determination
この判定枠Fは、判定範囲設定部122が判定枠F内の判定範囲を大きくすることで、判定医療映像全体を移動する判定枠Fの移動時間が短くなり、判定処理部111が判定する判定医療映像全体の判定時間は短くなる。
In this determination frame F, the determination
また判定範囲設定部122が判定枠F内の判定範囲を小さくすることで、判定医療映像における細かい病変部の判定を行うことができるので悪性病変の明確度が上昇する。なお、この判定範囲設定部122設定する判定枠F内の判定範囲は、接続された外部接続機器により任意に設定することができる。
Further, by reducing the determination range in the determination frame F by the determination
また判定枠Fは、判定範囲移動部123が移動させる判定枠Fの移動値も任意に設定することができるが、判定範囲の大きさと同様に、判定枠Fの移動値が大きくすれば、判定医療映像全体を移動する判定枠Fの移動時間が短くなり、判定処理部111が判定する判定医療映像全体の判定時間は短くなる。
また判定枠Fの移動値を小さくすることで、判定医療映像における細かい病変部の判定を行うことができるので悪性病変の明確度が上昇する。
Further, in the determination frame F, the movement value of the determination frame F to be moved by the determination
Further, by reducing the movement value of the determination frame F, it is possible to determine a fine lesion portion in the determination medical image, so that the degree of clarity of the malignant lesion is increased.
色彩変更部124は、判定枠F内の判定範囲を判定手段110が判定した結果によって、その判定範囲の色彩を変更するためのものである。
具体的には、判定枠F内の判定範囲において良性か悪性かを判定手段110が判定し、判定した結果を色彩変更部124に送信する。
The
Specifically, the determination means 110 determines whether it is benign or malignant in the determination range within the determination frame F, and transmits the determination result to the
判定結果を受け取った色彩変更部124は、悪性だった場合にのみ、その判定した判定範囲を赤く色彩を変更する。これによりその判定範囲には悪性病変部分のみ色彩が変更されるので、悪性病変の部位や形状が明確に表示されることになる。
The
また色彩変更部124が行なう色彩変更は、透明色を用いることができる。例えば、色彩変更部124が行なう色彩変更に透明色の赤色を用いた場合、判定範囲移動部123が判定枠Fを移動させながら悪性病変部に透明色の赤色を重ねていくので、悪性病変の部分は何度も透明色の赤色が重なることになる。
Further, a transparent color can be used for the color change performed by the
この透明色の赤色が重なり濃い赤色で表示された部位は、判定手段110が悪性だと強く判断した部位であり、濃い赤色で表示された部分全体が悪性病変の形状であるといえる。これにより、悪性病変の部位や形状を明確に表示することができる。 The portion where the transparent red color overlaps and is displayed in deep red is the portion strongly determined by the determination means 110 to be malignant, and it can be said that the entire portion displayed in dark red is the shape of the malignant lesion. This makes it possible to clearly display the site and shape of the malignant lesion.
図5は、本実施の形態の映像処理装置が備える判定手段が、学習を行うまでの処理を示すフローチャートである。以下、図5に示す処理をステップ番号に沿って説明する。
〔ステップS11〕判定手段110に学習医療映像が入力される。具体的には、あらかじめ学習用の医療映像を格子状に分割し、良性と悪性とのラベル付けをした後、テスト用データと訓練用データとに分割された学習医療映像が、学習情報調整部1110に入力される。
FIG. 5 is a flowchart showing a process until the determination means provided in the video processing device of the present embodiment performs learning. Hereinafter, the process shown in FIG. 5 will be described along with the step numbers.
[Step S11] The learning medical image is input to the determination means 110. Specifically, the learning medical video is divided into a grid pattern in advance, labeled as benign and malignant, and then divided into test data and training data. The learning information adjustment unit It is input to 1110.
〔ステップS12〕判定手段110は学習医療映像の情報量の調整を行う。具体的には、ステップS11で入力された学習医療映像のうち、良性の訓練用データを複数のグループに分割し、分割した訓練用データのグループを入れ替えながら学習部1111に学習させ、それに対応するように悪性の訓練用データを繰り返して学習部1111に学習させるために、学習医療映像の情報量の調整を学習情報調整部1110が行なう。
[Step S12] The determination means 110 adjusts the amount of information in the learning medical image. Specifically, among the learning medical images input in step S11, the benign training data is divided into a plurality of groups, and the
〔ステップS13〕判定手段110は学習を行う。具体的には、ステップS12で調整された訓練用データとテスト用データとをもとに、畳み込みニューラルネットワークを用いたディープラーニングで学習部1111が学習を行う。
このように学習した判定手段110は、学習した学習データをもとに判定医療映像が良性または悪性かを判定手段110が判定することが出来る。
[Step S13] The determination means 110 performs learning. Specifically, the
The determination means 110 learned in this way can determine whether the determination medical image is benign or malignant based on the learned learning data.
図6は、本実施の形態の映像処理装置が備える映像処理手段が、映像を処理し、処理した映像を表示装置が表示するまでの処理を示すフローチャートである。以下、図6に示す処理をステップ番号に沿って説明する。 FIG. 6 is a flowchart showing a process in which the image processing means included in the image processing device of the present embodiment processes the image and the processed image is displayed by the display device. Hereinafter, the process shown in FIG. 6 will be described along with the step numbers.
〔ステップS21〕映像処理手段120に判定医療映像が入力される。具体的には、医療映像装置200で撮影された病変の有無を判定するための判定医療映像が、映像処理手段120に入力される。
[Step S21] The determination medical image is input to the image processing means 120. Specifically, a determination medical image for determining the presence or absence of a lesion imaged by the
〔ステップS22〕映像処理手段120は、入力された判定医療映像を処理する。具体的には、ステップS21で入力された判定医療映像に対して、悪性病変の部位や形状が明確になるような映像処理を、映像処理手段120が行う。 [Step S22] The image processing means 120 processes the input determination medical image. Specifically, the image processing means 120 performs image processing for clarifying the site and shape of the malignant lesion with respect to the determination medical image input in step S21.
〔ステップS23〕映像処理手段120は、映像処理された判定医療映像を出力する。具体的には、ステップS22で映像処理され、悪性病変の部位や形状が明確になった判定医療映像を、映像処理手段120が表示装置300に出力する。
〔ステップS24〕表示装置300は、映像処理された判定医療映像を表示する。具体的には、ステップS23で出力された判定医療映像を表示装置300が表示する。
[Step S23] The image processing means 120 outputs the image-processed determination medical image. Specifically, the image processing means 120 outputs the determination medical image in which the image is processed in step S22 and the site and shape of the malignant lesion are clarified to the
[Step S24] The
図7は、本実施の形態の映像処理装置が備える映像処理手段に、指示情報が入力されてから、各処理を行うまでの処理を示すフローチャートである。以下、図7に示す処理をステップ番号に沿って説明する。 FIG. 7 is a flowchart showing a process from the input of instruction information to the process of performing each process in the video processing means included in the video processing device of the present embodiment. Hereinafter, the process shown in FIG. 7 will be described along with the step numbers.
〔ステップS31〕映像処理手段120に指示情報が入力される。具体的には、映像処理装置100の外部から接続された外部接続機器により、判定範囲設定、移動値設定、または映像処理開始の指示が入力される。
[Step S31] Instruction information is input to the video processing means 120. Specifically, an instruction for determining a determination range, setting a movement value, or starting video processing is input by an externally connected device connected from the outside of the
〔ステップS32〕映像処理手段120は、入力された指示情報を判断する。具体的には、映像処理装置100に入力された指示情報が、判定範囲設定の指示、移動値設定の指示、または映像処理開始の指示であるかを、映像処理手段120が判断する。
[Step S32] The video processing means 120 determines the input instruction information. Specifically, the video processing means 120 determines whether the instruction information input to the
判定範囲設定の指示が入力されたと判断したときは、処理をステップS33に進め、移動値設定の指示が入力されたと判断したときは、処理をステップS34に進め、映像処理開始の指示が入力されたと判断したときは、処理をステップS35に進める。 When it is determined that the judgment range setting instruction has been input, the process proceeds to step S33, and when it is determined that the movement value setting instruction has been input, the process proceeds to step S34 and the video processing start instruction is input. If it is determined that the processing has been performed, the process proceeds to step S35.
〔ステップS33〕映像処理手段120は、判定範囲を設定する。具体的には、ステップS21で入力された判定医療映像の一部を切り取って判定するための判定枠F内の判定範囲を、判定範囲設定部122が設定する。
〔ステップS34〕映像処理手段120は、移動値を設定する。具体的には、ステップS33で設定された判定枠Fが移動する移動値を、判定範囲移動部123が設定する。
[Step S33] The video processing means 120 sets a determination range. Specifically, the determination
[Step S34] The video processing means 120 sets a movement value. Specifically, the determination
〔ステップS35〕映像処理手段120は、映像処理を開始する。具体的には、判定範囲設定部122が設定した判定枠Fを、判定医療映像内で判定範囲移動部123が移動させながら、悪性病変の判定を判定手段110にさせ、その判定結果をもとに判定範囲の色彩を色彩変更部124が変更する処理の開始を、映像処理手段120が行なう。
[Step S35] The video processing means 120 starts video processing. Specifically, while the determination
図8は、本実施の形態の映像処理装置が備える判定手段が、学習するまでの処理を示すフローチャートである。以下、図8に示す処理をステップ番号に沿って説明する。
〔ステップS41〕判定手段110に学習医療映像が入力される。具体的には、畳み込みニューラルネットワークを用いたディープラーニングで判定手段110に学習させるために、ステップS12で情報量が調整された訓練用データが、学習部1111に入力される。
FIG. 8 is a flowchart showing a process until the determination means included in the video processing apparatus of the present embodiment learns. Hereinafter, the process shown in FIG. 8 will be described along with the step numbers.
[Step S41] The learning medical image is input to the determination means 110. Specifically, in order for the determination means 110 to learn by deep learning using a convolutional neural network, the training data whose amount of information is adjusted in step S12 is input to the
〔ステップS42〕学習部1111は、入力された学習医療映像の特徴を抽出する。具体的には、ステップS41で入力された訓練用データを、畳み込みニューラルネットワークを用いたディープラーニングで訓練用データの特徴を抽出し、その特徴から何が描出されているかを学習部1111が識別する。
[Step S42] The
〔ステップS43〕学習部1111は、入力された学習医療映像の判定を行う。具体的には、ステップS42で抽出された訓練用データの特徴が、良性か悪性かを学習部1111が判定する。
[Step S43] The
〔ステップS44〕学習部1111は、判定結果とラベルとを比較する。具体的には、ステップS43で判定した判定結果と、訓練用データに付されたラベルの内容との比較を行う。
[Step S44] The
〔ステップS45〕学習部1111は、記憶する学習データの修正を行う。具体的には、ステップS43で判定した訓練用データの特徴の判定結果と、ステップS44で比較した訓練用データに付されたラベルとの差異を小さくするために、記憶する学習データの修正を行なう。
[Step S45] The
〔ステップS46〕学習部1111は、所定の数まで学習処理が繰り返されたか判断する。具体的には、ステップS42からステップS45までの処理が所定の回数繰り返されたかを、学習部1111が判断する。
[Step S46] The
所定の回数は、訓練用データの枚数や画像サイズによって調整を行うことができる。具体的にはステップS42からステップS45までの処理を、5000回や10万回などで設定し、設定した回数まで何度も繰り返しながら学習部1111に学習させることで、正しい判断率を上げていく。
The predetermined number of times can be adjusted according to the number of training data and the image size. Specifically, the processing from step S42 to step S45 is set at 5000 times, 100,000 times, etc., and the
学習部1111がステップS42からステップS45までの処理を所定回数繰り返したと判断したときは、処理をステップS47に進め、学習部1111がステップS42からステップS45までの処理を所定回数繰り返していないと判断したときは、処理をステップS42に進める。
When it is determined that the
〔ステップS47〕学習部1111は、学習した学習データを記憶する。具体的には、学習部1111がステップS42からステップS45までの処理を所定回数繰り返して学習した学習データを、学習部1111が学習データ記憶部112に記憶させる。
[Step S47] The
図9は、本実施の形態の映像処理装置が備える判定手段が、学習した学習データを検証するまでの処理を示すフローチャートである。以下、図9に示す処理をステップ番号に沿って説明する。 FIG. 9 is a flowchart showing a process until the determination means provided in the video processing apparatus of the present embodiment verifies the learned learning data. Hereinafter, the process shown in FIG. 9 will be described along with the step numbers.
〔ステップS51〕判定手段110に学習医療映像が入力される。具体的には、ステップS41からステップS47までの処理を繰り返して、判定手段110が学習した学習データを検証するために、良性か悪性かのラベルが判定手段110から見えない状態にしたテスト用データが、学習部1111に入力される。
[Step S51] The learning medical image is input to the determination means 110. Specifically, in order to repeat the processes from step S41 to step S47 and verify the learning data learned by the determination means 110, the test data in which the benign or malignant label is not visible from the determination means 110. Is input to the
〔ステップS52〕学習部1111は、入力された学習医療映像の特徴を抽出する。具体的には、ステップS51で入力されたテスト用データから特徴を抽出し、その特徴から何が描出されているかを学習部1111が識別する。
[Step S52] The
〔ステップS53〕判定手段110は、入力された学習医療映像の予測を行う。具体的には、ステップS52で抽出した特徴と、学習データ記憶部112に蓄積した学習データとを比較し、ステップS52で入力されたテスト用データが良性か悪性かの予測を学習部1111が行う。
[Step S53] The determination means 110 predicts the input learning medical image. Specifically, the
〔ステップS54〕判定手段110は、予測結果の評価を行う。具体的には、ステップS53で学習部1111が行った予測と、テスト用データに付されたラベルとを比較し、評価を学習部1111が行う。例えば予測とラベルとの値が一致した場合はプラスの評価を、また予測とラベルとの値が一致しなかった場合はマイナスの評価を与える。
[Step S54] The determination means 110 evaluates the prediction result. Specifically, the prediction made by the
図10は、本実施の形態の映像処理装置が備える判定手段が、判定結果を出力するまでの処理を示すフローチャートである。以下、図10に示す処理をステップ番号に沿って説明する。 FIG. 10 is a flowchart showing a process until the determination means provided in the video processing apparatus of the present embodiment outputs a determination result. Hereinafter, the process shown in FIG. 10 will be described along with the step numbers.
〔ステップS61〕判定手段110に判定範囲の情報が入力される。具体的には、映像処理手段120がステップS33で設定した判定枠F内の判定範囲で切り取った判定医療映像の一部が、判定部1112に入力される。
[Step S61] Information on the determination range is input to the determination means 110. Specifically, a part of the determination medical image cut out in the determination range in the determination frame F set by the image processing means 120 in step S33 is input to the
〔ステップS62〕判定手段110は、入力された判定医療映像の特徴を抽出する。具体的には、ステップS61で入力された判定医療映像の一部の特徴を抽出し、その特徴から何が描出されているかを識別する。 [Step S62] The determination means 110 extracts the characteristics of the input determination medical image. Specifically, a part of the feature of the determination medical image input in step S61 is extracted, and what is drawn from the feature is identified.
〔ステップS63〕判定手段110が、入力された判定医療映像の判定を行う。具体的には、ステップS62で抽出した判定医療映像の一部の特徴と、学習データ記憶部112に蓄積した学習データとを比較し、ステップS61で入力された判定医療映像の一部が良性か悪性かの判定を判定部1112が行う。
[Step S63] The determination means 110 determines the input determination medical image. Specifically, a part of the characteristics of the judgment medical image extracted in step S62 is compared with the learning data stored in the learning
〔ステップS64〕判定手段110が、判定結果の出力を行う。具体的には、ステップS63で判定医療映像の一部を判定した結果を、判定部1112が映像処理手段120に出力する。
[Step S64] The determination means 110 outputs the determination result. Specifically, the
図11は、本実施の形態の映像処理装置が備える映像処理手段が、映像処理し、処理映像を出力するまでの処理を示すフローチャートである。以下、図11に示す処理をステップ番号に沿って説明する。 FIG. 11 is a flowchart showing processing until the video processing means included in the video processing apparatus of the present embodiment performs video processing and outputs the processed video. Hereinafter, the process shown in FIG. 11 will be described along with the step numbers.
〔ステップS71〕映像処理手段120に判定医療映像が入力される。具体的には、医療映像装置200で撮影した判定医療映像の情報が、映像処理手段120に入力される。
〔ステップS72〕映像処理手段120は、入力された判定医療映像の判定除外処理を行う。具体的には、判定除外処理部121が、ステップS71で入力された判定医療映像のうち判定対象以外の部分を除外する。
[Step S71] The determination medical image is input to the image processing means 120. Specifically, the information of the determination medical image taken by the
[Step S72] The image processing means 120 performs a determination exclusion process of the input determination medical image. Specifically, the determination
〔ステップS73〕映像処理手段120は、判定処理を行う。具体的には、判定範囲設定部122が設定した判定枠F内の判定範囲を、判定範囲移動部123が判定医療映像内で移動させながら、切り取った判定医療映像の一部を判定部1112が判定する。
[Step S73] The video processing means 120 performs a determination process. Specifically, while the judgment
〔ステップS74〕映像処理手段120は、色彩変更処理を行う。具体的には、ステップS73で判定した結果により、色彩変更部124が色彩を変更する。さらに具体的には、ステップS73で判定した結果が悪性だったときのみ、色彩変更部124が判定範囲の色彩を変更する。
[Step S74] The image processing means 120 performs a color change process. Specifically, the
〔ステップS75〕映像処理手段120は、処理映像を出力する。具体的には、ステップS71からステップS74で処理された判定医療映像を、色彩変更部124が表示装置300に出力する。
[Step S75] The video processing means 120 outputs the processed video. Specifically, the
図12は、本実施の形態の映像処理装置が備える映像処理手段が、判定除外処理を行うまでの処理を示すフローチャートである。以下、図12に示す処理をステップ番号に沿って説明する。 FIG. 12 is a flowchart showing a process until the image processing means included in the image processing apparatus of the present embodiment performs the determination exclusion process. Hereinafter, the process shown in FIG. 12 will be described along with the step numbers.
〔ステップS81〕映像処理手段120に判定医療映像が入力される。具体的には、医療映像装置200で撮影した判定医療映像の情報が、映像処理手段120に入力される。
〔ステップS82〕映像処理手段120は、判定医療映像を分割する。具体的には、ステップS81で入力された判定医療映像を細かい格子状に、例えば入力された判定医療映像を縦10×横8の80枚の格子状に、判定除外処理部121が分割する。
[Step S81] The determination medical image is input to the image processing means 120. Specifically, the information of the determination medical image taken by the
[Step S82] The image processing means 120 divides the determination medical image. Specifically, the judgment
〔ステップS83〕映像処理手段120は判定除外処理を行う最初の映像を選定する。具体的にはステップS82で細かい格子状に分割した判定医療映像のうち、最初に判定除外処理を行なう映像を、判定除外処理部121が選定する。
[Step S83] The video processing means 120 selects the first video to be subjected to the determination exclusion process. Specifically, among the determination medical images divided into fine grids in step S82, the determination
〔ステップS84〕映像処理手段120は、判定医療映像の一部に判定対象映像が含まれているか否かを判断する。具体的には、ステップS83で選定された判定医療映像の一部に、例えば人体の一部などの判定対象が含まれているか否かを判定除外処理部121が判断する。
[Step S84] The image processing means 120 determines whether or not the determination target image is included in a part of the determination medical image. Specifically, the determination
判定医療映像の一部に、判定対象が含まれていると判断したときは処理をステップS85に進め、判定医療映像の一部に、判定対象が含まれていないと判断したときは処理をステップS86に進める。 If it is determined that the judgment target is included in a part of the judgment medical video, the process proceeds to step S85, and if it is determined that the judgment target is not included in a part of the judgment medical video, the process is stepped. Proceed to S86.
〔ステップS85〕映像処理手段120は、判定医療映像の最後まで判定除外処理を行ったかを判断する。具体的には、ステップS84で判断した判定医療映像の一部が、複数に分割した判定医療映像のうち最後の分割映像か否かを判断する。 [Step S85] The image processing means 120 determines whether the determination exclusion process has been performed until the end of the determination medical image. Specifically, it is determined whether or not a part of the determination medical image determined in step S84 is the last divided image among the determination medical images divided into a plurality of parts.
判定医療映像の一部が、複数に分割した判定医療映像のうち最後の分割映像であると判断したときは、処理を終了させ、判定医療映像の一部が、複数に分割した判定医療映像のうち最後の分割映像ではないと判断したときは、処理をステップS87に進める。 When it is determined that a part of the judgment medical video is the last divided video of the judgment medical video divided into a plurality of parts, the processing is terminated and a part of the judgment medical video is divided into a plurality of judgment medical images. If it is determined that the video is not the last divided video, the process proceeds to step S87.
〔ステップS86〕映像処理手段120は、判定除外処理を行う。具体的にはステップS84で判定除外処理部121が判断した結果、判定医療映像の一部に判定対象映像が含まれていない場合は、その判定医療映像の一部を判定手段110が判定する必要がないので、判定手段110が判定しないための判定除外フラグを、判定除外処理部121が立てる。
[Step S86] The video processing means 120 performs a determination exclusion process. Specifically, as a result of the determination by the determination
〔ステップS87〕映像処理手段120は、判定除外処理を行う次の映像を決定する。具体的にはステップS82で細かい格子状に分割した判定医療映像のうち、次に判定除外処理をする判定医療映像の一部を、判定除外処理部121が選定する。
[Step S87] The video processing means 120 determines the next video to be subjected to the determination exclusion process. Specifically, among the judgment medical images divided into fine grids in step S82, the judgment
図13は、本実施の形態の映像処理装置が備える映像処理手段が、判定除外処理を行なった判定医療映像に、色彩変更を行うまでの処理を示すフローチャートである。以下、図13に示す処理をステップ番号に沿って説明する。 FIG. 13 is a flowchart showing a process until the image processing means included in the image processing apparatus of the present embodiment changes the color of the determination medical image to which the determination exclusion process has been performed. Hereinafter, the process shown in FIG. 13 will be described along with the step numbers.
〔ステップS91〕映像処理手段120に判定除外処理を行った判定医療映像が生成される。具体的には、映像処理手段120に入力された判定医療映像を、判定除外処理部121が判定除外処理を行い、判定除外処理後の判定医療映像が生成される。
[Step S91] A determination medical image obtained by performing a determination exclusion process on the image processing means 120 is generated. Specifically, the judgment
〔ステップS92〕映像処理手段120は初期化を行う。具体的には、判定枠Fが移動しながら判定していく際の初期の位置、例えば判定医療映像の左側最上段などの位置に、判定範囲移動部123が判定枠Fを移動させる。
[Step S92] The video processing means 120 initializes. Specifically, the determination
〔ステップS93〕映像処理手段120は、判定枠F内の判定範囲が判定対象か否かの判断を行う。具体的には、判定枠Fの移動先の分割映像に判定除外フラグが立てられているか否かで、判定範囲が判定対象か否かの判断を判定範囲移動部123が判断する。
[Step S93] The video processing means 120 determines whether or not the determination range in the determination frame F is a determination target. Specifically, the determination
より具体的には、判定除外フラグが立てられた分割映像上に判定枠Fが移動した場合は判定除外であると判定範囲移動部123が判断し、判定除外フラグが立てられていない分割映像上に判定枠Fが移動した場合は判定対象であると判定範囲移動部123が判断する。
More specifically, when the judgment frame F moves on the divided video in which the judgment exclusion flag is set, the judgment
また、判定除外フラグが立てられた分割映像と判定除外フラグが立てられていない分割映像との結合部上に判定枠Fが移動した場合は、判定対象であると判定範囲移動部123が判断する。
Further, when the determination frame F moves on the joint portion between the divided video in which the determination exclusion flag is set and the divided video in which the determination exclusion flag is not set, the determination
判定枠F内の判定範囲が判定対象であると判断したときは、処理をステップS94へ進め、判定枠F内の判定範囲が判定対象でないと判断したときは、処理をステップS97へ進める。 When it is determined that the determination range in the determination frame F is the determination target, the process proceeds to step S94, and when it is determined that the determination range in the determination frame F is not the determination target, the process proceeds to step S97.
〔ステップS94〕映像処理手段120は、判定枠F内の判定範囲が悪性病変か否かの判断を行う。具体的には、判定範囲移動部123が移動させた判定枠F内の判定範囲を、判定範囲移動部123が判定手段110に送信し判定をさせる。
判定枠F内の判定範囲が悪性であると判断したときは、処理をステップS95へ進め、判定枠F内の判定範囲が良性であると判断したときは、処理をステップS96へ進める。
[Step S94] The image processing means 120 determines whether or not the determination range in the determination frame F is a malignant lesion. Specifically, the determination
When it is determined that the determination range in the determination frame F is malignant, the process proceeds to step S95, and when it is determined that the determination range in the determination frame F is benign, the process proceeds to step S96.
〔ステップS95〕映像処理手段120は、色彩変更を行う。具体的には、ステップS94で悪性と判断された判定枠F内の判定範囲の色彩を、色彩変更部124が変更する処理を行う。
[Step S95] The image processing means 120 changes colors. Specifically, the
〔ステップS96〕映像処理手段120は、判定医療映像の最後まで判定を行った否かを判断する。具体的には、ステップS92で判定範囲移動部123が移動させた初期の位置から、判定範囲移動部123が判定枠Fを移動させていき、判定対象ではない範囲を除く判定医療映像のすべてを判定したかを判断する。
[Step S96] The image processing means 120 determines whether or not the determination has been made to the end of the determination medical image. Specifically, the judgment
例えば判定医療映像の左側最上位置を初期の位置とし、判定枠Fを右側に移動させながら判定を行ない、順に判定医療映像の上部から下部に向かって判定枠Fを移動させて判定する場合、判定枠Fが右側最下段に到達したときを判定終了と判断させる。 For example, when the judgment is made while the uppermost position on the left side of the judgment medical image is set as the initial position and the judgment frame F is moved to the right, and the judgment frame F is moved from the upper part to the lower part of the judgment medical image in order, the judgment is made. When the frame F reaches the bottom on the right side, it is determined that the determination is completed.
判定範囲移動部123が最後まで判定枠Fを移動させて判定を行ったと判断したときは、処理を終了させ、判定範囲移動部123が最後まで判定枠Fを移動させて判定を行っていないと判断したときは、処理をステップS97へ進める。
When it is determined that the determination
〔ステップS97〕映像処理手段120は判定枠Fを次の位置へ移動させる。具体的には、まだ判定枠Fを移動させて判定が完了していない位置に、判定範囲移動部123が判定枠Fを移動させる。
[Step S97] The video processing means 120 moves the determination frame F to the next position. Specifically, the determination
なお、本実施の形態の映像処理装置100では、ステップS91で判定除外処理部121が判定除外処理を行なった判定医療映像を、ステップS93で判定範囲移動部123が判定枠F内の判定範囲が判定対象か否かの判断をし、判定対処の場合にステップS94で判定範囲が悪性病変であるか否かを判定手段110が判定する例で示したが、ステップS91での処理を省略し、入力された判定医療映像を、判定枠F内の判定範囲が判定対象か否かを判定範囲移動部123が判断をし、判定対処の場合に判定範囲が悪性病変であるか否かを判定手段110が判定してもよい。
In the
図14は、判定除外処理部が行った処理を示すマンモグラフィ画像である。
図14(A)に示すように、判定除外処理部121は、判定医療映像のうち判定対象を含まない範囲に判定除外フラグを立てるために、判定医療映像を細かい格子状に分割する。
FIG. 14 is a mammography image showing the processing performed by the determination exclusion processing unit.
As shown in FIG. 14A, the judgment
図14(B)に示すように、判定除外処理部121は、分割した判定医療映像の一部に判定対象が含まれるか否かを判断し、判定対象が含まれない部位に判定除外フラグを立てることで、判定部1112が行なう判定処理から除外する。
As shown in FIG. 14B, the judgment
具体的には、図14(A)のうち乳腺以外の画像を除外する。図14(B)の黒く表示された部位は、乳腺を含まない範囲なので、判定対象から除外され判定除外フラグが立てられる。 Specifically, images other than the mammary gland in FIG. 14 (A) are excluded. Since the portion displayed in black in FIG. 14B is a range not including the mammary gland, it is excluded from the determination target and the determination exclusion flag is set.
図14(B)の例の場合、判定除外処理を行なうと、判定対象の範囲が全体の半分以下になることがわかる。これにより判定対象の範囲が制限されるため、判定医療映像全体の内、判定部1112が行なう判定処理の情報量が減少するので、判定処理が完了するまでの処理速度を向上することができる。
In the case of the example of FIG. 14B, it can be seen that the range of the determination target becomes less than half of the whole when the determination exclusion process is performed. Since the range of the determination target is limited by this, the amount of information of the determination process performed by the
また図14では、判定除外処理部121が判定除外処理を行うために、判定医療映像を分割し、判定対象以外を除外する例で示したが、判定除外処理部121が行なう判定除外処理は判定医療映像だけを処理するものだけではなく、学習医療映像を処理してもよい。
Further, in FIG. 14, an example is shown in which the judgment
例えば、判定除外処理部121に学習医療映像を入力すると、図14(A)のように、学習医療映像を判定除外処理部121が分割し、図14(B)のように、分割した映像のうち乳腺以外の映像を判定除外処理部121が除外することで、判定対象を含む分割映像のみを残す処理が行なわれる。
For example, when the learning medical video is input to the judgment
これらの判定対象として残された分割映像を、悪性病変が描出されている映像と、悪性病変が描出されていない映像とを区別するためにラベル付けをすることで、判定手段110が有する学習部1111に学習させるための学習医療映像として利用することが出来る。 The learning unit possessed by the determination means 110 by labeling the divided images left as these determination targets in order to distinguish between the images in which the malignant lesions are visualized and the images in which the malignant lesions are not visualized. It can be used as a learning medical image for 1111 to learn.
さらに、これらの判定除外処理部121が処理を行なった学習医療映像は、映像を左右反転させることで異なった映像として学習部1111に認識させ、学習部1111に入力される学習医療映像の情報量を増やすことも出来る。
Further, the learning medical image processed by the determination
図15は、ディープラーニングで用いられるニューラルネットワークを示す図である。
図15に示すように、ニューラルネットワークでは、全体の処理を入力層、中間層、出力層と区分することが出来る。
FIG. 15 is a diagram showing a neural network used in deep learning.
As shown in FIG. 15, in the neural network, the entire processing can be divided into an input layer, an intermediate layer, and an output layer.
入力層は、画像や音声などを入力する場所であり、本発明では図15の左側に示す格子状に細かく分割された医療映像の画像データを入力するために利用される。
中間層は、入力されたデータから様々な特徴である形や模様などを抽出する場所であり、本発明では入力層で入力された医療映像から形や模様などを抽出するために利用される。
The input layer is a place for inputting an image, sound, or the like, and is used in the present invention to input image data of a medical image finely divided in a grid pattern shown on the left side of FIG.
The intermediate layer is a place for extracting various characteristic shapes and patterns from the input data, and is used in the present invention to extract shapes and patterns from the medical image input in the input layer.
出力層は、中間層で抽出した特徴から入力したデータを識別する場所であり、本発明では入力された医療映像が、良性か悪性かを識別するために利用される。
一般的な形としてニューラルネットワークでは、入力されたデータの特徴を抽出する役割を果たす畳み込み層と、畳み込み層が抽出した特徴から強く表れている特徴を取り出すことで位置に不変性を与えるプーリング層とがセットで用いられ、最後の出力層に用いられる全結合層で、取り出された特徴にもとづく分類が行なわれている。
The output layer is a place to identify the input data from the features extracted in the intermediate layer, and is used in the present invention to identify whether the input medical image is benign or malignant.
As a general form, in a neural network, a convolution layer that plays a role in extracting features of input data and a pooling layer that gives invariance to the position by extracting features that strongly appear from the features extracted by the convolution layer. Is used as a set and is a fully connected layer used for the final output layer, which is classified based on the extracted characteristics.
また、中間層を複数入れ込み、複雑化することもできる。本実施の形態に係る映像処理装置100では、畳み込み層とプーリング層を合わせて10層としたニューラルネットワークを用いてディープラーニングを行った。その結果、例えばマンモグラフィの画像から、乳ガンの特徴を抽出し、ガンが70%の確率で存在する、ガンが30%の確率で存在しないなどを識別することが出来る。
It is also possible to insert a plurality of intermediate layers to make it complicated. In the
なお、本実施の形態に係る学習部1111が行うディープラーニングによる学習は、畳み込み層とプーリング層を合わせて10層としたニューラルネットワークを用いたが、中間層における畳み込み層とプーリング層とのユニット数は適宜調整を行いながら学習部1111に学習させることができる。また、入力層や出力層も適宜調整を行いながら学習部1111に学習させることができる。
In the learning by deep learning performed by the
図16は、判定手段に学習させる従来の学習方法と、本実施の形態に係る映像処理装置での学習方法を示す図である。
図16(A)に示すように、従来の機械学習の学習方法は、医療映像を格子状に分割し、悪性病変が描出されている映像と、悪性病変が描出されていない映像とを区別するためにラベル付けを行い、訓練用データとテスト用データとに分け、これらの訓練用データとテスト用データとを用いて機械学習をさせていた。
FIG. 16 is a diagram showing a conventional learning method in which a determination means is trained and a learning method in a video processing device according to the present embodiment.
As shown in FIG. 16A, the conventional machine learning learning method divides a medical image into a grid pattern and distinguishes between an image in which a malignant lesion is visualized and an image in which a malignant lesion is not visualized. Therefore, it was labeled and divided into training data and test data, and machine learning was performed using these training data and test data.
ところが医療映像を分割してみると、良性映像の数量が圧倒的に多く、良性と悪性との学習データに多くの差があった。実際には9割近くが良性の映像であり、この偏った学習データによって正しい機械学習が行えなかった。 However, when the medical images were divided, the number of benign images was overwhelmingly large, and there was a large difference in the learning data between benign and malignant. In reality, nearly 90% of the images are benign images, and correct machine learning could not be performed due to this biased learning data.
例えば悪性映像が1割、良性映像が9割の場合、全く学習せずにテストを行っても全て良性と診断すれば9割の正解率になってしまうため、このような学習医療映像で正しい学習を行なうことは困難であった。 For example, if malignant video is 10% and benign video is 90%, even if the test is performed without learning at all, if all are diagnosed as benign, the correct answer rate will be 90%, so such a learning medical video is correct. It was difficult to learn.
これらの解決方法の1つとして、良性の映像に合わせて、悪性の映像を増やすことも考えられるが、9割近い良性映像で、悪性の映像を集めるのは非常に困難であり、現実的ではなかった。 As one of these solutions, it is conceivable to increase the number of malignant images according to the benign images, but it is very difficult to collect malignant images with nearly 90% of benign images, which is not realistic. I didn't.
また比較的データ量の多い良性映像を、比較的数データの少ない悪性映像に合わせて学習させることでバランスをとることも考えられるが、全体的な学習量が大幅に減少してしまうため、効率的な学習とは言えなかった。 It is also possible to balance by training benign images with a relatively large amount of data in accordance with malignant images with a relatively small amount of data, but this is efficient because the overall amount of learning is significantly reduced. It was not a typical learning.
そこで図16(B)に示すように、本実施の形態に係る映像処理装置100が備える学習情報調整部1110が、学習医療映像の情報量の調整を行なうことで、良性映像と悪性映像との比率が異なっていても正しく学習できるようになる。
Therefore, as shown in FIG. 16B, the learning
具体的には、まず悪性病変が描出されている映像と、悪性病変が描出されていない映像とを合わせて47282枚の分割した医療映像を用意し、その分割した医療映像に良性および悪性のラベル付けをした後、それぞれをテスト用データと訓練用データに分ける。 Specifically, first, 47,282 divided medical images are prepared by combining the image in which the malignant lesion is visualized and the image in which the malignant lesion is not visualized, and the divided medical images are labeled as benign and malignant. After attaching, divide each into test data and training data.
この分けられたテスト用データと訓練用データのうち、比較的データ量の多い良性映像における訓練用データを、訓練用データ1、訓練用データ2、訓練用データ3・・・と複数のグループに分ける処理を学習情報調整部1110が行う。
Of the divided test data and training data, the training data in the benign video with a relatively large amount of data is divided into multiple groups such as training data 1, training data 2, training data 3, and so on. The learning
次に、良性映像における訓練用データを、訓練用データ1、訓練用データ2、訓練用データ3・・・と入れ替えた訓練用データを学習情報調整部1110が作成し、それに対応するように悪性映像も学習情報調整部1110が複製して、学習部1111に学習させる。
Next, the learning
このように良性における訓練用データを繰り返し入れ替えながら学習部1111学習させることで、良性と悪性とのバランスを取りながら、かつ学習医療映像の情報量を減らすことなく多くの学習医療映像を学習部1111に学習をさせることが出来る。
By learning the
本実施の形態に係る映像処理装置100での学習方法では、悪性病変が描出されていない映像を合わせて47282枚に対して、良性映像が悪性映像の27倍あったので、すべての映像を使用して学習させるために、良性映像における訓練用データを27回入れ替える処理を学習情報調整部1110が行い、学習部1111に繰り返して学習させた。
In the learning method with the
図17は、学習医療映像の情報量を学習情報調整部が処理した訓練データおよびテストデータによる機械学習の正診率と、学習医療映像の情報量を学習情報調整部が処理しない訓練データおよびテストデータによる機械学習の正診率とを示す図である。 FIG. 17 shows the correct diagnosis rate of machine learning based on the training data and test data processed by the learning information adjustment unit for the amount of information in the learning medical image, and the training data and test in which the learning information adjustment unit does not process the amount of information in the learning medical image. It is a figure which shows the correct diagnosis rate of machine learning by data.
図17(A)は、マンモグラフィ検査における全ての病変と病変以外の学習医療映像の情報量を、学習情報調整部1110が処理を行い、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。
In FIG. 17A, the learning
図17(A)は、47282枚の分割した医療映像を学習した結果を表している。また学習医療映像はテスト用データ788枚、訓練用データ3156枚用意し、どの映像も使用するように訓練用データのうち良性のデータを分割したものを、学習情報調整部1110が27回入れ替えながら学習させた結果である。
FIG. 17A shows the result of learning 47282 divided medical images. In addition, 788 test data and 3156 training data are prepared for the learning medical video, and the learning
学習させた結果、正しい診断率である正診率が96.6%、実際に病気に罹っている人のうち陽性と出る割合である感度が93.9%、病気に罹っていない人のうち陰性と出る割合である特異度が99.2%、検査で陽性と出た人のうち実際に病気に罹っている人の割合の陽性的中率であるPPV(Positive Predictive Value)が99.2%、陰性と出た人のうち実際に罹っていない人の割合の陰性的中率であるNPV(Negative Predictive Value)が94.2%であった。 As a result of learning, the correct diagnosis rate, which is the correct diagnosis rate, is 96.6%, the sensitivity, which is the rate of positive results among those who actually have the disease, is 93.9%, and among those who do not have the disease. The specificity, which is the percentage of negatives, is 99.2%, and the positive predictive value of PPV (Positive Predictive Value), which is the percentage of those who actually have the disease among those who test positive, is 99.2. The NPV (Negative Predictive Value), which is the negative predictive value of the percentage of those who did not actually suffer from the negative, was 94.2%.
このように学習情報調整部1110が学習医療映像の情報量の処理を行うことで、悪性映像と良性映像とのバランスを取り、かつ学習する学習医療映像の情報量を多くして学習部1111に学習させることができるので、高い正診率を得ることができた。本実施の形態に係る映像処理装置100では、学習情報調整部1110が処理した学習医療映像を用いることで、正診率を得ることが出来る。
In this way, the learning
図17(B)は、マンモグラフィ検査における構築の乱れの学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。
In FIG. 17B, the learning medical image of the disorder of construction in the mammography examination is learned by the
図17(B)は、716枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が93.1%、感度が98.4%、特異度が61.9%、PPVが93.8%、NPVが86.7%であった。 FIG. 17B shows the result of learning 716 divided medical images. As a result of learning, the correct diagnosis rate was 93.1%, the sensitivity was 98.4%, the specificity was 61.9%, the PPV was 93.8%, and the NPV was 86.7%.
図17(C)は、マンモグラフィ検査における局所的非対称性陰影であるFAD(focal asymmetric density)の学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。
FIG. 17C is a deep learning using a neural network without processing the learning medical image of FAD (focal asymmetric density), which is a local asymmetric shadow in a mammography examination, without being processed by the learning
図17(C)は、464枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が91.3%、感度が86.0%、特異度が88.9%、PPVが92.5%、NPVが80.0%であった。 FIG. 17C shows the result of learning 464 divided medical images. As a result of learning, the correct diagnosis rate was 91.3%, the sensitivity was 86.0%, the specificity was 88.9%, the PPV was 92.5%, and the NPV was 80.0%.
図17(D)は、マンモグラフィ検査における石灰化の学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。
FIG. 17D shows a learning medical image of calcification in a mammography examination, which is learned by the
図17(D)は、2456枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が85.6%、感度が76.8%、特異度が92.2%、PPVが88.0%、NPVが84.1%であった。 FIG. 17D shows the result of learning 2456 divided medical images. As a result of learning, the correct diagnosis rate was 85.6%, the sensitivity was 76.8%, the specificity was 92.2%, the PPV was 88.0%, and the NPV was 84.1%.
図17(E)は、マンモグラフィ検査における腫瘍の学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。
FIG. 17 (E) shows a learning medical image of a tumor in a mammography examination, which was learned by the
図17(E)は、1816枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が90.1%、感度が95.8%、特異度が72.0%、PPVが90.0%、NPVが86.7%であった。 FIG. 17 (E) shows the result of learning 1816 divided medical images. As a result of learning, the correct diagnosis rate was 90.1%, the sensitivity was 95.8%, the specificity was 72.0%, the PPV was 90.0%, and the NPV was 86.7%.
図17(F)は、マンモグラフィ検査における全ての病変の学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。
In FIG. 17F, the learning medical image of all lesions in the mammography examination is learned by the
図17(F)は、3802枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が89.5%、感度が90.7%、特異度が88.1%、PPVが89.8%、NPVが89.1%であった。 FIG. 17F shows the result of learning 3802 divided medical images. As a result of learning, the correct diagnosis rate was 89.5%, the sensitivity was 90.7%, the specificity was 88.1%, the PPV was 89.8%, and the NPV was 89.1%.
上記から分かるように、図17(A)のように学習情報調整部1110が学習医療映像の情報量の処理を行い、悪性映像と良性映像とのバランスの取れた大量の学習医療映像を、学習部1111が学習することで、高い正診率を得られたことがわかる。
また学習部1111は、学習する学習医療映像の情報量が増加すればするほど、正診率が改善していることがわかる。
As can be seen from the above, as shown in FIG. 17A, the learning
Further, the
図18は、判定枠の移動方法を示す図である。
図18(A)に示すように、判定範囲設定部122が設定する判定枠Fは、判定医療映像内を移動しながら、その判定枠F内の判定範囲を判定手段110に判定させる。ここでは便宜上、判定除外処理部121による判定除外した範囲は表示しない。
FIG. 18 is a diagram showing a method of moving the determination frame.
As shown in FIG. 18A, the determination frame F set by the determination
例えば、判定枠Fの初期の位置を左側最上位置とした場合、判定範囲移動部123が判定枠Fを判定医療映像の最上段で左から右にかけて移動させながら、判定手段110に判定範囲移動部123が判定をさせる。
For example, when the initial position of the determination frame F is the uppermost position on the left side, the determination
判定枠Fが判定医療映像の右側まで到達すると、次に最上段から少し下に下がった位置で、左側から右側にかけて判定範囲移動部123が判定枠Fを移動させながら判定手段110に判定させる。
When the determination frame F reaches the right side of the determination medical image, the determination
図18(B)に示すように、判定枠Fの移動は、判定枠Fの移動する軌跡が重なるように判定範囲移動部123が移動させる。
具体的には、判定枠Fは、判定範囲移動部123がF1の高さを左から右にかけて移動させながら判定を行う。判定枠FがF1の高さで右側まで到達すると、次に判定枠FがF1で通った軌跡と重なるようなF2の高さで、判定枠Fを左から右にかけて判定範囲移動部123が移動させながら判定を行う。
As shown in FIG. 18B, the determination
Specifically, the determination frame F makes a determination while the determination
同様に、判定枠FがF2の高さで右側まで到達すると、次に判定枠FがF2で通った軌跡と重なるようなF3の高さで、判定枠Fを左から右にかけて判定範囲移動部123が移動させながら判定を行う。 Similarly, when the determination frame F reaches the right side at the height of F2, the determination frame F is moved from left to right at the height of F3 so that the determination frame F overlaps with the locus passed by F2. The determination is made while the 123 is moving.
判定部1112が判定した結果により、色彩変更部124が色彩を変更することで、悪性病変の部位の色彩が変更され、悪性病変の位置や形状を明確に表示することが出来る。詳細は次に示す。
Based on the result of the determination by the
図19は、色彩変更部が判定枠内の判定範囲の色彩を変更した様子を示す図である。
図19(A)は、判定枠F内の判定範囲が良性であり、色彩変更部124が色彩変更を行わなかった様子を示している。
FIG. 19 is a diagram showing how the color changing unit changes the color of the determination range in the determination frame.
FIG. 19A shows that the determination range in the determination frame F is benign and the
このように、移動する判定枠F内の判定範囲が良性である限り、判定医療映像の色彩が色彩変更部124によって変更されることはないので、判定医療映像になんら変化は見られない。
As described above, as long as the determination range in the moving determination frame F is benign, the color of the determination medical image is not changed by the
図19(B)は、判定枠F内の判定範囲が悪性であり、色彩変更部124が色彩変更を行った様子を示している。
このように、移動する判定枠F内の判定範囲が悪性である場合、判定医療映像の色彩が色彩変更部124によって変更されるので、悪性部分が明確になる。また色彩変更部124が行う色彩変更を半透明化した色彩を判定範囲の上に重ねることで、重複した部分の色が重なり、より強調して見えるようになる。
FIG. 19B shows that the determination range in the determination frame F is malignant and the
In this way, when the determination range in the moving determination frame F is malignant, the color of the determination medical image is changed by the
このように色彩変更部124が行う色彩変更を半透明化した色彩を判定範囲の上に重ねることで、従来では困難であった細長い悪性病変や複雑な形状をした病変部位であっても、図19(C)のように悪性病変の位置や形状を明確に表示することができる。
By superimposing the translucent color of the color change performed by the
図19(C)では、悪性病変の境界部分は、色彩変更部124によって色彩変更された判定枠F内の判定範囲が重ならないため薄く表示され、悪性病変の中心部分は、色彩変更された判定範囲が重なるため濃く表示されていることが分かる。
In FIG. 19C, the boundary portion of the malignant lesion is displayed lightly because the determination ranges in the determination frame F whose color has been changed by the
なお判定枠Fが移動する大きさは任意に設定できるが、前述したように判定枠Fの移動値が多ければ、判定枠Fが最後まで到達する時間が短くなるため、判定医療映像の映像処理を行なうための時間を短くすることができる。 The size of the movement of the judgment frame F can be arbitrarily set, but as described above, if the movement value of the judgment frame F is large, the time for the judgment frame F to reach the end is shortened. The time to do this can be shortened.
また判定枠Fの大きさを小さくし、判定枠Fの移動値を小さくすることで、細かい判定が可能となる。このため病変部分の境界部分の表示が明確になり、図20(C)のように病変部分周辺の境界部分を明確に表示することができる。 Further, by reducing the size of the determination frame F and reducing the movement value of the determination frame F, fine determination can be made. Therefore, the display of the boundary portion of the lesion portion becomes clear, and the boundary portion around the lesion portion can be clearly displayed as shown in FIG. 20 (C).
図20は、判定医療映像に悪性病変の部位を明確にした状態を示す図である。
図20に示すように、判定部1112が悪性と判定した部位を、色彩変更部124が色彩変更することで、黒丸内に示されるように病変の部位を明確にすることができる。このため医師が判定医療映像を見る際に見落としがないよう注意喚起ができ、医師の正確な診断率が上昇する。
FIG. 20 is a diagram showing a state in which the site of a malignant lesion is clarified in a judgment medical image.
As shown in FIG. 20, by changing the color of the site determined to be malignant by the
本実施の形態で示した例では、医療映像装置200で撮影した判定医療映像であるマンモグラフィ検査の静止画像を例として挙げたが、映像処理装置100は静止画像だけを処理するだけでなく、医療映像装置200が撮影した動画を、判定手段110が判定処理を行い、映像処理手段120が映像処理を行うことで、動画上でも病変部位を明確にすることができる。
In the example shown in the present embodiment, a still image of a mammography inspection, which is a determination medical image taken by the
また、映像処理装置100が行う映像処理は、エックス線や超音波、磁気共鳴などを用いて映像化したものだけでなく、判定手段110が必要な学習データを学習すれば、内視鏡検査や眼底カメラなどの可視光線の元で撮影された検査画像を、映像処理装置100が映像処理を行うことで、悪性病変の位置や形状を明確にすることもできる。
Further, the image processing performed by the
また、本実施の形態では、入力された判定医療映像全体を映像処理手段120が行なう映像処理によって、悪性病変の位置や形状を示したが、判定医療映像における映像処理手段120が行なう映像処理の範囲をあらかじめ特定し、その特定された範囲内で悪性病変の位置や形状を表示するようにしてもよい。 Further, in the present embodiment, the position and shape of the malignant lesion are shown by the image processing performed by the image processing means 120 on the entire input determination medical image, but the image processing performed by the image processing means 120 in the determination medical image is performed. The range may be specified in advance, and the position and shape of the malignant lesion may be displayed within the specified range.
10 病変検出装置
11 映像入力部
12 病変候補検出器
13 周辺客体検出器
14 病変候補検証器
15 候補除去器
16 ディスプレイ部
20、200 医療映像装置
30 脈絡情報
40 病変候補検出画像
41、42 病変候補領域
43 腺組織領域
100 映像処理装置
110 判定手段
111 判定処理部
112 学習データ記憶部
120 映像処理手段
121 判定除外処理部
122 判定範囲設定部
123 判定範囲移動部
124 色彩変更部
300 表示装置
1110 学習情報調整部
1111 学習部
1112 判定部
A 特定領域
F 判定枠
10
Claims (10)
判定範囲を特定する判定範囲特定手段と、
前記判定範囲で特定病変の有無を判定する判定手段と、
前記判定手段が判定した結果に応じて、色彩変更手段が色彩を変更した透明色である色彩透明色を前記医療映像の上の前記判定範囲が判定した範囲に重ねて表示する強調表示手段と、
前記判定手段が判定する一の判定範囲におけるほぼ全領域に、前記判定手段が判定する他の判定範囲を重ねるように前記判定範囲を移動させる判定範囲移動手段と、
を備え、
前記判定範囲が前記医療映像上を走査するように前記判定手段による処理、前記強調表示手段による処理、および前記判定範囲移動手段による処理が繰り返されること、
を特徴とする映像処理装置。 In an image processing device that detects and displays a specific lesion from the input medical image
Judgment range specifying means to specify the judgment range and
A determination means for determining the presence or absence of a specific lesion in the determination range,
A highlighting means for displaying a color transparent color, which is a transparent color whose color has been changed by the color changing means, overlaid on the range determined by the determination range on the medical image according to the result of the determination by the determination means.
A determination range moving means for moving the determination range so as to overlap another determination range determined by the determination means on almost the entire area in one determination range determined by the determination means.
Equipped with
The process by the determination means, the process by the highlighting means, and the process by the determination range moving means are repeated so that the determination range scans on the medical image.
A video processing device characterized by.
を備えることを特徴とする請求項1記載の映像処理装置。 Judgment range changing means that can arbitrarily change the area of the judgment range,
The video processing apparatus according to claim 1, further comprising.
を備えることを特徴とする請求項1記載の映像処理装置。 A moving value changing means that can arbitrarily change the moving value of the determination range to be moved by the determination range moving means,
The video processing apparatus according to claim 1, further comprising.
を備えることを特徴とする請求項1記載の映像処理装置。 A determination exclusion means for excluding a portion other than the detection target portion from the medical image from the determination range performed by the determination means.
The video processing apparatus according to claim 1, further comprising.
前記判定手段が判定を行うべき特定病変の有無を決定するための学習手段、
を備えることを特徴とする請求項1記載の映像処理装置。 The determination means is
A learning means for determining the presence or absence of a specific lesion to be determined by the determination means,
The video processing apparatus according to claim 1, further comprising.
ニューラルネットワークを用いたディープラーニングによって、学習用の医療映像から特定病変の特徴を抽出することを特徴とする請求項5記載の映像処理装置。 The learning means is
The image processing apparatus according to claim 5, wherein the characteristics of a specific lesion are extracted from a medical image for learning by deep learning using a neural network.
を備えることを特徴とする請求項6記載の映像処理装置。 A lesion information adjusting means for equalizing the ratio of information with a specific lesion and information without a specific lesion in the medical image for learning.
6. The video processing apparatus according to claim 6.
複数に分割した特定病変無の情報を、特定病変有の情報に対して入れ替えながら比率を調整することを特徴とする請求項7記載の映像処理装置。 The lesion information adjusting means is
The image processing apparatus according to claim 7, wherein the information of no specific lesion divided into a plurality of pieces is replaced with the information of the presence of a specific lesion to adjust the ratio.
判定範囲特定手段が、判定範囲を特定するステップと、
判定手段が、前記判定範囲で特定病変の有無を判定するステップと、
強調表示手段が、前記判定手段が判定した結果に応じて、色彩変更手段が色彩を変更した透明色である色彩透明色を前記医療映像の上の前記判定範囲が判定した範囲に重ねて表示するステップと、
判定範囲移動手段が、前記判定手段が判定する一の判定範囲におけるほぼ全領域に、前記判定手段が判定する他の判定範囲を重ねるように前記判定範囲を移動させるステップと、
を備え、
前記判定範囲が前記医療映像上を走査するように前記判定手段による処理、前記強調表示手段による処理、および前記判定範囲移動手段による処理が繰り返されること、
を特徴とする映像処理方法。 In the video processing method that detects and displays a specific lesion from the input medical video,
The step in which the determination range specifying means specifies the determination range,
A step in which the determination means determines the presence or absence of a specific lesion within the determination range,
The highlighting means displays a color transparent color, which is a transparent color whose color has been changed by the color changing means, overlaid on the range determined by the determination range on the medical image according to the result determined by the determination means. Steps and
A step in which the determination range moving means moves the determination range so that the other determination ranges determined by the determination means overlap with almost the entire area in one determination range determined by the determination means.
Equipped with
The process by the determination means, the process by the highlighting means, and the process by the determination range moving means are repeated so that the determination range scans on the medical image.
A video processing method characterized by.
コンピュータを、
判定範囲を特定する判定範囲特定手段、
前記判定範囲で特定病変の有無を判定する判定手段、
前記判定手段が判定した結果に応じて、色彩変更手段が色彩を変更した透明色である色彩透明色を前記医療映像の上の前記判定範囲が判定した範囲に重ねて表示する強調表示手段、
前記判定手段が判定する一の判定範囲におけるほぼ全領域に、前記判定手段が判定する他の判定範囲を重ねるように前記判定範囲を移動させる判定範囲移動手段、
として機能させ、
前記判定範囲が前記医療映像上を走査するように前記判定手段による処理、前記強調表示手段による処理、および前記判定範囲移動手段による処理が繰り返されること、
を特徴とする映像処理プログラム。 In a video processing program that detects and displays a specific lesion from the input medical video
Computer,
Judgment range specifying means to specify the judgment range,
A determination means for determining the presence or absence of a specific lesion in the determination range,
A highlighting means for displaying a color transparent color, which is a transparent color whose color has been changed by the color changing means, overlaid on the range determined by the determination range on the medical image according to the result of the determination by the determination means.
A determination range moving means for moving the determination range so that the other determination ranges determined by the determination means are overlapped with almost the entire area in one determination range determined by the determination means.
To function as
The process by the determination means, the process by the highlighting means, and the process by the determination range moving means are repeated so that the determination range scans on the medical image.
A video processing program featuring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017164029A JP6990540B2 (en) | 2017-08-29 | 2017-08-29 | Video processing equipment, video processing methods, and video processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017164029A JP6990540B2 (en) | 2017-08-29 | 2017-08-29 | Video processing equipment, video processing methods, and video processing programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019037692A JP2019037692A (en) | 2019-03-14 |
JP6990540B2 true JP6990540B2 (en) | 2022-01-12 |
Family
ID=65724816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017164029A Active JP6990540B2 (en) | 2017-08-29 | 2017-08-29 | Video processing equipment, video processing methods, and video processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6990540B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020226224A1 (en) * | 2019-05-07 | 2020-11-12 | 주식회사 사운드플렛폼 | Artificial intelligence-based sound source processing method, device and program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007052634A1 (en) | 2005-11-02 | 2007-05-10 | Hitachi Medical Corporation | Image analyzing device and method |
JP2016198197A (en) | 2015-04-08 | 2016-12-01 | 株式会社エクスメディオ | Diagnosis support system and application program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0737056A (en) * | 1993-07-19 | 1995-02-07 | Toshiba Corp | Medical diagnosis support device |
-
2017
- 2017-08-29 JP JP2017164029A patent/JP6990540B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007052634A1 (en) | 2005-11-02 | 2007-05-10 | Hitachi Medical Corporation | Image analyzing device and method |
JP2016198197A (en) | 2015-04-08 | 2016-12-01 | 株式会社エクスメディオ | Diagnosis support system and application program |
Also Published As
Publication number | Publication date |
---|---|
JP2019037692A (en) | 2019-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11151721B2 (en) | System and method for automatic detection, localization, and semantic segmentation of anatomical objects | |
CN110600122B (en) | Digestive tract image processing method and device and medical system | |
US10244991B2 (en) | Method and system for providing recommendation for optimal execution of surgical procedures | |
CN112543941A (en) | System and method for training generative confrontation networks and using trained generative confrontation networks | |
CN109858540B (en) | Medical image recognition system and method based on multi-mode fusion | |
JP2021002338A (en) | Method and system for image segmentation and identification | |
CN112567381A (en) | System and method for processing real-time video from a medical imaging device and detecting objects in the video | |
US7894653B2 (en) | Automatic organ detection using machine learning and classification algorithms | |
WO2006126384A1 (en) | Abnormal shadow candidate display method, and medical image processing system | |
JP2005519685A (en) | Pixel coding method, image processing method, and image processing method for qualitative recognition of an object reproduced by one or more pixels | |
González-Gonzalo et al. | Iterative augmentation of visual evidence for weakly-supervised lesion localization in deep interpretability frameworks: application to color fundus images | |
JP2020166813A (en) | Medical image processing device, medical image processing method, and program | |
KR20220095342A (en) | The diagnostic method and system of lymph node metastasis in thyroid cancer using ct image | |
KR20160118037A (en) | Apparatus and method for detecting lesion from medical image automatically | |
CN113012093B (en) | Training method and training system for glaucoma image feature extraction | |
Gross et al. | Polyp segmentation in NBI colonoscopy | |
CN112334990A (en) | Automatic cervical cancer diagnosis system | |
JP6990540B2 (en) | Video processing equipment, video processing methods, and video processing programs | |
CN109447948B (en) | Optic disk segmentation method based on focus color retina fundus image | |
JP2004187998A (en) | Apparatus for extracting abnormal shadow shape | |
JP2020010804A (en) | Medical image diagnosis support apparatus, program, and medical image diagnosis support method | |
Mahoro et al. | Breast masses detection on mammograms using recent one-shot deep object detectors | |
KR102446345B1 (en) | Control method, apparatus and program for lesion determination system obtained by breast imaging | |
JP2022117177A (en) | Device, method, and program for processing information | |
JP2005211439A (en) | Abnormal shadow display device and program thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210713 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210908 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211110 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20211130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20211206 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6990540 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |