JP6990540B2 - Video processing equipment, video processing methods, and video processing programs - Google Patents

Video processing equipment, video processing methods, and video processing programs Download PDF

Info

Publication number
JP6990540B2
JP6990540B2 JP2017164029A JP2017164029A JP6990540B2 JP 6990540 B2 JP6990540 B2 JP 6990540B2 JP 2017164029 A JP2017164029 A JP 2017164029A JP 2017164029 A JP2017164029 A JP 2017164029A JP 6990540 B2 JP6990540 B2 JP 6990540B2
Authority
JP
Japan
Prior art keywords
determination
range
learning
medical image
judgment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017164029A
Other languages
Japanese (ja)
Other versions
JP2019037692A (en
Inventor
謙一 井上
Original Assignee
謙一 井上
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 謙一 井上 filed Critical 謙一 井上
Priority to JP2017164029A priority Critical patent/JP6990540B2/en
Publication of JP2019037692A publication Critical patent/JP2019037692A/en
Application granted granted Critical
Publication of JP6990540B2 publication Critical patent/JP6990540B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)

Description

本発明は、映像処理装置、映像処理方法、および映像処理プログラムに関し、特に入力された医療映像から病変部を検出して表示する映像処理装置、映像処理方法、および映像処理プログラムに関する。 The present invention relates to a video processing apparatus, a video processing method, and a video processing program, and more particularly to a video processing device, a video processing method, and a video processing program that detects and displays a lesion portion from an input medical image.

従来から、身体の外側から診るだけでは分からない臓器の形態、病変の有無などを画像として映し出すことで診断を行う画像診断が知られている。画像診断は、例えばエックス線や超音波、磁気共鳴などを用いて映像化したものや、内視鏡検査や眼底カメラなどの可視光線のもとで撮影された検査画像をもとに医師が診断している。 Conventionally, image diagnosis is known in which a diagnosis is made by displaying an image of the morphology of an organ, the presence or absence of a lesion, etc., which cannot be understood only by diagnosing from the outside of the body. Image diagnosis is made by a doctor based on images made using, for example, X-rays, ultrasound, magnetic resonance, etc., or inspection images taken under visible light such as endoscopy and fundus cameras. ing.

ところが、このような検査画像から情報を読み解くことは容易ではなく、多くの専門知識や豊富な経験や症例が必要とされている。一方で、画像診断を専門に行う専門医を育成するには多くの時間とコストがかかるため、専門医が不足し、診療所などの医療施設では、症例に接する機会が少ない一般の医師が画像診断を行うこともある。 However, it is not easy to decipher the information from such inspection images, and a lot of specialized knowledge, abundant experience and cases are required. On the other hand, it takes a lot of time and cost to train specialists who specialize in diagnostic imaging, so there is a shortage of specialists, and in medical facilities such as clinics, general doctors who have few opportunities to come into contact with cases perform diagnostic imaging. Sometimes I do it.

近年では、コンピュータ機能や人工知能技術の技術水準が向上し、人工知能の技術を活用した画像判断のシステムは様々な産業分野で応用されており、医療分野においても人工知能を用いた開発が進んでいる。 In recent years, the technological level of computer functions and artificial intelligence technology has improved, and image judgment systems that utilize artificial intelligence technology have been applied in various industrial fields, and development using artificial intelligence is progressing in the medical field as well. I'm out.

例えば、コンピュータに過去の検査画像を解析させ、その結果から有用な規則やルールから得られるアルゴリズムを利用して、コンピュータが新たな検査画像を認識し、病変の有無、その病変が良性か悪性かを区別する機械学習という技術が可能になってきた(たとえば、特許文献1参照)。 For example, letting a computer analyze past inspection images and using algorithms obtained from useful rules and rules from the results, the computer recognizes new inspection images, and the presence or absence of lesions and whether the lesions are benign or malignant. A technique called machine learning that distinguishes between the two has become possible (see, for example, Patent Document 1).

特開2015-154918号公報Japanese Unexamined Patent Publication No. 2015-154918

しかし、このような病変候補検証器では、特定領域内での病変候補の有無や、信頼度は把握できるが、病変の詳細な位置や、病変の形状、病変の進行度を明確に把握することができなかった。 However, such a lesion candidate verifier can grasp the presence or absence of a lesion candidate in a specific area and the reliability, but clearly grasp the detailed position of the lesion, the shape of the lesion, and the degree of progression of the lesion. I couldn't.

図21は、従来の病変検出装置の一例を示すブロック図である。
図21に示すように、病変検出装置10は、映像入力部11、病変候補検出器12、周辺客体検出器13、病変候補検証器14、候補除去器15、およびディスプレイ部16を備えている。
FIG. 21 is a block diagram showing an example of a conventional lesion detection device.
As shown in FIG. 21, the lesion detection device 10 includes a video input unit 11, a lesion candidate detector 12, a peripheral object detector 13, a lesion candidate verifier 14, a candidate remover 15, and a display unit 16.

映像入力部11は、例えば超音波またはエックス線などを用いて人体の特定部位を医療映像装置20で撮影した医療映像を受信する。
病変候補検出器12は、医療映像を分析して、病変候補の可否、および存在する病変候補の位置を検出する。
The image input unit 11 receives a medical image taken by the medical image device 20 of a specific part of the human body using, for example, ultrasonic waves or X-rays.
The lesion candidate detector 12 analyzes the medical image to detect whether or not the lesion candidate is possible and the position of the existing lesion candidate.

周辺客体検出器13は、医療映像内で複数の解剖学的客体として、映像内の皮膚、脂肪、腺組織、筋肉、骨などを検出する。
病変候補検証器14は、病変候補検出器12によって検出された病変候補、および周辺客体検出器13によって検出された解剖学的客体を、解剖学的脈絡に関連した情報を含む脈絡情報30にもとづいて、検出された病変候補が実際に悪性病変か否かを検証する。
The peripheral object detector 13 detects skin, fat, glandular tissue, muscle, bone, etc. in the image as a plurality of anatomical objects in the medical image.
The lesion candidate verifier 14 uses the lesion information 30 including the information related to the anatomical vein to the lesion candidate detected by the lesion candidate detector 12 and the anatomical object detected by the peripheral object detector 13. Then, it is verified whether or not the detected lesion candidate is actually a malignant lesion.

候補除去器15は、病変候補検証器14によって検証された結果を受信し、検出された病変候補のうち、病変候補検証器14によって陰性と判定された病変候補を除去したのち、のこりの病変候補をディスプレイ部16に出力する。 The candidate remover 15 receives the result verified by the lesion candidate verifier 14, removes the lesion candidate determined to be negative by the lesion candidate verifier 14 from the detected lesion candidates, and then removes the remaining lesion candidate. Is output to the display unit 16.

例えば、病変候補検出器12は、映像入力部11より受信した医療映像を分析した後、医療映像内の一定の領域を「信頼度85%の病変候補」であると決定することで、病変候補を検出する。 For example, the lesion candidate detector 12 analyzes the medical image received from the image input unit 11 and then determines that a certain area in the medical image is a “lesion candidate with a reliability of 85%”, so that the lesion candidate detector 12 can be a lesion candidate. Is detected.

周辺客体検出器13は、映像入力部11より受信した医療映像を分析した後、医療映像内の一定の領域を「信頼度95%の皮下脂肪」であると決定することで、病変候補を検出する。 The peripheral object detector 13 detects a lesion candidate by analyzing the medical image received from the image input unit 11 and then determining a certain area in the medical image as "subcutaneous fat with a reliability of 95%". do.

これにより病変候補検証器14は、病変候補検出器12が病変候補として検出した特定領域Aと解剖学的客体が存在する位置とを比較し、脈絡情報30を参照することで、特定領域Aが実際に病変であるか、または陰性であるかを判断する。 As a result, the lesion candidate verifier 14 compares the specific region A detected by the lesion candidate detector 12 as the lesion candidate with the position where the anatomical object exists, and by referring to the anatomical information 30, the specific region A can be determined. Determine if it is actually a lesion or negative.

図22は、病変検出装置を用いて、検査画像から病変候補を検出した検出画像を示す図である。
図22に示すように、病変候補検出画像40は、画像内の複数の特定領域において、2つの病変候補領域41および42、腺組織領域43が表示されている。
FIG. 22 is a diagram showing a detection image in which a lesion candidate is detected from an inspection image using a lesion detection device.
As shown in FIG. 22, in the lesion candidate detection image 40, two lesion candidate regions 41 and 42 and a glandular tissue region 43 are displayed in a plurality of specific regions in the image.

病変候補領域41は信頼度が69%と表示され、病変候補42は信頼度が12%と表示されている。このように病変候補は、ユーザにとって容易に識別することができる。また特定領域は、病変候補検出器12が自動で検出することもできるが、医師が特定領域を決定し、その医師が決定した特定領域を病変候補検証器14が検証し、病変であるか、または陰性であるかを判断して表示することもできる。 The lesion candidate region 41 is displayed with a reliability of 69%, and the lesion candidate region 42 is displayed with a reliability of 12%. In this way, lesion candidates can be easily identified by the user. The specific area can be automatically detected by the lesion candidate detector 12, but the doctor determines the specific area, and the lesion candidate verifier 14 verifies the specific area determined by the doctor to determine whether the specific area is a lesion. Alternatively, it can be determined whether it is negative and displayed.

ところが、病変候補検出器12や医師によって特定された領域を検証することで、領域内が病変または陰性であるかを表示することはできるが、病変全体の形状を把握することはできなかった。 However, by verifying the region identified by the lesion candidate detector 12 or the doctor, it is possible to display whether the region is a lesion or a negative region, but it is not possible to grasp the shape of the entire lesion.

具体的には、医師は検査画像内で矩形の特定領域を決定し、その特定範囲で病変候補の検証を行った結果を数値で表示する。つまり医師が決定した特定領域内での結果しか見ることはできない。このため病変周辺の境界線を明確に表示することは困難であり、病変全体の形状を把握することはできなかった。 Specifically, the doctor determines a specific rectangular area in the examination image, and displays the result of verifying the lesion candidate in the specific area numerically. In other words, you can only see the results within a specific area determined by the doctor. Therefore, it was difficult to clearly display the boundary line around the lesion, and it was not possible to grasp the shape of the entire lesion.

本発明はこのような点に鑑みてなされたものであり、医療映像内における病変部位の位置および形状を明確に表示する映像処理装置、映像処理方法、および映像処理プログラムを提供することを目的とする。 The present invention has been made in view of these points, and an object of the present invention is to provide an image processing device, an image processing method, and an image processing program that clearly display the position and shape of a lesion site in a medical image. do.

本発明では上記問題を解決するために、入力された医療映像から特定病変を検出して表示する映像処理装置において、判定範囲を特定する判定範囲特定手段と、前記判定範囲で特定病変の有無を判定する判定手段と、前記判定範囲を移動させる判定範囲移動手段と、前記判定手段が判定した結果に応じて前記判定範囲を強調して表示する強調表示手段とを備えることを特徴とする映像処理装置が提供される。 In the present invention, in order to solve the above problem, in an image processing device that detects and displays a specific lesion from an input medical image, a determination range specifying means for specifying a determination range and the presence or absence of a specific lesion in the determination range are determined. An image processing characterized by comprising a determination means for determining, a determination range moving means for moving the determination range, and a highlighting means for highlighting and displaying the determination range according to the result of determination by the determination means. Equipment is provided.

これにより、判定範囲特定手段が、判定範囲を特定し、判定手段が、判定範囲で特定病変の有無を判定し、判定範囲移動手段が、判定範囲を移動させ、強調表示手段が、判定手段が判定した結果に応じて判定範囲を強調して表示する。 As a result, the determination range specifying means specifies the determination range, the determination means determines the presence or absence of the specific lesion in the determination range, the determination range moving means moves the determination range, and the highlighting means is the determination means. The judgment range is highlighted and displayed according to the judgment result.

また、本発明では、入力された医療映像から特定病変を検出して表示する映像処理方法において、判定範囲特定手段が、判定範囲を特定するステップと、判定手段が、前記判定範囲で特定病変の有無を判定するステップと、判定範囲移動手段が、前記判定範囲を移動させるステップと、強調表示手段が、前記判定手段が判定した結果に応じて前記判定範囲を強調して表示するステップとを備えることを特徴とする映像処理方法が提供される。 Further, in the present invention, in the image processing method of detecting and displaying a specific lesion from the input medical image, the determination range specifying means steps to specify the determination range, and the determination means determines the specific lesion in the determination range. It includes a step of determining the presence / absence, a step of moving the determination range by the determination range moving means, and a step of highlighting and displaying the determination range according to the result of the determination by the highlighting means. A video processing method characterized by this is provided.

これにより、判定範囲特定手段が、判定範囲を特定し、判定手段が、判定範囲で特定病変の有無を判定し、判定範囲移動手段が、判定範囲を移動させ、強調表示手段が、判定手段が判定した結果に応じて判定範囲を強調して表示する。 As a result, the determination range specifying means specifies the determination range, the determination means determines the presence or absence of the specific lesion in the determination range, the determination range moving means moves the determination range, and the highlighting means is the determination means. The judgment range is highlighted and displayed according to the judgment result.

また、本発明では、入力された医療映像から特定病変を検出して表示する映像処理プログラムにおいて、コンピュータを、判定範囲を特定する判定範囲特定手段、前記判定範囲で特定病変の有無を判定する判定手段、前記判定範囲を移動させる判定範囲移動手段、前記判定手段が判定した結果に応じて前記判定範囲を強調して表示する強調表示手段として機能させることを特徴とする映像処理プログラムが提供される。 Further, in the present invention, in an image processing program that detects and displays a specific lesion from an input medical image, a computer is used as a determination range specifying means for specifying a determination range, and a determination for determining the presence or absence of a specific lesion in the determination range. Provided is a video processing program characterized by functioning as a means, a determination range moving means for moving the determination range, and a highlighting means for highlighting and displaying the determination range according to a result determined by the determination means. ..

これにより、判定範囲特定手段が、判定範囲を特定し、判定手段が、判定範囲で特定病変の有無を判定し、判定範囲移動手段が、判定範囲を移動させ、強調表示手段が、判定手段が判定した結果に応じて判定範囲を強調して表示する。 As a result, the determination range specifying means specifies the determination range, the determination means determines the presence or absence of the specific lesion in the determination range, the determination range moving means moves the determination range, and the highlighting means is the determination means. The judgment range is highlighted and displayed according to the judgment result.

本発明の映像処理装置、映像処理方法、および映像処理プログラムによれば、判定範囲特定手段が、判定範囲を特定し、判定手段が、判定範囲で特定病変の有無を判定し、判定範囲移動手段が、判定範囲を移動させ、強調表示手段が、判定手段が判定した結果に応じて判定範囲を強調して表示するので、医療映像内における特定病変の位置や形状を明確に表示することができる。 According to the image processing apparatus, the image processing method, and the image processing program of the present invention, the determination range specifying means specifies the determination range, the determination means determines the presence or absence of a specific lesion in the determination range, and the determination range moving means. However, since the determination range is moved and the highlighting means highlights and displays the determination range according to the result of the determination by the determination means, the position and shape of the specific lesion in the medical image can be clearly displayed. ..

本実施の形態に係る映像処理装置の概念を示す図である。It is a figure which shows the concept of the image processing apparatus which concerns on this embodiment. 判定手段の詳細を示す図である。It is a figure which shows the detail of the determination means. 判定処理部の詳細を示す図である。It is a figure which shows the detail of the determination processing part. 映像処理手段の詳細を示す図である。It is a figure which shows the detail of the image processing means. 本実施の形態の映像処理装置が備える判定手段が、学習を行うまでの処理を示すフローチャートである。The determination means provided in the video processing apparatus of this embodiment is a flowchart showing processing until learning is performed. 本実施の形態の映像処理装置が備える映像処理手段が、映像を処理し、処理した映像を表示装置が表示するまでの処理を示すフローチャートである。It is a flowchart which shows the processing until the image processing means provided in the image processing apparatus of this embodiment process an image, and the processed image is displayed by a display apparatus. 本実施の形態の映像処理装置が備える映像処理手段に、指示情報が入力されてから各処理を行うまでの処理を示すフローチャートである。It is a flowchart which shows the process from inputting instruction information to performing each process in the image processing means provided in the image processing apparatus of this embodiment. 本実施の形態の映像処理装置が備える判定手段が、学習するまでの処理を示すフローチャートである。The determination means provided in the video processing apparatus of this embodiment is a flowchart showing processing until learning. 本実施の形態の映像処理装置が備える判定手段が、学習した学習データを検証するまでの処理を示すフローチャートである。It is a flowchart which shows the process until the determination means provided in the image processing apparatus of this embodiment verify the learned learning data. 本実施の形態の映像処理装置が備える判定手段が、判定結果を出力するまでの処理を示すフローチャートである。It is a flowchart which shows the process until the determination means provided in the image processing apparatus of this embodiment output a determination result. 本実施の形態の映像処理装置が備える映像処理手段が、映像処理し、処理映像を出力するまでの処理を示すフローチャートである。It is a flowchart which shows the processing until the image processing means provided in the image processing apparatus of this embodiment performs image processing, and outputs the processed image. 本実施の形態の映像処理装置が備える映像処理手段が、判定除外処理を行うまでの処理を示すフローチャートである。It is a flowchart which shows the process until the image processing means provided in the image processing apparatus of this embodiment performs a determination exclusion process. 本実施の形態の映像処理装置が備える映像処理手段が、判定除外処理を行なった判定医療映像に、色彩変更を行うまでの処理を示すフローチャートである。It is a flowchart which shows the process until the image processing means provided with the image processing apparatus of this embodiment changes a color to the determination medical image which performed the determination exclusion process. 判定除外処理部が行った処理を示すマンモグラフィ画像である。It is a mammography image which shows the processing performed by the judgment exclusion processing unit. ディープラーニングで用いられるニューラルネットワークを示す図である。It is a figure which shows the neural network used in deep learning. 判定手段に学習させる従来の学習方法と、本実施の形態に係る映像処理装置での学習方法を示す図である。It is a figure which shows the conventional learning method which makes a determination means learn, and the learning method in the image processing apparatus which concerns on this embodiment. 学習医療映像の情報量を学習情報調整部が処理した訓練データおよびテストデータによる機械学習の正診率と、学習医療映像の情報量を学習情報調整部が処理しない訓練データおよびテストデータによる機械学習の正診率とを示す図である。The correct diagnosis rate of machine learning using training data and test data processed by the learning information adjustment department for the amount of information in the learning medical video, and machine learning using training data and test data that the learning information adjustment department does not process the amount of information in the learning medical video. It is a figure which shows the correct diagnosis rate of. 判定枠の移動方法を示す図である。It is a figure which shows the moving method of the determination frame. 色彩変更部が判定枠内の判定範囲の色彩を変更した様子を示す図である。It is a figure which shows the state which the color change part changed the color of the determination range in the determination frame. 判定医療映像に悪性病変の部位を明確にした状態を示す図である。It is a figure which shows the state which clarified the site of a malignant lesion in the judgment medical image. 従来の病変検出装置の一例を示すブロック図である。It is a block diagram which shows an example of the conventional lesion detection apparatus. 病変検出装置を用いて、検査画像から病変候補を検出した検出画像を示す図である。It is a figure which shows the detection image which detected the lesion candidate from the inspection image using the lesion detection apparatus.

以下、本発明の実施の形態を、図面を参照して詳細に説明する。
図1は、本実施の形態に係る映像処理装置の概念を示す図である。
映像処理装置100は、判定手段110および映像処理手段120を備えている。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a diagram showing a concept of a video processing device according to the present embodiment.
The image processing device 100 includes a determination unit 110 and an image processing unit 120.

判定手段110は、例えば脳の働きを模したニューラルネットワークを用いたディープラーニングと呼ばれる機械学習技術を用いたものであって、画像認識、音声認識、言語処理などに用いられるものである。 The determination means 110 uses, for example, a machine learning technique called deep learning using a neural network that imitates the function of the brain, and is used for image recognition, voice recognition, language processing, and the like.

あらかじめ判定手段110に学習医療映像である良性の医療映像と悪性の医療映像とを学習させ、後に悪性病変の有無を判定するための判定医療映像を判定手段110に認識させることで、その認識した判定医療映像が良性か悪性かを判定させることができる。 The determination means 110 was made to learn a benign medical image and a malignant medical image which are learning medical images in advance, and later, the determination means 110 was made to recognize the determination medical image for determining the presence or absence of a malignant lesion. Judgment It is possible to judge whether the medical image is benign or malignant.

映像処理手段120は判定手段110に接続されており、外部から接続された医療映像装置200で撮影した判定医療映像を映像処理手段120に入力することで、その判定医療映像を映像処理手段120が判定手段110に判定させる。その判定手段110が判定した結果から、悪性病変の位置や形状を明確にするための映像処理を映像処理手段120が行う。 The image processing means 120 is connected to the determination means 110, and by inputting the determination medical image taken by the medical image device 200 connected from the outside into the image processing means 120, the image processing means 120 inputs the determination medical image. Let the determination means 110 make a determination. From the result of the determination by the determination means 110, the image processing means 120 performs image processing for clarifying the position and shape of the malignant lesion.

具体的には、医療映像装置200で撮影された判定医療映像の一部を映像処理手段120が切り取り、判定手段110が良性か悪性かを判断する。映像処理手段120は、判定手段110が判断した結果を受け取り、例えば、その結果が悪性だった場合のみ該当する部位の色彩を変更して判定医療映像内で該当部位を強調表示する。これにより判定医療映像内の悪性部分のみ色彩が変更されるので、悪性病変の位置や形状を明確にすることができる。 Specifically, the image processing means 120 cuts out a part of the determination medical image taken by the medical image device 200, and the determination means 110 determines whether it is benign or malignant. The image processing means 120 receives the result determined by the determination means 110, and for example, changes the color of the corresponding portion only when the result is malignant to highlight the relevant portion in the determination medical image. As a result, the color of only the malignant part in the judgment medical image is changed, so that the position and shape of the malignant lesion can be clarified.

医療映像装置200は、例えばエックス線装置、コンピュータ断層撮影装置、核磁気共鳴画像装置、超音波検査装置などによって撮影される医療映像である。この医療映像装置200によって撮影された静止画や動画を映像処理装置100が処理を行うことで、映像処理装置100に接続された表示装置300に病変の位置や形状を明確にした映像を出力することができる。 The medical image device 200 is a medical image imaged by, for example, an X-ray device, a computer tomography device, a nuclear magnetic resonance imaging device, an ultrasonic inspection device, or the like. The image processing device 100 processes the still images and moving images taken by the medical image device 200, and outputs an image in which the position and shape of the lesion are clarified to the display device 300 connected to the image processing device 100. be able to.

表示装置300は、例えばパソコンに接続されることで与えられた情報を表示するディスプレイや、入力された情報を印刷して表示するプリンターや、写真などを現像する現像機などが挙げられる。 Examples of the display device 300 include a display that displays information given by being connected to a personal computer, a printer that prints and displays the input information, and a developing machine that develops photographs and the like.

この映像処理装置100を介して出力された判定医療映像は、病変の位置や形状が明確に表示されているので、医師が判定医療映像を見る際に見落としがないよう注意喚起ができ、医師の正確な診断率が上昇する。
なお、映像処理手段120に接続した外部接続機器により、指示値を入力することで、入力した映像の判定開始や、出力する映像の解像度などを指示することができる。
Since the position and shape of the lesion are clearly displayed in the judgment medical image output via the image processing device 100, it is possible to alert the doctor not to overlook when viewing the judgment medical image. Accurate diagnosis rate increases.
By inputting an instruction value by an externally connected device connected to the image processing means 120, it is possible to instruct the start of determination of the input image, the resolution of the output image, and the like.

図2は、判定手段の詳細を示す図である。
図2に示すように、判定手段110は、判定処理部111および学習データ記憶部112を備えている。
FIG. 2 is a diagram showing details of the determination means.
As shown in FIG. 2, the determination means 110 includes a determination processing unit 111 and a learning data storage unit 112.

判定処理部111は、あらかじめ学習医療映像を入力することにより判定処理部111に学習をさせ、その学習したデータは学習データ記憶部112に蓄積される。学習は、判定処理部111に学習させるための情報であるトレーニングデータセットと呼ばれる訓練用データや、学習したデータを検証するためのテストデータセットと呼ばれるテスト用データを用いて学習させる。 The determination processing unit 111 causes the determination processing unit 111 to learn by inputting the learning medical image in advance, and the learned data is stored in the learning data storage unit 112. The learning is performed using training data called a training data set, which is information for training the determination processing unit 111, and test data called a test data set for verifying the learned data.

また映像処理手段120によって切り取られて入力される判定医療映像の一部は、学習データ記憶部112に蓄積された学習データを利用することで、判定処理部111が悪性か良性かの判断処理を行い、その結果を映像処理手段120で悪性病変を明確にするための映像処理を行った後に、悪性病変が明確になった判定医療映像が表示装置300で表示される。 Further, a part of the determination medical image cut and input by the image processing means 120 uses the learning data stored in the learning data storage unit 112 to determine whether the determination processing unit 111 is malignant or benign. After performing image processing for clarifying the malignant lesion by the image processing means 120, the determination medical image in which the malignant lesion is clarified is displayed on the display device 300.

図3は、判定処理部の詳細を示す図である。
図3に示すように、判定処理部111は、学習情報調整部1110、学習部1111および判定部1112を備えている。
FIG. 3 is a diagram showing details of the determination processing unit.
As shown in FIG. 3, the determination processing unit 111 includes a learning information adjusting unit 1110, a learning unit 1111, and a determination unit 1112.

学習情報調整部1110は、学習部1111に効率よく学習させるために、外部から入力された学習医療映像の情報量を調整するためのものである。入力される学習医療映像は、あらかじめ病変を有する医療映像を格子状に分割したものであり、良性と悪性とがわかるようにラベル付けされたものである。またこれらのラベル付けされた学習医療映像は、それぞれテスト用データと訓練用データとに分けられている。 The learning information adjusting unit 1110 is for adjusting the amount of information of the learning medical image input from the outside in order to make the learning unit 1111 learn efficiently. The input learning medical image is a medical image having a lesion divided in a grid pattern in advance, and is labeled so that it can be identified as benign or malignant. In addition, these labeled learning medical images are divided into test data and training data, respectively.

良性と悪性とに分類された学習医療映像は、良性と悪性との情報量に偏りがあるため、学習情報調整部1110は、この比率が異なった学習医療映像のバランスを調整することで学習部1111に正しく学習させることができる。 Since the learning medical images classified into benign and malignant have a bias in the amount of information between benign and malignant, the learning information adjustment unit 1110 adjusts the balance of the learning medical images having different ratios. 1111 can be trained correctly.

まず学習情報調整部1110は、良性の訓練用データを複数のグループに分割する。分割された良性の訓練用データの1つは、悪性の訓練用データ量と等しくなるように学習情報調整部1110が分割を行う。 First, the learning information adjustment unit 1110 divides the benign training data into a plurality of groups. One of the divided benign training data is divided by the learning information adjustment unit 1110 so as to be equal to the amount of malignant training data.

1つの悪性の訓練用データに対して、分割した良性の訓練用データを入れ替えながら、悪性の訓練用データ量と良性の訓練用データ量とが等しくなるように学習情報調整部1110が学習部1111に学習させる。 While exchanging the divided benign training data for one malignant training data, the learning information adjusting unit 1110 is set to the learning unit 1111 so that the amount of malignant training data and the amount of benign training data are equal to each other. To learn.

これにより比較的データ量の少ない悪性の訓練用データを、データ量の多い良性の訓練用データに対応させて学習させることができるので、全体的な学習量を減らさずに良性と悪性とのバランスを取りながら、学習部1111に大量の訓練用データを学習させることができる。 As a result, malignant training data with a relatively small amount of data can be trained in correspondence with benign training data with a large amount of data, so the balance between benign and malignant can be achieved without reducing the overall amount of learning. It is possible to make the learning unit 1111 learn a large amount of training data while taking the above.

学習部1111は、学習情報調整部1110が調整した学習医療映像を実際に学習するためのものであり、学習データ記憶部112および判定部1112に接続されている。
具体的な学習例としては、学習情報調整部1110で調整された学習医療映像が学習部1111に入力され、入力された学習医療映像は、畳み込みニューラルネットワークを用いたディープラーニングによって、入力された学習医療映像の特徴を抽出して学習部1111は学習する。学習した学習データは学習データ記憶部112に蓄積される。
The learning unit 1111 is for actually learning the learning medical image adjusted by the learning information adjusting unit 1110, and is connected to the learning data storage unit 112 and the determination unit 1112.
As a specific learning example, the learning medical image adjusted by the learning information adjustment unit 1110 is input to the learning unit 1111, and the input learning medical image is the input learning by deep learning using a convolutional neural network. The learning unit 1111 learns by extracting the features of the medical image. The learned learning data is stored in the learning data storage unit 112.

判定部1112は、映像処理手段120が切り取った判定医療映像の一部を、学習データ記憶部112に蓄積された学習データを利用することで、その判定医療映像の一部が良性か悪性かを判断し、その判定部1112が判断した結果は、映像処理手段120に送信される。 The determination unit 1112 uses the learning data stored in the learning data storage unit 112 to determine whether a part of the determination medical image is benign or malignant by using a part of the determination medical image cut out by the image processing means 120. The determination is made, and the result of the determination by the determination unit 1112 is transmitted to the video processing means 120.

図4は、映像処理手段の詳細を示す図である。
図4に示すように、映像処理手段120は、判定除外処理部121、判定範囲設定部122、判定範囲移動部123、および色彩変更部124を備えている。
FIG. 4 is a diagram showing details of the video processing means.
As shown in FIG. 4, the image processing means 120 includes a determination exclusion processing unit 121, a determination range setting unit 122, a determination range moving unit 123, and a color changing unit 124.

判定除外処理部121は、医療映像装置200により入力された判定医療映像を格子状に分割し、分割された判定医療映像のうち判定対象以外の部分を取り除くためのものである。 The determination exclusion processing unit 121 divides the determination medical image input by the medical image device 200 into a grid pattern, and removes a portion of the divided determination medical images other than the determination target.

具体的には、医療映像装置200により撮影される判定医療映像には、判定対象以外の部分も含んだ映像が撮影される。例えば、乳ガンなどの検査で用いられるマンモグラフィ検査で撮影された映像には、必ず映像全体に乳房が撮影されているわけではなく、実際は乳房以外の部分も映り込んでいる。 Specifically, the determination medical image taken by the medical image device 200 includes an image including a portion other than the determination target. For example, in an image taken by a mammography examination used in an examination such as breast cancer, the breast is not always photographed in the entire image, and in fact, a part other than the breast is also reflected.

この乳房以外の部分を判定の対象外として取り除くことで、判定処理部111が判定する情報量を低減させることができる。これにより判定処理部111が判定する判定医療映像全体の判定時間を短縮することができる。 By removing the portion other than the breast as a target of determination, the amount of information determined by the determination processing unit 111 can be reduced. As a result, the determination time of the entire determination medical image determined by the determination processing unit 111 can be shortened.

判定範囲設定部122は、判定除外処理部121により判定除外処理が行われた判定医療映像のうち、一部を切り取って判定処理部111に判定をさせるための判定範囲を定める、図示しない判定枠Fを設定するためのものである。 The judgment range setting unit 122 cuts out a part of the judgment medical video for which the judgment exclusion processing has been performed by the judgment exclusion processing unit 121, and determines a judgment range for the judgment processing unit 111 to make a judgment, which is not shown. It is for setting F.

判定範囲移動部123は、判定範囲設定部122により設定された判定枠Fを、判定医療映像内で移動させるためのものである。これにより移動した判定枠Fの軌跡上を判定処理部111が悪性か良性かを判定することができ、判定枠Fが判定医療映像内すべてを移動することで判定医療映像全体の判定処理を行うことができる。 The determination range moving unit 123 is for moving the determination frame F set by the determination range setting unit 122 in the determination medical image. As a result, the judgment processing unit 111 can judge whether it is malignant or benign on the locus of the moved judgment frame F, and the judgment frame F moves the entire judgment medical image to perform the judgment processing of the entire judgment medical image. be able to.

この判定枠Fは、判定範囲設定部122が判定枠F内の判定範囲を大きくすることで、判定医療映像全体を移動する判定枠Fの移動時間が短くなり、判定処理部111が判定する判定医療映像全体の判定時間は短くなる。 In this determination frame F, the determination range setting unit 122 increases the determination range in the determination frame F, so that the movement time of the determination frame F for moving the entire determination medical image is shortened, and the determination processing unit 111 makes a determination. The judgment time for the entire medical image is shortened.

また判定範囲設定部122が判定枠F内の判定範囲を小さくすることで、判定医療映像における細かい病変部の判定を行うことができるので悪性病変の明確度が上昇する。なお、この判定範囲設定部122設定する判定枠F内の判定範囲は、接続された外部接続機器により任意に設定することができる。 Further, by reducing the determination range in the determination frame F by the determination range setting unit 122, it is possible to determine a fine lesion portion in the determination medical image, so that the degree of clarity of the malignant lesion is increased. The determination range in the determination frame F to be set by the determination range setting unit 122 can be arbitrarily set by the connected externally connected device.

また判定枠Fは、判定範囲移動部123が移動させる判定枠Fの移動値も任意に設定することができるが、判定範囲の大きさと同様に、判定枠Fの移動値が大きくすれば、判定医療映像全体を移動する判定枠Fの移動時間が短くなり、判定処理部111が判定する判定医療映像全体の判定時間は短くなる。
また判定枠Fの移動値を小さくすることで、判定医療映像における細かい病変部の判定を行うことができるので悪性病変の明確度が上昇する。
Further, in the determination frame F, the movement value of the determination frame F to be moved by the determination range moving unit 123 can be arbitrarily set, but as with the size of the determination range, if the movement value of the determination frame F is increased, the determination is made. The movement time of the determination frame F for moving the entire medical image is shortened, and the determination time of the entire determination medical image determined by the determination processing unit 111 is shortened.
Further, by reducing the movement value of the determination frame F, it is possible to determine a fine lesion portion in the determination medical image, so that the degree of clarity of the malignant lesion is increased.

色彩変更部124は、判定枠F内の判定範囲を判定手段110が判定した結果によって、その判定範囲の色彩を変更するためのものである。
具体的には、判定枠F内の判定範囲において良性か悪性かを判定手段110が判定し、判定した結果を色彩変更部124に送信する。
The color changing unit 124 is for changing the color of the determination range according to the result of the determination means 110 determining the determination range in the determination frame F.
Specifically, the determination means 110 determines whether it is benign or malignant in the determination range within the determination frame F, and transmits the determination result to the color changing unit 124.

判定結果を受け取った色彩変更部124は、悪性だった場合にのみ、その判定した判定範囲を赤く色彩を変更する。これによりその判定範囲には悪性病変部分のみ色彩が変更されるので、悪性病変の部位や形状が明確に表示されることになる。 The color changing unit 124 that has received the determination result changes the color of the determined determination range to red only when it is malignant. As a result, the color of only the malignant lesion portion is changed in the determination range, so that the site and shape of the malignant lesion are clearly displayed.

また色彩変更部124が行なう色彩変更は、透明色を用いることができる。例えば、色彩変更部124が行なう色彩変更に透明色の赤色を用いた場合、判定範囲移動部123が判定枠Fを移動させながら悪性病変部に透明色の赤色を重ねていくので、悪性病変の部分は何度も透明色の赤色が重なることになる。 Further, a transparent color can be used for the color change performed by the color changing unit 124. For example, when the transparent red color is used for the color change performed by the color changing unit 124, the determination range moving unit 123 superimposes the transparent red color on the malignant lesion portion while moving the determination frame F, so that the malignant lesion The transparent red color overlaps many times in the part.

この透明色の赤色が重なり濃い赤色で表示された部位は、判定手段110が悪性だと強く判断した部位であり、濃い赤色で表示された部分全体が悪性病変の形状であるといえる。これにより、悪性病変の部位や形状を明確に表示することができる。 The portion where the transparent red color overlaps and is displayed in deep red is the portion strongly determined by the determination means 110 to be malignant, and it can be said that the entire portion displayed in dark red is the shape of the malignant lesion. This makes it possible to clearly display the site and shape of the malignant lesion.

図5は、本実施の形態の映像処理装置が備える判定手段が、学習を行うまでの処理を示すフローチャートである。以下、図5に示す処理をステップ番号に沿って説明する。
〔ステップS11〕判定手段110に学習医療映像が入力される。具体的には、あらかじめ学習用の医療映像を格子状に分割し、良性と悪性とのラベル付けをした後、テスト用データと訓練用データとに分割された学習医療映像が、学習情報調整部1110に入力される。
FIG. 5 is a flowchart showing a process until the determination means provided in the video processing device of the present embodiment performs learning. Hereinafter, the process shown in FIG. 5 will be described along with the step numbers.
[Step S11] The learning medical image is input to the determination means 110. Specifically, the learning medical video is divided into a grid pattern in advance, labeled as benign and malignant, and then divided into test data and training data. The learning information adjustment unit It is input to 1110.

〔ステップS12〕判定手段110は学習医療映像の情報量の調整を行う。具体的には、ステップS11で入力された学習医療映像のうち、良性の訓練用データを複数のグループに分割し、分割した訓練用データのグループを入れ替えながら学習部1111に学習させ、それに対応するように悪性の訓練用データを繰り返して学習部1111に学習させるために、学習医療映像の情報量の調整を学習情報調整部1110が行なう。 [Step S12] The determination means 110 adjusts the amount of information in the learning medical image. Specifically, among the learning medical images input in step S11, the benign training data is divided into a plurality of groups, and the learning unit 1111 is made to learn while exchanging the divided training data groups, and corresponding to the division. In order for the learning unit 1111 to repeatedly learn the malignant training data, the learning information adjustment unit 1110 adjusts the amount of information in the learning medical image.

〔ステップS13〕判定手段110は学習を行う。具体的には、ステップS12で調整された訓練用データとテスト用データとをもとに、畳み込みニューラルネットワークを用いたディープラーニングで学習部1111が学習を行う。
このように学習した判定手段110は、学習した学習データをもとに判定医療映像が良性または悪性かを判定手段110が判定することが出来る。
[Step S13] The determination means 110 performs learning. Specifically, the learning unit 1111 learns by deep learning using a convolutional neural network based on the training data and the test data adjusted in step S12.
The determination means 110 learned in this way can determine whether the determination medical image is benign or malignant based on the learned learning data.

図6は、本実施の形態の映像処理装置が備える映像処理手段が、映像を処理し、処理した映像を表示装置が表示するまでの処理を示すフローチャートである。以下、図6に示す処理をステップ番号に沿って説明する。 FIG. 6 is a flowchart showing a process in which the image processing means included in the image processing device of the present embodiment processes the image and the processed image is displayed by the display device. Hereinafter, the process shown in FIG. 6 will be described along with the step numbers.

〔ステップS21〕映像処理手段120に判定医療映像が入力される。具体的には、医療映像装置200で撮影された病変の有無を判定するための判定医療映像が、映像処理手段120に入力される。 [Step S21] The determination medical image is input to the image processing means 120. Specifically, a determination medical image for determining the presence or absence of a lesion imaged by the medical image device 200 is input to the image processing means 120.

〔ステップS22〕映像処理手段120は、入力された判定医療映像を処理する。具体的には、ステップS21で入力された判定医療映像に対して、悪性病変の部位や形状が明確になるような映像処理を、映像処理手段120が行う。 [Step S22] The image processing means 120 processes the input determination medical image. Specifically, the image processing means 120 performs image processing for clarifying the site and shape of the malignant lesion with respect to the determination medical image input in step S21.

〔ステップS23〕映像処理手段120は、映像処理された判定医療映像を出力する。具体的には、ステップS22で映像処理され、悪性病変の部位や形状が明確になった判定医療映像を、映像処理手段120が表示装置300に出力する。
〔ステップS24〕表示装置300は、映像処理された判定医療映像を表示する。具体的には、ステップS23で出力された判定医療映像を表示装置300が表示する。
[Step S23] The image processing means 120 outputs the image-processed determination medical image. Specifically, the image processing means 120 outputs the determination medical image in which the image is processed in step S22 and the site and shape of the malignant lesion are clarified to the display device 300.
[Step S24] The display device 300 displays the image-processed determination medical image. Specifically, the display device 300 displays the determination medical image output in step S23.

図7は、本実施の形態の映像処理装置が備える映像処理手段に、指示情報が入力されてから、各処理を行うまでの処理を示すフローチャートである。以下、図7に示す処理をステップ番号に沿って説明する。 FIG. 7 is a flowchart showing a process from the input of instruction information to the process of performing each process in the video processing means included in the video processing device of the present embodiment. Hereinafter, the process shown in FIG. 7 will be described along with the step numbers.

〔ステップS31〕映像処理手段120に指示情報が入力される。具体的には、映像処理装置100の外部から接続された外部接続機器により、判定範囲設定、移動値設定、または映像処理開始の指示が入力される。 [Step S31] Instruction information is input to the video processing means 120. Specifically, an instruction for determining a determination range, setting a movement value, or starting video processing is input by an externally connected device connected from the outside of the video processing device 100.

〔ステップS32〕映像処理手段120は、入力された指示情報を判断する。具体的には、映像処理装置100に入力された指示情報が、判定範囲設定の指示、移動値設定の指示、または映像処理開始の指示であるかを、映像処理手段120が判断する。 [Step S32] The video processing means 120 determines the input instruction information. Specifically, the video processing means 120 determines whether the instruction information input to the video processing apparatus 100 is an instruction for setting a determination range, an instruction for setting a movement value, or an instruction for starting video processing.

判定範囲設定の指示が入力されたと判断したときは、処理をステップS33に進め、移動値設定の指示が入力されたと判断したときは、処理をステップS34に進め、映像処理開始の指示が入力されたと判断したときは、処理をステップS35に進める。 When it is determined that the judgment range setting instruction has been input, the process proceeds to step S33, and when it is determined that the movement value setting instruction has been input, the process proceeds to step S34 and the video processing start instruction is input. If it is determined that the processing has been performed, the process proceeds to step S35.

〔ステップS33〕映像処理手段120は、判定範囲を設定する。具体的には、ステップS21で入力された判定医療映像の一部を切り取って判定するための判定枠F内の判定範囲を、判定範囲設定部122が設定する。
〔ステップS34〕映像処理手段120は、移動値を設定する。具体的には、ステップS33で設定された判定枠Fが移動する移動値を、判定範囲移動部123が設定する。
[Step S33] The video processing means 120 sets a determination range. Specifically, the determination range setting unit 122 sets the determination range in the determination frame F for cutting out and determining a part of the determination medical image input in step S21.
[Step S34] The video processing means 120 sets a movement value. Specifically, the determination range moving unit 123 sets the movement value at which the determination frame F set in step S33 moves.

〔ステップS35〕映像処理手段120は、映像処理を開始する。具体的には、判定範囲設定部122が設定した判定枠Fを、判定医療映像内で判定範囲移動部123が移動させながら、悪性病変の判定を判定手段110にさせ、その判定結果をもとに判定範囲の色彩を色彩変更部124が変更する処理の開始を、映像処理手段120が行なう。 [Step S35] The video processing means 120 starts video processing. Specifically, while the determination range moving unit 123 moves the determination frame F set by the determination range setting unit 122 in the determination medical image, the determination means 110 is used to determine the malignant lesion, and the determination result is used as the basis for the determination. The image processing means 120 starts the process of changing the color of the determination range by the color changing unit 124.

図8は、本実施の形態の映像処理装置が備える判定手段が、学習するまでの処理を示すフローチャートである。以下、図8に示す処理をステップ番号に沿って説明する。
〔ステップS41〕判定手段110に学習医療映像が入力される。具体的には、畳み込みニューラルネットワークを用いたディープラーニングで判定手段110に学習させるために、ステップS12で情報量が調整された訓練用データが、学習部1111に入力される。
FIG. 8 is a flowchart showing a process until the determination means included in the video processing apparatus of the present embodiment learns. Hereinafter, the process shown in FIG. 8 will be described along with the step numbers.
[Step S41] The learning medical image is input to the determination means 110. Specifically, in order for the determination means 110 to learn by deep learning using a convolutional neural network, the training data whose amount of information is adjusted in step S12 is input to the learning unit 1111.

〔ステップS42〕学習部1111は、入力された学習医療映像の特徴を抽出する。具体的には、ステップS41で入力された訓練用データを、畳み込みニューラルネットワークを用いたディープラーニングで訓練用データの特徴を抽出し、その特徴から何が描出されているかを学習部1111が識別する。 [Step S42] The learning unit 1111 extracts the features of the input learning medical image. Specifically, the training data input in step S41 is extracted from the characteristics of the training data by deep learning using a convolutional neural network, and the learning unit 1111 identifies what is drawn from the characteristics. ..

〔ステップS43〕学習部1111は、入力された学習医療映像の判定を行う。具体的には、ステップS42で抽出された訓練用データの特徴が、良性か悪性かを学習部1111が判定する。 [Step S43] The learning unit 1111 determines the input learning medical image. Specifically, the learning unit 1111 determines whether the characteristics of the training data extracted in step S42 are benign or malignant.

〔ステップS44〕学習部1111は、判定結果とラベルとを比較する。具体的には、ステップS43で判定した判定結果と、訓練用データに付されたラベルの内容との比較を行う。 [Step S44] The learning unit 1111 compares the determination result with the label. Specifically, the determination result determined in step S43 is compared with the content of the label attached to the training data.

〔ステップS45〕学習部1111は、記憶する学習データの修正を行う。具体的には、ステップS43で判定した訓練用データの特徴の判定結果と、ステップS44で比較した訓練用データに付されたラベルとの差異を小さくするために、記憶する学習データの修正を行なう。 [Step S45] The learning unit 1111 corrects the learning data to be stored. Specifically, in order to reduce the difference between the determination result of the characteristics of the training data determined in step S43 and the label attached to the training data compared in step S44, the learning data to be stored is corrected. ..

〔ステップS46〕学習部1111は、所定の数まで学習処理が繰り返されたか判断する。具体的には、ステップS42からステップS45までの処理が所定の回数繰り返されたかを、学習部1111が判断する。 [Step S46] The learning unit 1111 determines whether the learning process has been repeated up to a predetermined number. Specifically, the learning unit 1111 determines whether the processes from step S42 to step S45 are repeated a predetermined number of times.

所定の回数は、訓練用データの枚数や画像サイズによって調整を行うことができる。具体的にはステップS42からステップS45までの処理を、5000回や10万回などで設定し、設定した回数まで何度も繰り返しながら学習部1111に学習させることで、正しい判断率を上げていく。 The predetermined number of times can be adjusted according to the number of training data and the image size. Specifically, the processing from step S42 to step S45 is set at 5000 times, 100,000 times, etc., and the learning unit 1111 is made to learn while repeating up to the set number of times, thereby increasing the correct judgment rate. ..

学習部1111がステップS42からステップS45までの処理を所定回数繰り返したと判断したときは、処理をステップS47に進め、学習部1111がステップS42からステップS45までの処理を所定回数繰り返していないと判断したときは、処理をステップS42に進める。 When it is determined that the learning unit 1111 has repeated the processes from step S42 to step S45 a predetermined number of times, the process proceeds to step S47, and it is determined that the learning unit 1111 has not repeated the processes from step S42 to step S45 a predetermined number of times. When the case, the process proceeds to step S42.

〔ステップS47〕学習部1111は、学習した学習データを記憶する。具体的には、学習部1111がステップS42からステップS45までの処理を所定回数繰り返して学習した学習データを、学習部1111が学習データ記憶部112に記憶させる。 [Step S47] The learning unit 1111 stores the learned learning data. Specifically, the learning unit 1111 stores the learning data learned by repeating the processes from step S42 to step S45 a predetermined number of times in the learning data storage unit 112.

図9は、本実施の形態の映像処理装置が備える判定手段が、学習した学習データを検証するまでの処理を示すフローチャートである。以下、図9に示す処理をステップ番号に沿って説明する。 FIG. 9 is a flowchart showing a process until the determination means provided in the video processing apparatus of the present embodiment verifies the learned learning data. Hereinafter, the process shown in FIG. 9 will be described along with the step numbers.

〔ステップS51〕判定手段110に学習医療映像が入力される。具体的には、ステップS41からステップS47までの処理を繰り返して、判定手段110が学習した学習データを検証するために、良性か悪性かのラベルが判定手段110から見えない状態にしたテスト用データが、学習部1111に入力される。 [Step S51] The learning medical image is input to the determination means 110. Specifically, in order to repeat the processes from step S41 to step S47 and verify the learning data learned by the determination means 110, the test data in which the benign or malignant label is not visible from the determination means 110. Is input to the learning unit 1111.

〔ステップS52〕学習部1111は、入力された学習医療映像の特徴を抽出する。具体的には、ステップS51で入力されたテスト用データから特徴を抽出し、その特徴から何が描出されているかを学習部1111が識別する。 [Step S52] The learning unit 1111 extracts the features of the input learning medical image. Specifically, a feature is extracted from the test data input in step S51, and the learning unit 1111 identifies what is drawn from the feature.

〔ステップS53〕判定手段110は、入力された学習医療映像の予測を行う。具体的には、ステップS52で抽出した特徴と、学習データ記憶部112に蓄積した学習データとを比較し、ステップS52で入力されたテスト用データが良性か悪性かの予測を学習部1111が行う。 [Step S53] The determination means 110 predicts the input learning medical image. Specifically, the learning unit 1111 compares the features extracted in step S52 with the learning data stored in the learning data storage unit 112, and predicts whether the test data input in step S52 is benign or malignant. ..

〔ステップS54〕判定手段110は、予測結果の評価を行う。具体的には、ステップS53で学習部1111が行った予測と、テスト用データに付されたラベルとを比較し、評価を学習部1111が行う。例えば予測とラベルとの値が一致した場合はプラスの評価を、また予測とラベルとの値が一致しなかった場合はマイナスの評価を与える。 [Step S54] The determination means 110 evaluates the prediction result. Specifically, the prediction made by the learning unit 1111 in step S53 is compared with the label attached to the test data, and the learning unit 1111 performs the evaluation. For example, if the value of the prediction and the label match, a positive evaluation is given, and if the value of the prediction and the label do not match, a negative evaluation is given.

図10は、本実施の形態の映像処理装置が備える判定手段が、判定結果を出力するまでの処理を示すフローチャートである。以下、図10に示す処理をステップ番号に沿って説明する。 FIG. 10 is a flowchart showing a process until the determination means provided in the video processing apparatus of the present embodiment outputs a determination result. Hereinafter, the process shown in FIG. 10 will be described along with the step numbers.

〔ステップS61〕判定手段110に判定範囲の情報が入力される。具体的には、映像処理手段120がステップS33で設定した判定枠F内の判定範囲で切り取った判定医療映像の一部が、判定部1112に入力される。 [Step S61] Information on the determination range is input to the determination means 110. Specifically, a part of the determination medical image cut out in the determination range in the determination frame F set by the image processing means 120 in step S33 is input to the determination unit 1112.

〔ステップS62〕判定手段110は、入力された判定医療映像の特徴を抽出する。具体的には、ステップS61で入力された判定医療映像の一部の特徴を抽出し、その特徴から何が描出されているかを識別する。 [Step S62] The determination means 110 extracts the characteristics of the input determination medical image. Specifically, a part of the feature of the determination medical image input in step S61 is extracted, and what is drawn from the feature is identified.

〔ステップS63〕判定手段110が、入力された判定医療映像の判定を行う。具体的には、ステップS62で抽出した判定医療映像の一部の特徴と、学習データ記憶部112に蓄積した学習データとを比較し、ステップS61で入力された判定医療映像の一部が良性か悪性かの判定を判定部1112が行う。 [Step S63] The determination means 110 determines the input determination medical image. Specifically, a part of the characteristics of the judgment medical image extracted in step S62 is compared with the learning data stored in the learning data storage unit 112, and whether a part of the judgment medical image input in step S61 is benign. The determination unit 1112 determines whether it is malignant.

〔ステップS64〕判定手段110が、判定結果の出力を行う。具体的には、ステップS63で判定医療映像の一部を判定した結果を、判定部1112が映像処理手段120に出力する。 [Step S64] The determination means 110 outputs the determination result. Specifically, the determination unit 1112 outputs the result of determining a part of the determination medical image in step S63 to the image processing means 120.

図11は、本実施の形態の映像処理装置が備える映像処理手段が、映像処理し、処理映像を出力するまでの処理を示すフローチャートである。以下、図11に示す処理をステップ番号に沿って説明する。 FIG. 11 is a flowchart showing processing until the video processing means included in the video processing apparatus of the present embodiment performs video processing and outputs the processed video. Hereinafter, the process shown in FIG. 11 will be described along with the step numbers.

〔ステップS71〕映像処理手段120に判定医療映像が入力される。具体的には、医療映像装置200で撮影した判定医療映像の情報が、映像処理手段120に入力される。
〔ステップS72〕映像処理手段120は、入力された判定医療映像の判定除外処理を行う。具体的には、判定除外処理部121が、ステップS71で入力された判定医療映像のうち判定対象以外の部分を除外する。
[Step S71] The determination medical image is input to the image processing means 120. Specifically, the information of the determination medical image taken by the medical image device 200 is input to the image processing means 120.
[Step S72] The image processing means 120 performs a determination exclusion process of the input determination medical image. Specifically, the determination exclusion processing unit 121 excludes a portion of the determination medical image input in step S71 other than the determination target.

〔ステップS73〕映像処理手段120は、判定処理を行う。具体的には、判定範囲設定部122が設定した判定枠F内の判定範囲を、判定範囲移動部123が判定医療映像内で移動させながら、切り取った判定医療映像の一部を判定部1112が判定する。 [Step S73] The video processing means 120 performs a determination process. Specifically, while the judgment range moving unit 123 moves the judgment range in the judgment frame F set by the judgment range setting unit 122 in the judgment medical image, the judgment unit 1112 cuts out a part of the judgment medical image. judge.

〔ステップS74〕映像処理手段120は、色彩変更処理を行う。具体的には、ステップS73で判定した結果により、色彩変更部124が色彩を変更する。さらに具体的には、ステップS73で判定した結果が悪性だったときのみ、色彩変更部124が判定範囲の色彩を変更する。 [Step S74] The image processing means 120 performs a color change process. Specifically, the color changing unit 124 changes the color according to the result of the determination in step S73. More specifically, the color changing unit 124 changes the color in the determination range only when the result of the determination in step S73 is malignant.

〔ステップS75〕映像処理手段120は、処理映像を出力する。具体的には、ステップS71からステップS74で処理された判定医療映像を、色彩変更部124が表示装置300に出力する。 [Step S75] The video processing means 120 outputs the processed video. Specifically, the color changing unit 124 outputs the determination medical image processed in steps S71 to S74 to the display device 300.

図12は、本実施の形態の映像処理装置が備える映像処理手段が、判定除外処理を行うまでの処理を示すフローチャートである。以下、図12に示す処理をステップ番号に沿って説明する。 FIG. 12 is a flowchart showing a process until the image processing means included in the image processing apparatus of the present embodiment performs the determination exclusion process. Hereinafter, the process shown in FIG. 12 will be described along with the step numbers.

〔ステップS81〕映像処理手段120に判定医療映像が入力される。具体的には、医療映像装置200で撮影した判定医療映像の情報が、映像処理手段120に入力される。
〔ステップS82〕映像処理手段120は、判定医療映像を分割する。具体的には、ステップS81で入力された判定医療映像を細かい格子状に、例えば入力された判定医療映像を縦10×横8の80枚の格子状に、判定除外処理部121が分割する。
[Step S81] The determination medical image is input to the image processing means 120. Specifically, the information of the determination medical image taken by the medical image device 200 is input to the image processing means 120.
[Step S82] The image processing means 120 divides the determination medical image. Specifically, the judgment exclusion processing unit 121 divides the judgment medical image input in step S81 into a fine grid pattern, for example, the input judgment medical image into 80 grids of 10 vertical × 8 horizontal.

〔ステップS83〕映像処理手段120は判定除外処理を行う最初の映像を選定する。具体的にはステップS82で細かい格子状に分割した判定医療映像のうち、最初に判定除外処理を行なう映像を、判定除外処理部121が選定する。 [Step S83] The video processing means 120 selects the first video to be subjected to the determination exclusion process. Specifically, among the determination medical images divided into fine grids in step S82, the determination exclusion processing unit 121 selects the image for which the determination exclusion process is first performed.

〔ステップS84〕映像処理手段120は、判定医療映像の一部に判定対象映像が含まれているか否かを判断する。具体的には、ステップS83で選定された判定医療映像の一部に、例えば人体の一部などの判定対象が含まれているか否かを判定除外処理部121が判断する。 [Step S84] The image processing means 120 determines whether or not the determination target image is included in a part of the determination medical image. Specifically, the determination exclusion processing unit 121 determines whether or not a determination target such as a part of the human body is included in a part of the determination medical image selected in step S83.

判定医療映像の一部に、判定対象が含まれていると判断したときは処理をステップS85に進め、判定医療映像の一部に、判定対象が含まれていないと判断したときは処理をステップS86に進める。 If it is determined that the judgment target is included in a part of the judgment medical video, the process proceeds to step S85, and if it is determined that the judgment target is not included in a part of the judgment medical video, the process is stepped. Proceed to S86.

〔ステップS85〕映像処理手段120は、判定医療映像の最後まで判定除外処理を行ったかを判断する。具体的には、ステップS84で判断した判定医療映像の一部が、複数に分割した判定医療映像のうち最後の分割映像か否かを判断する。 [Step S85] The image processing means 120 determines whether the determination exclusion process has been performed until the end of the determination medical image. Specifically, it is determined whether or not a part of the determination medical image determined in step S84 is the last divided image among the determination medical images divided into a plurality of parts.

判定医療映像の一部が、複数に分割した判定医療映像のうち最後の分割映像であると判断したときは、処理を終了させ、判定医療映像の一部が、複数に分割した判定医療映像のうち最後の分割映像ではないと判断したときは、処理をステップS87に進める。 When it is determined that a part of the judgment medical video is the last divided video of the judgment medical video divided into a plurality of parts, the processing is terminated and a part of the judgment medical video is divided into a plurality of judgment medical images. If it is determined that the video is not the last divided video, the process proceeds to step S87.

〔ステップS86〕映像処理手段120は、判定除外処理を行う。具体的にはステップS84で判定除外処理部121が判断した結果、判定医療映像の一部に判定対象映像が含まれていない場合は、その判定医療映像の一部を判定手段110が判定する必要がないので、判定手段110が判定しないための判定除外フラグを、判定除外処理部121が立てる。 [Step S86] The video processing means 120 performs a determination exclusion process. Specifically, as a result of the determination by the determination exclusion processing unit 121 in step S84, if the determination target image is not included in a part of the determination medical image, the determination means 110 needs to determine a part of the determination medical image. Therefore, the determination exclusion processing unit 121 sets a determination exclusion flag for the determination means 110 not to determine.

〔ステップS87〕映像処理手段120は、判定除外処理を行う次の映像を決定する。具体的にはステップS82で細かい格子状に分割した判定医療映像のうち、次に判定除外処理をする判定医療映像の一部を、判定除外処理部121が選定する。 [Step S87] The video processing means 120 determines the next video to be subjected to the determination exclusion process. Specifically, among the judgment medical images divided into fine grids in step S82, the judgment exclusion processing unit 121 selects a part of the judgment medical images to be subjected to the judgment exclusion processing next.

図13は、本実施の形態の映像処理装置が備える映像処理手段が、判定除外処理を行なった判定医療映像に、色彩変更を行うまでの処理を示すフローチャートである。以下、図13に示す処理をステップ番号に沿って説明する。 FIG. 13 is a flowchart showing a process until the image processing means included in the image processing apparatus of the present embodiment changes the color of the determination medical image to which the determination exclusion process has been performed. Hereinafter, the process shown in FIG. 13 will be described along with the step numbers.

〔ステップS91〕映像処理手段120に判定除外処理を行った判定医療映像が生成される。具体的には、映像処理手段120に入力された判定医療映像を、判定除外処理部121が判定除外処理を行い、判定除外処理後の判定医療映像が生成される。 [Step S91] A determination medical image obtained by performing a determination exclusion process on the image processing means 120 is generated. Specifically, the judgment exclusion processing unit 121 performs the judgment exclusion processing on the judgment medical image input to the image processing means 120, and the judgment medical image after the judgment exclusion processing is generated.

〔ステップS92〕映像処理手段120は初期化を行う。具体的には、判定枠Fが移動しながら判定していく際の初期の位置、例えば判定医療映像の左側最上段などの位置に、判定範囲移動部123が判定枠Fを移動させる。 [Step S92] The video processing means 120 initializes. Specifically, the determination range moving unit 123 moves the determination frame F to an initial position when the determination frame F moves while making a determination, for example, a position such as the upper leftmost stage of the determination medical image.

〔ステップS93〕映像処理手段120は、判定枠F内の判定範囲が判定対象か否かの判断を行う。具体的には、判定枠Fの移動先の分割映像に判定除外フラグが立てられているか否かで、判定範囲が判定対象か否かの判断を判定範囲移動部123が判断する。 [Step S93] The video processing means 120 determines whether or not the determination range in the determination frame F is a determination target. Specifically, the determination range moving unit 123 determines whether or not the determination range is the determination target depending on whether or not the determination exclusion flag is set in the divided video to which the determination frame F is moved.

より具体的には、判定除外フラグが立てられた分割映像上に判定枠Fが移動した場合は判定除外であると判定範囲移動部123が判断し、判定除外フラグが立てられていない分割映像上に判定枠Fが移動した場合は判定対象であると判定範囲移動部123が判断する。 More specifically, when the judgment frame F moves on the divided video in which the judgment exclusion flag is set, the judgment range moving unit 123 determines that the judgment is excluded, and on the divided video in which the judgment exclusion flag is not set. When the determination frame F moves to, the determination range moving unit 123 determines that it is a determination target.

また、判定除外フラグが立てられた分割映像と判定除外フラグが立てられていない分割映像との結合部上に判定枠Fが移動した場合は、判定対象であると判定範囲移動部123が判断する。 Further, when the determination frame F moves on the joint portion between the divided video in which the determination exclusion flag is set and the divided video in which the determination exclusion flag is not set, the determination range moving unit 123 determines that the determination target is the determination target. ..

判定枠F内の判定範囲が判定対象であると判断したときは、処理をステップS94へ進め、判定枠F内の判定範囲が判定対象でないと判断したときは、処理をステップS97へ進める。 When it is determined that the determination range in the determination frame F is the determination target, the process proceeds to step S94, and when it is determined that the determination range in the determination frame F is not the determination target, the process proceeds to step S97.

〔ステップS94〕映像処理手段120は、判定枠F内の判定範囲が悪性病変か否かの判断を行う。具体的には、判定範囲移動部123が移動させた判定枠F内の判定範囲を、判定範囲移動部123が判定手段110に送信し判定をさせる。
判定枠F内の判定範囲が悪性であると判断したときは、処理をステップS95へ進め、判定枠F内の判定範囲が良性であると判断したときは、処理をステップS96へ進める。
[Step S94] The image processing means 120 determines whether or not the determination range in the determination frame F is a malignant lesion. Specifically, the determination range moving unit 123 transmits the determination range in the determination frame F moved by the determination range moving unit 123 to the determination means 110 to make a determination.
When it is determined that the determination range in the determination frame F is malignant, the process proceeds to step S95, and when it is determined that the determination range in the determination frame F is benign, the process proceeds to step S96.

〔ステップS95〕映像処理手段120は、色彩変更を行う。具体的には、ステップS94で悪性と判断された判定枠F内の判定範囲の色彩を、色彩変更部124が変更する処理を行う。 [Step S95] The image processing means 120 changes colors. Specifically, the color changing unit 124 changes the color of the determination range in the determination frame F determined to be malignant in step S94.

〔ステップS96〕映像処理手段120は、判定医療映像の最後まで判定を行った否かを判断する。具体的には、ステップS92で判定範囲移動部123が移動させた初期の位置から、判定範囲移動部123が判定枠Fを移動させていき、判定対象ではない範囲を除く判定医療映像のすべてを判定したかを判断する。 [Step S96] The image processing means 120 determines whether or not the determination has been made to the end of the determination medical image. Specifically, the judgment range moving unit 123 moves the judgment frame F from the initial position moved by the judgment range moving unit 123 in step S92, and all of the judgment medical images except the range that is not the judgment target are displayed. Judge whether it was judged.

例えば判定医療映像の左側最上位置を初期の位置とし、判定枠Fを右側に移動させながら判定を行ない、順に判定医療映像の上部から下部に向かって判定枠Fを移動させて判定する場合、判定枠Fが右側最下段に到達したときを判定終了と判断させる。 For example, when the judgment is made while the uppermost position on the left side of the judgment medical image is set as the initial position and the judgment frame F is moved to the right, and the judgment frame F is moved from the upper part to the lower part of the judgment medical image in order, the judgment is made. When the frame F reaches the bottom on the right side, it is determined that the determination is completed.

判定範囲移動部123が最後まで判定枠Fを移動させて判定を行ったと判断したときは、処理を終了させ、判定範囲移動部123が最後まで判定枠Fを移動させて判定を行っていないと判断したときは、処理をステップS97へ進める。 When it is determined that the determination range moving unit 123 moves the determination frame F to the end and makes a judgment, the process is terminated and the judgment range moving unit 123 does not move the judgment frame F to the end to make a judgment. When the determination is made, the process proceeds to step S97.

〔ステップS97〕映像処理手段120は判定枠Fを次の位置へ移動させる。具体的には、まだ判定枠Fを移動させて判定が完了していない位置に、判定範囲移動部123が判定枠Fを移動させる。 [Step S97] The video processing means 120 moves the determination frame F to the next position. Specifically, the determination range moving unit 123 moves the determination frame F to a position where the determination frame F has not been moved and the determination has not been completed.

なお、本実施の形態の映像処理装置100では、ステップS91で判定除外処理部121が判定除外処理を行なった判定医療映像を、ステップS93で判定範囲移動部123が判定枠F内の判定範囲が判定対象か否かの判断をし、判定対処の場合にステップS94で判定範囲が悪性病変であるか否かを判定手段110が判定する例で示したが、ステップS91での処理を省略し、入力された判定医療映像を、判定枠F内の判定範囲が判定対象か否かを判定範囲移動部123が判断をし、判定対処の場合に判定範囲が悪性病変であるか否かを判定手段110が判定してもよい。 In the video processing apparatus 100 of the present embodiment, the judgment exclusion processing unit 121 has performed the judgment exclusion processing in step S91, and the judgment range moving unit 123 has the judgment range in the judgment frame F in step S93. An example is shown in which the determination means 110 determines whether or not the lesion is a determination target and whether or not the determination range is a malignant lesion in step S94, but the process in step S91 is omitted. The judgment range moving unit 123 judges whether or not the judgment range in the judgment frame F is the judgment target based on the input judgment medical image, and determines whether or not the judgment range is a malignant lesion in the case of judgment coping. 110 may determine.

図14は、判定除外処理部が行った処理を示すマンモグラフィ画像である。
図14(A)に示すように、判定除外処理部121は、判定医療映像のうち判定対象を含まない範囲に判定除外フラグを立てるために、判定医療映像を細かい格子状に分割する。
FIG. 14 is a mammography image showing the processing performed by the determination exclusion processing unit.
As shown in FIG. 14A, the judgment exclusion processing unit 121 divides the judgment medical image into a fine grid pattern in order to set the judgment exclusion flag in the range not including the judgment target in the judgment medical image.

図14(B)に示すように、判定除外処理部121は、分割した判定医療映像の一部に判定対象が含まれるか否かを判断し、判定対象が含まれない部位に判定除外フラグを立てることで、判定部1112が行なう判定処理から除外する。 As shown in FIG. 14B, the judgment exclusion processing unit 121 determines whether or not the judgment target is included in a part of the divided judgment medical images, and sets the judgment exclusion flag in the portion not including the judgment target. By standing, it is excluded from the determination process performed by the determination unit 1112.

具体的には、図14(A)のうち乳腺以外の画像を除外する。図14(B)の黒く表示された部位は、乳腺を含まない範囲なので、判定対象から除外され判定除外フラグが立てられる。 Specifically, images other than the mammary gland in FIG. 14 (A) are excluded. Since the portion displayed in black in FIG. 14B is a range not including the mammary gland, it is excluded from the determination target and the determination exclusion flag is set.

図14(B)の例の場合、判定除外処理を行なうと、判定対象の範囲が全体の半分以下になることがわかる。これにより判定対象の範囲が制限されるため、判定医療映像全体の内、判定部1112が行なう判定処理の情報量が減少するので、判定処理が完了するまでの処理速度を向上することができる。 In the case of the example of FIG. 14B, it can be seen that the range of the determination target becomes less than half of the whole when the determination exclusion process is performed. Since the range of the determination target is limited by this, the amount of information of the determination process performed by the determination unit 1112 in the entire determination medical image is reduced, so that the processing speed until the determination process is completed can be improved.

また図14では、判定除外処理部121が判定除外処理を行うために、判定医療映像を分割し、判定対象以外を除外する例で示したが、判定除外処理部121が行なう判定除外処理は判定医療映像だけを処理するものだけではなく、学習医療映像を処理してもよい。 Further, in FIG. 14, an example is shown in which the judgment exclusion processing unit 121 divides the judgment medical image and excludes items other than the judgment target in order to perform the judgment exclusion processing, but the judgment exclusion processing performed by the judgment exclusion processing unit 121 is a judgment. Not only those that process medical images but also learning medical images may be processed.

例えば、判定除外処理部121に学習医療映像を入力すると、図14(A)のように、学習医療映像を判定除外処理部121が分割し、図14(B)のように、分割した映像のうち乳腺以外の映像を判定除外処理部121が除外することで、判定対象を含む分割映像のみを残す処理が行なわれる。 For example, when the learning medical video is input to the judgment exclusion processing unit 121, the learning medical video is divided by the judgment exclusion processing unit 121 as shown in FIG. 14 (A), and the divided video is divided as shown in FIG. 14 (B). By excluding the image other than the mammary gland by the determination exclusion processing unit 121, the process of leaving only the divided image including the determination target is performed.

これらの判定対象として残された分割映像を、悪性病変が描出されている映像と、悪性病変が描出されていない映像とを区別するためにラベル付けをすることで、判定手段110が有する学習部1111に学習させるための学習医療映像として利用することが出来る。 The learning unit possessed by the determination means 110 by labeling the divided images left as these determination targets in order to distinguish between the images in which the malignant lesions are visualized and the images in which the malignant lesions are not visualized. It can be used as a learning medical image for 1111 to learn.

さらに、これらの判定除外処理部121が処理を行なった学習医療映像は、映像を左右反転させることで異なった映像として学習部1111に認識させ、学習部1111に入力される学習医療映像の情報量を増やすことも出来る。 Further, the learning medical image processed by the determination exclusion processing unit 121 is recognized by the learning unit 1111 as a different image by inverting the image left and right, and the amount of information of the learning medical image input to the learning unit 1111. Can also be increased.

図15は、ディープラーニングで用いられるニューラルネットワークを示す図である。
図15に示すように、ニューラルネットワークでは、全体の処理を入力層、中間層、出力層と区分することが出来る。
FIG. 15 is a diagram showing a neural network used in deep learning.
As shown in FIG. 15, in the neural network, the entire processing can be divided into an input layer, an intermediate layer, and an output layer.

入力層は、画像や音声などを入力する場所であり、本発明では図15の左側に示す格子状に細かく分割された医療映像の画像データを入力するために利用される。
中間層は、入力されたデータから様々な特徴である形や模様などを抽出する場所であり、本発明では入力層で入力された医療映像から形や模様などを抽出するために利用される。
The input layer is a place for inputting an image, sound, or the like, and is used in the present invention to input image data of a medical image finely divided in a grid pattern shown on the left side of FIG.
The intermediate layer is a place for extracting various characteristic shapes and patterns from the input data, and is used in the present invention to extract shapes and patterns from the medical image input in the input layer.

出力層は、中間層で抽出した特徴から入力したデータを識別する場所であり、本発明では入力された医療映像が、良性か悪性かを識別するために利用される。
一般的な形としてニューラルネットワークでは、入力されたデータの特徴を抽出する役割を果たす畳み込み層と、畳み込み層が抽出した特徴から強く表れている特徴を取り出すことで位置に不変性を与えるプーリング層とがセットで用いられ、最後の出力層に用いられる全結合層で、取り出された特徴にもとづく分類が行なわれている。
The output layer is a place to identify the input data from the features extracted in the intermediate layer, and is used in the present invention to identify whether the input medical image is benign or malignant.
As a general form, in a neural network, a convolution layer that plays a role in extracting features of input data and a pooling layer that gives invariance to the position by extracting features that strongly appear from the features extracted by the convolution layer. Is used as a set and is a fully connected layer used for the final output layer, which is classified based on the extracted characteristics.

また、中間層を複数入れ込み、複雑化することもできる。本実施の形態に係る映像処理装置100では、畳み込み層とプーリング層を合わせて10層としたニューラルネットワークを用いてディープラーニングを行った。その結果、例えばマンモグラフィの画像から、乳ガンの特徴を抽出し、ガンが70%の確率で存在する、ガンが30%の確率で存在しないなどを識別することが出来る。 It is also possible to insert a plurality of intermediate layers to make it complicated. In the image processing apparatus 100 according to the present embodiment, deep learning was performed using a neural network in which the convolution layer and the pooling layer were combined into 10 layers. As a result, for example, the characteristics of breast cancer can be extracted from a mammography image, and it can be identified that the cancer is present with a probability of 70%, the cancer is not present with a probability of 30%, and the like.

なお、本実施の形態に係る学習部1111が行うディープラーニングによる学習は、畳み込み層とプーリング層を合わせて10層としたニューラルネットワークを用いたが、中間層における畳み込み層とプーリング層とのユニット数は適宜調整を行いながら学習部1111に学習させることができる。また、入力層や出力層も適宜調整を行いながら学習部1111に学習させることができる。 In the learning by deep learning performed by the learning unit 1111 according to the present embodiment, a neural network having 10 layers including the convolutional layer and the pooling layer was used, but the number of units of the convolutional layer and the pooling layer in the intermediate layer was used. Can be made to learn by the learning unit 1111 while making appropriate adjustments. Further, the learning unit 1111 can be made to learn while appropriately adjusting the input layer and the output layer.

図16は、判定手段に学習させる従来の学習方法と、本実施の形態に係る映像処理装置での学習方法を示す図である。
図16(A)に示すように、従来の機械学習の学習方法は、医療映像を格子状に分割し、悪性病変が描出されている映像と、悪性病変が描出されていない映像とを区別するためにラベル付けを行い、訓練用データとテスト用データとに分け、これらの訓練用データとテスト用データとを用いて機械学習をさせていた。
FIG. 16 is a diagram showing a conventional learning method in which a determination means is trained and a learning method in a video processing device according to the present embodiment.
As shown in FIG. 16A, the conventional machine learning learning method divides a medical image into a grid pattern and distinguishes between an image in which a malignant lesion is visualized and an image in which a malignant lesion is not visualized. Therefore, it was labeled and divided into training data and test data, and machine learning was performed using these training data and test data.

ところが医療映像を分割してみると、良性映像の数量が圧倒的に多く、良性と悪性との学習データに多くの差があった。実際には9割近くが良性の映像であり、この偏った学習データによって正しい機械学習が行えなかった。 However, when the medical images were divided, the number of benign images was overwhelmingly large, and there was a large difference in the learning data between benign and malignant. In reality, nearly 90% of the images are benign images, and correct machine learning could not be performed due to this biased learning data.

例えば悪性映像が1割、良性映像が9割の場合、全く学習せずにテストを行っても全て良性と診断すれば9割の正解率になってしまうため、このような学習医療映像で正しい学習を行なうことは困難であった。 For example, if malignant video is 10% and benign video is 90%, even if the test is performed without learning at all, if all are diagnosed as benign, the correct answer rate will be 90%, so such a learning medical video is correct. It was difficult to learn.

これらの解決方法の1つとして、良性の映像に合わせて、悪性の映像を増やすことも考えられるが、9割近い良性映像で、悪性の映像を集めるのは非常に困難であり、現実的ではなかった。 As one of these solutions, it is conceivable to increase the number of malignant images according to the benign images, but it is very difficult to collect malignant images with nearly 90% of benign images, which is not realistic. I didn't.

また比較的データ量の多い良性映像を、比較的数データの少ない悪性映像に合わせて学習させることでバランスをとることも考えられるが、全体的な学習量が大幅に減少してしまうため、効率的な学習とは言えなかった。 It is also possible to balance by training benign images with a relatively large amount of data in accordance with malignant images with a relatively small amount of data, but this is efficient because the overall amount of learning is significantly reduced. It was not a typical learning.

そこで図16(B)に示すように、本実施の形態に係る映像処理装置100が備える学習情報調整部1110が、学習医療映像の情報量の調整を行なうことで、良性映像と悪性映像との比率が異なっていても正しく学習できるようになる。 Therefore, as shown in FIG. 16B, the learning information adjusting unit 1110 included in the image processing apparatus 100 according to the present embodiment adjusts the amount of information of the learning medical image, so that the benign image and the malignant image can be obtained. You will be able to learn correctly even if the ratio is different.

具体的には、まず悪性病変が描出されている映像と、悪性病変が描出されていない映像とを合わせて47282枚の分割した医療映像を用意し、その分割した医療映像に良性および悪性のラベル付けをした後、それぞれをテスト用データと訓練用データに分ける。 Specifically, first, 47,282 divided medical images are prepared by combining the image in which the malignant lesion is visualized and the image in which the malignant lesion is not visualized, and the divided medical images are labeled as benign and malignant. After attaching, divide each into test data and training data.

この分けられたテスト用データと訓練用データのうち、比較的データ量の多い良性映像における訓練用データを、訓練用データ1、訓練用データ2、訓練用データ3・・・と複数のグループに分ける処理を学習情報調整部1110が行う。 Of the divided test data and training data, the training data in the benign video with a relatively large amount of data is divided into multiple groups such as training data 1, training data 2, training data 3, and so on. The learning information adjustment unit 1110 performs the process of dividing.

次に、良性映像における訓練用データを、訓練用データ1、訓練用データ2、訓練用データ3・・・と入れ替えた訓練用データを学習情報調整部1110が作成し、それに対応するように悪性映像も学習情報調整部1110が複製して、学習部1111に学習させる。 Next, the learning information adjustment unit 1110 creates training data in which the training data in the benign video is replaced with training data 1, training data 2, training data 3, and so on, and is malignant so as to correspond to the training data. The video is also duplicated by the learning information adjusting unit 1110 and is made to learn by the learning unit 1111.

このように良性における訓練用データを繰り返し入れ替えながら学習部1111学習させることで、良性と悪性とのバランスを取りながら、かつ学習医療映像の情報量を減らすことなく多くの学習医療映像を学習部1111に学習をさせることが出来る。 By learning the learning unit 1111 while repeatedly exchanging the training data in the benign, many learning medical images can be obtained in the learning unit 1111 while balancing benign and malignant without reducing the amount of information in the learning medical images. Can be made to learn.

本実施の形態に係る映像処理装置100での学習方法では、悪性病変が描出されていない映像を合わせて47282枚に対して、良性映像が悪性映像の27倍あったので、すべての映像を使用して学習させるために、良性映像における訓練用データを27回入れ替える処理を学習情報調整部1110が行い、学習部1111に繰り返して学習させた。 In the learning method with the image processing apparatus 100 according to the present embodiment, the benign images were 27 times as many as the malignant images for 47,282 images including the images in which the malignant lesions were not visualized, so all the images were used. The learning information adjustment unit 1110 performed a process of exchanging the training data in the benign video 27 times, and the learning unit 1111 was repeatedly trained.

図17は、学習医療映像の情報量を学習情報調整部が処理した訓練データおよびテストデータによる機械学習の正診率と、学習医療映像の情報量を学習情報調整部が処理しない訓練データおよびテストデータによる機械学習の正診率とを示す図である。 FIG. 17 shows the correct diagnosis rate of machine learning based on the training data and test data processed by the learning information adjustment unit for the amount of information in the learning medical image, and the training data and test in which the learning information adjustment unit does not process the amount of information in the learning medical image. It is a figure which shows the correct diagnosis rate of machine learning by data.

図17(A)は、マンモグラフィ検査における全ての病変と病変以外の学習医療映像の情報量を、学習情報調整部1110が処理を行い、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。 In FIG. 17A, the learning information adjustment unit 1110 processes the amount of information of all lesions and learning medical images other than the lesions in the mammography examination, and the learning medical images are learned by deep learning using a neural network. It is a figure which shows the result of having learned part 1111.

図17(A)は、47282枚の分割した医療映像を学習した結果を表している。また学習医療映像はテスト用データ788枚、訓練用データ3156枚用意し、どの映像も使用するように訓練用データのうち良性のデータを分割したものを、学習情報調整部1110が27回入れ替えながら学習させた結果である。 FIG. 17A shows the result of learning 47282 divided medical images. In addition, 788 test data and 3156 training data are prepared for the learning medical video, and the learning information adjustment unit 1110 replaces the benign data among the training data so that any video can be used 27 times. It is the result of learning.

学習させた結果、正しい診断率である正診率が96.6%、実際に病気に罹っている人のうち陽性と出る割合である感度が93.9%、病気に罹っていない人のうち陰性と出る割合である特異度が99.2%、検査で陽性と出た人のうち実際に病気に罹っている人の割合の陽性的中率であるPPV(Positive Predictive Value)が99.2%、陰性と出た人のうち実際に罹っていない人の割合の陰性的中率であるNPV(Negative Predictive Value)が94.2%であった。 As a result of learning, the correct diagnosis rate, which is the correct diagnosis rate, is 96.6%, the sensitivity, which is the rate of positive results among those who actually have the disease, is 93.9%, and among those who do not have the disease. The specificity, which is the percentage of negatives, is 99.2%, and the positive predictive value of PPV (Positive Predictive Value), which is the percentage of those who actually have the disease among those who test positive, is 99.2. The NPV (Negative Predictive Value), which is the negative predictive value of the percentage of those who did not actually suffer from the negative, was 94.2%.

このように学習情報調整部1110が学習医療映像の情報量の処理を行うことで、悪性映像と良性映像とのバランスを取り、かつ学習する学習医療映像の情報量を多くして学習部1111に学習させることができるので、高い正診率を得ることができた。本実施の形態に係る映像処理装置100では、学習情報調整部1110が処理した学習医療映像を用いることで、正診率を得ることが出来る。 In this way, the learning information adjustment unit 1110 processes the amount of information in the learning medical image to balance the malignant image and the benign image, and increase the amount of information in the learning medical image to be learned in the learning unit 1111. Since I was able to learn, I was able to obtain a high rate of correct diagnosis. In the image processing apparatus 100 according to the present embodiment, the correct diagnosis rate can be obtained by using the learning medical image processed by the learning information adjusting unit 1110.

図17(B)は、マンモグラフィ検査における構築の乱れの学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。 In FIG. 17B, the learning medical image of the disorder of construction in the mammography examination is learned by the learning unit 1111 by deep learning using a neural network without being processed by the learning information adjusting unit 1110. It is a figure which shows the result of having made it.

図17(B)は、716枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が93.1%、感度が98.4%、特異度が61.9%、PPVが93.8%、NPVが86.7%であった。 FIG. 17B shows the result of learning 716 divided medical images. As a result of learning, the correct diagnosis rate was 93.1%, the sensitivity was 98.4%, the specificity was 61.9%, the PPV was 93.8%, and the NPV was 86.7%.

図17(C)は、マンモグラフィ検査における局所的非対称性陰影であるFAD(focal asymmetric density)の学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。 FIG. 17C is a deep learning using a neural network without processing the learning medical image of FAD (focal asymmetric density), which is a local asymmetric shadow in a mammography examination, without being processed by the learning information adjusting unit 1110. It is a figure which shows the result of having the learning unit 1111 learn the learning medical image.

図17(C)は、464枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が91.3%、感度が86.0%、特異度が88.9%、PPVが92.5%、NPVが80.0%であった。 FIG. 17C shows the result of learning 464 divided medical images. As a result of learning, the correct diagnosis rate was 91.3%, the sensitivity was 86.0%, the specificity was 88.9%, the PPV was 92.5%, and the NPV was 80.0%.

図17(D)は、マンモグラフィ検査における石灰化の学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。 FIG. 17D shows a learning medical image of calcification in a mammography examination, which is learned by the learning unit 1111 by deep learning using a neural network without being processed by the learning information adjusting unit 1110. It is a figure which shows the result.

図17(D)は、2456枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が85.6%、感度が76.8%、特異度が92.2%、PPVが88.0%、NPVが84.1%であった。 FIG. 17D shows the result of learning 2456 divided medical images. As a result of learning, the correct diagnosis rate was 85.6%, the sensitivity was 76.8%, the specificity was 92.2%, the PPV was 88.0%, and the NPV was 84.1%.

図17(E)は、マンモグラフィ検査における腫瘍の学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。 FIG. 17 (E) shows a learning medical image of a tumor in a mammography examination, which was learned by the learning unit 1111 by deep learning using a neural network without being processed by the learning information adjusting unit 1110. It is a figure which shows the result.

図17(E)は、1816枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が90.1%、感度が95.8%、特異度が72.0%、PPVが90.0%、NPVが86.7%であった。 FIG. 17 (E) shows the result of learning 1816 divided medical images. As a result of learning, the correct diagnosis rate was 90.1%, the sensitivity was 95.8%, the specificity was 72.0%, the PPV was 90.0%, and the NPV was 86.7%.

図17(F)は、マンモグラフィ検査における全ての病変の学習医療映像を、学習情報調整部1110が処理を行わずに、ニューラルネットワークを用いたディープラーニングで、その学習医療映像を学習部1111に学習させた結果を示す図である。 In FIG. 17F, the learning medical image of all lesions in the mammography examination is learned by the learning unit 1111 by deep learning using a neural network without being processed by the learning information adjusting unit 1110. It is a figure which shows the result of having made it.

図17(F)は、3802枚の分割した医療映像を学習した結果を表している。学習させた結果、正診率が89.5%、感度が90.7%、特異度が88.1%、PPVが89.8%、NPVが89.1%であった。 FIG. 17F shows the result of learning 3802 divided medical images. As a result of learning, the correct diagnosis rate was 89.5%, the sensitivity was 90.7%, the specificity was 88.1%, the PPV was 89.8%, and the NPV was 89.1%.

上記から分かるように、図17(A)のように学習情報調整部1110が学習医療映像の情報量の処理を行い、悪性映像と良性映像とのバランスの取れた大量の学習医療映像を、学習部1111が学習することで、高い正診率を得られたことがわかる。
また学習部1111は、学習する学習医療映像の情報量が増加すればするほど、正診率が改善していることがわかる。
As can be seen from the above, as shown in FIG. 17A, the learning information adjustment unit 1110 processes the amount of information in the learning medical image, and learns a large amount of learning medical image in which the malignant image and the benign image are well-balanced. It can be seen that a high accuracy rate was obtained by learning by Department 1111.
Further, the learning unit 1111 can see that the correct diagnosis rate is improved as the amount of information of the learning medical image to be learned increases.

図18は、判定枠の移動方法を示す図である。
図18(A)に示すように、判定範囲設定部122が設定する判定枠Fは、判定医療映像内を移動しながら、その判定枠F内の判定範囲を判定手段110に判定させる。ここでは便宜上、判定除外処理部121による判定除外した範囲は表示しない。
FIG. 18 is a diagram showing a method of moving the determination frame.
As shown in FIG. 18A, the determination frame F set by the determination range setting unit 122 causes the determination means 110 to determine the determination range in the determination frame F while moving in the determination medical image. Here, for convenience, the range excluded from the determination by the determination exclusion processing unit 121 is not displayed.

例えば、判定枠Fの初期の位置を左側最上位置とした場合、判定範囲移動部123が判定枠Fを判定医療映像の最上段で左から右にかけて移動させながら、判定手段110に判定範囲移動部123が判定をさせる。 For example, when the initial position of the determination frame F is the uppermost position on the left side, the determination range moving unit 123 moves the determination frame F from left to right at the uppermost stage of the determination medical image, and the determination means 110 moves the determination range. 123 makes a judgment.

判定枠Fが判定医療映像の右側まで到達すると、次に最上段から少し下に下がった位置で、左側から右側にかけて判定範囲移動部123が判定枠Fを移動させながら判定手段110に判定させる。 When the determination frame F reaches the right side of the determination medical image, the determination range moving unit 123 causes the determination means 110 to make a determination while moving the determination frame F from the left side to the right side at a position slightly lowered from the uppermost stage.

図18(B)に示すように、判定枠Fの移動は、判定枠Fの移動する軌跡が重なるように判定範囲移動部123が移動させる。
具体的には、判定枠Fは、判定範囲移動部123がF1の高さを左から右にかけて移動させながら判定を行う。判定枠FがF1の高さで右側まで到達すると、次に判定枠FがF1で通った軌跡と重なるようなF2の高さで、判定枠Fを左から右にかけて判定範囲移動部123が移動させながら判定を行う。
As shown in FIG. 18B, the determination range moving unit 123 moves the determination frame F so that the moving trajectories of the determination frames F overlap.
Specifically, the determination frame F makes a determination while the determination range moving unit 123 moves the height of F1 from left to right. When the determination frame F reaches the right side at the height of F1, the determination range moving unit 123 moves from left to right at the height of F2 so that the determination frame F next overlaps with the locus passed by F1. Make a judgment while letting it.

同様に、判定枠FがF2の高さで右側まで到達すると、次に判定枠FがF2で通った軌跡と重なるようなF3の高さで、判定枠Fを左から右にかけて判定範囲移動部123が移動させながら判定を行う。 Similarly, when the determination frame F reaches the right side at the height of F2, the determination frame F is moved from left to right at the height of F3 so that the determination frame F overlaps with the locus passed by F2. The determination is made while the 123 is moving.

判定部1112が判定した結果により、色彩変更部124が色彩を変更することで、悪性病変の部位の色彩が変更され、悪性病変の位置や形状を明確に表示することが出来る。詳細は次に示す。 Based on the result of the determination by the determination unit 1112, the color change unit 124 changes the color, so that the color of the site of the malignant lesion is changed, and the position and shape of the malignant lesion can be clearly displayed. Details are shown below.

図19は、色彩変更部が判定枠内の判定範囲の色彩を変更した様子を示す図である。
図19(A)は、判定枠F内の判定範囲が良性であり、色彩変更部124が色彩変更を行わなかった様子を示している。
FIG. 19 is a diagram showing how the color changing unit changes the color of the determination range in the determination frame.
FIG. 19A shows that the determination range in the determination frame F is benign and the color changing unit 124 does not change the color.

このように、移動する判定枠F内の判定範囲が良性である限り、判定医療映像の色彩が色彩変更部124によって変更されることはないので、判定医療映像になんら変化は見られない。 As described above, as long as the determination range in the moving determination frame F is benign, the color of the determination medical image is not changed by the color changing unit 124, so that no change is seen in the determination medical image.

図19(B)は、判定枠F内の判定範囲が悪性であり、色彩変更部124が色彩変更を行った様子を示している。
このように、移動する判定枠F内の判定範囲が悪性である場合、判定医療映像の色彩が色彩変更部124によって変更されるので、悪性部分が明確になる。また色彩変更部124が行う色彩変更を半透明化した色彩を判定範囲の上に重ねることで、重複した部分の色が重なり、より強調して見えるようになる。
FIG. 19B shows that the determination range in the determination frame F is malignant and the color changing unit 124 changes the color.
In this way, when the determination range in the moving determination frame F is malignant, the color of the determination medical image is changed by the color changing unit 124, so that the malignant portion becomes clear. Further, by superimposing the semi-transparent color of the color change performed by the color changing unit 124 on the determination range, the colors of the overlapping portions are overlapped and the color is more emphasized.

このように色彩変更部124が行う色彩変更を半透明化した色彩を判定範囲の上に重ねることで、従来では困難であった細長い悪性病変や複雑な形状をした病変部位であっても、図19(C)のように悪性病変の位置や形状を明確に表示することができる。 By superimposing the translucent color of the color change performed by the color change unit 124 on the determination range in this way, even if it is an elongated malignant lesion or a lesion site having a complicated shape, which was difficult in the past, the figure is shown. The position and shape of the malignant lesion can be clearly displayed as in 19 (C).

図19(C)では、悪性病変の境界部分は、色彩変更部124によって色彩変更された判定枠F内の判定範囲が重ならないため薄く表示され、悪性病変の中心部分は、色彩変更された判定範囲が重なるため濃く表示されていることが分かる。 In FIG. 19C, the boundary portion of the malignant lesion is displayed lightly because the determination ranges in the determination frame F whose color has been changed by the color change portion 124 do not overlap, and the central portion of the malignant lesion is determined to have changed color. It can be seen that the areas are displayed darkly because they overlap.

なお判定枠Fが移動する大きさは任意に設定できるが、前述したように判定枠Fの移動値が多ければ、判定枠Fが最後まで到達する時間が短くなるため、判定医療映像の映像処理を行なうための時間を短くすることができる。 The size of the movement of the judgment frame F can be arbitrarily set, but as described above, if the movement value of the judgment frame F is large, the time for the judgment frame F to reach the end is shortened. The time to do this can be shortened.

また判定枠Fの大きさを小さくし、判定枠Fの移動値を小さくすることで、細かい判定が可能となる。このため病変部分の境界部分の表示が明確になり、図20(C)のように病変部分周辺の境界部分を明確に表示することができる。 Further, by reducing the size of the determination frame F and reducing the movement value of the determination frame F, fine determination can be made. Therefore, the display of the boundary portion of the lesion portion becomes clear, and the boundary portion around the lesion portion can be clearly displayed as shown in FIG. 20 (C).

図20は、判定医療映像に悪性病変の部位を明確にした状態を示す図である。
図20に示すように、判定部1112が悪性と判定した部位を、色彩変更部124が色彩変更することで、黒丸内に示されるように病変の部位を明確にすることができる。このため医師が判定医療映像を見る際に見落としがないよう注意喚起ができ、医師の正確な診断率が上昇する。
FIG. 20 is a diagram showing a state in which the site of a malignant lesion is clarified in a judgment medical image.
As shown in FIG. 20, by changing the color of the site determined to be malignant by the determination unit 1112 by the color changing unit 124, the lesion site can be clarified as shown in the black circle. For this reason, the doctor can be alerted not to overlook when viewing the judgment medical image, and the accurate diagnosis rate of the doctor increases.

本実施の形態で示した例では、医療映像装置200で撮影した判定医療映像であるマンモグラフィ検査の静止画像を例として挙げたが、映像処理装置100は静止画像だけを処理するだけでなく、医療映像装置200が撮影した動画を、判定手段110が判定処理を行い、映像処理手段120が映像処理を行うことで、動画上でも病変部位を明確にすることができる。 In the example shown in the present embodiment, a still image of a mammography inspection, which is a determination medical image taken by the medical image device 200, is taken as an example, but the image processing device 100 not only processes the still image but also medical treatment. The determination means 110 performs the determination processing on the moving image captured by the image device 200, and the image processing means 120 performs the image processing, so that the lesion site can be clarified even on the moving image.

また、映像処理装置100が行う映像処理は、エックス線や超音波、磁気共鳴などを用いて映像化したものだけでなく、判定手段110が必要な学習データを学習すれば、内視鏡検査や眼底カメラなどの可視光線の元で撮影された検査画像を、映像処理装置100が映像処理を行うことで、悪性病変の位置や形状を明確にすることもできる。 Further, the image processing performed by the image processing apparatus 100 is not limited to the one imaged by using X-rays, ultrasonic waves, magnetic resonance, or the like, but if the determination means 110 learns the necessary learning data, endoscopy or the fundus of the eye can be obtained. The position and shape of the malignant lesion can be clarified by the image processing apparatus 100 performing image processing on the inspection image taken under visible light such as a camera.

また、本実施の形態では、入力された判定医療映像全体を映像処理手段120が行なう映像処理によって、悪性病変の位置や形状を示したが、判定医療映像における映像処理手段120が行なう映像処理の範囲をあらかじめ特定し、その特定された範囲内で悪性病変の位置や形状を表示するようにしてもよい。 Further, in the present embodiment, the position and shape of the malignant lesion are shown by the image processing performed by the image processing means 120 on the entire input determination medical image, but the image processing performed by the image processing means 120 in the determination medical image is performed. The range may be specified in advance, and the position and shape of the malignant lesion may be displayed within the specified range.

10 病変検出装置
11 映像入力部
12 病変候補検出器
13 周辺客体検出器
14 病変候補検証器
15 候補除去器
16 ディスプレイ部
20、200 医療映像装置
30 脈絡情報
40 病変候補検出画像
41、42 病変候補領域
43 腺組織領域
100 映像処理装置
110 判定手段
111 判定処理部
112 学習データ記憶部
120 映像処理手段
121 判定除外処理部
122 判定範囲設定部
123 判定範囲移動部
124 色彩変更部
300 表示装置
1110 学習情報調整部
1111 学習部
1112 判定部
A 特定領域
F 判定枠
10 Lesion detector 11 Video input unit 12 Lesion candidate detector 13 Peripheral object detector 14 Lesion candidate verifier 15 Candidate remover 16 Display unit 20, 200 Medical imaging device 30 Correlation information 40 Lesion candidate detection image 41, 42 Lesion candidate area 43 Glandular tissue area 100 Image processing device 110 Judgment means 111 Judgment processing unit 112 Learning data storage unit 120 Video processing means 121 Judgment exclusion processing unit 122 Judgment range setting unit 123 Judgment range movement unit 124 Color change unit 300 Display device 1110 Learning information adjustment Part 1111 Learning part 1112 Judgment part A Specific area F Judgment frame

Claims (10)

入力された医療映像から特定病変を検出して表示する映像処理装置において、
判定範囲を特定する判定範囲特定手段と、
前記判定範囲で特定病変の有無を判定する判定手段と、
前記判定手段が判定した結果に応じて、色彩変更手段が色彩を変更した透明色である色彩透明色を前記医療映像の上の前記判定範囲が判定した範囲に重ねて表示する強調表示手段と、
前記判定手段が判定する一の判定範囲におけるほぼ全領域に、前記判定手段が判定する他の判定範囲を重ねるように前記判定範囲を移動させる判定範囲移動手段と、
を備え、
前記判定範囲が前記医療映像上を走査するように前記判定手段による処理、前記強調表示手段による処理、および前記判定範囲移動手段による処理が繰り返されること、
を特徴とする映像処理装置。
In an image processing device that detects and displays a specific lesion from the input medical image
Judgment range specifying means to specify the judgment range and
A determination means for determining the presence or absence of a specific lesion in the determination range,
A highlighting means for displaying a color transparent color, which is a transparent color whose color has been changed by the color changing means, overlaid on the range determined by the determination range on the medical image according to the result of the determination by the determination means.
A determination range moving means for moving the determination range so as to overlap another determination range determined by the determination means on almost the entire area in one determination range determined by the determination means.
Equipped with
The process by the determination means, the process by the highlighting means, and the process by the determination range moving means are repeated so that the determination range scans on the medical image.
A video processing device characterized by.
前記判定範囲の領域を任意に変更できる判定範囲変更手段、
を備えることを特徴とする請求項1記載の映像処理装置。
Judgment range changing means that can arbitrarily change the area of the judgment range,
The video processing apparatus according to claim 1, further comprising.
前記判定範囲移動手段が移動させる前記判定範囲の移動値を任意に変更できる移動値変更手段、
を備えることを特徴とする請求項1記載の映像処理装置。
A moving value changing means that can arbitrarily change the moving value of the determination range to be moved by the determination range moving means,
The video processing apparatus according to claim 1, further comprising.
前記医療映像から検出対象部以外を、前記判定手段が行う判定範囲から除外させる判定除外手段、
を備えることを特徴とする請求項1記載の映像処理装置。
A determination exclusion means for excluding a portion other than the detection target portion from the medical image from the determination range performed by the determination means.
The video processing apparatus according to claim 1, further comprising.
前記判定手段は、
前記判定手段が判定を行うべき特定病変の有無を決定するための学習手段、
を備えることを特徴とする請求項1記載の映像処理装置。
The determination means is
A learning means for determining the presence or absence of a specific lesion to be determined by the determination means,
The video processing apparatus according to claim 1, further comprising.
前記学習手段は、
ニューラルネットワークを用いたディープラーニングによって、学習用の医療映像から特定病変の特徴を抽出することを特徴とする請求項5記載の映像処理装置。
The learning means is
The image processing apparatus according to claim 5, wherein the characteristics of a specific lesion are extracted from a medical image for learning by deep learning using a neural network.
前記学習用の医療映像における特定病変有の情報と特定病変無の情報との比率を同等にする病変情報調整手段、
を備えることを特徴とする請求項6記載の映像処理装置。
A lesion information adjusting means for equalizing the ratio of information with a specific lesion and information without a specific lesion in the medical image for learning.
6. The video processing apparatus according to claim 6.
前記病変情報調整手段は、
複数に分割した特定病変無の情報を、特定病変有の情報に対して入れ替えながら比率を調整することを特徴とする請求項7記載の映像処理装置。
The lesion information adjusting means is
The image processing apparatus according to claim 7, wherein the information of no specific lesion divided into a plurality of pieces is replaced with the information of the presence of a specific lesion to adjust the ratio.
入力された医療映像から特定病変を検出して表示する映像処理方法において、
判定範囲特定手段が、判定範囲を特定するステップと、
判定手段が、前記判定範囲で特定病変の有無を判定するステップと、
強調表示手段が、前記判定手段が判定した結果に応じて、色彩変更手段が色彩を変更した透明色である色彩透明色を前記医療映像の上の前記判定範囲が判定した範囲に重ねて表示するステップと、
判定範囲移動手段が、前記判定手段が判定する一の判定範囲におけるほぼ全領域に、前記判定手段が判定する他の判定範囲を重ねるように前記判定範囲を移動させるステップと、
を備え、
前記判定範囲が前記医療映像上を走査するように前記判定手段による処理、前記強調表示手段による処理、および前記判定範囲移動手段による処理が繰り返されること、
を特徴とする映像処理方法。
In the video processing method that detects and displays a specific lesion from the input medical video,
The step in which the determination range specifying means specifies the determination range,
A step in which the determination means determines the presence or absence of a specific lesion within the determination range,
The highlighting means displays a color transparent color, which is a transparent color whose color has been changed by the color changing means, overlaid on the range determined by the determination range on the medical image according to the result determined by the determination means. Steps and
A step in which the determination range moving means moves the determination range so that the other determination ranges determined by the determination means overlap with almost the entire area in one determination range determined by the determination means.
Equipped with
The process by the determination means, the process by the highlighting means, and the process by the determination range moving means are repeated so that the determination range scans on the medical image.
A video processing method characterized by.
入力された医療映像から特定病変を検出して表示する映像処理プログラムにおいて、
コンピュータを、
判定範囲を特定する判定範囲特定手段、
前記判定範囲で特定病変の有無を判定する判定手段、
前記判定手段が判定した結果に応じて、色彩変更手段が色彩を変更した透明色である色彩透明色を前記医療映像の上の前記判定範囲が判定した範囲に重ねて表示する強調表示手段、
前記判定手段が判定する一の判定範囲におけるほぼ全領域に、前記判定手段が判定する他の判定範囲を重ねるように前記判定範囲を移動させる判定範囲移動手段、
として機能させ、
前記判定範囲が前記医療映像上を走査するように前記判定手段による処理、前記強調表示手段による処理、および前記判定範囲移動手段による処理が繰り返されること、
を特徴とする映像処理プログラム。
In a video processing program that detects and displays a specific lesion from the input medical video
Computer,
Judgment range specifying means to specify the judgment range,
A determination means for determining the presence or absence of a specific lesion in the determination range,
A highlighting means for displaying a color transparent color, which is a transparent color whose color has been changed by the color changing means, overlaid on the range determined by the determination range on the medical image according to the result of the determination by the determination means.
A determination range moving means for moving the determination range so that the other determination ranges determined by the determination means are overlapped with almost the entire area in one determination range determined by the determination means.
To function as
The process by the determination means, the process by the highlighting means, and the process by the determination range moving means are repeated so that the determination range scans on the medical image.
A video processing program featuring.
JP2017164029A 2017-08-29 2017-08-29 Video processing equipment, video processing methods, and video processing programs Active JP6990540B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017164029A JP6990540B2 (en) 2017-08-29 2017-08-29 Video processing equipment, video processing methods, and video processing programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017164029A JP6990540B2 (en) 2017-08-29 2017-08-29 Video processing equipment, video processing methods, and video processing programs

Publications (2)

Publication Number Publication Date
JP2019037692A JP2019037692A (en) 2019-03-14
JP6990540B2 true JP6990540B2 (en) 2022-01-12

Family

ID=65724816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017164029A Active JP6990540B2 (en) 2017-08-29 2017-08-29 Video processing equipment, video processing methods, and video processing programs

Country Status (1)

Country Link
JP (1) JP6990540B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020226224A1 (en) * 2019-05-07 2020-11-12 주식회사 사운드플렛폼 Artificial intelligence-based sound source processing method, device and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007052634A1 (en) 2005-11-02 2007-05-10 Hitachi Medical Corporation Image analyzing device and method
JP2016198197A (en) 2015-04-08 2016-12-01 株式会社エクスメディオ Diagnosis support system and application program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0737056A (en) * 1993-07-19 1995-02-07 Toshiba Corp Medical diagnosis support device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007052634A1 (en) 2005-11-02 2007-05-10 Hitachi Medical Corporation Image analyzing device and method
JP2016198197A (en) 2015-04-08 2016-12-01 株式会社エクスメディオ Diagnosis support system and application program

Also Published As

Publication number Publication date
JP2019037692A (en) 2019-03-14

Similar Documents

Publication Publication Date Title
US11151721B2 (en) System and method for automatic detection, localization, and semantic segmentation of anatomical objects
CN110600122B (en) Digestive tract image processing method and device and medical system
US10244991B2 (en) Method and system for providing recommendation for optimal execution of surgical procedures
CN112543941A (en) System and method for training generative confrontation networks and using trained generative confrontation networks
CN109858540B (en) Medical image recognition system and method based on multi-mode fusion
JP2021002338A (en) Method and system for image segmentation and identification
CN112567381A (en) System and method for processing real-time video from a medical imaging device and detecting objects in the video
US7894653B2 (en) Automatic organ detection using machine learning and classification algorithms
WO2006126384A1 (en) Abnormal shadow candidate display method, and medical image processing system
JP2005519685A (en) Pixel coding method, image processing method, and image processing method for qualitative recognition of an object reproduced by one or more pixels
González-Gonzalo et al. Iterative augmentation of visual evidence for weakly-supervised lesion localization in deep interpretability frameworks: application to color fundus images
JP2020166813A (en) Medical image processing device, medical image processing method, and program
KR20220095342A (en) The diagnostic method and system of lymph node metastasis in thyroid cancer using ct image
KR20160118037A (en) Apparatus and method for detecting lesion from medical image automatically
CN113012093B (en) Training method and training system for glaucoma image feature extraction
Gross et al. Polyp segmentation in NBI colonoscopy
CN112334990A (en) Automatic cervical cancer diagnosis system
JP6990540B2 (en) Video processing equipment, video processing methods, and video processing programs
CN109447948B (en) Optic disk segmentation method based on focus color retina fundus image
JP2004187998A (en) Apparatus for extracting abnormal shadow shape
JP2020010804A (en) Medical image diagnosis support apparatus, program, and medical image diagnosis support method
Mahoro et al. Breast masses detection on mammograms using recent one-shot deep object detectors
KR102446345B1 (en) Control method, apparatus and program for lesion determination system obtained by breast imaging
JP2022117177A (en) Device, method, and program for processing information
JP2005211439A (en) Abnormal shadow display device and program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200518

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210312

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210713

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211206

R150 Certificate of patent or registration of utility model

Ref document number: 6990540

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150