JP7283878B2 - VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM - Google Patents
VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM Download PDFInfo
- Publication number
- JP7283878B2 JP7283878B2 JP2018179275A JP2018179275A JP7283878B2 JP 7283878 B2 JP7283878 B2 JP 7283878B2 JP 2018179275 A JP2018179275 A JP 2018179275A JP 2018179275 A JP2018179275 A JP 2018179275A JP 7283878 B2 JP7283878 B2 JP 7283878B2
- Authority
- JP
- Japan
- Prior art keywords
- luminance
- tissue
- brightness
- evaluation range
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 165
- 238000003672 processing method Methods 0.000 title claims description 8
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 210000001519 tissue Anatomy 0.000 claims description 174
- 238000011156 evaluation Methods 0.000 claims description 169
- 238000004364 calculation method Methods 0.000 claims description 146
- 210000000577 adipose tissue Anatomy 0.000 claims description 84
- 210000005075 mammary gland Anatomy 0.000 claims description 74
- 210000000481 breast Anatomy 0.000 claims description 73
- 238000001514 detection method Methods 0.000 claims description 30
- 238000000034 method Methods 0.000 claims description 20
- 238000006243 chemical reaction Methods 0.000 claims description 19
- 239000000203 mixture Substances 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 11
- 238000013135 deep learning Methods 0.000 claims description 9
- 238000013528 artificial neural network Methods 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims 1
- 235000019557 luminance Nutrition 0.000 description 252
- 238000009607 mammography Methods 0.000 description 112
- 238000005259 measurement Methods 0.000 description 57
- 238000010586 diagram Methods 0.000 description 28
- 238000002059 diagnostic imaging Methods 0.000 description 26
- 210000003205 muscle Anatomy 0.000 description 22
- 230000000873 masking effect Effects 0.000 description 21
- 238000012216 screening Methods 0.000 description 18
- 210000000062 pectoralis major Anatomy 0.000 description 14
- 238000003745 diagnosis Methods 0.000 description 9
- 206010028980 Neoplasm Diseases 0.000 description 8
- 239000000284 extract Substances 0.000 description 7
- 206010006187 Breast cancer Diseases 0.000 description 6
- 208000026310 Breast neoplasm Diseases 0.000 description 6
- 238000002604 ultrasonography Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000011176 pooling Methods 0.000 description 4
- 201000011510 cancer Diseases 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000003902 lesion Effects 0.000 description 3
- 230000008520 organization Effects 0.000 description 3
- 210000003491 skin Anatomy 0.000 description 3
- 208000024891 symptom Diseases 0.000 description 3
- 208000004930 Fatty Liver Diseases 0.000 description 2
- 206010019708 Hepatic steatosis Diseases 0.000 description 2
- 210000004027 cell Anatomy 0.000 description 2
- 208000010706 fatty liver disease Diseases 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 210000004185 liver Anatomy 0.000 description 2
- 210000002445 nipple Anatomy 0.000 description 2
- 230000005855 radiation Effects 0.000 description 2
- 231100000240 steatosis hepatitis Toxicity 0.000 description 2
- 208000001145 Metabolic Syndrome Diseases 0.000 description 1
- 201000000690 abdominal obesity-metabolic syndrome Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000004958 brain cell Anatomy 0.000 description 1
- 206010008118 cerebral infarction Diseases 0.000 description 1
- 208000026106 cerebrovascular disease Diseases 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000035606 childbirth Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000001839 endoscopy Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 239000008267 milk Substances 0.000 description 1
- 210000004080 milk Anatomy 0.000 description 1
- 235000013336 milk Nutrition 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 238000013421 nuclear magnetic resonance imaging Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 230000035935 pregnancy Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Landscapes
- Apparatus For Radiation Diagnosis (AREA)
Description
本発明は、映像処理装置、映像処理方法、および映像処理プログラムに関し、特に入力された医療映像内で、評価する評価対象組織の評価範囲における構成組織の割合を算出する映像処理装置、映像処理方法、および映像処理プログラムに関する。 TECHNICAL FIELD The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly, an image processing apparatus and an image processing method for calculating the ratio of constituent tissues within an evaluation range of an evaluation target tissue to be evaluated in an input medical image. , and video processing programs.
従来から、身体の外側から診るだけでは分からない臓器の形態、病変の有無などを画像として映し出すことで診断を行う画像診断が知られている。画像診断は、例えばエックス線や超音波、磁気共鳴などを用いて映像化したものや、内視鏡検査や眼底カメラなどの可視光線のもとで撮影された検査画像をもとに医師が診断している。 2. Description of the Related Art Conventionally, image diagnosis is known in which diagnosis is performed by displaying an image of the shape of an organ, the presence or absence of a lesion, etc., which cannot be determined only by examining the body from the outside. Imaging diagnosis is made by a doctor based on images created using, for example, X-rays, ultrasound, or magnetic resonance, or examination images taken under visible light such as endoscopy or a fundus camera. ing.
例えば、乳がん検診の一つであるマンモグラフィ検診では、マンモグラフィと呼ばれる乳房専用のエックス線撮影装置が用いられている。このマンモグラフィ検診で画像診断を行うことで、少ない放射線の量で安全に乳がんなどの病変を早期に検出することができる(たとえば、特許文献1参照)。 For example, in mammography examination, which is one of breast cancer examinations, an X-ray imaging apparatus exclusively for the breast called mammography is used. By performing image diagnosis by mammography screening, it is possible to safely detect lesions such as breast cancer at an early stage with a small amount of radiation (see, for example, Patent Document 1).
このマンモグラフィ検診には、石灰化した乳腺の全体像をとらえることができること、検診の継続によって死亡率が低下することが統計学的に証明されていること、撮影方法が一定であり過去の画像と比較しやすいこと、などのメリットがある。 This mammography screening should be able to capture the whole picture of calcified mammary glands, it has been statistically proven that the mortality rate is reduced by continuing screening, It has advantages such as ease of comparison.
一方で、マンモグラフィ検診のデメリットとしては、痛みを伴うこと、少量ながらも被曝すること、などが挙げられる。さらには妊娠適齢期といわれる20~30代前半などの年齢では、乳房内で乳腺が発達しており、この発達した乳腺の量により詳細な診断ができないことがある。 On the other hand, the disadvantages of screening mammography include pain and exposure to a small amount of radiation. Furthermore, at ages such as the 20s and early 30s, which are said to be suitable for pregnancy, the mammary glands are developed in the breast, and detailed diagnosis may not be possible due to the amount of mammary glands that have developed.
発達した乳腺の量によりマンモグラフィ検診で詳細な診断ができない理由としては、マンモグラフィ検診で撮影されたマンモグラフィ画像では、乳腺もがんも白く描画されてしまうため、乳房内で乳腺が発達した状態だと、がんを正確に検出することが困難になるためである。 The reason why a detailed diagnosis cannot be made by mammography screening due to the amount of developed mammary glands is that both the mammary glands and cancer are drawn white in the mammography image taken by mammography screening, so if the mammary glands have developed in the breast, This is because it becomes difficult to accurately detect n.
具体的には、乳がん検診で検査を行う乳房は、乳腺組織と呼ばれる出産時に乳汁を分泌する組織と、乳腺組織を支える脂肪組織、血管、神経などで構成されており、マンモグラフィ検診では、エックス線を透過させる脂肪が多ければ多いほど全体が黒く透けるように描画され、エックス線を吸収する乳腺組織が多ければ多いほど全体的に白っぽく描画される。 Specifically, the breast examined in breast cancer screening consists of mammary gland tissue, the tissue that secretes milk during childbirth, and fat tissue, blood vessels, nerves, etc. that support the mammary gland tissue. The more fat to be transmitted, the more black and transparent the whole image is drawn.
図20は、乳房の構成の分類を示すマンモグラフィ画像の一例を示す図である。
図20に示すように、マンモグラフィ画像による乳房は、白く描画される乳腺組織と、黒く描画される脂肪組織との量を比較することで大きく脂肪性、乳腺散在、不均一高濃度、極めて高濃度の4種類に分類されている。
FIG. 20 is an example of a mammography image showing the classification of breast structure.
As shown in FIG. 20, the mammography image of the breast was compared with the amount of mammary gland tissue drawn in white and the amount of adipose tissue drawn in black. are classified into four types.
脂肪性とは、乳房がほぼ完全に脂肪に置き換えられた状態である。乳腺散在とは、脂肪に置き換えられた乳房内に乳腺が散在している状態であり、乳腺内の脂肪が70~90%程度が目安とされている。 Fatty is a condition in which the breast is almost completely replaced with fat. Scattered mammary glands are a condition in which mammary glands are scattered in the breast replaced with fat, and fat in mammary glands is considered to be approximately 70 to 90%.
不均一高濃度とは、乳腺実質内に脂肪が混在し、不均一な濃度の状態であり、乳腺内の脂肪が40~50%程度が目安とされている。極めて高濃度とは、乳腺実質内に脂肪の混在はほとんどない状態であり、乳腺内の脂肪が10~20%程度が目安とされている。 A non-uniform high concentration is a state in which fat is mixed in the parenchyma of the mammary gland and has a non-uniform concentration. A very high concentration means that there is almost no fat mixed in the parenchyma of the mammary gland, and fat in the mammary gland is considered to be approximately 10 to 20%.
これらの乳房構成の分類について、マンモグラフィガイドラインでは、不均一高濃度と極めて高濃度とに分類される状態をdense breast(以下、デンスブレストと称する)と定義され、マンモグラフィ画像で乳房が白く描画されてしまうため、仮に乳房内に腫瘤などの病変があったとしても、白く描画される乳腺に隠れて見えない場合がある状態とされている。 Regarding the classification of these breast structures, mammography guidelines define dense breast as the condition classified into non-uniform high density and extremely high density, and the breast is drawn white in mammography images. Therefore, even if there is a lesion such as a tumor in the breast, it may not be visible because it is hidden by the white-drawn mammary gland.
具体的には、マンモグラフィ検診では、がんを見つけるうえで重要な腫瘤はエックス線を吸収するためマンモグラフィ画像で白く描画される。ところが、発達した乳腺組織により全体が白っぽく描画されるデンスブレストの場合では、全体が白っぽく描画される中に重なって腫瘤が白く描画されるため、雪山で白いウサギを見つけるように、デンスブレストの画像で腫瘤を検出するのは非常に困難であった。 Specifically, in mammography screening, tumors that are important for detecting cancer are drawn white in mammography images because they absorb X-rays. However, in the case of the dense breast, which is drawn whitish as a whole due to the development of mammary gland tissue, the tumor is drawn white while overlapping the entire drawn whitish. It was very difficult to detect the mass in
このようなデンスブレストは、マンモグラフィ検診の感度が低く、乳がんの罹患リスクが高いとされている。特に、アジア人の場合においては、全体の7割近くがデンスブレストだとされている。 Such dense breasts are associated with low sensitivity of screening mammography and high risk of breast cancer. Especially in the case of Asians, close to 70% of the total is said to be dense breast.
このようにマンモグラフィ検診でデンスブレストと評価された検診者は、デンスブレストと評価された検診者でも腫瘤を検出できる超音波検査を行うことで、マンモグラフィ検診では見つかりにくい腫瘤も検出できるとされている。 In this way, it is said that even those who are evaluated as having dense breasts can detect tumors that are difficult to find in mammography screening by conducting ultrasound examinations that can detect tumors even in those who are evaluated as having dense breasts. .
しかし、デンスブレストの定義は、上記のように乳腺内の脂肪が10~20%程度が目安の極めて高濃度、または乳腺内の脂肪が40~50%程度が目安の不均一高濃度とされており、定義がはっきりしていないため線引きが難しく、マンモグラフィ画像を診る医師によってデンスブレストの評価が毎回異なる場合があり、信憑性に欠ける問題があった。また、デンスブレストの評価はもちろん、脂肪性、乳腺散在、不均一高濃度、極めて高濃度に分類する識別も同様に困難であった。 However, as mentioned above, the definition of dense breast is an extremely high concentration of fat in the mammary glands of about 10-20%, or a non-uniform high concentration of fat in the mammary glands of about 40-50%. It is difficult to draw a line because the definition is not clear, and the evaluation of dense breast may differ each time depending on the doctor who examines mammography images, which is a problem of lack of credibility. In addition to the evaluation of dense breasts, it was also difficult to distinguish between fatty, scattered mammary glands, heterogeneous high density, and extremely high density.
具体的には、デンスブレストは、マンモグラフィ画像を医師が診て判断している。しかし、画像を診ただけで脂肪と乳腺組織との割合を算出することは難しく、医師の経験や感覚により判断されている。このため医師によってデンスブレストの判断が異なる場合が生じている。つまり同じマンモグラフィ画像を見ても、医師によってデンスブレストの判断が異なる場合がある。 Specifically, Dense Breast is determined by a physician examining mammography images. However, it is difficult to calculate the ratio of fat and mammary gland tissue just by looking at the image, and it is determined based on the experience and sense of the doctor. For this reason, doctors sometimes judge dense breast differently. In other words, even when looking at the same mammography image, doctors may judge dense breast differently.
このため、あいまいなままデンスブレストと評価されてしまうと、検診者に不安を煽るだけでなく、マンモグラフィ検診は意味がないものと勘違いされてしまい、マンモグラフィ検診の検診率が低下してしまうため、がんの早期発見率も低下してしまう問題につながってしまう。 For this reason, if it is evaluated as dense breast without ambiguity, it will not only make the examinee feel uneasy, but also misunderstand that mammography screening is meaningless, and the screening rate of mammography screening will decrease. It leads to the problem that the early detection rate of cancer decreases.
仮に、デンスブレストと評価された場合は、超音波検査を行うことが一般的であるが、超音波検査では、全体の写真を残せないため、後から見直すときに情報が部分的に限られることになり評価が困難なことや、検査を行う者の技術に大きく影響されるため客観性に乏しいことなどのデメリットがある。 If it is evaluated as a dense breast, it is common to perform an ultrasound examination, but since an ultrasound examination cannot leave a picture of the whole, the information is partially limited when reviewing it later. There are disadvantages such as the difficulty of evaluation due to the large number of people, and the lack of objectivity because it is greatly affected by the skill of the person who performs the examination.
また、現在の医療現場では、まだ乳がん検診の超音波検査機器が全体に普及しきれておらず、あいまいな判断でデンスブレストと評価され、超音波検査を受ける検査者が増加すると、医療現場で超音波検査機器の受け皿が少ないため、検診業務が正常に機能しなくなる問題が考えられる。
このように、デンスブレストのあいまいな判断は、検診者への負担が増加するだけでなく、医療現場への負担も増加してしまう問題があった。
In addition, in the current medical field, ultrasound examination equipment for breast cancer screening has not yet spread to the whole. Since there are not enough receptacles for ultrasound examination equipment, it is conceivable that the examination work will not function normally.
In this way, the ambiguous determination of the dense breast not only increases the burden on the examiner, but also increases the burden on the medical practice.
このデンスブレストのあいまいな判断の原因としては、次のことも考えられる。
近年ではマンモグラフィ検診を含むエックス線を用いた画像診断は、人体を透過したエックス線情報をフィルムに感光させてアナログのレントゲン写真を描出するアナログ方式から、エックス線情報をデジタル化したデジタル方式に移行している。
The following is also considered as a cause of this ambiguous judgment of Dense Breast.
In recent years, diagnostic imaging using X-rays, including mammography, has shifted from an analog method, in which the X-ray information transmitted through the human body is exposed to film to create an analog X-ray photograph, to a digital method in which the X-ray information is digitized. .
デジタル化されたエックス線情報は、デジタル処理を施すことができるので、画質のバラツキを抑えることができ、医師の診断に大きく貢献できるようになっている。ところが、デジタル化されたエックス線情報は、コントラストの調整などのデジタル処理を自由にできてしまうため、デジタル処理の調整によっては、画像全体を白く調整することも可能となる。 Since digitized X-ray information can be digitally processed, variations in image quality can be suppressed, which greatly contributes to doctors' diagnosis. However, digitized X-ray information can be freely subjected to digital processing such as contrast adjustment, so it is possible to adjust the entire image to be white depending on the adjustment of digital processing.
このように、デジタル方式の画像は、コントラストの調整などのデジタル処理でマンモグラフィ画像全体を白く調整された状態で医師が判断することで、デンスブレストと評価されてしまう恐れや、逆にデンスブレストであるはずの画像が、デジタル処理の調整でマンモグラフィ画像全体を黒く調整することによってデンスブレストではないと評価されてしまう恐れがある。 In this way, there is a risk that digital images will be evaluated as having dense breasts if the doctor judges that the entire mammography image has been adjusted to white by digital processing such as contrast adjustment, There is a risk that an image that should be there may be judged as not densely breasted by adjusting the overall mammography image to be black in digital processing adjustments.
本発明はこのような点に鑑みてなされたものであり、医療映像内の一定範囲における組織の割合を的確に評価し判断することができる映像処理装置、映像判定方法、および映像判定プログラムを提供することを目的とする。 The present invention has been made in view of these points, and provides an image processing apparatus, an image determination method, and an image determination program capable of accurately evaluating and determining the proportion of tissue in a certain range in a medical image. intended to
本発明では上記問題を解決するために、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理装置において、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出する基準組織輝度算出手段と、前記評価範囲の輝度である評価範囲輝度を算出する評価範囲輝度算出手段と、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出する基準輝度割合算出手段とを備えることを特徴とする映像処理装置が提供される。 In the present invention, in order to solve the above problem, in an image processing device for calculating the composition ratio in an evaluation range of a tissue whose condition is to be evaluated in an input medical image, a reference tissue is used as a reference for calculating the composition ratio. a reference tissue luminance calculating means for calculating a reference tissue luminance which is the luminance of the evaluation range luminance; an evaluation range luminance calculating means for calculating an evaluation range luminance which is the luminance of the evaluation range; and a reference luminance ratio calculating means for calculating the ratio.
これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。 Thereby, the reference tissue luminance calculation means calculates the reference tissue luminance, which is the luminance of the reference tissue used as a reference for calculating the composition ratio, and the evaluation range luminance calculation means calculates the evaluation range luminance, which is the luminance of the evaluation range. The reference luminance ratio calculating means calculates the ratio of the evaluation tissue luminance to the reference range luminance.
また本発明では、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理方法において、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出するステップと、評価範囲輝度算出手段が、前記評価範囲の輝度である評価範囲輝度を算出するステップと、基準輝度割合算出手段が、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出するステップとを備えることを特徴とする映像処理方法が提供される。 Further, in the present invention, in the image processing method for calculating the composition ratio in the evaluation range of the tissue whose condition is to be evaluated in the input medical image, the reference tissue luminance calculation means sets the reference as a reference for calculating the composition ratio. a step of calculating a reference tissue luminance that is the luminance of a tissue; a step of calculating an evaluation range luminance that is the luminance of the evaluation range by means of evaluation range luminance calculation means; and calculating the ratio of the evaluated tissue luminance.
これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。 Thereby, the reference tissue luminance calculation means calculates the reference tissue luminance, which is the luminance of the reference tissue used as a reference for calculating the composition ratio, and the evaluation range luminance calculation means calculates the evaluation range luminance, which is the luminance of the evaluation range. The reference luminance ratio calculating means calculates the ratio of the evaluation tissue luminance to the reference range luminance.
また本発明では、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理プログラムにおいて、コンピュータを、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出する基準組織輝度算出手段、前記評価範囲の輝度である評価範囲輝度を算出する評価範囲輝度算出手段、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出する基準輝度割合算出手段として機能させることを特徴とする映像処理プログラムが提供される。 Further, in the present invention, in the image processing program for calculating the composition ratio of the tissue whose condition is to be evaluated in the evaluation range in the input medical image, the computer is operated with the luminance of the reference tissue used as the reference for calculating the composition ratio. reference tissue luminance calculation means for calculating a certain reference tissue luminance; evaluation range luminance calculation means for calculating evaluation range luminance that is the luminance of the evaluation range; a standard for calculating the ratio of the evaluation tissue luminance to the reference range luminance A video processing program characterized by functioning as luminance ratio calculation means is provided.
これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。 Thereby, the reference tissue luminance calculation means calculates the reference tissue luminance, which is the luminance of the reference tissue used as a reference for calculating the composition ratio, and the evaluation range luminance calculation means calculates the evaluation range luminance, which is the luminance of the evaluation range. The reference luminance ratio calculating means calculates the ratio of the evaluation tissue luminance to the reference range luminance.
本発明の映像処理装置、映像処理方法、および映像処理プログラムによれば、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出するので、医療映像内の一定範囲における組織の割合を的確に評価し判断することができる。 According to the video processing device, the video processing method, and the video processing program of the present invention, the reference tissue brightness calculating means calculates the reference tissue brightness, which is the brightness of the reference tissue used as a reference for calculating the composition ratio, and evaluates it. The range luminance calculation means calculates the evaluation range luminance, which is the luminance of the evaluation range, and the reference luminance ratio calculation means calculates the ratio of the evaluation tissue luminance to the reference range luminance. It is possible to accurately evaluate and judge the ratio of the organization.
以下、本発明の実施の形態を、図面を参照して詳細に説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る映像処理装置の概念を示すブロック図である。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First embodiment]
FIG. 1 is a block diagram showing the concept of a video processing device according to the first embodiment.
本発明は、従来、医師が医療映像を読影することで判断していたが、その読影は医師の経験や感覚の差により判断に大きく差があったものを、本発明の映像処理装置100が医療映像を処理することで、客観的な評価方法を確立し、医師の正確な診断率を上昇させるものである。 In the present invention, conventionally, a doctor makes a judgment by interpreting a medical image. By processing medical images, it establishes an objective evaluation method and increases the accuracy of diagnosis by doctors.
なおここでは便宜上、映像処理装置100を用いて医療映像装置200より入力された医療映像を、マンモグラフィ検診により撮影されたマンモグラフィ画像として、映像処理装置100がデンスブレストを評価する場合で説明する。
For the sake of convenience, a case in which the
医療映像装置200は、例えばエックス線装置、コンピュータ断層撮影装置、核磁気共鳴画像装置、超音波検査装置などによって撮影される医療映像を撮影するための装置である。
The
この医療映像装置200によって撮影された静止画や動画を本発明の映像処理装置100が処理を行い、入力されたマンモグラフィ画像などの医療映像からデンスブレストの評価結果を表示手段300に出力することができる。
The
表示手段300は、例えばパソコンに接続されることで与えられた情報を表示するディスプレイや、入力された情報を印刷して表示するプリンターや、写真などを現像する現像機などが挙げられる。
The
次に、映像処理装置100の詳細を説明する。
図1に示すように、映像処理装置100は、マスク処理部110、基準組織輝度算出部120、評価範囲輝度算出部130、基準輝度割合算出部140、状態判断部150、および情報記憶部160を備えている。また映像処理装置100は、医療映像装置200および表示手段300に接続されている。
Next, details of the
As shown in FIG. 1, the
マスク処理部110は、医療映像装置200、基準組織輝度算出部120、および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像をマスク処理するためのものである。
The
ここでいうマスク処理とは、医療映像装置200から入力されたマンモグラフィ画像から特定部分のみを抽出し、抽出された特定部分以外を表示しないようにする画像処理のことである。
The mask processing referred to here is image processing for extracting only a specific portion from the mammography image input from the
具体的には、マンモグラフィ検診により撮影されたマンモグラフィ画像から、筋肉や皮膚、乳頭などを除外し、デンスブレストの評価対象となる乳腺組織が存在する範囲のみを評価範囲として抽出し、乳腺組織以外の部分を表示しないようにする画像処理をマスク処理部110が行う。具体的な画像処理方法は後述する。
Specifically, muscles, skin, and nipples are excluded from mammography images taken by mammography screening, and only the range where the breast tissue targeted for dense breast evaluation exists is extracted as the evaluation range. The
マスク処理部110によりマスク処理された画像、およびマスク処理前のマンモグラフィ画像は、接続された情報記憶部160にマスク処理部110が記憶させる。またマスク処理部110の処理が完了すると、マスク処理部110は、接続された基準組織輝度算出部120に処理が完了したことを通知する。
The
基準組織輝度算出部120は、マスク処理部110、評価範囲輝度算出部130、および情報記憶部160に接続されており、医療映像装置200により入力されたマンモグラフィ画像からデンスブレストの評価の基準となる脂肪組織の輝度を算出するためのものである。
The reference tissue
前述したとおり、デンスブレストは乳腺内の脂肪の割合で評価されるものであり、ここでは基準組織輝度算出部120が基準となる組織として脂肪組織の輝度を算出する。またここでいう輝度とは、医療映像装置200により入力されたマンモグラフィ画像の明るさである白さの度合いを示すものであり、基準組織輝度算出部120はマンモグラフィ画像のうち脂肪組織の輝度を算出するためのものである。
As described above, dense breast is evaluated by the proportion of fat in the mammary gland, and here, the reference
基準組織輝度算出部120は、マスク処理部110の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理前のマンモグラフィ画像を呼び出し、呼び出したマンモグラフィ画像からデンスブレストの評価の基準となる脂肪組織の輝度を算出し、算出した脂肪組織の輝度を情報記憶部160に記憶させる。具体的な基準組織である脂肪組織の輝度の算出方法は後述する。また、基準組織輝度算出部120の処理が完了すると、基準組織輝度算出部120は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。
Upon receiving the notification that the processing of the
評価範囲輝度算出部130は、基準組織輝度算出部120、基準輝度割合算出部140、および情報記憶部160に接続されており、マスク処理部110が処理した乳腺組織が存在する評価範囲の輝度を算出するためのものである。
The evaluation range
評価範囲輝度算出部130は、基準組織輝度算出部120の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理後のマンモグラフィ画像を呼び出し、乳腺組織が存在する評価範囲における各部位の輝度を算出し、算出した評価範囲における各部位の輝度を情報記憶部160に記憶させる。具体的な算出方法は後述する。また、評価範囲輝度算出部130の処理が完了すると、評価範囲輝度算出部130は、接続された基準輝度割合算出部140に処理が完了したことを通知する。
Upon receiving the notification that the processing of the reference tissue
基準輝度割合算出部140は、評価範囲輝度算出部130、状態判断部150、および情報記憶部160に接続されており、評価範囲輝度算出部130が算出した乳腺組織が存在する評価範囲における脂肪組織の割合を算出するためのものである。
The reference luminance
基準輝度割合算出部140は、評価範囲輝度算出部130の処理が完了した通知を受けると、情報記憶部160に記憶された基準組織である脂肪組織の輝度と、乳腺組織が存在する評価範囲の輝度とを呼び出し、脂肪組織の輝度を基準値としたときの乳腺組織の輝度の割合を算出し、算出した輝度の割合を情報記憶部160に記憶させる。具体的な算出方法は後述する。また、基準輝度割合算出部140の処理が完了すると、基準輝度割合算出部140は、接続された状態判断部150に処理が完了したことを通知する。
Upon receiving the notification that the processing of the evaluation range
状態判断部150は、基準輝度割合算出部140、情報記憶部160、および表示手段300に接続されており、基準輝度割合算出部140が算出した脂肪組織の輝度を基準値としたときの、乳腺組織が存在する評価範囲の輝度における脂肪組織の輝度の割合から、医療映像装置200から入力されたマンモグラフィ画像が、デンスブレストであるか否かの状態を判断するためのものである。
The
状態判断部150は、基準輝度割合算出部140の処理が完了した通知を受けると、情報記憶部160に記憶された脂肪組織の輝度を基準値としたときの、乳腺組織が存在する評価範囲における輝度の割合、およびあらかじめ情報記憶部160に記憶されたデンスブレストであるか否かの状態を判断するための判断基準を呼び出し、医療映像装置200から入力されたマンモグラフィ画像が、デンスブレストであるか否かの状態を判断する。具体的な判断方法は後述する。また、状態判断部150の処理が完了すると、状態判断部150は、接続された表示手段300などを介して判断結果を表示する。
When the
情報記憶部160は、マスク処理部110、基準組織輝度算出部120、評価範囲輝度算出部130、基準輝度割合算出部140、および状態判断部150に接続されており、処理に必要な情報を記憶、または記憶された情報を必要に応じて呼び出すことのできる記憶媒体である。
The
上記のように、医療映像装置200によって入力されたマンモグラフィ画像から、基準組織輝度算出部120が評価の基準値とする脂肪組織の輝度を算出し、評価範囲輝度算出部130が評価対象である乳腺組織が存在する評価範囲の各部位の輝度を算出し、基準輝度割合算出部140が、脂肪組織の輝度を基準値として乳腺組織が存在する評価範囲の各部位の輝度の割合を算出するので、従来ではあいまいであったデンスブレストの基準を数値として明確に表すことができる。
As described above, from the mammography image input by the
また、脂肪組織の輝度を基準値として乳腺組織が存在する評価範囲における輝度の割合を算出するので、医療映像装置200によって入力されたマンモグラフィ画像にコントラストの調整などのデジタル処理が施されても、脂肪組織を基準値とした相対的な評価を算出することができる。これにより、デンスブレストを客観的に評価することができる。
In addition, since the ratio of luminance in the evaluation range in which mammary gland tissue exists is calculated using the luminance of adipose tissue as a reference value, even if digital processing such as contrast adjustment is performed on the mammography image input by the
図2は、マスク処理部の詳細を示すブロック図である。
図2に示すように、マスク処理部110は、境界決定部111、画像処理部112、および学習部113を備えている。
FIG. 2 is a block diagram showing details of the mask processing unit.
As shown in FIG. 2, the
境界決定部111は、医療映像装置200、画像処理部112、および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像から、筋肉や皮膚、乳頭などを除外して乳腺組織が存在する評価範囲を抽出するために、乳腺組織が存在する評価範囲と他の組織との境界を決定するためのものである。
The
境界決定部111は、例えば、医療映像装置200から入力されたマンモグラフィ画像を医師が確認しながら、図示しない入力手段で評価対象となる乳腺組織が存在する範囲のみを囲むことで乳腺組織と他の組織との境界を決定することができる。またマスク処理前のマンモグラフィ画像は、情報記憶部160に境界決定部111が記憶させることができる。
For example, while the doctor confirms the mammography image input from the
または、後述するように、例えば人工知能のような学習部113に、評価対象となる乳腺組織が存在する範囲と他の組織との境界を識別する学習をさせ、学習によって得られた乳腺組織が存在する範囲と他の組織との境界識別情報を学習部113が情報記憶部160に記憶させ、情報記憶部160に記憶された境界識別情報を利用して境界決定部111が、乳腺組織が存在する評価範囲と他の組織との境界を識別して、乳腺組織と他の組織との境界を決定することもできる。
Alternatively, as will be described later, for example, the
境界決定部111は、医療映像装置200からマンモグラフィ画像が入力されると、乳腺組織が存在する評価範囲と他の組織との境界を決定し、その境界情報を含んだマンモグラフィ画像が画像処理部112に送信される。
When a mammography image is input from the
画像処理部112は、境界決定部111、情報記憶部160、および基準組織輝度算出部120に接続されており、デンスブレストの評価対象となる乳腺組織が存在する評価範囲を抽出し、乳腺組織が存在する評価範囲以外の部分を表示しないようにするマスク処理をするためのものである。
The
画像処理部112は、境界決定部111より、境界情報を含んだマンモグラフィ画像を受診すると、境界決定部111によって決定された境界情報に基づいて、入力されたマンモグラフィ画像から筋肉や皮膚、乳頭などを除外するマスク処理を行い、マスク処理後のマンモグラフィ画像は情報記憶部160に記憶させる。また、画像処理部112の処理が完了すると、画像処理部112は、接続された基準組織輝度算出部120に処理が完了したことを通知する。
When the
学習部113は、学習情報入力手段114および情報記憶部160に接続されており、学習情報入力手段114によって入力された学習情報によって、境界決定部111が決定する乳腺組織が存在する評価範囲と他の組織との境界を識別するために必要な境界識別情報を学習するためのものである。
The
具体的な学習例としては、学習させるマンモグラフィ画像から、あらかじめ筋肉や皮膚、乳頭などを除外し、評価対象となる乳腺組織が存在する範囲のみを囲んだマスキング画像を医療関係者などが作成し、そのマスキング画像を大量に学習部113に入力することで乳腺組織が存在する評価範囲と他の組織とを識別するための学習をさせる。
As a specific example of learning, medical professionals create a masking image that surrounds only the range where the mammary tissue to be evaluated exists, excluding muscles, skin, and nipples from the mammography images to be learned. By inputting a large amount of the masking images to the
入力されたマスキング画像は、畳み込みニューラルネットワークを用いたディープラーニング、具体的には画像セグメンテーション処理に特化したU-netと呼ばれるU-net構造のモデルを用いたディープラーニングによって、学習部113は乳腺組織が存在する評価範囲と他の組織との境界を識別するための学習をする。学習によって得られた乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報は、学習部113によって情報記憶部160に蓄積される。
The input masking image is processed by deep learning using a convolutional neural network, specifically deep learning using a U-net structure model called U-net that specializes in image segmentation processing. Learn to identify the assessment scope in which the organization exists and the boundaries with other organizations. The
図3は、基準組織輝度算出部の詳細を示すブロック図である。
図3に示すように、基準組織輝度算出部120は、走査情報取得部121、境界検出部122、基準組織輝度計測部123、および平均値算出部124を備えている。
FIG. 3 is a block diagram showing the details of the reference tissue luminance calculator.
As shown in FIG. 3 , the reference
走査情報取得部121は、マスク処理部110、境界検出部122および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像上を走査して、画像上の情報を取得するためのものである。
The scanning
走査情報取得部121は、マスク処理部110の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理前のマンモグラフィ画像を呼び出し、マスク処理前のマンモグラフィ画像上を走査しながらマスク処理前のマンモグラフィ画像上の情報を取得していく。
Upon receiving the notification that the processing of the
走査情報取得部121は図示しない入力手段によって、入力されたマスク処理前のマンモグラフィ画像上の位置情報により、任意の位置や任意の範囲でマスク処理前のマンモグラフィ画像上の情報を得ることができる。
The scanning
また、走査情報取得部121が走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上を、コンピュータで画像を取り扱う際の色調や階調情報を持つ最小単位であるピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理前のマンモグラフィ画像上の情報を得ることもできる。なお本実施の形態は、走査情報取得部121がピクセル単位で走査するものとして説明する。また、走査情報取得部121が、走査しながら得たマスク処理前のマンモグラフィ画像上の情報は、境界検出部122に送信される。
In addition, the
境界検出部122は、走査情報取得部121、および基準組織輝度計測部123に接続されており、走査情報取得部121が取得したマスク処理前のマンモグラフィ画像上の情報から背景と背景以外との境界を検出するためのものである。
The
具体的には、例えばマスク処理前のマンモグラフィ画像で、境界検出部122は脂肪組織が多くみられる位置、具体的には乳房上部などで走査を開始し、背景と乳房との境界、詳細には背景と乳房の表面にみられる皮膚との境界を境界検出部122が検出する。
Specifically, for example, in a mammography image before mask processing, the
ここで背景の輝度は黒く描画されるため輝度0であり、皮膚は少なくとも背景よりは白く描画されるので輝度0を超えるものである。走査情報取得部121が背景側からマスク処理前のマンモグラフィ画像を一定の高さで順に走査し始めると、やがて皮膚に到達する。
Here, the luminance of the background is 0 because it is rendered black, and the luminance exceeds 0 because the skin is rendered at least whiter than the background. When the scanning
このとき輝度は0から0を超える数値に切り替わる。この0から0を超える数値に切り替わる部分を境界検出部122は、背景と背景以外との境界として、つまり背景と乳房との境界として検出することができる。
At this time, the brightness is switched from 0 to a value exceeding 0. The
逆に、走査情報取得部121が乳房側からマスク処理前のマンモグラフィ画像を順に走査し始めると、やがて背景に到達する。このとき輝度は0を超える数値から0に切り替わる。この0を超える数値から0に切り替わる部分を境界検出部122は、背景と背景以外との境界として、つまり背景と乳房との境界として検出することができる。
Conversely, when the scanning
また、走査情報取得部121の走査する方向を変更させるだけでなく、走査情報取得部121の走査する前に、あらかじめマスク処理前のマンモグラフィ画像を左右反転させてから一定の方向で走査情報取得部121が走査するようにしてもよい。
In addition to changing the scanning direction of the scanning
基準組織輝度算出部120は、基準となる脂肪組織の輝度を算出するためのものであり、走査情報取得部121は、例えば医療映像装置200から入力されたマンモグラフィ画像のうち、脂肪組織が多くみられる位置、具体的には乳房上部などの一定の高さで走査を開始する。境界検出部122は、背景と背景以外との境界を検出すると、その境界位置情報を基準組織輝度計測部123に送信する。
The reference tissue
基準組織輝度計測部123は、境界検出部122、平均値算出部124、および情報記憶部160に接続されており、境界検出部122が検知した境界から任意の位置の輝度を算出するためのものである。
The reference tissue
具体的には、マスク処理前のマンモグラフィ画像のうち、乳房上部の一定の高さで順に走査を開始し、境界検出部122が背景と皮膚との境界を検知すると、背景と皮膚との境界から皮膚側に多くみられる脂肪組織の位置、具体的には背景と皮膚との境界から10~100ピクセル乳房側に移動した位置で基準組織輝度計測部123が脂肪組織の輝度を計測し、さらに計測した位置から例えば100ピクセル分などの一定の距離分の脂肪組織の輝度を基準組織輝度計測部123が計測する。
Specifically, scanning is sequentially started at a certain height above the breast in mammography images before mask processing, and when the
これによりマンモグラフィ画像のうち脂肪組織が多く存在する位置における脂肪組織の輝度を基準組織輝度計測部123が計測することができる。また、基準組織輝度計測部123が計測した輝度情報は、情報記憶部160に基準組織輝度計測部123が記憶させる。また、基準組織輝度計測部123の処理が完了すると、基準組織輝度計測部123は、接続された平均値算出部124に処理が完了したことを通知する。
Accordingly, the reference tissue
平均値算出部124は、基準組織輝度計測部123、情報記憶部160、および評価範囲輝度算出部130に接続されており、情報記憶部160に記憶された基準組織輝度計測部123の処理による脂肪組織の輝度に基づいて、脂肪組織の輝度の平均値を算出するためのものである。
The average
平均値算出部124は、基準組織輝度計測部123の処理が完了した通知を受けると、情報記憶部160に記憶された特定範囲における脂肪組織の輝度、具体的には、背景と皮膚との境界から皮膚側に10~100ピクセル移動した位置から更に100ピクセル分などの一定距離の輝度を呼び出し、これらの呼び出された一定距離の輝度から平均値を算出し、算出した脂肪組織の輝度の平均値を情報記憶部160に記憶させる。また、平均値算出部124の処理が完了すると、平均値算出部124は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。
Upon receiving the notification that the processing of the reference tissue
このように、基準組織輝度算出部120は、基準となる脂肪組織が多く存在する任意の位置で脂肪組織の輝度を計測し、その平均値を基準とするので、場所によって輝度にムラがあっても、その平均値を基準とすることができる。
In this way, the reference
図4は、評価範囲輝度算出部の詳細を示すブロック図である。
図4に示すように、評価範囲輝度算出部130は、評価範囲走査情報取得部131および評価範囲輝度計測部132を備えている。
FIG. 4 is a block diagram showing the details of the evaluation range luminance calculator.
As shown in FIG. 4 , the evaluation
評価範囲走査情報取得部131は、基準組織輝度算出部120の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理後のマンモグラフィ画像を呼び出し、マスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上を走査しながら画像の情報を得る。
When the evaluation range scanning
また、評価範囲走査情報取得部131においても走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上をピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上の情報を得ることもできる。なお本実施の形態は、評価範囲走査情報取得部131がピクセル単位で走査するものとして説明する。評価範囲走査情報取得部131が、走査しながら得たマスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上の情報は、評価範囲輝度計測部132に送信される。
In the evaluation range scanning
評価範囲輝度算出部130は、評価範囲走査情報取得部131、評価範囲輝度計測部132、情報記憶部160、および基準輝度割合算出部140に接続されており、評価範囲走査情報取得部131が取得した情報から、評価対象である乳腺組織が存在する評価範囲の各部位の輝度を計測するためのものである。
The evaluation range
具体的には、評価範囲走査情報取得部131から送信される乳腺組織が存在する評価範囲の画像情報から、乳腺組織が存在する評価範囲の輝度を評価範囲輝度計測部132が計測し、すべての計測結果を情報記憶部160に記憶させる。また、評価範囲輝度計測部132の処理が完了すると、評価範囲輝度計測部132は、接続された基準輝度割合算出部140に処理が完了したことを通知する。
Specifically, the evaluation range
図5は、基準輝度割合算出部の詳細を示すブロック図である。
図5に示すように、基準輝度割合算出部140は、相対輝度変換処理部141、および相対輝度割合計算部142を備えている。
FIG. 5 is a block diagram showing the details of the reference luminance ratio calculator.
As shown in FIG. 5 , the reference
相対輝度変換処理部141は、評価範囲輝度算出部130、相対輝度割合計算部142、および情報記憶部160に接続されており、脂肪組織の輝度を基準値として、乳腺組織が存在する評価範囲の輝度を相対値として変換させるためのものである。
The relative luminance
相対輝度変換処理部141は、評価範囲輝度算出部130の処理が完了した通知を受けると、情報記憶部160に記憶された基準となる脂肪組織の輝度と、評価対象である乳腺組織が存在する評価範囲の各部位の輝度とを呼び出し、脂肪組織の輝度を基準値とした乳腺組織が存在する評価範囲の各部位の輝度を脂肪組織の輝度の相対値として変換する。
When the relative brightness
具体的には、例えば、基準となる脂肪組織の輝度を1とした場合において、背景の輝度を0とし、さらに乳腺組織が存在する評価範囲の輝度を相対値である相対輝度として変換する。変換された乳腺組織が存在する評価範囲の相対輝度は、接続された相対輝度割合計算部142に送信される。
Specifically, for example, when the luminance of the reference adipose tissue is set to 1, the luminance of the background is set to 0, and the luminance of the evaluation range in which mammary gland tissue exists is converted into a relative luminance that is a relative value. The converted relative brightness of the evaluation range in which mammary gland tissue exists is transmitted to the connected relative
相対輝度割合計算部142は、相対輝度変換処理部141、情報記憶部160、および状態判断部150に接続されており、相対輝度変換処理部141が処理した相対輝度に基づいて、各相対値の割合を計算するためのものである。
The relative brightness
相対輝度割合計算部142は、相対輝度変換処理部141が送信した評価対象である乳腺組織が存在する評価範囲の各部位の相対輝度を、一定の相対輝度値ごとに集計して、一定の相対輝度値ごとの割合を計算し、接続された情報記憶部160に記憶させる。また、相対輝度割合計算部142の処理が完了すると、相対輝度割合計算部142は、接続された状態判断部150に処理が完了したことを通知する。
The relative brightness
図6は、情報記憶部の詳細を示すブロック図である。
図6に示すように、情報記憶部160は、マスク処理前画像記憶部161、マスク処理後画像記憶部162、基準組織輝度記憶部163、評価範囲輝度記憶部164、相対輝度割合記憶部165、判断基準記憶部166、および境界識別情報記憶部167を備えている。
FIG. 6 is a block diagram showing details of the information storage unit.
As shown in FIG. 6, the
マスク処理前画像記憶部161は、医療映像装置200より入力され、マスク処理部110がマスク処理を行う前のマンモグラフィ画像を記憶するためのものである。マスク処理前画像記憶部161に記憶される情報は、例えば、マスク処理を行う前のマンモグラフィ画像を識別する識別情報、検診者番号、検診日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
The pre-mask processing
マスク処理後画像記憶部162は、医療映像装置200より入力され、マスク処理部110がマスク処理を行った後のマンモグラフィ画像、つまり乳腺組織が存在する範囲のみが抽出された画像を記憶するためのものである。マスク処理後画像記憶部162に記憶される情報は、例えば、マスク処理を行った後のマンモグラフィ画像を識別する識別情報、検診者番号、検診日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
The post-masking
基準組織輝度記憶部163は、基準組織輝度算出部120が算出する、基準となる脂肪組織の輝度を記憶するためのものである。基準組織輝度記憶部163に記憶される情報は、例えば、基準組織の輝度を算出するためのマンモグラフィ画像を識別するための識別情報、検診者番号、検診日、輝度算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
The reference tissue
評価範囲輝度記憶部164は、評価範囲輝度算出部130が算出する、評価対象である乳腺組織が存在する評価範囲の各部位の輝度を記憶するためのものである。評価範囲輝度記憶部164に記憶される情報は、例えば、評価範囲の輝度を算出するためのマンモグラフィ画像を識別するための識別情報、検診者番号、検診日、輝度算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
The evaluation range
相対輝度割合記憶部165は、基準輝度割合算出部140が算出する、基準となる脂肪組織に対する評価対象である乳腺組織が存在する評価範囲の各部位の相対輝度を記憶するためのものである。相対輝度割合記憶部165に記憶される情報は、例えば、識別情報、検診者番号、検診日、相対輝度割合算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
The relative brightness
判断基準記憶部166は、基準輝度割合算出部140が算出した脂肪組織の輝度を基準値としたときの乳腺組織の輝度の割合から、医療映像装置200から入力された画像が、デンスブレストであるか否かの状態を状態判断部150が判断するため基準値を記憶するためのものである。判断基準記憶部166に記憶される情報は、判断基準を識別するための識別情報などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
The determination
また判断基準記憶部166に記憶される基準は、一定の基準を記憶するだけでなく、年齢や性別に応じて基準を適宜変更できるように、年齢、性別などと関連づけられて記憶することもできる。
Further, the criteria stored in the judgment
さらに、本実施の形態では、デンスブレストの状態を判断する例で示すが、他の症状を判断する場合においては、症状名などと関連づけ記憶し、症状など必要に応じて所望の情報が呼び出されるようにしてもよい。 Furthermore, in the present embodiment, an example of judging the state of dense breast is shown, but when judging other symptoms, it is stored in association with the name of the symptom, etc., and the desired information such as the symptom is called as necessary. You may do so.
境界識別情報記憶部167は、乳腺組織が存在する評価範囲の境界を学習部113が学習することによって得られる、乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報を記憶するためのものである。
The boundary identification
境界識別情報記憶部167に蓄積された情報に基づいて、医療映像装置200より入力されたマンモグラフィ画像から筋肉や皮膚、乳頭などを除外するマスク処理をマスク処理部112が行うことができる。このほか、情報記憶部160は必要に応じて様々な情報を記憶することができる。
Based on the information accumulated in the boundary identification
図7は、学習情報入力手段によって学習部に学習させる学習用の画像を示す図である。
図7に示すように、図7(A)、(B)は、学習情報入力手段114によって学習部113に学習させるためのマンモグラフィ画像、およびそのマスキング画像である。
FIG. 7 is a diagram showing a learning image that is learned by the learning unit by the learning information input means.
As shown in FIG. 7, FIGS. 7A and 7B are mammography images and their masking images for learning by the
図7(A)は、例えば乳がん検診なので撮影されたマンモグラフィ画像である。図7(B)は、図7(A)の画像から、筋肉や皮膚、乳頭などを除外し評価対象である乳腺組織が存在する範囲のみを囲んだマスキング画像である。 FIG. 7A is a mammography image taken for breast cancer screening, for example. FIG. 7B is a masking image obtained by excluding muscle, skin, papilla, etc. from the image of FIG.
まずは学習部113に学習させるための画像として、図7(A)のようなマンモグラフィ画像と、図7(B)のような乳腺組織が存在する範囲のみ囲んだマスキング画像を大量に用意する。なお学習用のマスキング画像に関しては医療関係者などが手動で作成することが望ましい。
First, as images for the
作成された学習用のマンモグラフィ画像および乳腺組織が存在する範囲のみを囲んだマスキング画像は、学習情報入力手段114によって学習部113に大量に入力され、学習情報入力手段114によって入力された情報から、学習部113は乳腺組織が存在する評価範囲と他の組織との境界を識別するための学習を行い、学習によって得られた乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報を学習部113が情報記憶部160に記憶させる。
A large amount of the created mammography images for learning and the masking images surrounding only the range where mammary gland tissue exists are input to the
図8は、ディープラーニングで用いられるU-net構造のニューラルネットワークを示す図である。
図8に示すように、学習部113は、U-netと呼ばれるディープラーニングの技術を使ったプログラムを用いて、乳腺組織が存在する評価範囲と他の組織との境界を識別するための境界識別情報、つまり乳腺組織が存在する評価範囲の範囲を学習することができる。
FIG. 8 is a diagram showing a U-net structured neural network used in deep learning.
As shown in FIG. 8, the
U-netの特徴は、入力層と出力層が同じ画像サイズになることである。
通常のニューラルネットワークによって行われる画像認識では、たたみ込み層が物体の複雑な特徴を抽出し、プーリング層が物体の全体的な位置ズレを許容する役割を担っている。
A feature of U-net is that the input layer and the output layer have the same image size.
In image recognition performed by ordinary neural networks, the convolutional layer extracts the complex features of the object, and the pooling layer is responsible for allowing for the overall displacement of the object.
このため層が深くなるほど複雑な特徴を抽出するようになるが、その抽出された特徴の位置情報はあいまいになってしまう。ところが、乳腺組織が存在する評価範囲などの境界を識別して範囲を特定するためには、抽出された複雑な特徴と全体的な位置情報を特定しなければならない。 For this reason, the deeper the layer, the more complex features are extracted, but the positional information of the extracted features becomes ambiguous. However, in order to identify a boundary such as an evaluation range where mammary gland tissue exists and specify the range, complex extracted features and overall position information must be specified.
そこで、図8に示されるようなU字型構造のニューラルネットワークを用いることで、プーリング層であいまいになった位置情報を、元画像上で復元させることができる。 Therefore, by using a U-shaped neural network as shown in FIG. 8, the position information that has become ambiguous in the pooling layer can be restored on the original image.
図8の横向きの矢印は「たたみ込み層」、下向きの矢印は「プーリング層」、上向きの矢印は「たたみ込み+アップサンプリング」と呼ばれており、「たたみ込み層」の層が深くなるほど複雑な特徴を抽出することができる。 The horizontal arrow in Fig. 8 is called "convolution layer", the downward arrow is called "pooling layer", and the upward arrow is called "convolution + upsampling". characteristics can be extracted.
また、「プーリング層」を重ねて深くなるほど、抽出された特徴の位置情報が許容されるようになる。さらにアップサンプリングと前の層の情報を併せることで、「たたみ込み層」が抽出した特徴を保持したまま画像を復元することができる。 Also, the deeper the "pooling layer" is stacked, the more positional information of the extracted features is allowed. Furthermore, by combining upsampling with information from the previous layer, the image can be reconstructed while preserving the features extracted by the "convolutional layer".
この下向きの矢印と上向きの矢印と横向きの矢印の処理によって、入力された画像の特徴を抽出し、抽出した特徴を保持したまま深い層から元の画像細部まで復元することができる。このような技術を用いることで、入力された画像から所望の領域を抽出することができる。 This down arrow, up arrow, and horizontal arrow process extracts the features of the input image and restores the original image details from deep layers while retaining the extracted features. A desired region can be extracted from an input image by using such a technique.
本実施の形態では、上記のU-netと呼ばれるディープラーニングの技術を使ったプログラムを用いることで、乳房のマンモグラフィ画像を入力層に入力し、出力層から出力される画像とマスキング画像とを比較させて一致させるように学習させることにより、乳房のマンモグラフィ画像から乳腺組織が存在する評価範囲と他の組織との境界を識別し、乳腺組織が存在する範囲のみを抽出することができるようになる。 In this embodiment, by using a program using the above-mentioned deep learning technology called U-net, a breast mammography image is input to the input layer, and the image output from the output layer is compared with the masking image. By learning to align and match, it is possible to identify the boundary between the evaluation range in which mammary gland tissue exists and other tissues from mammography images of the breast, and extract only the range in which mammary gland tissue exists. .
また、学習部113による学習は、U-netと呼ばれるディープラーニングの技術を使ったプログラムだけでなく、FCN(Fully Convolutional Network)と呼ばれるディープラーニングによる技術など様々なプログラムを利用することができる。
In addition, the learning by the
図9は、学習部が学習する行程において、学習結果の計測方法を示す数式および図である。
図9に示すように、学習により出力される画像をX、手動でマスキングした画像をYとすると、DICE係数を用いると図9のようなDICE係数DSCで表される。
FIG. 9 is a formula and a diagram showing a method of measuring the learning result in the process of learning by the learning unit.
As shown in FIG. 9, if the image output by learning is X and the manually masked image is Y, DICE coefficients are represented by DICE coefficients DSC as shown in FIG.
DICE係数は、2つの集合の平均要素数と共通要素数の割合を示すものであり、計算結果は0から1の間の値となる。DICE係数、つまりXとYとが重なる斜線で示された部分が1に近づくほど2つの集合の類似度は高いと判断される。 The DICE coefficient indicates the ratio of the average number of elements of two sets to the number of common elements, and the calculation result is a value between 0 and 1. As the DICE coefficient, that is, the shaded portion where X and Y overlap, approaches 1, it is determined that the similarity between the two sets is high.
図10は、学習部が学習した結果を、DICE係数を用いて表したグラフである。
図10に示すように、学習部113は、U-netを用いて学習させたところ、DICE係数DSCは、0.8984となり、90%近い一致率を示している。この結果から、学習部113の学習により、マスク処理部110は乳腺組織が存在する評価範囲と他の組織との境界を自動で識別することができることがわかる。
FIG. 10 is a graph showing the results of learning by the learning unit using DICE coefficients.
As shown in FIG. 10, when the
図11は、マスク処理部が処理するマスク処理を示す図である。
図11に示すように、マスク処理部110は、図11(A)、(B)、(C)のようにマスク処理を行う。
FIG. 11 is a diagram showing mask processing performed by the mask processing unit.
As shown in FIG. 11, the
図11(A)は、医療映像装置200により入力されるマンモグラフィ画像である。
図11(B)は、マスク処理部110に入力されたマンモグラフィ画像を、学習部113が学習した乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報により、境界決定部111が処理した評価対象となる乳腺組織が存在する範囲のみを囲んだマスキング画像である。
FIG. 11A is a mammography image input by the
FIG. 11(B) shows a diagram in which a mammography image input to the
図11(C)は、画像処理部112が処理した結果の画像を示している。図11(A)
のマンモグラフィ画像と、図11(B)のマスキング画像とから、マスク処理を行い、図11(C)のような筋肉や皮膚、乳頭などを除外し、評価対象となる乳腺組織が存在する評価範囲のみを抽出した画像が描画される。
FIG. 11C shows an image processed by the
and the masked image of FIG. 11(B), mask processing is performed to exclude muscle, skin, papilla, etc. as shown in FIG. An image that extracts only is drawn.
図12は、基準組織輝度算出部が基準組織の輝度を検出する状態を示す図である。
図12の画像は、マンモグラフィ画像による乳房の上部が描画されている。基準となる脂肪組織は、乳房の上部に多く存在し、本実施の形態では、乳房上部に存在する脂肪組織を基準として輝度を算出する例で示す。
FIG. 12 is a diagram showing a state in which the reference tissue brightness calculator detects the brightness of the reference tissue.
The image in FIG. 12 depicts the upper part of the breast from a mammography image. A lot of adipose tissue that serves as a reference exists in the upper part of the breast, and in the present embodiment, an example in which luminance is calculated using the adipose tissue that exists in the upper part of the breast as a reference will be described.
まず、走査情報取得部121は、マンモグラフィ画像の一定の位置で走査を開始し、水平方向に移動しながら情報を取得する。走査を開始する位置は、医師が画面を見ながら決定することもでき、また一定の高さで走査を開始することもできる。
走査情報取得部121は、水平方向にピクセル単位で移動しながら走査し、背景と皮膚との境界を境界検出部122が検出する。
First, the scanning
The scanning
境界検出部122によって境界が検出された境界検出点より、乳房側に10~100ピクセル水平に移動した位置で基準組織輝度計測部123が脂肪組織の輝度を計測し、更に水平方向に100ピクセル分の脂肪組織の輝度を基準組織輝度計測部123が計測する。
The reference tissue
計測された脂肪組織の100ピクセル分の輝度は、平均値算出部124によって平均値が算出され、算出された平均値が基準となる脂肪組織の輝度として情報記憶部160に記憶される。
The average value of the measured brightness of 100 pixels of the adipose tissue is calculated by the average
また基準組織輝度計測部123による100ピクセル分の脂肪組織の輝度の計測は、複数回繰り返して計測することもできる。具体的には、1回目の計測および平均値の算出後、乳房の下側に1~50ピクセル分下がった位置で、再び境界検出部122による背景と皮膚との境界検出、基準組織輝度計測部123による乳房側に10~100ピクセル水平に移動した位置での輝度の計測を100回など複数回繰り返し、その繰り返して算出された平均値をさらに平均して基準となる脂肪組織の輝度として情報記憶部160に記憶することもできる。
In addition, the measurement of the luminance of adipose tissue for 100 pixels by the reference tissue
図13は、マンモグラフィ画像の一部を拡大して表示した図である。
図13に示すように、マンモグラフィ画像を拡大すると、コンピュータなどで画像を扱う際に、輝度情報を持つ最小単位であるピクセルの集合体で表示されていることがわかる。
FIG. 13 is an enlarged view of a part of the mammography image.
As shown in FIG. 13, when a mammography image is enlarged, it can be seen that when the image is handled by a computer or the like, it is displayed as a collection of pixels, which are the minimum units having luminance information.
マンモグラフィ画像は、各ピクセルがもつ輝度情報によって表示され、評価範囲輝度算出部130の評価範囲走査情報取得部131は、この各ピクセルがもつ輝度情報を取得し、評価範囲輝度計測部132によって1ピクセルごとの輝度が計測されていく。
A mammography image is displayed based on the luminance information of each pixel. The evaluation range scanning
図14は、相対輝度変換処理部が変換する処理を示すイメージ図である。
図14に示すように、基準組織輝度算出部120によって算出された基準となる脂肪組織の輝度を1としたときに、評価範囲輝度算出部130が算出した乳腺組織が存在する評価範囲の各部位の輝度の相対値に相対輝度変換処理部141が変換する。このように、図13で算出された評価範囲の輝度は、脂肪組織を基準とした相対値に変換される。
FIG. 14 is an image diagram showing conversion processing performed by the relative luminance conversion processing unit.
As shown in FIG. 14, when the luminance of the reference adipose tissue calculated by the reference tissue
図15は、相対輝度割合計算部が処理した状態を示すイメージ図である。
図15に示すように、相対輝度変換処理部141が変換した脂肪組織を基準とした相対値に基づいて、相対輝度割合計算部142は、輝度の割合を計算および集計を行なう。
FIG. 15 is an image diagram showing a state processed by the relative luminance ratio calculator.
As shown in FIG. 15, the relative brightness
相対輝度は値が大きいほど白く描画され、値が小さくなるほど脂肪組織や背景に近い黒色で描画される。
図15では、相対輝度が0以上1未満であるものが全体の1%、相対輝度が1以上2未満であるものが全体の38%、相対輝度が3以上4未満であるものが全体の27%、相対輝度が4以上5未満であるものが全体の12%、相対輝度が5以上6未満であるものが全体の7%、相対輝度が6以上7未満であるものが全体の5%、相対輝度が7以上8未満であるものが全体の4%、相対輝度が8以上9未満であるものが全体の4%、相対輝度が9以上10未満であるものが全体の1%、相対輝度が10以上であるものが全体の0%であることを示している。
The higher the value of the relative brightness, the whiter the image is drawn, and the lower the value, the blacker the adipose tissue and the background.
In FIG. 15, 1% of the total have a relative luminance of 0 or more and less than 1, 38% of the total have a relative luminance of 1 or more and less than 2, and 27 of the total have a relative luminance of 3 or more and less than 4. %, 12% of the total have a relative luminance of 4 or more and less than 5, 7% of the total have a relative luminance of 5 or more and less than 6, 5% of the total have a relative luminance of 6 or more and less than 7, 4% of the total have a relative luminance of 7 or more and less than 8, 4% of the total have a relative luminance of 8 or more and less than 9, 1% of the total have a relative luminance of 9 or more and less than 10, relative luminance is 10 or more is 0% of the total.
状態判断部150は、この結果と情報記憶部160に記憶された判断基準に基づいて、デンスブレストであるか、またはデンスブレストでないかの判定を行う。
例えば、判断基準を相対輝度3以上のものを白く描画されたものとして「相対輝度3以上の割合が30%以上の場合はデンスブレスト、相対輝度3以上の割合が30%未満の場合はデンスブレストではない」という基準に設定した場合、人間が評価した結果と77%一致する結果が出ている。
Based on this result and the criteria stored in the
For example, assuming that objects with a relative luminance of 3 or higher are drawn in white as a criterion, "Dense breast when the ratio of relative luminance of 3 or higher is 30% or higher, and dense breast when the ratio of relative luminance of 3 or higher is less than 30%" When the standard is set to "not", the result is 77% consistent with the result of human evaluation.
なお、図15で示された結果を上記判断基準に当てはめた場合、相対輝度3以上の合計割合は、27%+12%+7%+5%+4%+4%+1%=60%なので、相対輝度3以上の割合が30%以上となりデンスブレストであると判定される。 Note that when the results shown in FIG. 15 are applied to the above criteria, the total ratio of the relative luminance of 3 or higher is 27%+12%+7%+5%+4%+4%+1%=60%, so the relative luminance of 3 or higher. is 30% or more, it is judged to be dense breast.
また、相対輝度割合計算部142は、相対輝度割合計算部142が処理した相対輝度の割合をヒートマップのように色で視覚化することもできる。具体的な例としては、相対輝度が0以上1未満の部位に対しては白色、相対輝度が1以上2未満の部位に対しては黄色、相対輝度が2以上3未満の部位に対してはピンク、相対輝度が3以上4未満の部位に対してはオレンジ、相対輝度が4以上の部位に対しては赤として、マスク処理前または処理後のマンモグラフィ画像などに対して反映させるようにしてもよい。
Also, the relative
上記のように、相対輝度割合計算部142が処理した相対輝度の割合を色で視覚化することで、医師は数値からだけでなく視覚化された情報から、デンスブレストを評価することができる。
As described above, by visualizing the ratio of relative luminance processed by the relative luminance
〔第2の実施の形態〕
次に、本発明の第2の実施の形態について説明する。本実施の形態の映像処理装置は、基準組織輝度算出部の構造および算出方法が異なる以外は、第1の実施の形態で示した構成とほぼ同様である。このため、上記第1の実施の形態とほぼ同様の構成部分については同一の符号を付すなどして適宜その説明を省略する。
[Second embodiment]
Next, a second embodiment of the invention will be described. The video processing apparatus of this embodiment has substantially the same configuration as that of the first embodiment, except that the structure and calculation method of the reference tissue luminance calculator are different. For this reason, substantially the same components as those of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
図16は、第2の実施の形態に係る映像処理装置における基準組織輝度算出部の詳細を示すブロック図である。
図16に示すように、基準組織輝度算出部120は、走査情報取得部121、境界検出部122、基準組織輝度計測部123、平均値算出部124、輝度計測部125、移動平均算出部126、および移動平均傾き算出部127を備えている。
FIG. 16 is a block diagram showing details of a reference tissue luminance calculator in the video processing device according to the second embodiment.
As shown in FIG. 16, the reference tissue
走査情報取得部121は、マスク処理部110、輝度計測部125および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像上を走査して、画像上の情報を取得するためのものである。
The scanning
走査情報取得部121は図示しない入力手段によって、入力されたマスク処理前のマンモグラフィ画像上の位置情報により、任意の位置や任意の範囲でマスク処理前のマンモグラフィ画像上の情報を得ることができる。
The scanning
また、走査情報取得部121が走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上をピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理前のマンモグラフィ画像上の情報を得ることもできる。なお本実施の形態は、走査情報取得部121がピクセル単位で走査するものとして説明する。
走査情報取得部121が、走査しながら得たマスク処理前のマンモグラフィ画像上の情報は、輝度計測部125に送信される。
In addition, the unit of scanning by the scanning
Information on the mammography image before mask processing, which the scanning
輝度計測部125は、走査情報取得部121、移動平均算出部126、および情報記憶部160に接続されており、走査情報取得部121から受信したマスク処理前のマンモグラフィ画像上の情報から輝度を計測するためのものである。
The
輝度計測部125が計測した輝度情報は情報記憶部160に記憶される。また、輝度計測部125の処理が完了すると、輝度計測部125は、接続された移動平均算出部126に処理が完了したことを通知する。
The luminance information measured by the
移動平均算出部126は、輝度計測部125、移動平均傾き算出部127、および情報記憶部160に接続されており、輝度計測部125が計測した輝度から、走査情報取得部121が移動しながら取得する情報の一定区間ごとの平均値を、区間をずらしながら求める移動平均情報を算出するためのものである。
The moving
これにより、走査情報取得部121および輝度計測部125により得られる情報をグラフ化した際の輝度を表すなめらかな曲線グラフを描画することができる。移動平均算出部126が算出した移動平均情報は情報記憶部160に記憶される。また、移動平均算出部126の処理が完了すると、移動平均算出部126は、接続された移動平均傾き算出部127に処理が完了したことを通知する。
As a result, it is possible to draw a smooth curve graph representing the luminance when the information obtained by the scanning
移動平均傾き算出部127は、移動平均算出部126、境界検出部122、および情報記憶部160に接続されており、移動平均算出部126が算出した移動平均情報から、移動平均線の変化の割合である傾きを算出するためのものである。
The moving average
具体的には、移動平均算出部126によって算出されたマンモグラフィ画像の一定の位置の輝度情報による移動平均情報を微分することで、移動平均線の変化の割合を移動平均傾き算出部127が算出することができる。
Specifically, the moving average
移動平均傾き算出部127が算出した移動平均線の傾き情報は情報記憶部160に記憶される。また、移動平均傾き算出部127の処理が完了すると、移動平均傾き算出部127は、接続された境界検出部122に処理が完了したことを通知する。
The slope information of the moving average line calculated by the moving
境界検出部122は、移動平均傾き算出部127、基準組織輝度計測部123、および情報記憶部160に接続されており、移動平均傾き算出部127が算出した移動平均線の傾き情報、および輝度計測部125が算出した輝度情報から組織の境界を検出するためのものである。
The
具体的には、マンモグラフィ検診で撮影される胸部は、身体の内側から大胸筋、脂肪組織、および皮膚組織の順番に重なっている。大胸筋はエックス線を吸収するため白く描画されるのに対して、脂肪組織はエックス線を透過するため黒く描画される。 Specifically, in the chest imaged in mammography screening, the pectoralis major muscle, fat tissue, and skin tissue overlap in order from the inside of the body. The pectoralis major muscle is drawn white because it absorbs X-rays, whereas adipose tissue is drawn black because it transmits X-rays.
この大胸筋、脂肪組織、および皮膚組織が順番に重なる位置を、走査情報取得部121で走査し、輝度計測部125で輝度を計測し、移動平均算出部126で輝度の移動平均を算出し、移動平均傾き算出部127が移動平均線の傾きを算出することで、輝度の変化の割合を得ることができる。この変化の割合の差から、大胸筋、脂肪組織、および皮膚組織との境界を得ることができる。
The scanning
さらに具体的には、移動平均傾き算出部127が算出した移動平均線の傾き情報で、マンモグラフィ画像の身体側から計測した傾きのうち最初に傾きが0以上になったところを、大胸筋と脂肪組織の境界であると境界検出部122が検出する。
More specifically, according to the inclination information of the moving average line calculated by the moving average
また第1の実施の形態のように、輝度計測部125が算出した輝度をグラフ化した線で、マンモグラフィ画像の身体側から計測して輝度が0になった地点が皮膚組織と、背景との境界であると境界検出部122が検出する。これにより、大胸筋と皮膚組織とに挟まれた基準となる脂肪組織の部位を特定することができる。境界検出部122は、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出すると、その位置情報を基準組織輝度計測部123に送信する。
Further, as in the first embodiment, on the line graphing the luminance calculated by the
基準組織輝度計測部123は、境界検出部122、平均値算出部124、および情報記憶部160に接続されており、境界検出部122が検知した大胸筋と脂肪組織との境界、および皮膚組織と背景との境界情報から、脂肪組織の輝度を算出するためのものである。
The reference tissue
基準組織輝度計測部123が計測した輝度情報は情報記憶部160に記憶させる。また、基準組織輝度計測部123の処理が完了すると、基準組織輝度計測部123は、接続された平均値算出部124に処理が完了したことを通知する。
The luminance information measured by the reference tissue
平均値算出部124は、基準組織輝度計測部123、情報記憶部160、および評価範囲輝度算出部130に接続されており、情報記憶部160に記憶された基準組織輝度計測部123の処理による脂肪組織の輝度に基づいて、脂肪組織の輝度の平均値を算出するためのものである。
The average
平均値算出部124は、基準組織輝度計測部123の処理が完了した通知を受けると、情報記憶部160に記憶された特定範囲における脂肪組織の輝度、具体的には、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界に挟まれた脂肪組織の輝度を情報記憶部160から呼び出し、これらの輝度から平均値を算出し、算出した脂肪組織の輝度の平均値を情報記憶部160に記憶させる。また、平均値算出部124の処理が完了すると、平均値算出部124は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。
Upon receiving the notification that the reference tissue
このように、基準組織輝度算出部120は、基準となる脂肪組織が多く存在する任意の位置で脂肪組織の輝度を計測し、その平均値を基準とするので、場所によって輝度にムラがあっても、その平均値を基準とすることができる。
In this way, the reference
また、走査情報取得部121、境界検出部122、基準組織輝度計測部123、平均値算出部124、輝度計測部125、移動平均算出部126、および移動平均傾き算出部127の処理は、必要に応じて走査情報取得部121が走査する位置を変えながら繰り返して処理することもできる。
In addition, the processing of the scanning
具体的には、1回目の計測および平均値の算出後、走査情報取得部121が乳房の下側に1~50ピクセル程度ピクセル分下がった位置で、再び輝度計測部125、移動平均算出部126、移動平均傾き算出部127、および境界検出部122による大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出し、境界と境界との間に挟まれた脂肪組織の輝度を基準組織輝度計測部123が計測し、平均値算出部124がその輝度の平均値を算出する処理を100回など複数回繰り返し、その繰り返して算出された平均値をさらに平均して基準となる脂肪組織の輝度として情報記憶部160に記憶することもできる。
Specifically, after the first measurement and calculation of the average value, the scanning
図17は、走査情報取得部が走査する位置を示すマンモグラフィ画像である。
図17に示すように、マンモグラフィ検診で撮影されるマンモグラフィ画像は、身体の内側から大胸筋、脂肪組織、および皮膚組織の順番に重なって描画される。
FIG. 17 is a mammography image showing positions scanned by the scanning information acquiring unit.
As shown in FIG. 17, a mammography image captured in a mammography examination is drawn with the pectoralis major muscle, fat tissue, and skin tissue overlapping in order from the inside of the body.
基準組織輝度算出部120は、このように大胸筋、脂肪組織、および皮膚組織が重なった部位を走査して輝度を算出することで、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出し、境界と境界との間に挟まれた基準となる脂肪組織の部位を特定することができる。
The reference tissue
図18は、輝度計測部が計測した輝度を可視化したグラフおよび移動平均算出部が算出した移動平均情報を可視化した移動平均線を示す図である。
図18に示すように、輝度計測部125が計測した輝度は、図18の実線で表示されており、大胸筋側から高い輝度で表され、輝度が低下するに伴って脂肪組織になり、やがて脂肪組織から輝度が0となる背景になる。
FIG. 18 is a diagram showing a graph visualizing the luminance measured by the luminance measuring unit and a moving average line visualizing the moving average information calculated by the moving average calculating unit.
As shown in FIG. 18, the brightness measured by the
移動平均算出部126が算出した移動平均情報による移動平均線は、図18の点線で表示されており、なめらかな曲線で表され、基準組織輝度計測部123が計測した輝度と同様に、大胸筋側から高い輝度で表され、輝度が低下するに伴って脂肪組織になり、やがて脂肪組織から輝度が0となる背景になる。
The moving average line based on the moving average information calculated by the moving
図19は、移動平均傾き算出部が算出した移動平均線の傾き情報をグラフ化した図である。
図19に示すように、移動平均傾き算出部127が算出した移動平均線の傾き情報は、図19の実線で表示されており、大胸筋側付近では、傾きが激しく変化し、脂肪組織付近では傾きが0付近で変化し、やがて背景に移ると一定の値0に収束される。
FIG. 19 is a graph of the slope information of the moving average calculated by the moving average slope calculator.
As shown in FIG. 19, the slope information of the moving average line calculated by the moving
境界検出部122は、移動平均線を微分した傾き情報のうち、大胸筋側から計測して最初に0以上になったところを大胸筋と脂肪組織との境界であると判定する。
なお、第1の実施の形態、および第2の実施の形態では、本発明の映像処理装置100がマンモグラフィ画像から脂肪組織を基準として乳腺組織が存在する評価範囲の輝度の割合を測定したが、基準とする細胞や評価対象である組織を変更することで様々な身体の状態を数値化することができる。
The
In the first embodiment and the second embodiment, the
例えば、脂肪肝の検査の場合においては、肝臓付近の輝度があまり変化しない例えば腎臓の輝度を基準となる細胞として計測し、マスキング処理した肝臓全体の脂肪の割合を算出することで、見た目ではあいまいな判定であった脂肪肝の評価を客観的に評価することができるようになる。 For example, in the case of a fatty liver test, the luminance near the liver, for example, the kidney, which does not change much, is measured as a reference cell, and the percentage of fat in the entire liver after masking is calculated. It becomes possible to objectively evaluate the evaluation of fatty liver, which used to be a difficult judgment.
他にも、メタボリックシンドロームの診断や、脳細胞における脳梗塞の進行度など、基準となる組織を基準組織輝度算出部120が特定して輝度を算出し、マスク処理部110によってマスク処理された評価対象である組織の輝度とを相対的に比較することで、あいまいであった評価を客観的に数値化して評価することができる。
In addition, the reference tissue
また、本実施の形態では、マンモグラフィ検診によるマンモグラフィ画像を医療映像として本発明の映像処理装置100が処理を行なったが、医療映像はマンモグラフィ画像だけに留まらず、エックス線や超音波、磁気共鳴などを用いて映像化したものや、内視鏡検査や眼底カメラなどの可視光線のもとで撮影された検査画像を処理することもできる。
In the present embodiment, mammography images obtained by mammography screening are treated as medical images and processed by the
100 映像処理装置
110 マスク処理部
111 境界決定部
112 画像処理部
113 学習部
114 学習情報入力手段
120 基準組織輝度算出部
121 走査情報取得部
122 境界検出部
123 基準組織輝度計測部
124 平均値算出部
125 輝度計測部
126 移動平均算出部
127 移動平均傾き算出部
130 評価範囲輝度算出部
131 評価範囲走査情報取得部
132 評価範囲輝度計測部
140 基準輝度割合算出部
141 相対輝度変換処理部
142 相対輝度割合計算部
150 状態判断部
160 情報記憶部
161 マスク処理前画像記憶部
162 マスク処理後画像記憶部
163 基準組織輝度記憶部
164 評価範囲輝度記憶部
165 相対輝度割合記憶部
166 判断基準記憶部
167 境界識別情報記憶部
200 医療映像装置
300 表示手段
100
Claims (11)
前記医療映像における脂肪組織の輝度である脂肪組織輝度を算出する脂肪組織輝度算出手段と、
前記評価範囲を画素単位の走査枠で順に走査し、前記走査枠が走査した前記評価範囲の各画素の輝度である評価範囲輝度をそれぞれ算出する評価範囲輝度算出手段と、
前記脂肪組織輝度を基準として、前記走査枠が走査した前記評価範囲の各画素の評価範囲輝度を、それぞれの相対値である相対輝度に変換する相対輝度変換手段と、
前記相対輝度変換手段が変換したそれぞれの相対輝度を任意の均等な相対輝度の範囲である相対輝度階級で分割する相対輝度階級分割手段と、
前記相対輝度階級分割手段が分割した前記相対輝度階級における、あらかじめ設定された閾値階級以上または超過した相対輝度の画素数が相対輝度階級全体の画素数に占める割合により前記評価範囲における前記高濃度乳腺組織の割合を算出する高濃度乳腺組織割合算出手段と、
を備えることを特徴とする映像処理装置。 In an image processing device that calculates the composition ratio of high-density mammary gland tissue in an evaluation range for evaluating the condition in an input medical image,
an adipose tissue brightness calculation means for calculating adipose tissue brightness, which is the brightness of the adipose tissue in the medical image ;
evaluation range luminance calculation means for sequentially scanning the evaluation range with a scanning frame in units of pixels , and calculating evaluation range luminance, which is the luminance of each pixel in the evaluation range scanned by the scanning frame;
relative brightness conversion means for converting the evaluation range brightness of each pixel in the evaluation range scanned by the scanning frame into a relative brightness, which is a relative value of each pixel, using the adipose tissue brightness as a reference;
relative luminance class division means for dividing each relative luminance converted by the relative luminance conversion means into relative luminance classes that are an arbitrary uniform range of relative luminance;
The high-density mammary gland in the evaluation range according to the ratio of the number of pixels with a relative luminance equal to or higher than a preset threshold class in the relative luminance classes divided by the relative luminance class dividing means to the number of pixels in the entire relative luminance class. high-concentration mammary gland tissue ratio calculating means for calculating the ratio of tissue;
A video processing device comprising:
前記分割されたそれぞれの相対輝度階級に存在する相対輝度によって、前記医療映像における前記評価範囲を変化させた色で視覚化すること、
を特徴とする請求項1記載の映像処理装置。 The high-concentration mammary gland tissue ratio calculation means includes:
Visualizing the evaluation range in the medical image with different colors according to the relative brightness existing in each of the divided relative brightness classes;
2. The video processing apparatus according to claim 1 , characterized by:
前記脂肪組織輝度算出手段は、
前記乳房の内部と、前記乳房の外部との境界を検出する境界検出手段と、
前記境界から前記乳房の内側に前記脂肪組織が存在する所定範囲部位における複数箇所の輝度を算出する所定範囲輝度算出手段と、
前記所定範囲輝度算出手段が算出した所定範囲部位における複数箇所の輝度の平均値を算出する所定範囲部位輝度平均値算出手段と、
を備え、
前記所定範囲部位輝度平均値算出手段が算出した所定範囲部位における複数箇所の輝度の平均値を脂肪組織輝度とすること、
を特徴とする請求項1記載の映像処理装置。 The adipose tissue is adipose tissue in the breast, and the evaluation range is a range in which mammary gland tissue exists in the breast,
The adipose tissue brightness calculation means includes:
Boundary detection means for detecting a boundary between the inside of the breast and the outside of the breast;
Predetermined range luminance calculation means for calculating the luminance of a plurality of locations in a predetermined range region where the fatty tissue exists inside the breast from the boundary;
Predetermined range part luminance average value calculation means for calculating an average value of luminance of a plurality of points in the predetermined range part calculated by the predetermined range luminance calculation means;
with
making the average value of the brightness of a plurality of locations in the predetermined range site calculated by the predetermined range site brightness average value calculation means the adipose tissue brightness;
2. The video processing apparatus according to claim 1, characterized by:
乳房の上部、かつ皮膚の内側にみられる脂肪組織の輝度を算出すること、
を特徴とする請求項3記載の映像処理装置。 The predetermined range luminance calculation means is
calculating the brightness of the fatty tissue found above the breast and inside the skin;
4. The video processing apparatus according to claim 3 , characterized by:
を備えることを特徴とする請求項1記載の映像処理装置。 A mask processing unit that performs mask processing to exclude areas other than the evaluation range,
The video processing device according to claim 1, characterized by comprising:
入力された学習用映像に基づいてマスク処理を施す範囲を学習する学習部と
前記学習部が学習した情報に基づいて評価範囲を判断する範囲判断部と、
を備えることを特徴とする請求項5記載の映像処理装置。 The mask processing unit
a learning unit that learns a range to be masked based on an input learning image; a range determination unit that determines an evaluation range based on the information learned by the learning unit;
6. The video processing apparatus according to claim 5 , comprising:
ニューラルネットワークを用いたディープラーニングによって、学習用の医療映像から一定の範囲のみを識別する識別処理を学習する、
ことを特徴とする請求項6記載の映像処理装置。 The learning unit
Through deep learning using a neural network, learn the classification process that identifies only a certain range from the medical video for learning.
7. The video processing apparatus according to claim 6 , wherein:
U-net構造のモデルを用いた画像領域抽出処理、
であることを特徴とする請求項7記載の映像処理装置。 The identification process includes:
Image region extraction processing using a model of U-net structure,
8. The video processing apparatus according to claim 7 , wherein:
を備えることを特徴とする請求項1記載の映像処理装置。 a state judgment unit that judges the state of the evaluation range based on the ratio of the high-concentration mammary gland tissue in the evaluation range calculated by the high-concentration mammary gland tissue ratio calculating means;
The video processing device according to claim 1, characterized by comprising:
前記医療映像における脂肪組織の輝度である脂肪組織輝度を脂肪組織輝度算出手段が算出するステップと、
前記評価範囲を画素単位の走査枠で順に走査し、前記走査枠が走査した前記評価範囲の各画素の輝度である評価範囲輝度をそれぞれ評価範囲輝度算出手段が算出するステップと、
前記脂肪組織輝度を基準として、前記走査枠が走査した前記評価範囲の各画素の評価範囲輝度を、それぞれの相対値である相対輝度に相対輝度変換手段が変換するステップと、
前記相対輝度変換手段が変換したそれぞれの相対輝度を任意の均等な相対輝度の範囲である相対輝度階級で相対輝度階級分割手段が分割するステップと、
前記相対輝度階級分割手段が分割した前記相対輝度階級における、あらかじめ設定された閾値階級以上または超過した相対輝度の画素数が相対輝度階級全体の画素数に占める割合により前記評価範囲における前記高濃度乳腺組織の割合を高濃度乳腺組織割合算出手段が算出するステップと、
を備えることを特徴とする映像処理方法。 In an image processing method for calculating the composition ratio of high-density mammary gland tissue in an evaluation range for evaluating a condition in an input medical image,
a step of calculating an adipose tissue luminance, which is the luminance of the adipose tissue in the medical image, by an adipose tissue luminance calculation means;
a step of sequentially scanning the evaluation range with a pixel-based scanning frame, and calculating evaluation range brightness, which is the brightness of each pixel in the evaluation range scanned by the scanning frame, by an evaluation range brightness calculation means;
a step of converting the evaluation range luminance of each pixel in the evaluation range scanned by the scanning frame into a relative luminance, which is a relative value thereof, by a relative luminance conversion means, using the adipose tissue luminance as a reference;
a step of dividing each relative luminance converted by the relative luminance conversion means into relative luminance classes that are an arbitrary uniform range of relative luminance, by a relative luminance class dividing means;
The high-density mammary gland in the evaluation range according to the ratio of the number of pixels with a relative luminance equal to or higher than a preset threshold class in the relative luminance classes divided by the relative luminance class dividing means to the number of pixels in the entire relative luminance class. a step of calculating the ratio of the tissue by the high-concentration mammary gland tissue ratio calculating means;
A video processing method characterized by comprising:
コンピュータを、
前記医療映像における脂肪組織の輝度である脂肪組織輝度を算出する脂肪組織輝度算出手段と、
前記評価範囲を画素単位の走査枠で順に走査し、前記走査枠が走査した前記評価範囲の各画素の輝度である評価範囲輝度をそれぞれ算出する評価範囲輝度算出手段、
前記脂肪組織輝度を基準として、前記走査枠が走査した前記評価範囲の各画素の評価範囲輝度を、それぞれの相対値である相対輝度に変換する相対輝度変換手段、
前記相対輝度変換手段が変換したそれぞれの相対輝度を任意の均等な相対輝度の範囲である相対輝度階級で分割する相対輝度階級分割手段、
前記相対輝度階級分割手段が分割した前記相対輝度階級における、あらかじめ設定された閾値階級以上または超過した相対輝度の画素数が相対輝度階級全体の画素数に占める割合により前記評価範囲における前記高濃度乳腺組織の割合を算出する高濃度乳腺組織割合算出手段、
として機能させることを特徴とする映像処理プログラム。 In an image processing program that calculates the composition ratio of high-density mammary gland tissue in the evaluation range for evaluating the condition in the input medical image,
the computer,
an adipose tissue brightness calculation means for calculating adipose tissue brightness, which is the brightness of the adipose tissue in the medical image ;
Evaluation range luminance calculation means for sequentially scanning the evaluation range with a scanning frame in units of pixels , and calculating evaluation range luminance, which is the luminance of each pixel in the evaluation range scanned by the scanning frame;
relative brightness conversion means for converting the evaluation range brightness of each pixel in the evaluation range scanned by the scanning frame into a relative brightness, which is a relative value of each pixel, using the adipose tissue brightness as a reference;
Relative luminance class division means for dividing each relative luminance converted by the relative luminance conversion means into relative luminance classes that are an arbitrary uniform range of relative luminance;
The high-density mammary gland in the evaluation range according to the ratio of the number of pixels with a relative luminance equal to or higher than a preset threshold class in the relative luminance classes divided by the relative luminance class dividing means to the number of pixels in the entire relative luminance class. high-concentration mammary gland tissue ratio calculating means for calculating the tissue ratio;
A video processing program characterized by functioning as a
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179275A JP7283878B2 (en) | 2018-09-25 | 2018-09-25 | VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018179275A JP7283878B2 (en) | 2018-09-25 | 2018-09-25 | VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020048707A JP2020048707A (en) | 2020-04-02 |
JP7283878B2 true JP7283878B2 (en) | 2023-05-30 |
Family
ID=69994388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018179275A Active JP7283878B2 (en) | 2018-09-25 | 2018-09-25 | VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7283878B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102591371B1 (en) * | 2017-12-28 | 2023-10-19 | 삼성메디슨 주식회사 | Ultrasound imaging apparatus and control method for the same |
KR102258776B1 (en) * | 2019-05-20 | 2021-05-31 | 주식회사 힐세리온 | Ai-automatic ultrasound diagnosis apparatus for liver steatosis and remote medical-diagnosis method using the same |
KR102549694B1 (en) * | 2021-01-15 | 2023-06-29 | 고려대학교 산학협력단 | Apparatus for deep-learning based automatic pectoralis muscle segmentation and recording medium in which a program for excuting a prcess of the same is recorded |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008038525A1 (en) | 2006-09-26 | 2008-04-03 | Konica Minolta Medical & Graphic, Inc. | Imaging system |
JP2010253245A (en) | 2009-03-31 | 2010-11-11 | Fujifilm Corp | Mammary gland content rate estimating apparatus and method |
JP2011206240A (en) | 2010-03-30 | 2011-10-20 | Fujifilm Corp | Medical image display device, method, and program |
JP2015167829A (en) | 2014-03-10 | 2015-09-28 | 株式会社東芝 | Medical inspection management device, medical image diagnostic apparatus and medical inspection system |
US20160256126A1 (en) | 2013-11-19 | 2016-09-08 | Jeffery C. Wehnes | Obtaining breast density measurements and classifications |
JP2018089301A (en) | 2016-12-07 | 2018-06-14 | 学校法人常翔学園 | Organism image processing device, output image production method, learning result production method and program |
CN108550150A (en) | 2018-04-17 | 2018-09-18 | 上海联影医疗科技有限公司 | Acquisition methods, equipment and the readable storage medium storing program for executing of breast density |
-
2018
- 2018-09-25 JP JP2018179275A patent/JP7283878B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008038525A1 (en) | 2006-09-26 | 2008-04-03 | Konica Minolta Medical & Graphic, Inc. | Imaging system |
JP2010253245A (en) | 2009-03-31 | 2010-11-11 | Fujifilm Corp | Mammary gland content rate estimating apparatus and method |
JP2011206240A (en) | 2010-03-30 | 2011-10-20 | Fujifilm Corp | Medical image display device, method, and program |
US20160256126A1 (en) | 2013-11-19 | 2016-09-08 | Jeffery C. Wehnes | Obtaining breast density measurements and classifications |
JP2015167829A (en) | 2014-03-10 | 2015-09-28 | 株式会社東芝 | Medical inspection management device, medical image diagnostic apparatus and medical inspection system |
JP2018089301A (en) | 2016-12-07 | 2018-06-14 | 学校法人常翔学園 | Organism image processing device, output image production method, learning result production method and program |
CN108550150A (en) | 2018-04-17 | 2018-09-18 | 上海联影医疗科技有限公司 | Acquisition methods, equipment and the readable storage medium storing program for executing of breast density |
Also Published As
Publication number | Publication date |
---|---|
JP2020048707A (en) | 2020-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5145169B2 (en) | Medical image photographing support apparatus and program | |
JP5145170B2 (en) | Medical image evaluation device | |
JP5123954B2 (en) | Identification and analysis of lesions in medical images | |
JP5010375B2 (en) | Medical diagnostic imaging equipment | |
JP7283878B2 (en) | VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM | |
JP4363833B2 (en) | Method and apparatus for calculating an index relating to local hemodynamics | |
JP4717585B2 (en) | Medical image determination apparatus, medical image determination method and program thereof | |
US20100014738A1 (en) | Method and system for breast cancer screening | |
JP2006116313A (en) | Diagnostic method in three-dimensional imaging | |
JP2016503706A (en) | Ultrasonic probe and ultrasonic imaging system | |
JP2001516604A (en) | Method and apparatus for clinical histology | |
WO1997047235A1 (en) | Dermal diagnostic analysis system and method | |
KR20200070062A (en) | System and method for detecting lesion in capsule endoscopic image using artificial neural network | |
CN113222951B (en) | Osteoporosis artificial intelligent diagnosis device for recognizing hip joint X-ray | |
JP2016116774A (en) | Image processor, image processing method, image processing system, and program | |
JP6455235B2 (en) | Medical image system and program | |
JP4649965B2 (en) | Health degree determination device and program | |
JP2008100121A (en) | Index arithmetic method related to blood flow movement state of capillary blood vessel in cerebral tissue, apparatus therefor, and storage medium | |
CN113838020B (en) | Lesion area quantification method based on molybdenum target image | |
JP2005058526A (en) | Method and device for photographing tomographic image | |
JP3975668B2 (en) | Feature quantity correctness determination method and image processing apparatus | |
CN114391878B (en) | Ultrasonic imaging equipment | |
WO2022211108A1 (en) | Image processing device and program | |
JP7478245B2 (en) | Medical imaging device and method of operation thereof | |
JP7457757B2 (en) | Image processing device and method based on characteristics of lesions in medical images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20210727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210806 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210806 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210727 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220225 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220726 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20220916 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221102 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230407 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20230407 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20230414 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20230418 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230518 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7283878 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |