JP7283878B2 - VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM - Google Patents

VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM Download PDF

Info

Publication number
JP7283878B2
JP7283878B2 JP2018179275A JP2018179275A JP7283878B2 JP 7283878 B2 JP7283878 B2 JP 7283878B2 JP 2018179275 A JP2018179275 A JP 2018179275A JP 2018179275 A JP2018179275 A JP 2018179275A JP 7283878 B2 JP7283878 B2 JP 7283878B2
Authority
JP
Japan
Prior art keywords
luminance
tissue
brightness
evaluation range
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018179275A
Other languages
Japanese (ja)
Other versions
JP2020048707A (en
Inventor
謙一 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2018179275A priority Critical patent/JP7283878B2/en
Publication of JP2020048707A publication Critical patent/JP2020048707A/en
Application granted granted Critical
Publication of JP7283878B2 publication Critical patent/JP7283878B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Description

本発明は、映像処理装置、映像処理方法、および映像処理プログラムに関し、特に入力された医療映像内で、評価する評価対象組織の評価範囲における構成組織の割合を算出する映像処理装置、映像処理方法、および映像処理プログラムに関する。 TECHNICAL FIELD The present invention relates to an image processing apparatus, an image processing method, and an image processing program, and more particularly, an image processing apparatus and an image processing method for calculating the ratio of constituent tissues within an evaluation range of an evaluation target tissue to be evaluated in an input medical image. , and video processing programs.

従来から、身体の外側から診るだけでは分からない臓器の形態、病変の有無などを画像として映し出すことで診断を行う画像診断が知られている。画像診断は、例えばエックス線や超音波、磁気共鳴などを用いて映像化したものや、内視鏡検査や眼底カメラなどの可視光線のもとで撮影された検査画像をもとに医師が診断している。 2. Description of the Related Art Conventionally, image diagnosis is known in which diagnosis is performed by displaying an image of the shape of an organ, the presence or absence of a lesion, etc., which cannot be determined only by examining the body from the outside. Imaging diagnosis is made by a doctor based on images created using, for example, X-rays, ultrasound, or magnetic resonance, or examination images taken under visible light such as endoscopy or a fundus camera. ing.

例えば、乳がん検診の一つであるマンモグラフィ検診では、マンモグラフィと呼ばれる乳房専用のエックス線撮影装置が用いられている。このマンモグラフィ検診で画像診断を行うことで、少ない放射線の量で安全に乳がんなどの病変を早期に検出することができる(たとえば、特許文献1参照)。 For example, in mammography examination, which is one of breast cancer examinations, an X-ray imaging apparatus exclusively for the breast called mammography is used. By performing image diagnosis by mammography screening, it is possible to safely detect lesions such as breast cancer at an early stage with a small amount of radiation (see, for example, Patent Document 1).

このマンモグラフィ検診には、石灰化した乳腺の全体像をとらえることができること、検診の継続によって死亡率が低下することが統計学的に証明されていること、撮影方法が一定であり過去の画像と比較しやすいこと、などのメリットがある。 This mammography screening should be able to capture the whole picture of calcified mammary glands, it has been statistically proven that the mortality rate is reduced by continuing screening, It has advantages such as ease of comparison.

一方で、マンモグラフィ検診のデメリットとしては、痛みを伴うこと、少量ながらも被曝すること、などが挙げられる。さらには妊娠適齢期といわれる20~30代前半などの年齢では、乳房内で乳腺が発達しており、この発達した乳腺の量により詳細な診断ができないことがある。 On the other hand, the disadvantages of screening mammography include pain and exposure to a small amount of radiation. Furthermore, at ages such as the 20s and early 30s, which are said to be suitable for pregnancy, the mammary glands are developed in the breast, and detailed diagnosis may not be possible due to the amount of mammary glands that have developed.

発達した乳腺の量によりマンモグラフィ検診で詳細な診断ができない理由としては、マンモグラフィ検診で撮影されたマンモグラフィ画像では、乳腺もがんも白く描画されてしまうため、乳房内で乳腺が発達した状態だと、がんを正確に検出することが困難になるためである。 The reason why a detailed diagnosis cannot be made by mammography screening due to the amount of developed mammary glands is that both the mammary glands and cancer are drawn white in the mammography image taken by mammography screening, so if the mammary glands have developed in the breast, This is because it becomes difficult to accurately detect n.

具体的には、乳がん検診で検査を行う乳房は、乳腺組織と呼ばれる出産時に乳汁を分泌する組織と、乳腺組織を支える脂肪組織、血管、神経などで構成されており、マンモグラフィ検診では、エックス線を透過させる脂肪が多ければ多いほど全体が黒く透けるように描画され、エックス線を吸収する乳腺組織が多ければ多いほど全体的に白っぽく描画される。 Specifically, the breast examined in breast cancer screening consists of mammary gland tissue, the tissue that secretes milk during childbirth, and fat tissue, blood vessels, nerves, etc. that support the mammary gland tissue. The more fat to be transmitted, the more black and transparent the whole image is drawn.

図20は、乳房の構成の分類を示すマンモグラフィ画像の一例を示す図である。
図20に示すように、マンモグラフィ画像による乳房は、白く描画される乳腺組織と、黒く描画される脂肪組織との量を比較することで大きく脂肪性、乳腺散在、不均一高濃度、極めて高濃度の4種類に分類されている。
FIG. 20 is an example of a mammography image showing the classification of breast structure.
As shown in FIG. 20, the mammography image of the breast was compared with the amount of mammary gland tissue drawn in white and the amount of adipose tissue drawn in black. are classified into four types.

脂肪性とは、乳房がほぼ完全に脂肪に置き換えられた状態である。乳腺散在とは、脂肪に置き換えられた乳房内に乳腺が散在している状態であり、乳腺内の脂肪が70~90%程度が目安とされている。 Fatty is a condition in which the breast is almost completely replaced with fat. Scattered mammary glands are a condition in which mammary glands are scattered in the breast replaced with fat, and fat in mammary glands is considered to be approximately 70 to 90%.

不均一高濃度とは、乳腺実質内に脂肪が混在し、不均一な濃度の状態であり、乳腺内の脂肪が40~50%程度が目安とされている。極めて高濃度とは、乳腺実質内に脂肪の混在はほとんどない状態であり、乳腺内の脂肪が10~20%程度が目安とされている。 A non-uniform high concentration is a state in which fat is mixed in the parenchyma of the mammary gland and has a non-uniform concentration. A very high concentration means that there is almost no fat mixed in the parenchyma of the mammary gland, and fat in the mammary gland is considered to be approximately 10 to 20%.

これらの乳房構成の分類について、マンモグラフィガイドラインでは、不均一高濃度と極めて高濃度とに分類される状態をdense breast(以下、デンスブレストと称する)と定義され、マンモグラフィ画像で乳房が白く描画されてしまうため、仮に乳房内に腫瘤などの病変があったとしても、白く描画される乳腺に隠れて見えない場合がある状態とされている。 Regarding the classification of these breast structures, mammography guidelines define dense breast as the condition classified into non-uniform high density and extremely high density, and the breast is drawn white in mammography images. Therefore, even if there is a lesion such as a tumor in the breast, it may not be visible because it is hidden by the white-drawn mammary gland.

具体的には、マンモグラフィ検診では、がんを見つけるうえで重要な腫瘤はエックス線を吸収するためマンモグラフィ画像で白く描画される。ところが、発達した乳腺組織により全体が白っぽく描画されるデンスブレストの場合では、全体が白っぽく描画される中に重なって腫瘤が白く描画されるため、雪山で白いウサギを見つけるように、デンスブレストの画像で腫瘤を検出するのは非常に困難であった。 Specifically, in mammography screening, tumors that are important for detecting cancer are drawn white in mammography images because they absorb X-rays. However, in the case of the dense breast, which is drawn whitish as a whole due to the development of mammary gland tissue, the tumor is drawn white while overlapping the entire drawn whitish. It was very difficult to detect the mass in

このようなデンスブレストは、マンモグラフィ検診の感度が低く、乳がんの罹患リスクが高いとされている。特に、アジア人の場合においては、全体の7割近くがデンスブレストだとされている。 Such dense breasts are associated with low sensitivity of screening mammography and high risk of breast cancer. Especially in the case of Asians, close to 70% of the total is said to be dense breast.

このようにマンモグラフィ検診でデンスブレストと評価された検診者は、デンスブレストと評価された検診者でも腫瘤を検出できる超音波検査を行うことで、マンモグラフィ検診では見つかりにくい腫瘤も検出できるとされている。 In this way, it is said that even those who are evaluated as having dense breasts can detect tumors that are difficult to find in mammography screening by conducting ultrasound examinations that can detect tumors even in those who are evaluated as having dense breasts. .

特開2018-42891号公報JP 2018-42891 A

しかし、デンスブレストの定義は、上記のように乳腺内の脂肪が10~20%程度が目安の極めて高濃度、または乳腺内の脂肪が40~50%程度が目安の不均一高濃度とされており、定義がはっきりしていないため線引きが難しく、マンモグラフィ画像を診る医師によってデンスブレストの評価が毎回異なる場合があり、信憑性に欠ける問題があった。また、デンスブレストの評価はもちろん、脂肪性、乳腺散在、不均一高濃度、極めて高濃度に分類する識別も同様に困難であった。 However, as mentioned above, the definition of dense breast is an extremely high concentration of fat in the mammary glands of about 10-20%, or a non-uniform high concentration of fat in the mammary glands of about 40-50%. It is difficult to draw a line because the definition is not clear, and the evaluation of dense breast may differ each time depending on the doctor who examines mammography images, which is a problem of lack of credibility. In addition to the evaluation of dense breasts, it was also difficult to distinguish between fatty, scattered mammary glands, heterogeneous high density, and extremely high density.

具体的には、デンスブレストは、マンモグラフィ画像を医師が診て判断している。しかし、画像を診ただけで脂肪と乳腺組織との割合を算出することは難しく、医師の経験や感覚により判断されている。このため医師によってデンスブレストの判断が異なる場合が生じている。つまり同じマンモグラフィ画像を見ても、医師によってデンスブレストの判断が異なる場合がある。 Specifically, Dense Breast is determined by a physician examining mammography images. However, it is difficult to calculate the ratio of fat and mammary gland tissue just by looking at the image, and it is determined based on the experience and sense of the doctor. For this reason, doctors sometimes judge dense breast differently. In other words, even when looking at the same mammography image, doctors may judge dense breast differently.

このため、あいまいなままデンスブレストと評価されてしまうと、検診者に不安を煽るだけでなく、マンモグラフィ検診は意味がないものと勘違いされてしまい、マンモグラフィ検診の検診率が低下してしまうため、がんの早期発見率も低下してしまう問題につながってしまう。 For this reason, if it is evaluated as dense breast without ambiguity, it will not only make the examinee feel uneasy, but also misunderstand that mammography screening is meaningless, and the screening rate of mammography screening will decrease. It leads to the problem that the early detection rate of cancer decreases.

仮に、デンスブレストと評価された場合は、超音波検査を行うことが一般的であるが、超音波検査では、全体の写真を残せないため、後から見直すときに情報が部分的に限られることになり評価が困難なことや、検査を行う者の技術に大きく影響されるため客観性に乏しいことなどのデメリットがある。 If it is evaluated as a dense breast, it is common to perform an ultrasound examination, but since an ultrasound examination cannot leave a picture of the whole, the information is partially limited when reviewing it later. There are disadvantages such as the difficulty of evaluation due to the large number of people, and the lack of objectivity because it is greatly affected by the skill of the person who performs the examination.

また、現在の医療現場では、まだ乳がん検診の超音波検査機器が全体に普及しきれておらず、あいまいな判断でデンスブレストと評価され、超音波検査を受ける検査者が増加すると、医療現場で超音波検査機器の受け皿が少ないため、検診業務が正常に機能しなくなる問題が考えられる。
このように、デンスブレストのあいまいな判断は、検診者への負担が増加するだけでなく、医療現場への負担も増加してしまう問題があった。
In addition, in the current medical field, ultrasound examination equipment for breast cancer screening has not yet spread to the whole. Since there are not enough receptacles for ultrasound examination equipment, it is conceivable that the examination work will not function normally.
In this way, the ambiguous determination of the dense breast not only increases the burden on the examiner, but also increases the burden on the medical practice.

このデンスブレストのあいまいな判断の原因としては、次のことも考えられる。
近年ではマンモグラフィ検診を含むエックス線を用いた画像診断は、人体を透過したエックス線情報をフィルムに感光させてアナログのレントゲン写真を描出するアナログ方式から、エックス線情報をデジタル化したデジタル方式に移行している。
The following is also considered as a cause of this ambiguous judgment of Dense Breast.
In recent years, diagnostic imaging using X-rays, including mammography, has shifted from an analog method, in which the X-ray information transmitted through the human body is exposed to film to create an analog X-ray photograph, to a digital method in which the X-ray information is digitized. .

デジタル化されたエックス線情報は、デジタル処理を施すことができるので、画質のバラツキを抑えることができ、医師の診断に大きく貢献できるようになっている。ところが、デジタル化されたエックス線情報は、コントラストの調整などのデジタル処理を自由にできてしまうため、デジタル処理の調整によっては、画像全体を白く調整することも可能となる。 Since digitized X-ray information can be digitally processed, variations in image quality can be suppressed, which greatly contributes to doctors' diagnosis. However, digitized X-ray information can be freely subjected to digital processing such as contrast adjustment, so it is possible to adjust the entire image to be white depending on the adjustment of digital processing.

このように、デジタル方式の画像は、コントラストの調整などのデジタル処理でマンモグラフィ画像全体を白く調整された状態で医師が判断することで、デンスブレストと評価されてしまう恐れや、逆にデンスブレストであるはずの画像が、デジタル処理の調整でマンモグラフィ画像全体を黒く調整することによってデンスブレストではないと評価されてしまう恐れがある。 In this way, there is a risk that digital images will be evaluated as having dense breasts if the doctor judges that the entire mammography image has been adjusted to white by digital processing such as contrast adjustment, There is a risk that an image that should be there may be judged as not densely breasted by adjusting the overall mammography image to be black in digital processing adjustments.

本発明はこのような点に鑑みてなされたものであり、医療映像内の一定範囲における組織の割合を的確に評価し判断することができる映像処理装置、映像判定方法、および映像判定プログラムを提供することを目的とする。 The present invention has been made in view of these points, and provides an image processing apparatus, an image determination method, and an image determination program capable of accurately evaluating and determining the proportion of tissue in a certain range in a medical image. intended to

本発明では上記問題を解決するために、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理装置において、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出する基準組織輝度算出手段と、前記評価範囲の輝度である評価範囲輝度を算出する評価範囲輝度算出手段と、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出する基準輝度割合算出手段とを備えることを特徴とする映像処理装置が提供される。 In the present invention, in order to solve the above problem, in an image processing device for calculating the composition ratio in an evaluation range of a tissue whose condition is to be evaluated in an input medical image, a reference tissue is used as a reference for calculating the composition ratio. a reference tissue luminance calculating means for calculating a reference tissue luminance which is the luminance of the evaluation range luminance; an evaluation range luminance calculating means for calculating an evaluation range luminance which is the luminance of the evaluation range; and a reference luminance ratio calculating means for calculating the ratio.

これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。 Thereby, the reference tissue luminance calculation means calculates the reference tissue luminance, which is the luminance of the reference tissue used as a reference for calculating the composition ratio, and the evaluation range luminance calculation means calculates the evaluation range luminance, which is the luminance of the evaluation range. The reference luminance ratio calculating means calculates the ratio of the evaluation tissue luminance to the reference range luminance.

また本発明では、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理方法において、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出するステップと、評価範囲輝度算出手段が、前記評価範囲の輝度である評価範囲輝度を算出するステップと、基準輝度割合算出手段が、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出するステップとを備えることを特徴とする映像処理方法が提供される。 Further, in the present invention, in the image processing method for calculating the composition ratio in the evaluation range of the tissue whose condition is to be evaluated in the input medical image, the reference tissue luminance calculation means sets the reference as a reference for calculating the composition ratio. a step of calculating a reference tissue luminance that is the luminance of a tissue; a step of calculating an evaluation range luminance that is the luminance of the evaluation range by means of evaluation range luminance calculation means; and calculating the ratio of the evaluated tissue luminance.

これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。 Thereby, the reference tissue luminance calculation means calculates the reference tissue luminance, which is the luminance of the reference tissue used as a reference for calculating the composition ratio, and the evaluation range luminance calculation means calculates the evaluation range luminance, which is the luminance of the evaluation range. The reference luminance ratio calculating means calculates the ratio of the evaluation tissue luminance to the reference range luminance.

また本発明では、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理プログラムにおいて、コンピュータを、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出する基準組織輝度算出手段、前記評価範囲の輝度である評価範囲輝度を算出する評価範囲輝度算出手段、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出する基準輝度割合算出手段として機能させることを特徴とする映像処理プログラムが提供される。 Further, in the present invention, in the image processing program for calculating the composition ratio of the tissue whose condition is to be evaluated in the evaluation range in the input medical image, the computer is operated with the luminance of the reference tissue used as the reference for calculating the composition ratio. reference tissue luminance calculation means for calculating a certain reference tissue luminance; evaluation range luminance calculation means for calculating evaluation range luminance that is the luminance of the evaluation range; a standard for calculating the ratio of the evaluation tissue luminance to the reference range luminance A video processing program characterized by functioning as luminance ratio calculation means is provided.

これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。 Thereby, the reference tissue luminance calculation means calculates the reference tissue luminance, which is the luminance of the reference tissue used as a reference for calculating the composition ratio, and the evaluation range luminance calculation means calculates the evaluation range luminance, which is the luminance of the evaluation range. The reference luminance ratio calculating means calculates the ratio of the evaluation tissue luminance to the reference range luminance.

本発明の映像処理装置、映像処理方法、および映像処理プログラムによれば、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出するので、医療映像内の一定範囲における組織の割合を的確に評価し判断することができる。 According to the video processing device, the video processing method, and the video processing program of the present invention, the reference tissue brightness calculating means calculates the reference tissue brightness, which is the brightness of the reference tissue used as a reference for calculating the composition ratio, and evaluates it. The range luminance calculation means calculates the evaluation range luminance, which is the luminance of the evaluation range, and the reference luminance ratio calculation means calculates the ratio of the evaluation tissue luminance to the reference range luminance. It is possible to accurately evaluate and judge the ratio of the organization.

第1の実施の形態に係る映像処理装置の概念を示すブロック図である。1 is a block diagram showing the concept of a video processing device according to a first embodiment; FIG. マスク処理部の詳細を示すブロック図である。4 is a block diagram showing details of a mask processing unit; FIG. 基準組織輝度算出部の詳細を示すブロック図である。FIG. 4 is a block diagram showing details of a reference tissue luminance calculator; 評価範囲輝度算出部の詳細を示すブロック図である。3 is a block diagram showing the details of an evaluation range luminance calculator; FIG. 基準輝度割合算出部の詳細を示すブロック図である。3 is a block diagram showing details of a reference luminance ratio calculator; FIG. 情報記憶部の詳細を示すブロック図である。3 is a block diagram showing details of an information storage unit; FIG. 学習情報入力手段によって学習部に学習させる学習用の画像を示す図である。It is a figure which shows the image for learning which a learning part is made to learn by a learning information input means. ディープラーニングで用いられるU-net構造のニューラルネットワークを示す図である。1 is a diagram showing a U-net structured neural network used in deep learning; FIG. 学習部が学習する行程において、学習結果の計測方法を示す数式および図である。FIG. 4 is a formula and a diagram showing a method of measuring a learning result in a process of learning by a learning unit; 学習部が学習した結果を、DICE係数を用いて表したグラフである。It is the graph which represented the result which the learning part learned using the DICE coefficient. マスク処理部が処理するマスク処理を示す図である。It is a figure which shows the mask process which a mask process part processes. 基準組織輝度算出部が基準組織の輝度を検出する状態を示す図である。FIG. 4 is a diagram showing a state in which a reference tissue brightness calculator detects the brightness of a reference tissue; マンモグラフィ画像の一部を拡大して表示した図である。It is the figure which expanded and displayed a part of mammography image. 相対輝度変換処理部が変換する処理を示すイメージ図である。FIG. 10 is an image diagram showing conversion processing performed by a relative luminance conversion processing unit; 相対輝度割合計算部が処理した状態を示すイメージ図である。FIG. 10 is an image diagram showing a state processed by a relative luminance ratio calculator; 第2の実施の形態に係る映像処理装置における基準組織輝度算出部の詳細を示すブロック図である。FIG. 9 is a block diagram showing details of a reference tissue luminance calculator in the video processing device according to the second embodiment; 走査情報取得部が走査する位置を示すマンモグラフィ画像である。It is a mammography image which shows the position which a scanning information acquisition part scans. 輝度計測部が計測した輝度を可視化したグラフおよび移動平均算出部が算出した移動平均情報を可視化した移動平均線を示す図である。It is a figure which shows the moving average line which visualized the moving average information which the graph which visualized the luminance which the luminance measurement part measured, and the moving average calculation part calculated. 移動平均傾き算出部が算出した移動平均線の傾き情報をグラフ化した図である。It is the figure which graphed the inclination information of the moving average line which the moving average inclination calculation part calculated. 乳房の構成の分類を示すマンモグラフィ画像の一例を示す図である。FIG. 1 shows an example of a mammography image showing classification of breast structure;

以下、本発明の実施の形態を、図面を参照して詳細に説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る映像処理装置の概念を示すブロック図である。
BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
[First embodiment]
FIG. 1 is a block diagram showing the concept of a video processing device according to the first embodiment.

本発明は、従来、医師が医療映像を読影することで判断していたが、その読影は医師の経験や感覚の差により判断に大きく差があったものを、本発明の映像処理装置100が医療映像を処理することで、客観的な評価方法を確立し、医師の正確な診断率を上昇させるものである。 In the present invention, conventionally, a doctor makes a judgment by interpreting a medical image. By processing medical images, it establishes an objective evaluation method and increases the accuracy of diagnosis by doctors.

なおここでは便宜上、映像処理装置100を用いて医療映像装置200より入力された医療映像を、マンモグラフィ検診により撮影されたマンモグラフィ画像として、映像処理装置100がデンスブレストを評価する場合で説明する。 For the sake of convenience, a case in which the image processing apparatus 100 evaluates dense breast will be described by using the image processing apparatus 100 as a mammography image captured by a mammography examination, which is a medical image input from the medical imaging apparatus 200 .

医療映像装置200は、例えばエックス線装置、コンピュータ断層撮影装置、核磁気共鳴画像装置、超音波検査装置などによって撮影される医療映像を撮影するための装置である。 The medical imaging device 200 is a device for taking medical images taken by, for example, an X-ray device, a computer tomography device, a nuclear magnetic resonance imaging device, an ultrasonic examination device, or the like.

この医療映像装置200によって撮影された静止画や動画を本発明の映像処理装置100が処理を行い、入力されたマンモグラフィ画像などの医療映像からデンスブレストの評価結果を表示手段300に出力することができる。 The video processing device 100 of the present invention processes still images and moving images captured by the medical imaging device 200, and outputs evaluation results of dense breast from the input medical video such as mammography images to the display means 300. can.

表示手段300は、例えばパソコンに接続されることで与えられた情報を表示するディスプレイや、入力された情報を印刷して表示するプリンターや、写真などを現像する現像機などが挙げられる。 The display unit 300 includes, for example, a display that displays information given by being connected to a personal computer, a printer that prints and displays input information, and a developing machine that develops photographs and the like.

次に、映像処理装置100の詳細を説明する。
図1に示すように、映像処理装置100は、マスク処理部110、基準組織輝度算出部120、評価範囲輝度算出部130、基準輝度割合算出部140、状態判断部150、および情報記憶部160を備えている。また映像処理装置100は、医療映像装置200および表示手段300に接続されている。
Next, details of the video processing device 100 will be described.
As shown in FIG. 1, the image processing apparatus 100 includes a mask processing unit 110, a reference tissue luminance calculation unit 120, an evaluation range luminance calculation unit 130, a reference luminance ratio calculation unit 140, a state determination unit 150, and an information storage unit 160. I have. The video processing device 100 is also connected to the medical imaging device 200 and the display means 300 .

マスク処理部110は、医療映像装置200、基準組織輝度算出部120、および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像をマスク処理するためのものである。 The mask processing unit 110 is connected to the medical imaging apparatus 200 , the reference tissue luminance calculation unit 120 and the information storage unit 160 , and performs mask processing on mammography images input from the medical imaging apparatus 200 .

ここでいうマスク処理とは、医療映像装置200から入力されたマンモグラフィ画像から特定部分のみを抽出し、抽出された特定部分以外を表示しないようにする画像処理のことである。 The mask processing referred to here is image processing for extracting only a specific portion from the mammography image input from the medical imaging apparatus 200 and not displaying anything other than the extracted specific portion.

具体的には、マンモグラフィ検診により撮影されたマンモグラフィ画像から、筋肉や皮膚、乳頭などを除外し、デンスブレストの評価対象となる乳腺組織が存在する範囲のみを評価範囲として抽出し、乳腺組織以外の部分を表示しないようにする画像処理をマスク処理部110が行う。具体的な画像処理方法は後述する。 Specifically, muscles, skin, and nipples are excluded from mammography images taken by mammography screening, and only the range where the breast tissue targeted for dense breast evaluation exists is extracted as the evaluation range. The mask processing unit 110 performs image processing for not displaying a portion. A specific image processing method will be described later.

マスク処理部110によりマスク処理された画像、およびマスク処理前のマンモグラフィ画像は、接続された情報記憶部160にマスク処理部110が記憶させる。またマスク処理部110の処理が完了すると、マスク処理部110は、接続された基準組織輝度算出部120に処理が完了したことを通知する。 The mask processing unit 110 stores the image masked by the mask processing unit 110 and the mammography image before mask processing in the connected information storage unit 160 . Further, when the processing of the mask processing unit 110 is completed, the mask processing unit 110 notifies the connected reference tissue luminance calculation unit 120 of the completion of the processing.

基準組織輝度算出部120は、マスク処理部110、評価範囲輝度算出部130、および情報記憶部160に接続されており、医療映像装置200により入力されたマンモグラフィ画像からデンスブレストの評価の基準となる脂肪組織の輝度を算出するためのものである。 The reference tissue brightness calculation unit 120 is connected to the mask processing unit 110, the evaluation range brightness calculation unit 130, and the information storage unit 160, and serves as a reference for evaluating dense breast from the mammography image input by the medical imaging apparatus 200. It is for calculating the brightness of adipose tissue.

前述したとおり、デンスブレストは乳腺内の脂肪の割合で評価されるものであり、ここでは基準組織輝度算出部120が基準となる組織として脂肪組織の輝度を算出する。またここでいう輝度とは、医療映像装置200により入力されたマンモグラフィ画像の明るさである白さの度合いを示すものであり、基準組織輝度算出部120はマンモグラフィ画像のうち脂肪組織の輝度を算出するためのものである。 As described above, dense breast is evaluated by the proportion of fat in the mammary gland, and here, the reference tissue brightness calculator 120 calculates the brightness of adipose tissue as a reference tissue. The term "luminance" as used herein indicates the degree of whiteness, which is the brightness of the mammography image input by the medical imaging apparatus 200. The reference tissue luminance calculation unit 120 calculates the luminance of adipose tissue in the mammography image. It is for

基準組織輝度算出部120は、マスク処理部110の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理前のマンモグラフィ画像を呼び出し、呼び出したマンモグラフィ画像からデンスブレストの評価の基準となる脂肪組織の輝度を算出し、算出した脂肪組織の輝度を情報記憶部160に記憶させる。具体的な基準組織である脂肪組織の輝度の算出方法は後述する。また、基準組織輝度算出部120の処理が完了すると、基準組織輝度算出部120は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。 Upon receiving the notification that the processing of the mask processing unit 110 has been completed, the reference tissue brightness calculation unit 120 calls up the pre-masking mammography image stored in the information storage unit 160, and uses the called mammography image to determine the dense breast evaluation criteria. The brightness of the adipose tissue is calculated, and the calculated brightness of the adipose tissue is stored in the information storage unit 160 . A specific method for calculating the brightness of adipose tissue, which is a reference tissue, will be described later. Further, when the processing of the reference tissue brightness calculation unit 120 is completed, the reference tissue brightness calculation unit 120 notifies the connected evaluation range brightness calculation unit 130 of the completion of the processing.

評価範囲輝度算出部130は、基準組織輝度算出部120、基準輝度割合算出部140、および情報記憶部160に接続されており、マスク処理部110が処理した乳腺組織が存在する評価範囲の輝度を算出するためのものである。 The evaluation range brightness calculation unit 130 is connected to the reference tissue brightness calculation unit 120, the reference brightness ratio calculation unit 140, and the information storage unit 160, and calculates the brightness of the evaluation range in which the mammary tissue processed by the mask processing unit 110 exists. It is for calculation.

評価範囲輝度算出部130は、基準組織輝度算出部120の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理後のマンモグラフィ画像を呼び出し、乳腺組織が存在する評価範囲における各部位の輝度を算出し、算出した評価範囲における各部位の輝度を情報記憶部160に記憶させる。具体的な算出方法は後述する。また、評価範囲輝度算出部130の処理が完了すると、評価範囲輝度算出部130は、接続された基準輝度割合算出部140に処理が完了したことを通知する。 Upon receiving the notification that the processing of the reference tissue brightness calculation unit 120 has been completed, the evaluation range brightness calculation unit 130 calls up the masked mammography image stored in the information storage unit 160, and calculates each image in the evaluation range in which mammary gland tissue exists. The brightness of each part is calculated, and the brightness of each part in the calculated evaluation range is stored in the information storage unit 160 . A specific calculation method will be described later. Further, when the evaluation range luminance calculation unit 130 completes the processing, the evaluation range luminance calculation unit 130 notifies the connected reference luminance ratio calculation unit 140 that the processing has been completed.

基準輝度割合算出部140は、評価範囲輝度算出部130、状態判断部150、および情報記憶部160に接続されており、評価範囲輝度算出部130が算出した乳腺組織が存在する評価範囲における脂肪組織の割合を算出するためのものである。 The reference luminance ratio calculation unit 140 is connected to the evaluation range luminance calculation unit 130, the state determination unit 150, and the information storage unit 160. It is for calculating the ratio of

基準輝度割合算出部140は、評価範囲輝度算出部130の処理が完了した通知を受けると、情報記憶部160に記憶された基準組織である脂肪組織の輝度と、乳腺組織が存在する評価範囲の輝度とを呼び出し、脂肪組織の輝度を基準値としたときの乳腺組織の輝度の割合を算出し、算出した輝度の割合を情報記憶部160に記憶させる。具体的な算出方法は後述する。また、基準輝度割合算出部140の処理が完了すると、基準輝度割合算出部140は、接続された状態判断部150に処理が完了したことを通知する。 Upon receiving the notification that the processing of the evaluation range luminance calculation unit 130 has been completed, the reference luminance ratio calculation unit 140 calculates the luminance of the adipose tissue, which is the reference tissue stored in the information storage unit 160, and the evaluation range in which the mammary gland tissue exists. Then, the ratio of the luminance of the mammary gland tissue is calculated with respect to the luminance of the adipose tissue as a reference value, and the calculated ratio of the luminance is stored in the information storage unit 160 . A specific calculation method will be described later. Further, when the processing of the reference luminance ratio calculation unit 140 is completed, the reference luminance ratio calculation unit 140 notifies the connected state determination unit 150 that the processing is completed.

状態判断部150は、基準輝度割合算出部140、情報記憶部160、および表示手段300に接続されており、基準輝度割合算出部140が算出した脂肪組織の輝度を基準値としたときの、乳腺組織が存在する評価範囲の輝度における脂肪組織の輝度の割合から、医療映像装置200から入力されたマンモグラフィ画像が、デンスブレストであるか否かの状態を判断するためのものである。 The state determination unit 150 is connected to the reference luminance ratio calculation unit 140, the information storage unit 160, and the display means 300, and the mammary gland when the luminance of the adipose tissue calculated by the reference luminance ratio calculation unit 140 is used as a reference value. It is for judging whether or not the mammography image input from the medical imaging apparatus 200 is dense breast based on the ratio of the luminance of the fatty tissue to the luminance of the evaluation range where the tissue exists.

状態判断部150は、基準輝度割合算出部140の処理が完了した通知を受けると、情報記憶部160に記憶された脂肪組織の輝度を基準値としたときの、乳腺組織が存在する評価範囲における輝度の割合、およびあらかじめ情報記憶部160に記憶されたデンスブレストであるか否かの状態を判断するための判断基準を呼び出し、医療映像装置200から入力されたマンモグラフィ画像が、デンスブレストであるか否かの状態を判断する。具体的な判断方法は後述する。また、状態判断部150の処理が完了すると、状態判断部150は、接続された表示手段300などを介して判断結果を表示する。 When the state determination unit 150 receives the notification that the processing of the reference luminance ratio calculation unit 140 has been completed, the state determination unit 150 determines the luminance of the adipose tissue stored in the information storage unit 160 as the reference value in the evaluation range in which the mammary gland tissue exists. The ratio of luminance and the judgment criteria for judging whether or not the mammography image is dense breast stored in advance in the information storage unit 160 are called to determine whether the mammography image input from the medical imaging apparatus 200 is dense breast. determine whether or not A specific determination method will be described later. Further, when the processing of the state determination unit 150 is completed, the state determination unit 150 displays the determination result via the connected display means 300 or the like.

情報記憶部160は、マスク処理部110、基準組織輝度算出部120、評価範囲輝度算出部130、基準輝度割合算出部140、および状態判断部150に接続されており、処理に必要な情報を記憶、または記憶された情報を必要に応じて呼び出すことのできる記憶媒体である。 The information storage unit 160 is connected to the mask processing unit 110, the reference tissue brightness calculation unit 120, the evaluation range brightness calculation unit 130, the reference brightness ratio calculation unit 140, and the state determination unit 150, and stores information necessary for processing. , or a storage medium from which stored information can be called as needed.

上記のように、医療映像装置200によって入力されたマンモグラフィ画像から、基準組織輝度算出部120が評価の基準値とする脂肪組織の輝度を算出し、評価範囲輝度算出部130が評価対象である乳腺組織が存在する評価範囲の各部位の輝度を算出し、基準輝度割合算出部140が、脂肪組織の輝度を基準値として乳腺組織が存在する評価範囲の各部位の輝度の割合を算出するので、従来ではあいまいであったデンスブレストの基準を数値として明確に表すことができる。 As described above, from the mammography image input by the medical imaging apparatus 200, the reference tissue luminance calculation unit 120 calculates the luminance of adipose tissue as a reference value for evaluation, and the evaluation range luminance calculation unit 130 calculates mammary glands to be evaluated. The brightness of each site in the evaluation range where tissue exists is calculated, and the reference brightness ratio calculator 140 calculates the brightness rate of each site in the evaluation range where mammary tissue exists using the brightness of adipose tissue as a reference value. Dense breast criteria, which were previously ambiguous, can be expressed clearly as numerical values.

また、脂肪組織の輝度を基準値として乳腺組織が存在する評価範囲における輝度の割合を算出するので、医療映像装置200によって入力されたマンモグラフィ画像にコントラストの調整などのデジタル処理が施されても、脂肪組織を基準値とした相対的な評価を算出することができる。これにより、デンスブレストを客観的に評価することができる。 In addition, since the ratio of luminance in the evaluation range in which mammary gland tissue exists is calculated using the luminance of adipose tissue as a reference value, even if digital processing such as contrast adjustment is performed on the mammography image input by the medical imaging apparatus 200, A relative evaluation using adipose tissue as a reference value can be calculated. This makes it possible to objectively evaluate dense breast.

図2は、マスク処理部の詳細を示すブロック図である。
図2に示すように、マスク処理部110は、境界決定部111、画像処理部112、および学習部113を備えている。
FIG. 2 is a block diagram showing details of the mask processing unit.
As shown in FIG. 2, the mask processing unit 110 includes a boundary determination unit 111, an image processing unit 112, and a learning unit 113.

境界決定部111は、医療映像装置200、画像処理部112、および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像から、筋肉や皮膚、乳頭などを除外して乳腺組織が存在する評価範囲を抽出するために、乳腺組織が存在する評価範囲と他の組織との境界を決定するためのものである。 The boundary determination unit 111 is connected to the medical imaging apparatus 200, the image processing unit 112, and the information storage unit 160, and removes muscles, skin, papillae, etc. from the mammography image input from the medical imaging apparatus 200 to determine mammary glands. This is for determining the boundary between the evaluation range in which the mammary gland tissue exists and other tissues in order to extract the evaluation range in which the tissue exists.

境界決定部111は、例えば、医療映像装置200から入力されたマンモグラフィ画像を医師が確認しながら、図示しない入力手段で評価対象となる乳腺組織が存在する範囲のみを囲むことで乳腺組織と他の組織との境界を決定することができる。またマスク処理前のマンモグラフィ画像は、情報記憶部160に境界決定部111が記憶させることができる。 For example, while the doctor confirms the mammography image input from the medical imaging apparatus 200, the boundary determining unit 111 uses input means (not shown) to enclose only the range in which the mammary tissue to be evaluated exists. Able to determine organizational boundaries. Mammography images before mask processing can be stored in the information storage unit 160 by the boundary determination unit 111 .

または、後述するように、例えば人工知能のような学習部113に、評価対象となる乳腺組織が存在する範囲と他の組織との境界を識別する学習をさせ、学習によって得られた乳腺組織が存在する範囲と他の組織との境界識別情報を学習部113が情報記憶部160に記憶させ、情報記憶部160に記憶された境界識別情報を利用して境界決定部111が、乳腺組織が存在する評価範囲と他の組織との境界を識別して、乳腺組織と他の組織との境界を決定することもできる。 Alternatively, as will be described later, for example, the learning unit 113 such as artificial intelligence is made to learn to identify the boundary between the range in which the mammary gland tissue to be evaluated exists and other tissues, and the mammary gland tissue obtained by learning is The learning unit 113 causes the information storage unit 160 to store boundary identification information between the existing range and other tissues, and the boundary determination unit 111 uses the boundary identification information stored in the information storage unit 160 to determine whether mammary tissue exists. It is also possible to identify boundaries between the evaluation range to be evaluated and other tissues to determine boundaries between mammary tissue and other tissues.

境界決定部111は、医療映像装置200からマンモグラフィ画像が入力されると、乳腺組織が存在する評価範囲と他の組織との境界を決定し、その境界情報を含んだマンモグラフィ画像が画像処理部112に送信される。 When a mammography image is input from the medical imaging apparatus 200, the boundary determination unit 111 determines the boundary between the evaluation range in which the mammary gland tissue exists and other tissues. sent to.

画像処理部112は、境界決定部111、情報記憶部160、および基準組織輝度算出部120に接続されており、デンスブレストの評価対象となる乳腺組織が存在する評価範囲を抽出し、乳腺組織が存在する評価範囲以外の部分を表示しないようにするマスク処理をするためのものである。 The image processing unit 112 is connected to the boundary determination unit 111, the information storage unit 160, and the reference tissue brightness calculation unit 120, extracts an evaluation range in which mammary tissue to be evaluated for dense breast exists, and determines whether the mammary tissue is present. This is for masking so that parts other than the existing evaluation range are not displayed.

画像処理部112は、境界決定部111より、境界情報を含んだマンモグラフィ画像を受診すると、境界決定部111によって決定された境界情報に基づいて、入力されたマンモグラフィ画像から筋肉や皮膚、乳頭などを除外するマスク処理を行い、マスク処理後のマンモグラフィ画像は情報記憶部160に記憶させる。また、画像処理部112の処理が完了すると、画像処理部112は、接続された基準組織輝度算出部120に処理が完了したことを通知する。 When the image processing unit 112 receives a mammography image including boundary information from the boundary determination unit 111, the image processing unit 112 extracts muscles, skin, papilla, etc. from the input mammography image based on the boundary information determined by the boundary determination unit 111. Mask processing for exclusion is performed, and the mammography image after mask processing is stored in the information storage unit 160 . Further, when the processing of the image processing unit 112 is completed, the image processing unit 112 notifies the connected reference tissue luminance calculation unit 120 of the completion of the processing.

学習部113は、学習情報入力手段114および情報記憶部160に接続されており、学習情報入力手段114によって入力された学習情報によって、境界決定部111が決定する乳腺組織が存在する評価範囲と他の組織との境界を識別するために必要な境界識別情報を学習するためのものである。 The learning unit 113 is connected to the learning information input unit 114 and the information storage unit 160. Based on the learning information input by the learning information input unit 114, the evaluation range in which the mammary gland tissue is determined by the boundary determination unit 111 and others. It is for learning the boundary identification information necessary to identify the boundary with the organization.

具体的な学習例としては、学習させるマンモグラフィ画像から、あらかじめ筋肉や皮膚、乳頭などを除外し、評価対象となる乳腺組織が存在する範囲のみを囲んだマスキング画像を医療関係者などが作成し、そのマスキング画像を大量に学習部113に入力することで乳腺組織が存在する評価範囲と他の組織とを識別するための学習をさせる。 As a specific example of learning, medical professionals create a masking image that surrounds only the range where the mammary tissue to be evaluated exists, excluding muscles, skin, and nipples from the mammography images to be learned. By inputting a large amount of the masking images to the learning unit 113, learning for distinguishing between the evaluation range in which the mammary gland tissue exists and the other tissue is performed.

入力されたマスキング画像は、畳み込みニューラルネットワークを用いたディープラーニング、具体的には画像セグメンテーション処理に特化したU-netと呼ばれるU-net構造のモデルを用いたディープラーニングによって、学習部113は乳腺組織が存在する評価範囲と他の組織との境界を識別するための学習をする。学習によって得られた乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報は、学習部113によって情報記憶部160に蓄積される。 The input masking image is processed by deep learning using a convolutional neural network, specifically deep learning using a U-net structure model called U-net that specializes in image segmentation processing. Learn to identify the assessment scope in which the organization exists and the boundaries with other organizations. The learning unit 113 accumulates the boundary identification information for identifying the boundary between the evaluation range in which the mammary gland tissue exists and the other tissue obtained by learning in the information storage unit 160 .

図3は、基準組織輝度算出部の詳細を示すブロック図である。
図3に示すように、基準組織輝度算出部120は、走査情報取得部121、境界検出部122、基準組織輝度計測部123、および平均値算出部124を備えている。
FIG. 3 is a block diagram showing the details of the reference tissue luminance calculator.
As shown in FIG. 3 , the reference tissue brightness calculator 120 includes a scanning information acquisition unit 121 , a boundary detection unit 122 , a reference tissue brightness measurement unit 123 and an average value calculation unit 124 .

走査情報取得部121は、マスク処理部110、境界検出部122および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像上を走査して、画像上の情報を取得するためのものである。 The scanning information acquisition unit 121 is connected to the mask processing unit 110, the boundary detection unit 122, and the information storage unit 160, scans the mammography image input from the medical imaging apparatus 200, and acquires information on the image. It is for

走査情報取得部121は、マスク処理部110の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理前のマンモグラフィ画像を呼び出し、マスク処理前のマンモグラフィ画像上を走査しながらマスク処理前のマンモグラフィ画像上の情報を取得していく。 Upon receiving the notification that the processing of the mask processing unit 110 has been completed, the scanning information acquisition unit 121 calls up the pre-mask mammography image stored in the information storage unit 160, scans the pre-mask mammography image, and scans the mask. Information on mammography images before processing is acquired.

走査情報取得部121は図示しない入力手段によって、入力されたマスク処理前のマンモグラフィ画像上の位置情報により、任意の位置や任意の範囲でマスク処理前のマンモグラフィ画像上の情報を得ることができる。 The scanning information acquisition unit 121 can obtain information on the mammography image before mask processing at an arbitrary position and in an arbitrary range based on the position information on the mammography image before mask processing that is input by an input means (not shown).

また、走査情報取得部121が走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上を、コンピュータで画像を取り扱う際の色調や階調情報を持つ最小単位であるピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理前のマンモグラフィ画像上の情報を得ることもできる。なお本実施の形態は、走査情報取得部121がピクセル単位で走査するものとして説明する。また、走査情報取得部121が、走査しながら得たマスク処理前のマンモグラフィ画像上の情報は、境界検出部122に送信される。 In addition, the scanning unit 121 scans in an arbitrary unit. For example, a mammography image before mask processing is scanned in units of pixels, which are the minimum units having color tone and gradation information when an image is handled by a computer. Scanning can also be performed, and information on mammography images before mask processing can be obtained while scanning a frame of arbitrary size such as 1 mm×1 mm. Note that the present embodiment will be described assuming that the scanning information acquisition unit 121 scans in units of pixels. In addition, the information on the mammography image before mask processing obtained by the scanning information acquisition unit 121 while scanning is transmitted to the boundary detection unit 122 .

境界検出部122は、走査情報取得部121、および基準組織輝度計測部123に接続されており、走査情報取得部121が取得したマスク処理前のマンモグラフィ画像上の情報から背景と背景以外との境界を検出するためのものである。 The boundary detection unit 122 is connected to the scanning information acquisition unit 121 and the reference tissue luminance measurement unit 123, and detects the boundary between the background and the non-background from the information on the pre-masking mammography image acquired by the scanning information acquisition unit 121. is for detecting

具体的には、例えばマスク処理前のマンモグラフィ画像で、境界検出部122は脂肪組織が多くみられる位置、具体的には乳房上部などで走査を開始し、背景と乳房との境界、詳細には背景と乳房の表面にみられる皮膚との境界を境界検出部122が検出する。 Specifically, for example, in a mammography image before mask processing, the boundary detection unit 122 starts scanning at a position where a lot of adipose tissue is seen, specifically the upper part of the breast, and detects the boundary between the background and the breast, specifically A boundary detection unit 122 detects the boundary between the background and the skin seen on the surface of the breast.

ここで背景の輝度は黒く描画されるため輝度0であり、皮膚は少なくとも背景よりは白く描画されるので輝度0を超えるものである。走査情報取得部121が背景側からマスク処理前のマンモグラフィ画像を一定の高さで順に走査し始めると、やがて皮膚に到達する。 Here, the luminance of the background is 0 because it is rendered black, and the luminance exceeds 0 because the skin is rendered at least whiter than the background. When the scanning information acquiring unit 121 starts scanning the mammography images before mask processing in order from the background side at a certain height, the skin is reached before long.

このとき輝度は0から0を超える数値に切り替わる。この0から0を超える数値に切り替わる部分を境界検出部122は、背景と背景以外との境界として、つまり背景と乳房との境界として検出することができる。 At this time, the brightness is switched from 0 to a value exceeding 0. The boundary detection unit 122 can detect the portion where the value changes from 0 to a numerical value exceeding 0 as the boundary between the background and the non-background, that is, the boundary between the background and the breast.

逆に、走査情報取得部121が乳房側からマスク処理前のマンモグラフィ画像を順に走査し始めると、やがて背景に到達する。このとき輝度は0を超える数値から0に切り替わる。この0を超える数値から0に切り替わる部分を境界検出部122は、背景と背景以外との境界として、つまり背景と乳房との境界として検出することができる。 Conversely, when the scanning information acquisition unit 121 starts scanning mammography images before mask processing in order from the breast side, the background is reached before long. At this time, the brightness is switched from a value exceeding 0 to 0. The boundary detection unit 122 can detect the portion where the numerical value exceeding 0 is switched to 0 as the boundary between the background and the non-background, that is, the boundary between the background and the breast.

また、走査情報取得部121の走査する方向を変更させるだけでなく、走査情報取得部121の走査する前に、あらかじめマスク処理前のマンモグラフィ画像を左右反転させてから一定の方向で走査情報取得部121が走査するようにしてもよい。 In addition to changing the scanning direction of the scanning information acquiring unit 121, before scanning by the scanning information acquiring unit 121, the mammography image before mask processing is horizontally reversed in advance, and then the scanning information acquiring unit 121 scans in a certain direction. 121 may scan.

基準組織輝度算出部120は、基準となる脂肪組織の輝度を算出するためのものであり、走査情報取得部121は、例えば医療映像装置200から入力されたマンモグラフィ画像のうち、脂肪組織が多くみられる位置、具体的には乳房上部などの一定の高さで走査を開始する。境界検出部122は、背景と背景以外との境界を検出すると、その境界位置情報を基準組織輝度計測部123に送信する。 The reference tissue luminance calculation unit 120 is for calculating the luminance of the reference adipose tissue. Start scanning at a certain height, such as the top of the breast. When the boundary detection unit 122 detects the boundary between the background and the non-background, it transmits the boundary position information to the reference tissue luminance measurement unit 123 .

基準組織輝度計測部123は、境界検出部122、平均値算出部124、および情報記憶部160に接続されており、境界検出部122が検知した境界から任意の位置の輝度を算出するためのものである。 The reference tissue luminance measurement unit 123 is connected to the boundary detection unit 122, the average value calculation unit 124, and the information storage unit 160, and is used to calculate the luminance at an arbitrary position from the boundary detected by the boundary detection unit 122. is.

具体的には、マスク処理前のマンモグラフィ画像のうち、乳房上部の一定の高さで順に走査を開始し、境界検出部122が背景と皮膚との境界を検知すると、背景と皮膚との境界から皮膚側に多くみられる脂肪組織の位置、具体的には背景と皮膚との境界から10~100ピクセル乳房側に移動した位置で基準組織輝度計測部123が脂肪組織の輝度を計測し、さらに計測した位置から例えば100ピクセル分などの一定の距離分の脂肪組織の輝度を基準組織輝度計測部123が計測する。 Specifically, scanning is sequentially started at a certain height above the breast in mammography images before mask processing, and when the boundary detection unit 122 detects the boundary between the background and the skin, The reference tissue brightness measurement unit 123 measures the brightness of the fatty tissue at the position of the fatty tissue that is often seen on the skin side, specifically, at the position moved from the boundary between the background and the skin to the breast side by 10 to 100 pixels, and further measures the brightness of the fatty tissue. The reference tissue brightness measurement unit 123 measures the brightness of the fat tissue for a certain distance, such as 100 pixels, from the position where the reference tissue brightness is measured.

これによりマンモグラフィ画像のうち脂肪組織が多く存在する位置における脂肪組織の輝度を基準組織輝度計測部123が計測することができる。また、基準組織輝度計測部123が計測した輝度情報は、情報記憶部160に基準組織輝度計測部123が記憶させる。また、基準組織輝度計測部123の処理が完了すると、基準組織輝度計測部123は、接続された平均値算出部124に処理が完了したことを通知する。 Accordingly, the reference tissue luminance measurement unit 123 can measure the luminance of the fatty tissue at a position where a large amount of fatty tissue exists in the mammography image. The luminance information measured by the reference tissue luminance measurement unit 123 is stored in the information storage unit 160 by the reference tissue luminance measurement unit 123 . Further, when the processing of the reference tissue brightness measurement unit 123 is completed, the reference tissue brightness measurement unit 123 notifies the connected average value calculation unit 124 of the completion of the processing.

平均値算出部124は、基準組織輝度計測部123、情報記憶部160、および評価範囲輝度算出部130に接続されており、情報記憶部160に記憶された基準組織輝度計測部123の処理による脂肪組織の輝度に基づいて、脂肪組織の輝度の平均値を算出するためのものである。 The average value calculation unit 124 is connected to the reference tissue luminance measurement unit 123 , the information storage unit 160 , and the evaluation range luminance calculation unit 130 , and calculates fat by the processing of the reference tissue luminance measurement unit 123 stored in the information storage unit 160 . It is for calculating the average value of the brightness of adipose tissue based on the brightness of the tissue.

平均値算出部124は、基準組織輝度計測部123の処理が完了した通知を受けると、情報記憶部160に記憶された特定範囲における脂肪組織の輝度、具体的には、背景と皮膚との境界から皮膚側に10~100ピクセル移動した位置から更に100ピクセル分などの一定距離の輝度を呼び出し、これらの呼び出された一定距離の輝度から平均値を算出し、算出した脂肪組織の輝度の平均値を情報記憶部160に記憶させる。また、平均値算出部124の処理が完了すると、平均値算出部124は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。 Upon receiving the notification that the processing of the reference tissue luminance measurement unit 123 has been completed, the average value calculation unit 124 calculates the luminance of adipose tissue in the specific range stored in the information storage unit 160, specifically, the boundary between the background and the skin. From the position moved 10 to 100 pixels to the skin side, the brightness of a certain distance such as 100 pixels is called, the average value is calculated from the brightness of these called constant distances, and the calculated average value of the brightness of the adipose tissue is stored in the information storage unit 160 . Further, when the processing of the average value calculation unit 124 is completed, the average value calculation unit 124 notifies the connected evaluation range luminance calculation unit 130 that the processing has been completed.

このように、基準組織輝度算出部120は、基準となる脂肪組織が多く存在する任意の位置で脂肪組織の輝度を計測し、その平均値を基準とするので、場所によって輝度にムラがあっても、その平均値を基準とすることができる。 In this way, the reference tissue brightness calculator 120 measures the brightness of adipose tissue at an arbitrary position where a large amount of reference adipose tissue exists, and uses the average value as a reference. can also be based on the average value.

図4は、評価範囲輝度算出部の詳細を示すブロック図である。
図4に示すように、評価範囲輝度算出部130は、評価範囲走査情報取得部131および評価範囲輝度計測部132を備えている。
FIG. 4 is a block diagram showing the details of the evaluation range luminance calculator.
As shown in FIG. 4 , the evaluation range luminance calculator 130 includes an evaluation range scanning information acquisition section 131 and an evaluation range luminance measurement section 132 .

評価範囲走査情報取得部131は、基準組織輝度算出部120の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理後のマンモグラフィ画像を呼び出し、マスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上を走査しながら画像の情報を得る。 When the evaluation range scanning information acquisition unit 131 receives the notification that the processing of the reference tissue brightness calculation unit 120 is completed, it calls up the masked mammography image stored in the information storage unit 160, and extracts the masked mammography image excluding the background. Image information is obtained while scanning the image of the evaluation range where the tissue exists.

また、評価範囲走査情報取得部131においても走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上をピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上の情報を得ることもできる。なお本実施の形態は、評価範囲走査情報取得部131がピクセル単位で走査するものとして説明する。評価範囲走査情報取得部131が、走査しながら得たマスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上の情報は、評価範囲輝度計測部132に送信される。 In the evaluation range scanning information acquisition unit 131, the scanning unit can be set arbitrarily. For example, the mammography image before mask processing can be scanned pixel by pixel. It is also possible to obtain information on the image of the evaluation range in which the mammary gland tissue exists after masking, excluding the background, while scanning the frame. In this embodiment, the evaluation range scanning information acquisition unit 131 scans in units of pixels. The evaluation range scanning information acquisition unit 131 obtains information on the image of the evaluation range in which mammary gland tissue exists after the mask processing, excluding the background, while scanning, and is transmitted to the evaluation range luminance measurement unit 132 .

評価範囲輝度算出部130は、評価範囲走査情報取得部131、評価範囲輝度計測部132、情報記憶部160、および基準輝度割合算出部140に接続されており、評価範囲走査情報取得部131が取得した情報から、評価対象である乳腺組織が存在する評価範囲の各部位の輝度を計測するためのものである。 The evaluation range luminance calculation unit 130 is connected to the evaluation range scanning information acquisition unit 131, the evaluation range luminance measurement unit 132, the information storage unit 160, and the reference luminance ratio calculation unit 140, and the evaluation range scanning information acquisition unit 131 acquires Based on the obtained information, the brightness of each part of the evaluation range in which the mammary gland tissue to be evaluated exists is measured.

具体的には、評価範囲走査情報取得部131から送信される乳腺組織が存在する評価範囲の画像情報から、乳腺組織が存在する評価範囲の輝度を評価範囲輝度計測部132が計測し、すべての計測結果を情報記憶部160に記憶させる。また、評価範囲輝度計測部132の処理が完了すると、評価範囲輝度計測部132は、接続された基準輝度割合算出部140に処理が完了したことを通知する。 Specifically, the evaluation range luminance measurement unit 132 measures the luminance of the evaluation range in which the mammary tissue exists from the image information of the evaluation range in which the mammary tissue exists, which is transmitted from the evaluation range scanning information acquisition unit 131. The measurement result is stored in the information storage unit 160 . Further, when the evaluation range luminance measurement unit 132 completes the processing, the evaluation range luminance measurement unit 132 notifies the connected reference luminance ratio calculation unit 140 of the completion of the processing.

図5は、基準輝度割合算出部の詳細を示すブロック図である。
図5に示すように、基準輝度割合算出部140は、相対輝度変換処理部141、および相対輝度割合計算部142を備えている。
FIG. 5 is a block diagram showing the details of the reference luminance ratio calculator.
As shown in FIG. 5 , the reference luminance ratio calculator 140 includes a relative luminance conversion processor 141 and a relative luminance ratio calculator 142 .

相対輝度変換処理部141は、評価範囲輝度算出部130、相対輝度割合計算部142、および情報記憶部160に接続されており、脂肪組織の輝度を基準値として、乳腺組織が存在する評価範囲の輝度を相対値として変換させるためのものである。 The relative luminance conversion processing unit 141 is connected to the evaluation range luminance calculation unit 130, the relative luminance ratio calculation unit 142, and the information storage unit 160, and uses the luminance of adipose tissue as a reference value to determine the evaluation range in which mammary tissue exists. It is for converting luminance as a relative value.

相対輝度変換処理部141は、評価範囲輝度算出部130の処理が完了した通知を受けると、情報記憶部160に記憶された基準となる脂肪組織の輝度と、評価対象である乳腺組織が存在する評価範囲の各部位の輝度とを呼び出し、脂肪組織の輝度を基準値とした乳腺組織が存在する評価範囲の各部位の輝度を脂肪組織の輝度の相対値として変換する。 When the relative brightness conversion processing unit 141 receives the notification that the processing of the evaluation range brightness calculation unit 130 has been completed, the brightness of the reference adipose tissue stored in the information storage unit 160 and the mammary gland tissue to be evaluated exist. The brightness of each site in the evaluation range is called, and the brightness of each site in the evaluation range where the mammary gland tissue exists is converted as a relative value of the brightness of the adipose tissue with the brightness of the adipose tissue as a reference value.

具体的には、例えば、基準となる脂肪組織の輝度を1とした場合において、背景の輝度を0とし、さらに乳腺組織が存在する評価範囲の輝度を相対値である相対輝度として変換する。変換された乳腺組織が存在する評価範囲の相対輝度は、接続された相対輝度割合計算部142に送信される。 Specifically, for example, when the luminance of the reference adipose tissue is set to 1, the luminance of the background is set to 0, and the luminance of the evaluation range in which mammary gland tissue exists is converted into a relative luminance that is a relative value. The converted relative brightness of the evaluation range in which mammary gland tissue exists is transmitted to the connected relative brightness ratio calculator 142 .

相対輝度割合計算部142は、相対輝度変換処理部141、情報記憶部160、および状態判断部150に接続されており、相対輝度変換処理部141が処理した相対輝度に基づいて、各相対値の割合を計算するためのものである。 The relative brightness ratio calculation unit 142 is connected to the relative brightness conversion processing unit 141, the information storage unit 160, and the state determination unit 150, and calculates each relative value based on the relative brightness processed by the relative brightness conversion processing unit 141. It is for calculating percentages.

相対輝度割合計算部142は、相対輝度変換処理部141が送信した評価対象である乳腺組織が存在する評価範囲の各部位の相対輝度を、一定の相対輝度値ごとに集計して、一定の相対輝度値ごとの割合を計算し、接続された情報記憶部160に記憶させる。また、相対輝度割合計算部142の処理が完了すると、相対輝度割合計算部142は、接続された状態判断部150に処理が完了したことを通知する。 The relative brightness ratio calculation unit 142 aggregates the relative brightness of each part of the evaluation range in which the mammary gland tissue as the evaluation target transmitted by the relative brightness conversion processing unit 141 exists, for each constant relative brightness value, and calculates the constant relative brightness. A ratio for each luminance value is calculated and stored in the connected information storage unit 160 . Further, when the processing of the relative brightness ratio calculation unit 142 is completed, the relative brightness ratio calculation unit 142 notifies the connected state determination unit 150 that the processing is completed.

図6は、情報記憶部の詳細を示すブロック図である。
図6に示すように、情報記憶部160は、マスク処理前画像記憶部161、マスク処理後画像記憶部162、基準組織輝度記憶部163、評価範囲輝度記憶部164、相対輝度割合記憶部165、判断基準記憶部166、および境界識別情報記憶部167を備えている。
FIG. 6 is a block diagram showing details of the information storage unit.
As shown in FIG. 6, the information storage unit 160 includes a pre-masking image storage unit 161, a post-masking image storage unit 162, a reference tissue brightness storage unit 163, an evaluation range brightness storage unit 164, a relative brightness ratio storage unit 165, A judgment criterion storage unit 166 and a boundary identification information storage unit 167 are provided.

マスク処理前画像記憶部161は、医療映像装置200より入力され、マスク処理部110がマスク処理を行う前のマンモグラフィ画像を記憶するためのものである。マスク処理前画像記憶部161に記憶される情報は、例えば、マスク処理を行う前のマンモグラフィ画像を識別する識別情報、検診者番号、検診日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。 The pre-mask processing image storage unit 161 is for storing mammography images input from the medical imaging apparatus 200 and before the mask processing unit 110 performs mask processing. The information stored in the pre-masking image storage unit 161 is stored in association with, for example, identification information for identifying the pre-masking mammography image, examinee number, examination date, etc. Information is called.

マスク処理後画像記憶部162は、医療映像装置200より入力され、マスク処理部110がマスク処理を行った後のマンモグラフィ画像、つまり乳腺組織が存在する範囲のみが抽出された画像を記憶するためのものである。マスク処理後画像記憶部162に記憶される情報は、例えば、マスク処理を行った後のマンモグラフィ画像を識別する識別情報、検診者番号、検診日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。 The post-masking image storage unit 162 is for storing a mammography image input from the medical imaging apparatus 200 and subjected to masking by the masking unit 110, that is, an image in which only the range in which mammary tissue exists is extracted. It is. The information stored in the post-masking image storage unit 162 is stored in association with, for example, identification information for identifying the masked mammography image, an examinee number, an examination date, and the like. information is called.

基準組織輝度記憶部163は、基準組織輝度算出部120が算出する、基準となる脂肪組織の輝度を記憶するためのものである。基準組織輝度記憶部163に記憶される情報は、例えば、基準組織の輝度を算出するためのマンモグラフィ画像を識別するための識別情報、検診者番号、検診日、輝度算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。 The reference tissue brightness storage unit 163 is for storing the reference brightness of adipose tissue calculated by the reference tissue brightness calculation unit 120 . The information stored in the reference tissue brightness storage unit 163 is stored in association with, for example, identification information for identifying a mammography image for calculating the brightness of the reference tissue, an examinee number, an examination date, a brightness calculation date, and the like. and the desired information is called up as needed.

評価範囲輝度記憶部164は、評価範囲輝度算出部130が算出する、評価対象である乳腺組織が存在する評価範囲の各部位の輝度を記憶するためのものである。評価範囲輝度記憶部164に記憶される情報は、例えば、評価範囲の輝度を算出するためのマンモグラフィ画像を識別するための識別情報、検診者番号、検診日、輝度算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。 The evaluation range brightness storage unit 164 is for storing the brightness of each site in the evaluation range in which the mammary gland tissue to be evaluated exists, which is calculated by the evaluation range brightness calculation unit 130 . The information stored in the evaluation range luminance storage unit 164 is stored in association with, for example, identification information for identifying mammography images for calculating the luminance of the evaluation range, examinee number, examination date, luminance calculation date, and the like. and the desired information is called up as needed.

相対輝度割合記憶部165は、基準輝度割合算出部140が算出する、基準となる脂肪組織に対する評価対象である乳腺組織が存在する評価範囲の各部位の相対輝度を記憶するためのものである。相対輝度割合記憶部165に記憶される情報は、例えば、識別情報、検診者番号、検診日、相対輝度割合算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。 The relative brightness ratio storage unit 165 is for storing the relative brightness of each site in the evaluation range in which the mammary gland tissue, which is the evaluation target for the reference adipose tissue, is calculated by the reference brightness ratio calculation unit 140 . The information stored in the relative luminance ratio storage unit 165 is stored in association with, for example, identification information, examinee's number, examination date, relative luminance ratio calculation date, etc., and desired information is called as needed.

判断基準記憶部166は、基準輝度割合算出部140が算出した脂肪組織の輝度を基準値としたときの乳腺組織の輝度の割合から、医療映像装置200から入力された画像が、デンスブレストであるか否かの状態を状態判断部150が判断するため基準値を記憶するためのものである。判断基準記憶部166に記憶される情報は、判断基準を識別するための識別情報などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。 The determination criterion storage unit 166 determines that the image input from the medical imaging apparatus 200 is dense breast based on the ratio of the luminance of the mammary gland tissue when the luminance of the adipose tissue calculated by the reference luminance ratio calculation unit 140 is used as a reference value. This is for storing a reference value for the state determination unit 150 to determine whether or not the state is correct. The information stored in the criterion storage unit 166 is stored in association with identification information for identifying the criterion, and desired information is called as necessary.

また判断基準記憶部166に記憶される基準は、一定の基準を記憶するだけでなく、年齢や性別に応じて基準を適宜変更できるように、年齢、性別などと関連づけられて記憶することもできる。 Further, the criteria stored in the judgment criteria storage unit 166 are not only stored as fixed criteria, but can also be stored in association with age, sex, etc. so that the criteria can be appropriately changed according to age and sex. .

さらに、本実施の形態では、デンスブレストの状態を判断する例で示すが、他の症状を判断する場合においては、症状名などと関連づけ記憶し、症状など必要に応じて所望の情報が呼び出されるようにしてもよい。 Furthermore, in the present embodiment, an example of judging the state of dense breast is shown, but when judging other symptoms, it is stored in association with the name of the symptom, etc., and the desired information such as the symptom is called as necessary. You may do so.

境界識別情報記憶部167は、乳腺組織が存在する評価範囲の境界を学習部113が学習することによって得られる、乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報を記憶するためのものである。 The boundary identification information storage unit 167 stores boundary identification information for identifying the boundary between the evaluation range in which the mammary gland tissue exists and another tissue, which is obtained by the learning unit 113 learning the boundary of the evaluation range in which the mammary tissue exists. It is for remembering.

境界識別情報記憶部167に蓄積された情報に基づいて、医療映像装置200より入力されたマンモグラフィ画像から筋肉や皮膚、乳頭などを除外するマスク処理をマスク処理部112が行うことができる。このほか、情報記憶部160は必要に応じて様々な情報を記憶することができる。 Based on the information accumulated in the boundary identification information storage unit 167, the mask processing unit 112 can perform mask processing for excluding muscles, skin, papilla, etc. from the mammography image input from the medical imaging apparatus 200. In addition, the information storage unit 160 can store various information as needed.

図7は、学習情報入力手段によって学習部に学習させる学習用の画像を示す図である。
図7に示すように、図7(A)、(B)は、学習情報入力手段114によって学習部113に学習させるためのマンモグラフィ画像、およびそのマスキング画像である。
FIG. 7 is a diagram showing a learning image that is learned by the learning unit by the learning information input means.
As shown in FIG. 7, FIGS. 7A and 7B are mammography images and their masking images for learning by the learning section 113 by the learning information input means 114. FIG.

図7(A)は、例えば乳がん検診なので撮影されたマンモグラフィ画像である。図7(B)は、図7(A)の画像から、筋肉や皮膚、乳頭などを除外し評価対象である乳腺組織が存在する範囲のみを囲んだマスキング画像である。 FIG. 7A is a mammography image taken for breast cancer screening, for example. FIG. 7B is a masking image obtained by excluding muscle, skin, papilla, etc. from the image of FIG.

まずは学習部113に学習させるための画像として、図7(A)のようなマンモグラフィ画像と、図7(B)のような乳腺組織が存在する範囲のみ囲んだマスキング画像を大量に用意する。なお学習用のマスキング画像に関しては医療関係者などが手動で作成することが望ましい。 First, as images for the learning unit 113 to learn, a large number of mammography images such as those shown in FIG. 7A and masking images surrounding only the range where mammary gland tissue exists such as those shown in FIG. 7B are prepared. As for the masking images for learning, it is desirable that medical personnel or the like manually create them.

作成された学習用のマンモグラフィ画像および乳腺組織が存在する範囲のみを囲んだマスキング画像は、学習情報入力手段114によって学習部113に大量に入力され、学習情報入力手段114によって入力された情報から、学習部113は乳腺組織が存在する評価範囲と他の組織との境界を識別するための学習を行い、学習によって得られた乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報を学習部113が情報記憶部160に記憶させる。 A large amount of the created mammography images for learning and the masking images surrounding only the range where mammary gland tissue exists are input to the learning unit 113 by the learning information input means 114, and from the information input by the learning information input means 114, The learning unit 113 performs learning to identify the boundary between the evaluation range in which mammary gland tissue exists and other tissues, and identifies the boundary between the evaluation range in which mammary gland tissue exists and other tissues obtained by learning. The learning unit 113 causes the information storage unit 160 to store the identification information.

図8は、ディープラーニングで用いられるU-net構造のニューラルネットワークを示す図である。
図8に示すように、学習部113は、U-netと呼ばれるディープラーニングの技術を使ったプログラムを用いて、乳腺組織が存在する評価範囲と他の組織との境界を識別するための境界識別情報、つまり乳腺組織が存在する評価範囲の範囲を学習することができる。
FIG. 8 is a diagram showing a U-net structured neural network used in deep learning.
As shown in FIG. 8, the learning unit 113 uses a program using a deep learning technique called U-net to identify boundaries between evaluation ranges in which mammary tissue exists and other tissues. Information, ie the extent of the evaluation area in which the mammary tissue is present, can be learned.

U-netの特徴は、入力層と出力層が同じ画像サイズになることである。
通常のニューラルネットワークによって行われる画像認識では、たたみ込み層が物体の複雑な特徴を抽出し、プーリング層が物体の全体的な位置ズレを許容する役割を担っている。
A feature of U-net is that the input layer and the output layer have the same image size.
In image recognition performed by ordinary neural networks, the convolutional layer extracts the complex features of the object, and the pooling layer is responsible for allowing for the overall displacement of the object.

このため層が深くなるほど複雑な特徴を抽出するようになるが、その抽出された特徴の位置情報はあいまいになってしまう。ところが、乳腺組織が存在する評価範囲などの境界を識別して範囲を特定するためには、抽出された複雑な特徴と全体的な位置情報を特定しなければならない。 For this reason, the deeper the layer, the more complex features are extracted, but the positional information of the extracted features becomes ambiguous. However, in order to identify a boundary such as an evaluation range where mammary gland tissue exists and specify the range, complex extracted features and overall position information must be specified.

そこで、図8に示されるようなU字型構造のニューラルネットワークを用いることで、プーリング層であいまいになった位置情報を、元画像上で復元させることができる。 Therefore, by using a U-shaped neural network as shown in FIG. 8, the position information that has become ambiguous in the pooling layer can be restored on the original image.

図8の横向きの矢印は「たたみ込み層」、下向きの矢印は「プーリング層」、上向きの矢印は「たたみ込み+アップサンプリング」と呼ばれており、「たたみ込み層」の層が深くなるほど複雑な特徴を抽出することができる。 The horizontal arrow in Fig. 8 is called "convolution layer", the downward arrow is called "pooling layer", and the upward arrow is called "convolution + upsampling". characteristics can be extracted.

また、「プーリング層」を重ねて深くなるほど、抽出された特徴の位置情報が許容されるようになる。さらにアップサンプリングと前の層の情報を併せることで、「たたみ込み層」が抽出した特徴を保持したまま画像を復元することができる。 Also, the deeper the "pooling layer" is stacked, the more positional information of the extracted features is allowed. Furthermore, by combining upsampling with information from the previous layer, the image can be reconstructed while preserving the features extracted by the "convolutional layer".

この下向きの矢印と上向きの矢印と横向きの矢印の処理によって、入力された画像の特徴を抽出し、抽出した特徴を保持したまま深い層から元の画像細部まで復元することができる。このような技術を用いることで、入力された画像から所望の領域を抽出することができる。 This down arrow, up arrow, and horizontal arrow process extracts the features of the input image and restores the original image details from deep layers while retaining the extracted features. A desired region can be extracted from an input image by using such a technique.

本実施の形態では、上記のU-netと呼ばれるディープラーニングの技術を使ったプログラムを用いることで、乳房のマンモグラフィ画像を入力層に入力し、出力層から出力される画像とマスキング画像とを比較させて一致させるように学習させることにより、乳房のマンモグラフィ画像から乳腺組織が存在する評価範囲と他の組織との境界を識別し、乳腺組織が存在する範囲のみを抽出することができるようになる。 In this embodiment, by using a program using the above-mentioned deep learning technology called U-net, a breast mammography image is input to the input layer, and the image output from the output layer is compared with the masking image. By learning to align and match, it is possible to identify the boundary between the evaluation range in which mammary gland tissue exists and other tissues from mammography images of the breast, and extract only the range in which mammary gland tissue exists. .

また、学習部113による学習は、U-netと呼ばれるディープラーニングの技術を使ったプログラムだけでなく、FCN(Fully Convolutional Network)と呼ばれるディープラーニングによる技術など様々なプログラムを利用することができる。 In addition, the learning by the learning unit 113 can use not only programs using deep learning technology called U-net, but also various programs such as deep learning technology called FCN (Fully Convolutional Network).

図9は、学習部が学習する行程において、学習結果の計測方法を示す数式および図である。
図9に示すように、学習により出力される画像をX、手動でマスキングした画像をYとすると、DICE係数を用いると図9のようなDICE係数DSCで表される。
FIG. 9 is a formula and a diagram showing a method of measuring the learning result in the process of learning by the learning unit.
As shown in FIG. 9, if the image output by learning is X and the manually masked image is Y, DICE coefficients are represented by DICE coefficients DSC as shown in FIG.

DICE係数は、2つの集合の平均要素数と共通要素数の割合を示すものであり、計算結果は0から1の間の値となる。DICE係数、つまりXとYとが重なる斜線で示された部分が1に近づくほど2つの集合の類似度は高いと判断される。 The DICE coefficient indicates the ratio of the average number of elements of two sets to the number of common elements, and the calculation result is a value between 0 and 1. As the DICE coefficient, that is, the shaded portion where X and Y overlap, approaches 1, it is determined that the similarity between the two sets is high.

図10は、学習部が学習した結果を、DICE係数を用いて表したグラフである。
図10に示すように、学習部113は、U-netを用いて学習させたところ、DICE係数DSCは、0.8984となり、90%近い一致率を示している。この結果から、学習部113の学習により、マスク処理部110は乳腺組織が存在する評価範囲と他の組織との境界を自動で識別することができることがわかる。
FIG. 10 is a graph showing the results of learning by the learning unit using DICE coefficients.
As shown in FIG. 10, when the learning unit 113 performs learning using U-net, the DICE coefficient DSC is 0.8984, indicating a matching rate of nearly 90%. From this result, it can be seen that the learning of the learning unit 113 allows the mask processing unit 110 to automatically identify the boundary between the evaluation range in which mammary gland tissue exists and other tissue.

図11は、マスク処理部が処理するマスク処理を示す図である。
図11に示すように、マスク処理部110は、図11(A)、(B)、(C)のようにマスク処理を行う。
FIG. 11 is a diagram showing mask processing performed by the mask processing unit.
As shown in FIG. 11, the mask processing unit 110 performs mask processing as shown in FIGS. 11(A), (B), and (C).

図11(A)は、医療映像装置200により入力されるマンモグラフィ画像である。
図11(B)は、マスク処理部110に入力されたマンモグラフィ画像を、学習部113が学習した乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報により、境界決定部111が処理した評価対象となる乳腺組織が存在する範囲のみを囲んだマスキング画像である。
FIG. 11A is a mammography image input by the medical imaging apparatus 200. FIG.
FIG. 11(B) shows a diagram in which a mammography image input to the mask processing unit 110 is processed by a boundary determination unit using boundary identification information that identifies a boundary between an evaluation range in which mammary gland tissue exists and another tissue learned by the learning unit 113. A masking image 111 encloses only the range in which the processed mammary gland tissue to be evaluated exists.

図11(C)は、画像処理部112が処理した結果の画像を示している。図11(A)
のマンモグラフィ画像と、図11(B)のマスキング画像とから、マスク処理を行い、図11(C)のような筋肉や皮膚、乳頭などを除外し、評価対象となる乳腺組織が存在する評価範囲のみを抽出した画像が描画される。
FIG. 11C shows an image processed by the image processing unit 112 . FIG. 11(A)
and the masked image of FIG. 11(B), mask processing is performed to exclude muscle, skin, papilla, etc. as shown in FIG. An image that extracts only is drawn.

図12は、基準組織輝度算出部が基準組織の輝度を検出する状態を示す図である。
図12の画像は、マンモグラフィ画像による乳房の上部が描画されている。基準となる脂肪組織は、乳房の上部に多く存在し、本実施の形態では、乳房上部に存在する脂肪組織を基準として輝度を算出する例で示す。
FIG. 12 is a diagram showing a state in which the reference tissue brightness calculator detects the brightness of the reference tissue.
The image in FIG. 12 depicts the upper part of the breast from a mammography image. A lot of adipose tissue that serves as a reference exists in the upper part of the breast, and in the present embodiment, an example in which luminance is calculated using the adipose tissue that exists in the upper part of the breast as a reference will be described.

まず、走査情報取得部121は、マンモグラフィ画像の一定の位置で走査を開始し、水平方向に移動しながら情報を取得する。走査を開始する位置は、医師が画面を見ながら決定することもでき、また一定の高さで走査を開始することもできる。
走査情報取得部121は、水平方向にピクセル単位で移動しながら走査し、背景と皮膚との境界を境界検出部122が検出する。
First, the scanning information acquiring unit 121 starts scanning at a certain position of the mammography image and acquires information while moving in the horizontal direction. The position to start scanning can be determined by the doctor while looking at the screen, or scanning can be started at a certain height.
The scanning information acquisition unit 121 scans while moving in units of pixels in the horizontal direction, and the boundary detection unit 122 detects the boundary between the background and the skin.

境界検出部122によって境界が検出された境界検出点より、乳房側に10~100ピクセル水平に移動した位置で基準組織輝度計測部123が脂肪組織の輝度を計測し、更に水平方向に100ピクセル分の脂肪組織の輝度を基準組織輝度計測部123が計測する。 The reference tissue luminance measurement unit 123 measures the luminance of the adipose tissue at a position shifted horizontally by 10 to 100 pixels toward the breast from the boundary detection point where the boundary is detected by the boundary detection unit 122, and further measures the luminance for 100 pixels in the horizontal direction. The reference tissue luminance measurement unit 123 measures the luminance of the adipose tissue.

計測された脂肪組織の100ピクセル分の輝度は、平均値算出部124によって平均値が算出され、算出された平均値が基準となる脂肪組織の輝度として情報記憶部160に記憶される。 The average value of the measured brightness of 100 pixels of the adipose tissue is calculated by the average value calculation unit 124, and the calculated average value is stored in the information storage unit 160 as the reference brightness of the adipose tissue.

また基準組織輝度計測部123による100ピクセル分の脂肪組織の輝度の計測は、複数回繰り返して計測することもできる。具体的には、1回目の計測および平均値の算出後、乳房の下側に1~50ピクセル分下がった位置で、再び境界検出部122による背景と皮膚との境界検出、基準組織輝度計測部123による乳房側に10~100ピクセル水平に移動した位置での輝度の計測を100回など複数回繰り返し、その繰り返して算出された平均値をさらに平均して基準となる脂肪組織の輝度として情報記憶部160に記憶することもできる。 In addition, the measurement of the luminance of adipose tissue for 100 pixels by the reference tissue luminance measuring unit 123 can be repeated multiple times. Specifically, after the first measurement and calculation of the average value, the boundary between the background and the skin is again detected by the boundary detection unit 122 at a position 1 to 50 pixels below the breast, and the reference tissue luminance measurement unit 123 repeats the measurement of luminance at a position horizontally shifted by 10 to 100 pixels toward the breast side a plurality of times such as 100 times, and further averages the repeatedly calculated average values to store information as the luminance of adipose tissue that serves as a reference. It can also be stored in unit 160 .

図13は、マンモグラフィ画像の一部を拡大して表示した図である。
図13に示すように、マンモグラフィ画像を拡大すると、コンピュータなどで画像を扱う際に、輝度情報を持つ最小単位であるピクセルの集合体で表示されていることがわかる。
FIG. 13 is an enlarged view of a part of the mammography image.
As shown in FIG. 13, when a mammography image is enlarged, it can be seen that when the image is handled by a computer or the like, it is displayed as a collection of pixels, which are the minimum units having luminance information.

マンモグラフィ画像は、各ピクセルがもつ輝度情報によって表示され、評価範囲輝度算出部130の評価範囲走査情報取得部131は、この各ピクセルがもつ輝度情報を取得し、評価範囲輝度計測部132によって1ピクセルごとの輝度が計測されていく。 A mammography image is displayed based on the luminance information of each pixel. The evaluation range scanning information acquisition unit 131 of the evaluation range luminance calculation unit 130 acquires the luminance information of each pixel, and the evaluation range luminance measurement unit 132 calculates one pixel. The brightness of each is measured.

図14は、相対輝度変換処理部が変換する処理を示すイメージ図である。
図14に示すように、基準組織輝度算出部120によって算出された基準となる脂肪組織の輝度を1としたときに、評価範囲輝度算出部130が算出した乳腺組織が存在する評価範囲の各部位の輝度の相対値に相対輝度変換処理部141が変換する。このように、図13で算出された評価範囲の輝度は、脂肪組織を基準とした相対値に変換される。
FIG. 14 is an image diagram showing conversion processing performed by the relative luminance conversion processing unit.
As shown in FIG. 14, when the luminance of the reference adipose tissue calculated by the reference tissue luminance calculation unit 120 is set to 1, each part of the evaluation range in which the mammary gland tissue exists calculated by the evaluation range luminance calculation unit 130 is converted by the relative luminance conversion processing unit 141 into a relative luminance value of . In this way, the brightness of the evaluation range calculated in FIG. 13 is converted into a relative value with reference to the adipose tissue.

図15は、相対輝度割合計算部が処理した状態を示すイメージ図である。
図15に示すように、相対輝度変換処理部141が変換した脂肪組織を基準とした相対値に基づいて、相対輝度割合計算部142は、輝度の割合を計算および集計を行なう。
FIG. 15 is an image diagram showing a state processed by the relative luminance ratio calculator.
As shown in FIG. 15, the relative brightness ratio calculation unit 142 calculates and tabulates the brightness ratio based on the relative value with reference to the adipose tissue converted by the relative brightness conversion processing unit 141 .

相対輝度は値が大きいほど白く描画され、値が小さくなるほど脂肪組織や背景に近い黒色で描画される。
図15では、相対輝度が0以上1未満であるものが全体の1%、相対輝度が1以上2未満であるものが全体の38%、相対輝度が3以上4未満であるものが全体の27%、相対輝度が4以上5未満であるものが全体の12%、相対輝度が5以上6未満であるものが全体の7%、相対輝度が6以上7未満であるものが全体の5%、相対輝度が7以上8未満であるものが全体の4%、相対輝度が8以上9未満であるものが全体の4%、相対輝度が9以上10未満であるものが全体の1%、相対輝度が10以上であるものが全体の0%であることを示している。
The higher the value of the relative brightness, the whiter the image is drawn, and the lower the value, the blacker the adipose tissue and the background.
In FIG. 15, 1% of the total have a relative luminance of 0 or more and less than 1, 38% of the total have a relative luminance of 1 or more and less than 2, and 27 of the total have a relative luminance of 3 or more and less than 4. %, 12% of the total have a relative luminance of 4 or more and less than 5, 7% of the total have a relative luminance of 5 or more and less than 6, 5% of the total have a relative luminance of 6 or more and less than 7, 4% of the total have a relative luminance of 7 or more and less than 8, 4% of the total have a relative luminance of 8 or more and less than 9, 1% of the total have a relative luminance of 9 or more and less than 10, relative luminance is 10 or more is 0% of the total.

状態判断部150は、この結果と情報記憶部160に記憶された判断基準に基づいて、デンスブレストであるか、またはデンスブレストでないかの判定を行う。
例えば、判断基準を相対輝度3以上のものを白く描画されたものとして「相対輝度3以上の割合が30%以上の場合はデンスブレスト、相対輝度3以上の割合が30%未満の場合はデンスブレストではない」という基準に設定した場合、人間が評価した結果と77%一致する結果が出ている。
Based on this result and the criteria stored in the information storage unit 160, the state determination unit 150 determines whether dense breast is present or not.
For example, assuming that objects with a relative luminance of 3 or higher are drawn in white as a criterion, "Dense breast when the ratio of relative luminance of 3 or higher is 30% or higher, and dense breast when the ratio of relative luminance of 3 or higher is less than 30%" When the standard is set to "not", the result is 77% consistent with the result of human evaluation.

なお、図15で示された結果を上記判断基準に当てはめた場合、相対輝度3以上の合計割合は、27%+12%+7%+5%+4%+4%+1%=60%なので、相対輝度3以上の割合が30%以上となりデンスブレストであると判定される。 Note that when the results shown in FIG. 15 are applied to the above criteria, the total ratio of the relative luminance of 3 or higher is 27%+12%+7%+5%+4%+4%+1%=60%, so the relative luminance of 3 or higher. is 30% or more, it is judged to be dense breast.

また、相対輝度割合計算部142は、相対輝度割合計算部142が処理した相対輝度の割合をヒートマップのように色で視覚化することもできる。具体的な例としては、相対輝度が0以上1未満の部位に対しては白色、相対輝度が1以上2未満の部位に対しては黄色、相対輝度が2以上3未満の部位に対してはピンク、相対輝度が3以上4未満の部位に対してはオレンジ、相対輝度が4以上の部位に対しては赤として、マスク処理前または処理後のマンモグラフィ画像などに対して反映させるようにしてもよい。 Also, the relative luminance ratio calculator 142 can visualize the ratio of relative luminance processed by the relative luminance ratio calculator 142 in colors like a heat map. As a specific example, white for parts with a relative luminance of 0 or more and less than 1, yellow for parts with a relative luminance of 1 or more and less than 2, and yellow for parts with a relative luminance of 2 or more and less than 3 Pink, orange for areas with a relative brightness of 3 or more and less than 4, and red for areas with a relative brightness of 4 or more, may be reflected in mammography images before or after mask processing. good.

上記のように、相対輝度割合計算部142が処理した相対輝度の割合を色で視覚化することで、医師は数値からだけでなく視覚化された情報から、デンスブレストを評価することができる。 As described above, by visualizing the ratio of relative luminance processed by the relative luminance ratio calculation unit 142 in color, the doctor can evaluate dense breast not only from the numerical value but also from the visualized information.

〔第2の実施の形態〕
次に、本発明の第2の実施の形態について説明する。本実施の形態の映像処理装置は、基準組織輝度算出部の構造および算出方法が異なる以外は、第1の実施の形態で示した構成とほぼ同様である。このため、上記第1の実施の形態とほぼ同様の構成部分については同一の符号を付すなどして適宜その説明を省略する。
[Second embodiment]
Next, a second embodiment of the invention will be described. The video processing apparatus of this embodiment has substantially the same configuration as that of the first embodiment, except that the structure and calculation method of the reference tissue luminance calculator are different. For this reason, substantially the same components as those of the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

図16は、第2の実施の形態に係る映像処理装置における基準組織輝度算出部の詳細を示すブロック図である。
図16に示すように、基準組織輝度算出部120は、走査情報取得部121、境界検出部122、基準組織輝度計測部123、平均値算出部124、輝度計測部125、移動平均算出部126、および移動平均傾き算出部127を備えている。
FIG. 16 is a block diagram showing details of a reference tissue luminance calculator in the video processing device according to the second embodiment.
As shown in FIG. 16, the reference tissue brightness calculation unit 120 includes a scanning information acquisition unit 121, a boundary detection unit 122, a reference tissue brightness measurement unit 123, an average value calculation unit 124, a brightness measurement unit 125, a moving average calculation unit 126, and a moving average slope calculator 127 .

走査情報取得部121は、マスク処理部110、輝度計測部125および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像上を走査して、画像上の情報を取得するためのものである。 The scanning information acquisition unit 121 is connected to the mask processing unit 110, the luminance measurement unit 125, and the information storage unit 160, scans the mammography image input from the medical imaging apparatus 200, and acquires information on the image. It is for

走査情報取得部121は図示しない入力手段によって、入力されたマスク処理前のマンモグラフィ画像上の位置情報により、任意の位置や任意の範囲でマスク処理前のマンモグラフィ画像上の情報を得ることができる。 The scanning information acquisition unit 121 can obtain information on the mammography image before mask processing at an arbitrary position and in an arbitrary range based on the position information on the mammography image before mask processing that is input by an input means (not shown).

また、走査情報取得部121が走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上をピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理前のマンモグラフィ画像上の情報を得ることもできる。なお本実施の形態は、走査情報取得部121がピクセル単位で走査するものとして説明する。
走査情報取得部121が、走査しながら得たマスク処理前のマンモグラフィ画像上の情報は、輝度計測部125に送信される。
In addition, the unit of scanning by the scanning information acquisition unit 121 can be set arbitrarily. For example, the mammography image before mask processing can be scanned pixel by pixel. It is also possible to obtain information on the mammography image before masking while scanning. Note that the present embodiment will be described assuming that the scanning information acquisition unit 121 scans in units of pixels.
Information on the mammography image before mask processing, which the scanning information acquiring unit 121 acquires while scanning, is transmitted to the luminance measuring unit 125 .

輝度計測部125は、走査情報取得部121、移動平均算出部126、および情報記憶部160に接続されており、走査情報取得部121から受信したマスク処理前のマンモグラフィ画像上の情報から輝度を計測するためのものである。 The luminance measurement unit 125 is connected to the scanning information acquisition unit 121, the moving average calculation unit 126, and the information storage unit 160, and measures the luminance from the information on the mammography image before mask processing received from the scanning information acquisition unit 121. It is for

輝度計測部125が計測した輝度情報は情報記憶部160に記憶される。また、輝度計測部125の処理が完了すると、輝度計測部125は、接続された移動平均算出部126に処理が完了したことを通知する。 The luminance information measured by the luminance measuring section 125 is stored in the information storage section 160 . Further, when the processing of the luminance measurement unit 125 is completed, the luminance measurement unit 125 notifies the connected moving average calculation unit 126 of the completion of the processing.

移動平均算出部126は、輝度計測部125、移動平均傾き算出部127、および情報記憶部160に接続されており、輝度計測部125が計測した輝度から、走査情報取得部121が移動しながら取得する情報の一定区間ごとの平均値を、区間をずらしながら求める移動平均情報を算出するためのものである。 The moving average calculation unit 126 is connected to the luminance measurement unit 125, the moving average inclination calculation unit 127, and the information storage unit 160, and acquires the luminance measured by the luminance measurement unit 125 while the scanning information acquisition unit 121 moves. This is for calculating moving average information in which the average value for each fixed section of information to be obtained is obtained while shifting the section.

これにより、走査情報取得部121および輝度計測部125により得られる情報をグラフ化した際の輝度を表すなめらかな曲線グラフを描画することができる。移動平均算出部126が算出した移動平均情報は情報記憶部160に記憶される。また、移動平均算出部126の処理が完了すると、移動平均算出部126は、接続された移動平均傾き算出部127に処理が完了したことを通知する。 As a result, it is possible to draw a smooth curve graph representing the luminance when the information obtained by the scanning information acquiring unit 121 and the luminance measuring unit 125 is graphed. The moving average information calculated by the moving average calculation unit 126 is stored in the information storage unit 160 . Further, when the processing of the moving average calculation unit 126 is completed, the moving average calculation unit 126 notifies the connected moving average slope calculation unit 127 that the processing has been completed.

移動平均傾き算出部127は、移動平均算出部126、境界検出部122、および情報記憶部160に接続されており、移動平均算出部126が算出した移動平均情報から、移動平均線の変化の割合である傾きを算出するためのものである。 The moving average slope calculation unit 127 is connected to the moving average calculation unit 126, the boundary detection unit 122, and the information storage unit 160, and calculates the rate of change of the moving average line from the moving average information calculated by the moving average calculation unit 126. is for calculating the slope of

具体的には、移動平均算出部126によって算出されたマンモグラフィ画像の一定の位置の輝度情報による移動平均情報を微分することで、移動平均線の変化の割合を移動平均傾き算出部127が算出することができる。 Specifically, the moving average slope calculating unit 127 calculates the rate of change of the moving average line by differentiating the moving average information based on the luminance information at a certain position of the mammography image calculated by the moving average calculating unit 126. be able to.

移動平均傾き算出部127が算出した移動平均線の傾き情報は情報記憶部160に記憶される。また、移動平均傾き算出部127の処理が完了すると、移動平均傾き算出部127は、接続された境界検出部122に処理が完了したことを通知する。 The slope information of the moving average line calculated by the moving average slope calculator 127 is stored in the information storage unit 160 . Further, when the processing of the moving average slope calculation unit 127 is completed, the moving average slope calculation unit 127 notifies the connected boundary detection unit 122 that the processing has been completed.

境界検出部122は、移動平均傾き算出部127、基準組織輝度計測部123、および情報記憶部160に接続されており、移動平均傾き算出部127が算出した移動平均線の傾き情報、および輝度計測部125が算出した輝度情報から組織の境界を検出するためのものである。 The boundary detection unit 122 is connected to the moving average slope calculation unit 127, the reference tissue luminance measurement unit 123, and the information storage unit 160, and obtains the slope information of the moving average line calculated by the moving average slope calculation unit 127 and the brightness measurement. This is for detecting the tissue boundary from the luminance information calculated by the unit 125 .

具体的には、マンモグラフィ検診で撮影される胸部は、身体の内側から大胸筋、脂肪組織、および皮膚組織の順番に重なっている。大胸筋はエックス線を吸収するため白く描画されるのに対して、脂肪組織はエックス線を透過するため黒く描画される。 Specifically, in the chest imaged in mammography screening, the pectoralis major muscle, fat tissue, and skin tissue overlap in order from the inside of the body. The pectoralis major muscle is drawn white because it absorbs X-rays, whereas adipose tissue is drawn black because it transmits X-rays.

この大胸筋、脂肪組織、および皮膚組織が順番に重なる位置を、走査情報取得部121で走査し、輝度計測部125で輝度を計測し、移動平均算出部126で輝度の移動平均を算出し、移動平均傾き算出部127が移動平均線の傾きを算出することで、輝度の変化の割合を得ることができる。この変化の割合の差から、大胸筋、脂肪組織、および皮膚組織との境界を得ることができる。 The scanning information acquisition unit 121 scans the positions where the pectoralis major muscle, the fat tissue, and the skin tissue overlap in order, the brightness measurement unit 125 measures the brightness, and the moving average calculation unit 126 calculates the moving average of the brightness. , the moving average slope calculator 127 calculates the slope of the moving average line, thereby obtaining the rate of change in luminance. From the difference in the rate of change, the boundaries with the pectoralis major muscle, adipose tissue, and skin tissue can be obtained.

さらに具体的には、移動平均傾き算出部127が算出した移動平均線の傾き情報で、マンモグラフィ画像の身体側から計測した傾きのうち最初に傾きが0以上になったところを、大胸筋と脂肪組織の境界であると境界検出部122が検出する。 More specifically, according to the inclination information of the moving average line calculated by the moving average inclination calculating unit 127, the point where the inclination first becomes 0 or more among the inclinations measured from the body side of the mammography image is the pectoralis major muscle. The boundary detection unit 122 detects the boundary of adipose tissue.

また第1の実施の形態のように、輝度計測部125が算出した輝度をグラフ化した線で、マンモグラフィ画像の身体側から計測して輝度が0になった地点が皮膚組織と、背景との境界であると境界検出部122が検出する。これにより、大胸筋と皮膚組織とに挟まれた基準となる脂肪組織の部位を特定することができる。境界検出部122は、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出すると、その位置情報を基準組織輝度計測部123に送信する。 Further, as in the first embodiment, on the line graphing the luminance calculated by the luminance measuring unit 125, the point where the luminance becomes 0 when measured from the body side of the mammography image is the difference between the skin tissue and the background. The boundary detection unit 122 detects the boundary. As a result, it is possible to identify the reference adipose tissue site sandwiched between the pectoralis major muscle and the skin tissue. When the boundary detection unit 122 detects the boundary between the pectoralis major muscle and the fat tissue and the boundary between the skin tissue and the background, the boundary detection unit 122 transmits the position information to the reference tissue luminance measurement unit 123 .

基準組織輝度計測部123は、境界検出部122、平均値算出部124、および情報記憶部160に接続されており、境界検出部122が検知した大胸筋と脂肪組織との境界、および皮膚組織と背景との境界情報から、脂肪組織の輝度を算出するためのものである。 The reference tissue luminance measurement unit 123 is connected to the boundary detection unit 122, the average value calculation unit 124, and the information storage unit 160. This is for calculating the brightness of the adipose tissue from the boundary information between the background and the background.

基準組織輝度計測部123が計測した輝度情報は情報記憶部160に記憶させる。また、基準組織輝度計測部123の処理が完了すると、基準組織輝度計測部123は、接続された平均値算出部124に処理が完了したことを通知する。 The luminance information measured by the reference tissue luminance measurement unit 123 is stored in the information storage unit 160 . Further, when the processing of the reference tissue brightness measurement unit 123 is completed, the reference tissue brightness measurement unit 123 notifies the connected average value calculation unit 124 of the completion of the processing.

平均値算出部124は、基準組織輝度計測部123、情報記憶部160、および評価範囲輝度算出部130に接続されており、情報記憶部160に記憶された基準組織輝度計測部123の処理による脂肪組織の輝度に基づいて、脂肪組織の輝度の平均値を算出するためのものである。 The average value calculation unit 124 is connected to the reference tissue luminance measurement unit 123 , the information storage unit 160 , and the evaluation range luminance calculation unit 130 , and calculates fat by the processing of the reference tissue luminance measurement unit 123 stored in the information storage unit 160 . It is for calculating the average value of the brightness of adipose tissue based on the brightness of the tissue.

平均値算出部124は、基準組織輝度計測部123の処理が完了した通知を受けると、情報記憶部160に記憶された特定範囲における脂肪組織の輝度、具体的には、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界に挟まれた脂肪組織の輝度を情報記憶部160から呼び出し、これらの輝度から平均値を算出し、算出した脂肪組織の輝度の平均値を情報記憶部160に記憶させる。また、平均値算出部124の処理が完了すると、平均値算出部124は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。 Upon receiving the notification that the reference tissue luminance measurement unit 123 has completed the processing, the average value calculation unit 124 calculates the luminance of adipose tissue in the specific range stored in the information storage unit 160, specifically, the pectoralis major muscle and the adipose tissue. and the boundary between the skin tissue and the background are called from the information storage unit 160, the average value is calculated from these luminances, and the calculated average value of the luminance of the adipose tissue is stored as information. Stored in unit 160 . Further, when the processing of the average value calculation unit 124 is completed, the average value calculation unit 124 notifies the connected evaluation range luminance calculation unit 130 that the processing has been completed.

このように、基準組織輝度算出部120は、基準となる脂肪組織が多く存在する任意の位置で脂肪組織の輝度を計測し、その平均値を基準とするので、場所によって輝度にムラがあっても、その平均値を基準とすることができる。 In this way, the reference tissue brightness calculator 120 measures the brightness of adipose tissue at an arbitrary position where a large amount of reference adipose tissue exists, and uses the average value as a reference. can also be based on the average value.

また、走査情報取得部121、境界検出部122、基準組織輝度計測部123、平均値算出部124、輝度計測部125、移動平均算出部126、および移動平均傾き算出部127の処理は、必要に応じて走査情報取得部121が走査する位置を変えながら繰り返して処理することもできる。 In addition, the processing of the scanning information acquisition unit 121, the boundary detection unit 122, the reference tissue luminance measurement unit 123, the average value calculation unit 124, the luminance measurement unit 125, the moving average calculation unit 126, and the moving average inclination calculation unit 127 is performed as necessary. Accordingly, the scanning information acquiring unit 121 can repeat the processing while changing the scanning position.

具体的には、1回目の計測および平均値の算出後、走査情報取得部121が乳房の下側に1~50ピクセル程度ピクセル分下がった位置で、再び輝度計測部125、移動平均算出部126、移動平均傾き算出部127、および境界検出部122による大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出し、境界と境界との間に挟まれた脂肪組織の輝度を基準組織輝度計測部123が計測し、平均値算出部124がその輝度の平均値を算出する処理を100回など複数回繰り返し、その繰り返して算出された平均値をさらに平均して基準となる脂肪組織の輝度として情報記憶部160に記憶することもできる。 Specifically, after the first measurement and calculation of the average value, the scanning information acquisition unit 121 moves downward by about 1 to 50 pixels below the breast, and the luminance measurement unit 125 and the moving average calculation unit 126 , the moving average slope calculator 127, and the boundary detector 122 detect the boundary between the pectoralis major muscle and the fat tissue and the boundary between the skin tissue and the background, and calculate the brightness of the fat tissue sandwiched between the boundaries. is measured by the reference tissue luminance measurement unit 123, and the average value calculation unit 124 repeats the process of calculating the average value of the luminance a plurality of times such as 100 times, and the repeatedly calculated average values are further averaged to become the reference. It can also be stored in the information storage unit 160 as the luminance of adipose tissue.

図17は、走査情報取得部が走査する位置を示すマンモグラフィ画像である。
図17に示すように、マンモグラフィ検診で撮影されるマンモグラフィ画像は、身体の内側から大胸筋、脂肪組織、および皮膚組織の順番に重なって描画される。
FIG. 17 is a mammography image showing positions scanned by the scanning information acquiring unit.
As shown in FIG. 17, a mammography image captured in a mammography examination is drawn with the pectoralis major muscle, fat tissue, and skin tissue overlapping in order from the inside of the body.

基準組織輝度算出部120は、このように大胸筋、脂肪組織、および皮膚組織が重なった部位を走査して輝度を算出することで、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出し、境界と境界との間に挟まれた基準となる脂肪組織の部位を特定することができる。 The reference tissue brightness calculation unit 120 scans the overlapping region of the pectoralis major muscle, the fat tissue, and the skin tissue in this way and calculates the brightness, so that the boundary between the pectoralis major muscle and the adipose tissue, and the skin tissue. A boundary with the background can be detected, and a reference adipose tissue site sandwiched between the boundaries can be specified.

図18は、輝度計測部が計測した輝度を可視化したグラフおよび移動平均算出部が算出した移動平均情報を可視化した移動平均線を示す図である。
図18に示すように、輝度計測部125が計測した輝度は、図18の実線で表示されており、大胸筋側から高い輝度で表され、輝度が低下するに伴って脂肪組織になり、やがて脂肪組織から輝度が0となる背景になる。
FIG. 18 is a diagram showing a graph visualizing the luminance measured by the luminance measuring unit and a moving average line visualizing the moving average information calculated by the moving average calculating unit.
As shown in FIG. 18, the brightness measured by the brightness measurement unit 125 is indicated by the solid line in FIG. Eventually, the adipose tissue becomes a background with a brightness of 0.

移動平均算出部126が算出した移動平均情報による移動平均線は、図18の点線で表示されており、なめらかな曲線で表され、基準組織輝度計測部123が計測した輝度と同様に、大胸筋側から高い輝度で表され、輝度が低下するに伴って脂肪組織になり、やがて脂肪組織から輝度が0となる背景になる。 The moving average line based on the moving average information calculated by the moving average calculating unit 126 is indicated by the dotted line in FIG. 18, and is represented by a smooth curve. The muscle side is represented by a high brightness, and as the brightness decreases, it becomes adipose tissue, and eventually the adipose tissue becomes a background with a brightness of 0.

図19は、移動平均傾き算出部が算出した移動平均線の傾き情報をグラフ化した図である。
図19に示すように、移動平均傾き算出部127が算出した移動平均線の傾き情報は、図19の実線で表示されており、大胸筋側付近では、傾きが激しく変化し、脂肪組織付近では傾きが0付近で変化し、やがて背景に移ると一定の値0に収束される。
FIG. 19 is a graph of the slope information of the moving average calculated by the moving average slope calculator.
As shown in FIG. 19, the slope information of the moving average line calculated by the moving average slope calculator 127 is displayed by the solid line in FIG. At , the slope changes around 0, and eventually converges to a constant value of 0 when it moves to the background.

境界検出部122は、移動平均線を微分した傾き情報のうち、大胸筋側から計測して最初に0以上になったところを大胸筋と脂肪組織との境界であると判定する。
なお、第1の実施の形態、および第2の実施の形態では、本発明の映像処理装置100がマンモグラフィ画像から脂肪組織を基準として乳腺組織が存在する評価範囲の輝度の割合を測定したが、基準とする細胞や評価対象である組織を変更することで様々な身体の状態を数値化することができる。
The boundary detection unit 122 determines that the slope information obtained by differentiating the moving average line that first becomes 0 or more when measured from the pectoralis major muscle side is the boundary between the pectoralis major muscle and the fat tissue.
In the first embodiment and the second embodiment, the image processing apparatus 100 of the present invention measures the luminance ratio of the evaluation range in which the mammary gland tissue exists based on the adipose tissue from the mammography image. Various physical conditions can be quantified by changing the reference cells and the tissues to be evaluated.

例えば、脂肪肝の検査の場合においては、肝臓付近の輝度があまり変化しない例えば腎臓の輝度を基準となる細胞として計測し、マスキング処理した肝臓全体の脂肪の割合を算出することで、見た目ではあいまいな判定であった脂肪肝の評価を客観的に評価することができるようになる。 For example, in the case of a fatty liver test, the luminance near the liver, for example, the kidney, which does not change much, is measured as a reference cell, and the percentage of fat in the entire liver after masking is calculated. It becomes possible to objectively evaluate the evaluation of fatty liver, which used to be a difficult judgment.

他にも、メタボリックシンドロームの診断や、脳細胞における脳梗塞の進行度など、基準となる組織を基準組織輝度算出部120が特定して輝度を算出し、マスク処理部110によってマスク処理された評価対象である組織の輝度とを相対的に比較することで、あいまいであった評価を客観的に数値化して評価することができる。 In addition, the reference tissue brightness calculation unit 120 specifies a reference tissue such as the diagnosis of metabolic syndrome, the progress of cerebral infarction in brain cells, calculates the brightness, and the mask processing unit 110 performs mask processing. By relatively comparing the brightness of the target tissue, the ambiguous evaluation can be objectively quantified and evaluated.

また、本実施の形態では、マンモグラフィ検診によるマンモグラフィ画像を医療映像として本発明の映像処理装置100が処理を行なったが、医療映像はマンモグラフィ画像だけに留まらず、エックス線や超音波、磁気共鳴などを用いて映像化したものや、内視鏡検査や眼底カメラなどの可視光線のもとで撮影された検査画像を処理することもできる。 In the present embodiment, mammography images obtained by mammography screening are treated as medical images and processed by the image processing apparatus 100 of the present invention. However, medical images are not limited to mammography images. It is also possible to process images that have been visualized using endoscopic examinations and examination images that have been photographed under visible light, such as by endoscopic examinations and fundus cameras.

100 映像処理装置
110 マスク処理部
111 境界決定部
112 画像処理部
113 学習部
114 学習情報入力手段
120 基準組織輝度算出部
121 走査情報取得部
122 境界検出部
123 基準組織輝度計測部
124 平均値算出部
125 輝度計測部
126 移動平均算出部
127 移動平均傾き算出部
130 評価範囲輝度算出部
131 評価範囲走査情報取得部
132 評価範囲輝度計測部
140 基準輝度割合算出部
141 相対輝度変換処理部
142 相対輝度割合計算部
150 状態判断部
160 情報記憶部
161 マスク処理前画像記憶部
162 マスク処理後画像記憶部
163 基準組織輝度記憶部
164 評価範囲輝度記憶部
165 相対輝度割合記憶部
166 判断基準記憶部
167 境界識別情報記憶部
200 医療映像装置
300 表示手段
100 video processing device 110 mask processing unit 111 boundary determination unit 112 image processing unit 113 learning unit 114 learning information input means 120 reference tissue luminance calculation unit 121 scanning information acquisition unit 122 boundary detection unit 123 reference tissue luminance measurement unit 124 average value calculation unit 125 luminance measurement unit 126 moving average calculation unit 127 moving average inclination calculation unit 130 evaluation range luminance calculation unit 131 evaluation range scanning information acquisition unit 132 evaluation range luminance measurement unit 140 reference luminance ratio calculation unit 141 relative luminance conversion processing unit 142 relative luminance ratio Calculation unit 150 State determination unit 160 Information storage unit 161 Pre-masking image storage unit 162 Post-masking image storage unit 163 Reference tissue brightness storage unit 164 Evaluation range brightness storage unit 165 Relative brightness ratio storage unit 166 Criteria storage unit 167 Boundary identification Information storage unit 200 Medical imaging device 300 Display means

Claims (11)

入力された医療映像内で、状態を評価する評価範囲における高濃度乳腺組織の構成割合を算出する映像処理装置において、
前記医療映像における脂肪組織の輝度である脂肪組織輝度を算出する脂肪組織輝度算出手段と、
前記評価範囲を画素単位の走査枠で順に走査し、前記走査枠が走査した前記評価範囲の各画素の輝度である評価範囲輝度をそれぞれ算出する評価範囲輝度算出手段と、
前記脂肪組織輝度を基準として、前記走査枠が走査した前記評価範囲の各画素の評価範囲輝度を、それぞれの相対値である相対輝度に変換する相対輝度変換手段と、
前記相対輝度変換手段が変換したそれぞれの相対輝度を任意の均等な相対輝度の範囲である相対輝度階級で分割する相対輝度階級分割手段と、
前記相対輝度階級分割手段が分割した前記相対輝度階級における、あらかじめ設定された閾値階級以上または超過した相対輝度の画素数が相対輝度階級全体の画素数に占める割合により前記評価範囲における前記高濃度乳腺組織の割合を算出する高濃度乳腺組織割合算出手段と、
を備えることを特徴とする映像処理装置。
In an image processing device that calculates the composition ratio of high-density mammary gland tissue in an evaluation range for evaluating the condition in an input medical image,
an adipose tissue brightness calculation means for calculating adipose tissue brightness, which is the brightness of the adipose tissue in the medical image ;
evaluation range luminance calculation means for sequentially scanning the evaluation range with a scanning frame in units of pixels , and calculating evaluation range luminance, which is the luminance of each pixel in the evaluation range scanned by the scanning frame;
relative brightness conversion means for converting the evaluation range brightness of each pixel in the evaluation range scanned by the scanning frame into a relative brightness, which is a relative value of each pixel, using the adipose tissue brightness as a reference;
relative luminance class division means for dividing each relative luminance converted by the relative luminance conversion means into relative luminance classes that are an arbitrary uniform range of relative luminance;
The high-density mammary gland in the evaluation range according to the ratio of the number of pixels with a relative luminance equal to or higher than a preset threshold class in the relative luminance classes divided by the relative luminance class dividing means to the number of pixels in the entire relative luminance class. high-concentration mammary gland tissue ratio calculating means for calculating the ratio of tissue;
A video processing device comprising:
前記高濃度乳腺組織割合算出手段は、
前記分割されたそれぞれの相対輝度階級に存在する相対輝度によって、前記医療映像における前記評価範囲を変化させた色で視覚化すること、
を特徴とする請求項記載の映像処理装置。
The high-concentration mammary gland tissue ratio calculation means includes:
Visualizing the evaluation range in the medical image with different colors according to the relative brightness existing in each of the divided relative brightness classes;
2. The video processing apparatus according to claim 1 , characterized by:
前記脂肪組織は、乳房における脂肪組織であり、前記評価範囲は、乳房における乳腺組織が存在する範囲であって、
前記脂肪組織輝度算出手段は、
前記乳房の内部と、前記乳房の外部との境界を検出する境界検出手段と、
前記境界から前記乳房の内側に前記脂肪組織が存在する所定範囲部位における複数箇所の輝度を算出する所定範囲輝度算出手段と、
前記所定範囲輝度算出手段が算出した所定範囲部位における複数箇所の輝度の平均値を算出する所定範囲部位輝度平均値算出手段と、
を備え、
前記所定範囲部位輝度平均値算出手段が算出した所定範囲部位における複数箇所の輝度の平均値を脂肪組織輝度とすること、
を特徴とする請求項1記載の映像処理装置。
The adipose tissue is adipose tissue in the breast, and the evaluation range is a range in which mammary gland tissue exists in the breast,
The adipose tissue brightness calculation means includes:
Boundary detection means for detecting a boundary between the inside of the breast and the outside of the breast;
Predetermined range luminance calculation means for calculating the luminance of a plurality of locations in a predetermined range region where the fatty tissue exists inside the breast from the boundary;
Predetermined range part luminance average value calculation means for calculating an average value of luminance of a plurality of points in the predetermined range part calculated by the predetermined range luminance calculation means;
with
making the average value of the brightness of a plurality of locations in the predetermined range site calculated by the predetermined range site brightness average value calculation means the adipose tissue brightness;
2. The video processing apparatus according to claim 1, characterized by:
前記所定範囲輝度算出手段は、
乳房の上部、かつ皮膚の内側にみられる脂肪組織の輝度を算出すること、
を特徴とする請求項記載の映像処理装置。
The predetermined range luminance calculation means is
calculating the brightness of the fatty tissue found above the breast and inside the skin;
4. The video processing apparatus according to claim 3 , characterized by:
前記評価範囲以外を除外するマスク処理を施すマスク処理部、
を備えることを特徴とする請求項1記載の映像処理装置。
A mask processing unit that performs mask processing to exclude areas other than the evaluation range,
The video processing device according to claim 1, characterized by comprising:
前記マスク処理部は、
入力された学習用映像に基づいてマスク処理を施す範囲を学習する学習部と
前記学習部が学習した情報に基づいて評価範囲を判断する範囲判断部と、
を備えることを特徴とする請求項記載の映像処理装置。
The mask processing unit
a learning unit that learns a range to be masked based on an input learning image; a range determination unit that determines an evaluation range based on the information learned by the learning unit;
6. The video processing apparatus according to claim 5 , comprising:
前記学習部は、
ニューラルネットワークを用いたディープラーニングによって、学習用の医療映像から一定の範囲のみを識別する識別処理を学習する、
ことを特徴とする請求項記載の映像処理装置。
The learning unit
Through deep learning using a neural network, learn the classification process that identifies only a certain range from the medical video for learning.
7. The video processing apparatus according to claim 6 , wherein:
前記識別処理は、
U-net構造のモデルを用いた画像領域抽出処理、
であることを特徴とする請求項記載の映像処理装置。
The identification process includes:
Image region extraction processing using a model of U-net structure,
8. The video processing apparatus according to claim 7 , wherein:
前記高濃度乳腺組織割合算出手段が算出した前記評価範囲における前記高濃度乳腺組織の割合に基づいて、前記評価範囲の状態を判断する状態判断部、
を備えることを特徴とする請求項1記載の映像処理装置。
a state judgment unit that judges the state of the evaluation range based on the ratio of the high-concentration mammary gland tissue in the evaluation range calculated by the high-concentration mammary gland tissue ratio calculating means;
The video processing device according to claim 1, characterized by comprising:
入力された医療映像内で、状態を評価する評価範囲における高濃度乳腺組織の構成割合を算出する映像処理方法において、
前記医療映像における脂肪組織の輝度である脂肪組織輝度を脂肪組織輝度算出手段が算出するステップと、
前記評価範囲を画素単位の走査枠で順に走査し、前記走査枠が走査した前記評価範囲の各画素の輝度である評価範囲輝度をそれぞれ評価範囲輝度算出手段が算出するステップと、
前記脂肪組織輝度を基準として、前記走査枠が走査した前記評価範囲の各画素の評価範囲輝度を、それぞれの相対値である相対輝度に相対輝度変換手段が変換するステップと、
前記相対輝度変換手段が変換したそれぞれの相対輝度を任意の均等な相対輝度の範囲である相対輝度階級で相対輝度階級分割手段が分割するステップと、
前記相対輝度階級分割手段が分割した前記相対輝度階級における、あらかじめ設定された閾値階級以上または超過した相対輝度の画素数が相対輝度階級全体の画素数に占める割合により前記評価範囲における前記高濃度乳腺組織の割合を高濃度乳腺組織割合算出手段が算出するステップと、
を備えることを特徴とする映像処理方法。
In an image processing method for calculating the composition ratio of high-density mammary gland tissue in an evaluation range for evaluating a condition in an input medical image,
a step of calculating an adipose tissue luminance, which is the luminance of the adipose tissue in the medical image, by an adipose tissue luminance calculation means;
a step of sequentially scanning the evaluation range with a pixel-based scanning frame, and calculating evaluation range brightness, which is the brightness of each pixel in the evaluation range scanned by the scanning frame, by an evaluation range brightness calculation means;
a step of converting the evaluation range luminance of each pixel in the evaluation range scanned by the scanning frame into a relative luminance, which is a relative value thereof, by a relative luminance conversion means, using the adipose tissue luminance as a reference;
a step of dividing each relative luminance converted by the relative luminance conversion means into relative luminance classes that are an arbitrary uniform range of relative luminance, by a relative luminance class dividing means;
The high-density mammary gland in the evaluation range according to the ratio of the number of pixels with a relative luminance equal to or higher than a preset threshold class in the relative luminance classes divided by the relative luminance class dividing means to the number of pixels in the entire relative luminance class. a step of calculating the ratio of the tissue by the high-concentration mammary gland tissue ratio calculating means;
A video processing method characterized by comprising:
入力された医療映像内で、状態を評価する評価範囲における高濃度乳腺組織の構成割合を算出する映像処理プログラムにおいて、
コンピュータを、
前記医療映像における脂肪組織の輝度である脂肪組織輝度を算出する脂肪組織輝度算出手段と、
前記評価範囲を画素単位の走査枠で順に走査し、前記走査枠が走査した前記評価範囲の各画素の輝度である評価範囲輝度をそれぞれ算出する評価範囲輝度算出手段、
前記脂肪組織輝度を基準として、前記走査枠が走査した前記評価範囲の各画素の評価範囲輝度を、それぞれの相対値である相対輝度に変換する相対輝度変換手段、
前記相対輝度変換手段が変換したそれぞれの相対輝度を任意の均等な相対輝度の範囲である相対輝度階級で分割する相対輝度階級分割手段、
前記相対輝度階級分割手段が分割した前記相対輝度階級における、あらかじめ設定された閾値階級以上または超過した相対輝度の画素数が相対輝度階級全体の画素数に占める割合により前記評価範囲における前記高濃度乳腺組織の割合を算出する高濃度乳腺組織割合算出手段、
として機能させることを特徴とする映像処理プログラム。
In an image processing program that calculates the composition ratio of high-density mammary gland tissue in the evaluation range for evaluating the condition in the input medical image,
the computer,
an adipose tissue brightness calculation means for calculating adipose tissue brightness, which is the brightness of the adipose tissue in the medical image ;
Evaluation range luminance calculation means for sequentially scanning the evaluation range with a scanning frame in units of pixels , and calculating evaluation range luminance, which is the luminance of each pixel in the evaluation range scanned by the scanning frame;
relative brightness conversion means for converting the evaluation range brightness of each pixel in the evaluation range scanned by the scanning frame into a relative brightness, which is a relative value of each pixel, using the adipose tissue brightness as a reference;
Relative luminance class division means for dividing each relative luminance converted by the relative luminance conversion means into relative luminance classes that are an arbitrary uniform range of relative luminance;
The high-density mammary gland in the evaluation range according to the ratio of the number of pixels with a relative luminance equal to or higher than a preset threshold class in the relative luminance classes divided by the relative luminance class dividing means to the number of pixels in the entire relative luminance class. high-concentration mammary gland tissue ratio calculating means for calculating the tissue ratio;
A video processing program characterized by functioning as a
JP2018179275A 2018-09-25 2018-09-25 VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM Active JP7283878B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018179275A JP7283878B2 (en) 2018-09-25 2018-09-25 VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018179275A JP7283878B2 (en) 2018-09-25 2018-09-25 VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM

Publications (2)

Publication Number Publication Date
JP2020048707A JP2020048707A (en) 2020-04-02
JP7283878B2 true JP7283878B2 (en) 2023-05-30

Family

ID=69994388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018179275A Active JP7283878B2 (en) 2018-09-25 2018-09-25 VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM

Country Status (1)

Country Link
JP (1) JP7283878B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102591371B1 (en) * 2017-12-28 2023-10-19 삼성메디슨 주식회사 Ultrasound imaging apparatus and control method for the same
KR102258776B1 (en) * 2019-05-20 2021-05-31 주식회사 힐세리온 Ai-automatic ultrasound diagnosis apparatus for liver steatosis and remote medical-diagnosis method using the same
KR102549694B1 (en) * 2021-01-15 2023-06-29 고려대학교 산학협력단 Apparatus for deep-learning based automatic pectoralis muscle segmentation and recording medium in which a program for excuting a prcess of the same is recorded

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038525A1 (en) 2006-09-26 2008-04-03 Konica Minolta Medical & Graphic, Inc. Imaging system
JP2010253245A (en) 2009-03-31 2010-11-11 Fujifilm Corp Mammary gland content rate estimating apparatus and method
JP2011206240A (en) 2010-03-30 2011-10-20 Fujifilm Corp Medical image display device, method, and program
JP2015167829A (en) 2014-03-10 2015-09-28 株式会社東芝 Medical inspection management device, medical image diagnostic apparatus and medical inspection system
US20160256126A1 (en) 2013-11-19 2016-09-08 Jeffery C. Wehnes Obtaining breast density measurements and classifications
JP2018089301A (en) 2016-12-07 2018-06-14 学校法人常翔学園 Organism image processing device, output image production method, learning result production method and program
CN108550150A (en) 2018-04-17 2018-09-18 上海联影医疗科技有限公司 Acquisition methods, equipment and the readable storage medium storing program for executing of breast density

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038525A1 (en) 2006-09-26 2008-04-03 Konica Minolta Medical & Graphic, Inc. Imaging system
JP2010253245A (en) 2009-03-31 2010-11-11 Fujifilm Corp Mammary gland content rate estimating apparatus and method
JP2011206240A (en) 2010-03-30 2011-10-20 Fujifilm Corp Medical image display device, method, and program
US20160256126A1 (en) 2013-11-19 2016-09-08 Jeffery C. Wehnes Obtaining breast density measurements and classifications
JP2015167829A (en) 2014-03-10 2015-09-28 株式会社東芝 Medical inspection management device, medical image diagnostic apparatus and medical inspection system
JP2018089301A (en) 2016-12-07 2018-06-14 学校法人常翔学園 Organism image processing device, output image production method, learning result production method and program
CN108550150A (en) 2018-04-17 2018-09-18 上海联影医疗科技有限公司 Acquisition methods, equipment and the readable storage medium storing program for executing of breast density

Also Published As

Publication number Publication date
JP2020048707A (en) 2020-04-02

Similar Documents

Publication Publication Date Title
JP5145169B2 (en) Medical image photographing support apparatus and program
JP5145170B2 (en) Medical image evaluation device
JP5123954B2 (en) Identification and analysis of lesions in medical images
JP5010375B2 (en) Medical diagnostic imaging equipment
JP7283878B2 (en) VIDEO PROCESSING DEVICE, VIDEO PROCESSING METHOD, AND VIDEO PROCESSING PROGRAM
JP4363833B2 (en) Method and apparatus for calculating an index relating to local hemodynamics
JP4717585B2 (en) Medical image determination apparatus, medical image determination method and program thereof
US20100014738A1 (en) Method and system for breast cancer screening
JP2006116313A (en) Diagnostic method in three-dimensional imaging
JP2016503706A (en) Ultrasonic probe and ultrasonic imaging system
JP2001516604A (en) Method and apparatus for clinical histology
WO1997047235A1 (en) Dermal diagnostic analysis system and method
KR20200070062A (en) System and method for detecting lesion in capsule endoscopic image using artificial neural network
CN113222951B (en) Osteoporosis artificial intelligent diagnosis device for recognizing hip joint X-ray
JP2016116774A (en) Image processor, image processing method, image processing system, and program
JP6455235B2 (en) Medical image system and program
JP4649965B2 (en) Health degree determination device and program
JP2008100121A (en) Index arithmetic method related to blood flow movement state of capillary blood vessel in cerebral tissue, apparatus therefor, and storage medium
CN113838020B (en) Lesion area quantification method based on molybdenum target image
JP2005058526A (en) Method and device for photographing tomographic image
JP3975668B2 (en) Feature quantity correctness determination method and image processing apparatus
CN114391878B (en) Ultrasonic imaging equipment
WO2022211108A1 (en) Image processing device and program
JP7478245B2 (en) Medical imaging device and method of operation thereof
JP7457757B2 (en) Image processing device and method based on characteristics of lesions in medical images

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230407

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230414

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230518

R150 Certificate of patent or registration of utility model

Ref document number: 7283878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150