JP2020048707A - 映像処理装置、映像処理方法、および映像処理プログラム - Google Patents

映像処理装置、映像処理方法、および映像処理プログラム Download PDF

Info

Publication number
JP2020048707A
JP2020048707A JP2018179275A JP2018179275A JP2020048707A JP 2020048707 A JP2020048707 A JP 2020048707A JP 2018179275 A JP2018179275 A JP 2018179275A JP 2018179275 A JP2018179275 A JP 2018179275A JP 2020048707 A JP2020048707 A JP 2020048707A
Authority
JP
Japan
Prior art keywords
luminance
tissue
unit
calculating
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018179275A
Other languages
English (en)
Other versions
JP7283878B2 (ja
Inventor
謙一 井上
Kenichi Inoue
謙一 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Npo Expert Imaging & Interventional Support
Original Assignee
Npo Expert Imaging & Interventional Support
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Npo Expert Imaging & Interventional Support filed Critical Npo Expert Imaging & Interventional Support
Priority to JP2018179275A priority Critical patent/JP7283878B2/ja
Publication of JP2020048707A publication Critical patent/JP2020048707A/ja
Application granted granted Critical
Publication of JP7283878B2 publication Critical patent/JP7283878B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

【課題】医療映像内の一定範囲における組織の割合を的確に評価し判断することができる映像処理装置、映像判定方法、および映像判定プログラムを提供することを目的とする。【解決手段】基準組織輝度算出部120が、構成割合を算出するために基準とする脂肪組織の輝度である基準組織輝度を算出し、評価範囲輝度算出部130が、乳腺組織が存在する評価範囲の各部位の輝度である評価範囲輝度を算出し、基準輝度割合算出部140が、基準範囲輝度に対して、評価組織輝度の割合を算出する。【選択図】図1

Description

本発明は、映像処理装置、映像処理方法、および映像処理プログラムに関し、特に入力された医療映像内で、評価する評価対象組織の評価範囲における構成組織の割合を算出する映像処理装置、映像処理方法、および映像処理プログラムに関する。
従来から、身体の外側から診るだけでは分からない臓器の形態、病変の有無などを画像として映し出すことで診断を行う画像診断が知られている。画像診断は、例えばエックス線や超音波、磁気共鳴などを用いて映像化したものや、内視鏡検査や眼底カメラなどの可視光線のもとで撮影された検査画像をもとに医師が診断している。
例えば、乳がん検診の一つであるマンモグラフィ検診では、マンモグラフィと呼ばれる乳房専用のエックス線撮影装置が用いられている。このマンモグラフィ検診で画像診断を行うことで、少ない放射線の量で安全に乳がんなどの病変を早期に検出することができる(たとえば、特許文献1参照)。
このマンモグラフィ検診には、石灰化した乳腺の全体像をとらえることができること、検診の継続によって死亡率が低下することが統計学的に証明されていること、撮影方法が一定であり過去の画像と比較しやすいこと、などのメリットがある。
一方で、マンモグラフィ検診のデメリットとしては、痛みを伴うこと、少量ながらも被曝すること、などが挙げられる。さらには妊娠適齢期といわれる20〜30代前半などの年齢では、乳房内で乳腺が発達しており、この発達した乳腺の量により詳細な診断ができないことがある。
発達した乳腺の量によりマンモグラフィ検診で詳細な診断ができない理由としては、マンモグラフィ検診で撮影されたマンモグラフィ画像では、乳腺もがんも白く描画されてしまうため、乳房内で乳腺が発達した状態だと、がんを正確に検出することが困難になるためである。
具体的には、乳がん検診で検査を行う乳房は、乳腺組織と呼ばれる出産時に乳汁を分泌する組織と、乳腺組織を支える脂肪組織、血管、神経などで構成されており、マンモグラフィ検診では、エックス線を透過させる脂肪が多ければ多いほど全体が黒く透けるように描画され、エックス線を吸収する乳腺組織が多ければ多いほど全体的に白っぽく描画される。
図20は、乳房の構成の分類を示すマンモグラフィ画像の一例を示す図である。
図20に示すように、マンモグラフィ画像による乳房は、白く描画される乳腺組織と、黒く描画される脂肪組織との量を比較することで大きく脂肪性、乳腺散在、不均一高濃度、極めて高濃度の4種類に分類されている。
脂肪性とは、乳房がほぼ完全に脂肪に置き換えられた状態である。乳腺散在とは、脂肪に置き換えられた乳房内に乳腺が散在している状態であり、乳腺内の脂肪が70〜90%程度が目安とされている。
不均一高濃度とは、乳腺実質内に脂肪が混在し、不均一な濃度の状態であり、乳腺内の脂肪が40〜50%程度が目安とされている。極めて高濃度とは、乳腺実質内に脂肪の混在はほとんどない状態であり、乳腺内の脂肪が10〜20%程度が目安とされている。
これらの乳房構成の分類について、マンモグラフィガイドラインでは、不均一高濃度と極めて高濃度とに分類される状態をdense breast(以下、デンスブレストと称する)と定義され、マンモグラフィ画像で乳房が白く描画されてしまうため、仮に乳房内に腫瘤などの病変があったとしても、白く描画される乳腺に隠れて見えない場合がある状態とされている。
具体的には、マンモグラフィ検診では、がんを見つけるうえで重要な腫瘤はエックス線を吸収するためマンモグラフィ画像で白く描画される。ところが、発達した乳腺組織により全体が白っぽく描画されるデンスブレストの場合では、全体が白っぽく描画される中に重なって腫瘤が白く描画されるため、雪山で白いウサギを見つけるように、デンスブレストの画像で腫瘤を検出するのは非常に困難であった。
このようなデンスブレストは、マンモグラフィ検診の感度が低く、乳がんの罹患リスクが高いとされている。特に、アジア人の場合においては、全体の7割近くがデンスブレストだとされている。
このようにマンモグラフィ検診でデンスブレストと評価された検診者は、デンスブレストと評価された検診者でも腫瘤を検出できる超音波検査を行うことで、マンモグラフィ検診では見つかりにくい腫瘤も検出できるとされている。
特開2018−42891号公報
しかし、デンスブレストの定義は、上記のように乳腺内の脂肪が10〜20%程度が目安の極めて高濃度、または乳腺内の脂肪が40〜50%程度が目安の不均一高濃度とされており、定義がはっきりしていないため線引きが難しく、マンモグラフィ画像を診る医師によってデンスブレストの評価が毎回異なる場合があり、信憑性に欠ける問題があった。また、デンスブレストの評価はもちろん、脂肪性、乳腺散在、不均一高濃度、極めて高濃度に分類する識別も同様に困難であった。
具体的には、デンスブレストは、マンモグラフィ画像を医師が診て判断している。しかし、画像を診ただけで脂肪と乳腺組織との割合を算出することは難しく、医師の経験や感覚により判断されている。このため医師によってデンスブレストの判断が異なる場合が生じている。つまり同じマンモグラフィ画像を見ても、医師によってデンスブレストの判断が異なる場合がある。
このため、あいまいなままデンスブレストと評価されてしまうと、検診者に不安を煽るだけでなく、マンモグラフィ検診は意味がないものと勘違いされてしまい、マンモグラフィ検診の検診率が低下してしまうため、がんの早期発見率も低下してしまう問題につながってしまう。
仮に、デンスブレストと評価された場合は、超音波検査を行うことが一般的であるが、超音波検査では、全体の写真を残せないため、後から見直すときに情報が部分的に限られることになり評価が困難なことや、検査を行う者の技術に大きく影響されるため客観性に乏しいことなどのデメリットがある。
また、現在の医療現場では、まだ乳がん検診の超音波検査機器が全体に普及しきれておらず、あいまいな判断でデンスブレストと評価され、超音波検査を受ける検査者が増加すると、医療現場で超音波検査機器の受け皿が少ないため、検診業務が正常に機能しなくなる問題が考えられる。
このように、デンスブレストのあいまいな判断は、検診者への負担が増加するだけでなく、医療現場への負担も増加してしまう問題があった。
このデンスブレストのあいまいな判断の原因としては、次のことも考えられる。
近年ではマンモグラフィ検診を含むエックス線を用いた画像診断は、人体を透過したエックス線情報をフィルムに感光させてアナログのレントゲン写真を描出するアナログ方式から、エックス線情報をデジタル化したデジタル方式に移行している。
デジタル化されたエックス線情報は、デジタル処理を施すことができるので、画質のバラツキを抑えることができ、医師の診断に大きく貢献できるようになっている。ところが、デジタル化されたエックス線情報は、コントラストの調整などのデジタル処理を自由にできてしまうため、デジタル処理の調整によっては、画像全体を白く調整することも可能となる。
このように、デジタル方式の画像は、コントラストの調整などのデジタル処理でマンモグラフィ画像全体を白く調整された状態で医師が判断することで、デンスブレストと評価されてしまう恐れや、逆にデンスブレストであるはずの画像が、デジタル処理の調整でマンモグラフィ画像全体を黒く調整することによってデンスブレストではないと評価されてしまう恐れがある。
本発明はこのような点に鑑みてなされたものであり、医療映像内の一定範囲における組織の割合を的確に評価し判断することができる映像処理装置、映像判定方法、および映像判定プログラムを提供することを目的とする。
本発明では上記問題を解決するために、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理装置において、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出する基準組織輝度算出手段と、前記評価範囲の輝度である評価範囲輝度を算出する評価範囲輝度算出手段と、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出する基準輝度割合算出手段とを備えることを特徴とする映像処理装置が提供される。
これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。
また本発明では、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理方法において、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出するステップと、評価範囲輝度算出手段が、前記評価範囲の輝度である評価範囲輝度を算出するステップと、基準輝度割合算出手段が、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出するステップとを備えることを特徴とする映像処理方法が提供される。
これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。
また本発明では、入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理プログラムにおいて、コンピュータを、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出する基準組織輝度算出手段、前記評価範囲の輝度である評価範囲輝度を算出する評価範囲輝度算出手段、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出する基準輝度割合算出手段として機能させることを特徴とする映像処理プログラムが提供される。
これにより、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出する。
本発明の映像処理装置、映像処理方法、および映像処理プログラムによれば、基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出し、評価範囲輝度算出手段が、評価範囲の輝度である評価範囲輝度を算出し、基準輝度割合算出手段が、基準範囲輝度に対して、評価組織輝度の割合を算出するので、医療映像内の一定範囲における組織の割合を的確に評価し判断することができる。
第1の実施の形態に係る映像処理装置の概念を示すブロック図である。 マスク処理部の詳細を示すブロック図である。 基準組織輝度算出部の詳細を示すブロック図である。 評価範囲輝度算出部の詳細を示すブロック図である。 基準輝度割合算出部の詳細を示すブロック図である。 情報記憶部の詳細を示すブロック図である。 学習情報入力手段によって学習部に学習させる学習用の画像を示す図である。 ディープラーニングで用いられるU−net構造のニューラルネットワークを示す図である。 学習部が学習する行程において、学習結果の計測方法を示す数式および図である。 学習部が学習した結果を、DICE係数を用いて表したグラフである。 マスク処理部が処理するマスク処理を示す図である。 基準組織輝度算出部が基準組織の輝度を検出する状態を示す図である。 マンモグラフィ画像の一部を拡大して表示した図である。 相対輝度変換処理部が変換する処理を示すイメージ図である。 相対輝度割合計算部が処理した状態を示すイメージ図である。 第2の実施の形態に係る映像処理装置における基準組織輝度算出部の詳細を示すブロック図である。 走査情報取得部が走査する位置を示すマンモグラフィ画像である。 輝度計測部が計測した輝度を可視化したグラフおよび移動平均算出部が算出した移動平均情報を可視化した移動平均線を示す図である。 移動平均傾き算出部が算出した移動平均線の傾き情報をグラフ化した図である。 乳房の構成の分類を示すマンモグラフィ画像の一例を示す図である。
以下、本発明の実施の形態を、図面を参照して詳細に説明する。
〔第1の実施の形態〕
図1は、第1の実施の形態に係る映像処理装置の概念を示すブロック図である。
本発明は、従来、医師が医療映像を読影することで判断していたが、その読影は医師の経験や感覚の差により判断に大きく差があったものを、本発明の映像処理装置100が医療映像を処理することで、客観的な評価方法を確立し、医師の正確な診断率を上昇させるものである。
なおここでは便宜上、映像処理装置100を用いて医療映像装置200より入力された医療映像を、マンモグラフィ検診により撮影されたマンモグラフィ画像として、映像処理装置100がデンスブレストを評価する場合で説明する。
医療映像装置200は、例えばエックス線装置、コンピュータ断層撮影装置、核磁気共鳴画像装置、超音波検査装置などによって撮影される医療映像を撮影するための装置である。
この医療映像装置200によって撮影された静止画や動画を本発明の映像処理装置100が処理を行い、入力されたマンモグラフィ画像などの医療映像からデンスブレストの評価結果を表示手段300に出力することができる。
表示手段300は、例えばパソコンに接続されることで与えられた情報を表示するディスプレイや、入力された情報を印刷して表示するプリンターや、写真などを現像する現像機などが挙げられる。
次に、映像処理装置100の詳細を説明する。
図1に示すように、映像処理装置100は、マスク処理部110、基準組織輝度算出部120、評価範囲輝度算出部130、基準輝度割合算出部140、状態判断部150、および情報記憶部160を備えている。また映像処理装置100は、医療映像装置200および表示手段300に接続されている。
マスク処理部110は、医療映像装置200、基準組織輝度算出部120、および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像をマスク処理するためのものである。
ここでいうマスク処理とは、医療映像装置200から入力されたマンモグラフィ画像から特定部分のみを抽出し、抽出された特定部分以外を表示しないようにする画像処理のことである。
具体的には、マンモグラフィ検診により撮影されたマンモグラフィ画像から、筋肉や皮膚、乳頭などを除外し、デンスブレストの評価対象となる乳腺組織が存在する範囲のみを評価範囲として抽出し、乳腺組織以外の部分を表示しないようにする画像処理をマスク処理部110が行う。具体的な画像処理方法は後述する。
マスク処理部110によりマスク処理された画像、およびマスク処理前のマンモグラフィ画像は、接続された情報記憶部160にマスク処理部110が記憶させる。またマスク処理部110の処理が完了すると、マスク処理部110は、接続された基準組織輝度算出部120に処理が完了したことを通知する。
基準組織輝度算出部120は、マスク処理部110、評価範囲輝度算出部130、および情報記憶部160に接続されており、医療映像装置200により入力されたマンモグラフィ画像からデンスブレストの評価の基準となる脂肪組織の輝度を算出するためのものである。
前述したとおり、デンスブレストは乳腺内の脂肪の割合で評価されるものであり、ここでは基準組織輝度算出部120が基準となる組織として脂肪組織の輝度を算出する。またここでいう輝度とは、医療映像装置200により入力されたマンモグラフィ画像の明るさである白さの度合いを示すものであり、基準組織輝度算出部120はマンモグラフィ画像のうち脂肪組織の輝度を算出するためのものである。
基準組織輝度算出部120は、マスク処理部110の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理前のマンモグラフィ画像を呼び出し、呼び出したマンモグラフィ画像からデンスブレストの評価の基準となる脂肪組織の輝度を算出し、算出した脂肪組織の輝度を情報記憶部160に記憶させる。具体的な基準組織である脂肪組織の輝度の算出方法は後述する。また、基準組織輝度算出部120の処理が完了すると、基準組織輝度算出部120は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。
評価範囲輝度算出部130は、基準組織輝度算出部120、基準輝度割合算出部140、および情報記憶部160に接続されており、マスク処理部110が処理した乳腺組織が存在する評価範囲の輝度を算出するためのものである。
評価範囲輝度算出部130は、基準組織輝度算出部120の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理後のマンモグラフィ画像を呼び出し、乳腺組織が存在する評価範囲における各部位の輝度を算出し、算出した評価範囲における各部位の輝度を情報記憶部160に記憶させる。具体的な算出方法は後述する。また、評価範囲輝度算出部130の処理が完了すると、評価範囲輝度算出部130は、接続された基準輝度割合算出部140に処理が完了したことを通知する。
基準輝度割合算出部140は、評価範囲輝度算出部130、状態判断部150、および情報記憶部160に接続されており、評価範囲輝度算出部130が算出した乳腺組織が存在する評価範囲における脂肪組織の割合を算出するためのものである。
基準輝度割合算出部140は、評価範囲輝度算出部130の処理が完了した通知を受けると、情報記憶部160に記憶された基準組織である脂肪組織の輝度と、乳腺組織が存在する評価範囲の輝度とを呼び出し、脂肪組織の輝度を基準値としたときの乳腺組織の輝度の割合を算出し、算出した輝度の割合を情報記憶部160に記憶させる。具体的な算出方法は後述する。また、基準輝度割合算出部140の処理が完了すると、基準輝度割合算出部140は、接続された状態判断部150に処理が完了したことを通知する。
状態判断部150は、基準輝度割合算出部140、情報記憶部160、および表示手段300に接続されており、基準輝度割合算出部140が算出した脂肪組織の輝度を基準値としたときの、乳腺組織が存在する評価範囲の輝度における脂肪組織の輝度の割合から、医療映像装置200から入力されたマンモグラフィ画像が、デンスブレストであるか否かの状態を判断するためのものである。
状態判断部150は、基準輝度割合算出部140の処理が完了した通知を受けると、情報記憶部160に記憶された脂肪組織の輝度を基準値としたときの、乳腺組織が存在する評価範囲における輝度の割合、およびあらかじめ情報記憶部160に記憶されたデンスブレストであるか否かの状態を判断するための判断基準を呼び出し、医療映像装置200から入力されたマンモグラフィ画像が、デンスブレストであるか否かの状態を判断する。具体的な判断方法は後述する。また、状態判断部150の処理が完了すると、状態判断部150は、接続された表示手段300などを介して判断結果を表示する。
情報記憶部160は、マスク処理部110、基準組織輝度算出部120、評価範囲輝度算出部130、基準輝度割合算出部140、および状態判断部150に接続されており、処理に必要な情報を記憶、または記憶された情報を必要に応じて呼び出すことのできる記憶媒体である。
上記のように、医療映像装置200によって入力されたマンモグラフィ画像から、基準組織輝度算出部120が評価の基準値とする脂肪組織の輝度を算出し、評価範囲輝度算出部130が評価対象である乳腺組織が存在する評価範囲の各部位の輝度を算出し、基準輝度割合算出部140が、脂肪組織の輝度を基準値として乳腺組織が存在する評価範囲の各部位の輝度の割合を算出するので、従来ではあいまいであったデンスブレストの基準を数値として明確に表すことができる。
また、脂肪組織の輝度を基準値として乳腺組織が存在する評価範囲における輝度の割合を算出するので、医療映像装置200によって入力されたマンモグラフィ画像にコントラストの調整などのデジタル処理が施されても、脂肪組織を基準値とした相対的な評価を算出することができる。これにより、デンスブレストを客観的に評価することができる。
図2は、マスク処理部の詳細を示すブロック図である。
図2に示すように、マスク処理部110は、境界決定部111、画像処理部112、および学習部113を備えている。
境界決定部111は、医療映像装置200、画像処理部112、および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像から、筋肉や皮膚、乳頭などを除外して乳腺組織が存在する評価範囲を抽出するために、乳腺組織が存在する評価範囲と他の組織との境界を決定するためのものである。
境界決定部111は、例えば、医療映像装置200から入力されたマンモグラフィ画像を医師が確認しながら、図示しない入力手段で評価対象となる乳腺組織が存在する範囲のみを囲むことで乳腺組織と他の組織との境界を決定することができる。またマスク処理前のマンモグラフィ画像は、情報記憶部160に境界決定部111が記憶させることができる。
または、後述するように、例えば人工知能のような学習部113に、評価対象となる乳腺組織が存在する範囲と他の組織との境界を識別する学習をさせ、学習によって得られた乳腺組織が存在する範囲と他の組織との境界識別情報を学習部113が情報記憶部160に記憶させ、情報記憶部160に記憶された境界識別情報を利用して境界決定部111が、乳腺組織が存在する評価範囲と他の組織との境界を識別して、乳腺組織と他の組織との境界を決定することもできる。
境界決定部111は、医療映像装置200からマンモグラフィ画像が入力されると、乳腺組織が存在する評価範囲と他の組織との境界を決定し、その境界情報を含んだマンモグラフィ画像が画像処理部112に送信される。
画像処理部112は、境界決定部111、情報記憶部160、および基準組織輝度算出部120に接続されており、デンスブレストの評価対象となる乳腺組織が存在する評価範囲を抽出し、乳腺組織が存在する評価範囲以外の部分を表示しないようにするマスク処理をするためのものである。
画像処理部112は、境界決定部111より、境界情報を含んだマンモグラフィ画像を受診すると、境界決定部111によって決定された境界情報に基づいて、入力されたマンモグラフィ画像から筋肉や皮膚、乳頭などを除外するマスク処理を行い、マスク処理後のマンモグラフィ画像は情報記憶部160に記憶させる。また、画像処理部112の処理が完了すると、画像処理部112は、接続された基準組織輝度算出部120に処理が完了したことを通知する。
学習部113は、学習情報入力手段114および情報記憶部160に接続されており、学習情報入力手段114によって入力された学習情報によって、境界決定部111が決定する乳腺組織が存在する評価範囲と他の組織との境界を識別するために必要な境界識別情報を学習するためのものである。
具体的な学習例としては、学習させるマンモグラフィ画像から、あらかじめ筋肉や皮膚、乳頭などを除外し、評価対象となる乳腺組織が存在する範囲のみを囲んだマスキング画像を医療関係者などが作成し、そのマスキング画像を大量に学習部113に入力することで乳腺組織が存在する評価範囲と他の組織とを識別するための学習をさせる。
入力されたマスキング画像は、畳み込みニューラルネットワークを用いたディープラーニング、具体的には画像セグメンテーション処理に特化したU−netと呼ばれるU−net構造のモデルを用いたディープラーニングによって、学習部113は乳腺組織が存在する評価範囲と他の組織との境界を識別するための学習をする。学習によって得られた乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報は、学習部113によって情報記憶部160に蓄積される。
図3は、基準組織輝度算出部の詳細を示すブロック図である。
図3に示すように、基準組織輝度算出部120は、走査情報取得部121、境界検出部122、基準組織輝度計測部123、および平均値算出部124を備えている。
走査情報取得部121は、マスク処理部110、境界検出部122および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像上を走査して、画像上の情報を取得するためのものである。
走査情報取得部121は、マスク処理部110の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理前のマンモグラフィ画像を呼び出し、マスク処理前のマンモグラフィ画像上を走査しながらマスク処理前のマンモグラフィ画像上の情報を取得していく。
走査情報取得部121は図示しない入力手段によって、入力されたマスク処理前のマンモグラフィ画像上の位置情報により、任意の位置や任意の範囲でマスク処理前のマンモグラフィ画像上の情報を得ることができる。
また、走査情報取得部121が走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上を、コンピュータで画像を取り扱う際の色調や階調情報を持つ最小単位であるピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理前のマンモグラフィ画像上の情報を得ることもできる。なお本実施の形態は、走査情報取得部121がピクセル単位で走査するものとして説明する。また、走査情報取得部121が、走査しながら得たマスク処理前のマンモグラフィ画像上の情報は、境界検出部122に送信される。
境界検出部122は、走査情報取得部121、および基準組織輝度計測部123に接続されており、走査情報取得部121が取得したマスク処理前のマンモグラフィ画像上の情報から背景と背景以外との境界を検出するためのものである。
具体的には、例えばマスク処理前のマンモグラフィ画像で、境界検出部122は脂肪組織が多くみられる位置、具体的には乳房上部などで走査を開始し、背景と乳房との境界、詳細には背景と乳房の表面にみられる皮膚との境界を境界検出部122が検出する。
ここで背景の輝度は黒く描画されるため輝度0であり、皮膚は少なくとも背景よりは白く描画されるので輝度0を超えるものである。走査情報取得部121が背景側からマスク処理前のマンモグラフィ画像を一定の高さで順に走査し始めると、やがて皮膚に到達する。
このとき輝度は0から0を超える数値に切り替わる。この0から0を超える数値に切り替わる部分を境界検出部122は、背景と背景以外との境界として、つまり背景と乳房との境界として検出することができる。
逆に、走査情報取得部121が乳房側からマスク処理前のマンモグラフィ画像を順に走査し始めると、やがて背景に到達する。このとき輝度は0を超える数値から0に切り替わる。この0を超える数値から0に切り替わる部分を境界検出部122は、背景と背景以外との境界として、つまり背景と乳房との境界として検出することができる。
また、走査情報取得部121の走査する方向を変更させるだけでなく、走査情報取得部121の走査する前に、あらかじめマスク処理前のマンモグラフィ画像を左右反転させてから一定の方向で走査情報取得部121が走査するようにしてもよい。
基準組織輝度算出部120は、基準となる脂肪組織の輝度を算出するためのものであり、走査情報取得部121は、例えば医療映像装置200から入力されたマンモグラフィ画像のうち、脂肪組織が多くみられる位置、具体的には乳房上部などの一定の高さで走査を開始する。境界検出部122は、背景と背景以外との境界を検出すると、その境界位置情報を基準組織輝度計測部123に送信する。
基準組織輝度計測部123は、境界検出部122、平均値算出部124、および情報記憶部160に接続されており、境界検出部122が検知した境界から任意の位置の輝度を算出するためのものである。
具体的には、マスク処理前のマンモグラフィ画像のうち、乳房上部の一定の高さで順に走査を開始し、境界検出部122が背景と皮膚との境界を検知すると、背景と皮膚との境界から皮膚側に多くみられる脂肪組織の位置、具体的には背景と皮膚との境界から10〜100ピクセル乳房側に移動した位置で基準組織輝度計測部123が脂肪組織の輝度を計測し、さらに計測した位置から例えば100ピクセル分などの一定の距離分の脂肪組織の輝度を基準組織輝度計測部123が計測する。
これによりマンモグラフィ画像のうち脂肪組織が多く存在する位置における脂肪組織の輝度を基準組織輝度計測部123が計測することができる。また、基準組織輝度計測部123が計測した輝度情報は、情報記憶部160に基準組織輝度計測部123が記憶させる。また、基準組織輝度計測部123の処理が完了すると、基準組織輝度計測部123は、接続された平均値算出部124に処理が完了したことを通知する。
平均値算出部124は、基準組織輝度計測部123、情報記憶部160、および評価範囲輝度算出部130に接続されており、情報記憶部160に記憶された基準組織輝度計測部123の処理による脂肪組織の輝度に基づいて、脂肪組織の輝度の平均値を算出するためのものである。
平均値算出部124は、基準組織輝度計測部123の処理が完了した通知を受けると、情報記憶部160に記憶された特定範囲における脂肪組織の輝度、具体的には、背景と皮膚との境界から皮膚側に10〜100ピクセル移動した位置から更に100ピクセル分などの一定距離の輝度を呼び出し、これらの呼び出された一定距離の輝度から平均値を算出し、算出した脂肪組織の輝度の平均値を情報記憶部160に記憶させる。また、平均値算出部124の処理が完了すると、平均値算出部124は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。
このように、基準組織輝度算出部120は、基準となる脂肪組織が多く存在する任意の位置で脂肪組織の輝度を計測し、その平均値を基準とするので、場所によって輝度にムラがあっても、その平均値を基準とすることができる。
図4は、評価範囲輝度算出部の詳細を示すブロック図である。
図4に示すように、評価範囲輝度算出部130は、評価範囲走査情報取得部131および評価範囲輝度計測部132を備えている。
評価範囲走査情報取得部131は、基準組織輝度算出部120の処理が完了した通知を受けると、情報記憶部160に記憶されたマスク処理後のマンモグラフィ画像を呼び出し、マスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上を走査しながら画像の情報を得る。
また、評価範囲走査情報取得部131においても走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上をピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上の情報を得ることもできる。なお本実施の形態は、評価範囲走査情報取得部131がピクセル単位で走査するものとして説明する。評価範囲走査情報取得部131が、走査しながら得たマスク処理後の背景を除く乳腺組織が存在する評価範囲の画像上の情報は、評価範囲輝度計測部132に送信される。
評価範囲輝度算出部130は、評価範囲走査情報取得部131、評価範囲輝度計測部132、情報記憶部160、および基準輝度割合算出部140に接続されており、評価範囲走査情報取得部131が取得した情報から、評価対象である乳腺組織が存在する評価範囲の各部位の輝度を計測するためのものである。
具体的には、評価範囲走査情報取得部131から送信される乳腺組織が存在する評価範囲の画像情報から、乳腺組織が存在する評価範囲の輝度を評価範囲輝度計測部132が計測し、すべての計測結果を情報記憶部160に記憶させる。また、評価範囲輝度計測部132の処理が完了すると、評価範囲輝度計測部132は、接続された基準輝度割合算出部140に処理が完了したことを通知する。
図5は、基準輝度割合算出部の詳細を示すブロック図である。
図5に示すように、基準輝度割合算出部140は、相対輝度変換処理部141、および相対輝度割合計算部142を備えている。
相対輝度変換処理部141は、評価範囲輝度算出部130、相対輝度割合計算部142、および情報記憶部160に接続されており、脂肪組織の輝度を基準値として、乳腺組織が存在する評価範囲の輝度を相対値として変換させるためのものである。
相対輝度変換処理部141は、評価範囲輝度算出部130の処理が完了した通知を受けると、情報記憶部160に記憶された基準となる脂肪組織の輝度と、評価対象である乳腺組織が存在する評価範囲の各部位の輝度とを呼び出し、脂肪組織の輝度を基準値とした乳腺組織が存在する評価範囲の各部位の輝度を脂肪組織の輝度の相対値として変換する。
具体的には、例えば、基準となる脂肪組織の輝度を1とした場合において、背景の輝度を0とし、さらに乳腺組織が存在する評価範囲の輝度を相対値である相対輝度として変換する。変換された乳腺組織が存在する評価範囲の相対輝度は、接続された相対輝度割合計算部142に送信される。
相対輝度割合計算部142は、相対輝度変換処理部141、情報記憶部160、および状態判断部150に接続されており、相対輝度変換処理部141が処理した相対輝度に基づいて、各相対値の割合を計算するためのものである。
相対輝度割合計算部142は、相対輝度変換処理部141が送信した評価対象である乳腺組織が存在する評価範囲の各部位の相対輝度を、一定の相対輝度値ごとに集計して、一定の相対輝度値ごとの割合を計算し、接続された情報記憶部160に記憶させる。また、相対輝度割合計算部142の処理が完了すると、相対輝度割合計算部142は、接続された状態判断部150に処理が完了したことを通知する。
図6は、情報記憶部の詳細を示すブロック図である。
図6に示すように、情報記憶部160は、マスク処理前画像記憶部161、マスク処理後画像記憶部162、基準組織輝度記憶部163、評価範囲輝度記憶部164、相対輝度割合記憶部165、判断基準記憶部166、および境界識別情報記憶部167を備えている。
マスク処理前画像記憶部161は、医療映像装置200より入力され、マスク処理部110がマスク処理を行う前のマンモグラフィ画像を記憶するためのものである。マスク処理前画像記憶部161に記憶される情報は、例えば、マスク処理を行う前のマンモグラフィ画像を識別する識別情報、検診者番号、検診日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
マスク処理後画像記憶部162は、医療映像装置200より入力され、マスク処理部110がマスク処理を行った後のマンモグラフィ画像、つまり乳腺組織が存在する範囲のみが抽出された画像を記憶するためのものである。マスク処理後画像記憶部162に記憶される情報は、例えば、マスク処理を行った後のマンモグラフィ画像を識別する識別情報、検診者番号、検診日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
基準組織輝度記憶部163は、基準組織輝度算出部120が算出する、基準となる脂肪組織の輝度を記憶するためのものである。基準組織輝度記憶部163に記憶される情報は、例えば、基準組織の輝度を算出するためのマンモグラフィ画像を識別するための識別情報、検診者番号、検診日、輝度算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
評価範囲輝度記憶部164は、評価範囲輝度算出部130が算出する、評価対象である乳腺組織が存在する評価範囲の各部位の輝度を記憶するためのものである。評価範囲輝度記憶部164に記憶される情報は、例えば、評価範囲の輝度を算出するためのマンモグラフィ画像を識別するための識別情報、検診者番号、検診日、輝度算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
相対輝度割合記憶部165は、基準輝度割合算出部140が算出する、基準となる脂肪組織に対する評価対象である乳腺組織が存在する評価範囲の各部位の相対輝度を記憶するためのものである。相対輝度割合記憶部165に記憶される情報は、例えば、識別情報、検診者番号、検診日、相対輝度割合算出日などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
判断基準記憶部166は、基準輝度割合算出部140が算出した脂肪組織の輝度を基準値としたときの乳腺組織の輝度の割合から、医療映像装置200から入力された画像が、デンスブレストであるか否かの状態を状態判断部150が判断するため基準値を記憶するためのものである。判断基準記憶部166に記憶される情報は、判断基準を識別するための識別情報などと関連づけられて記憶され、必要に応じて所望の情報が呼び出される。
また判断基準記憶部166に記憶される基準は、一定の基準を記憶するだけでなく、年齢や性別に応じて基準を適宜変更できるように、年齢、性別などと関連づけられて記憶することもできる。
さらに、本実施の形態では、デンスブレストの状態を判断する例で示すが、他の症状を判断する場合においては、症状名などと関連づけ記憶し、症状など必要に応じて所望の情報が呼び出されるようにしてもよい。
境界識別情報記憶部167は、乳腺組織が存在する評価範囲の境界を学習部113が学習することによって得られる、乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報を記憶するためのものである。
境界識別情報記憶部167に蓄積された情報に基づいて、医療映像装置200より入力されたマンモグラフィ画像から筋肉や皮膚、乳頭などを除外するマスク処理をマスク処理部112が行うことができる。このほか、情報記憶部160は必要に応じて様々な情報を記憶することができる。
図7は、学習情報入力手段によって学習部に学習させる学習用の画像を示す図である。
図7に示すように、図7(A)、(B)は、学習情報入力手段114によって学習部113に学習させるためのマンモグラフィ画像、およびそのマスキング画像である。
図7(A)は、例えば乳がん検診なので撮影されたマンモグラフィ画像である。図7(B)は、図7(A)の画像から、筋肉や皮膚、乳頭などを除外し評価対象である乳腺組織が存在する範囲のみを囲んだマスキング画像である。
まずは学習部113に学習させるための画像として、図7(A)のようなマンモグラフィ画像と、図7(B)のような乳腺組織が存在する範囲のみ囲んだマスキング画像を大量に用意する。なお学習用のマスキング画像に関しては医療関係者などが手動で作成することが望ましい。
作成された学習用のマンモグラフィ画像および乳腺組織が存在する範囲のみを囲んだマスキング画像は、学習情報入力手段114によって学習部113に大量に入力され、学習情報入力手段114によって入力された情報から、学習部113は乳腺組織が存在する評価範囲と他の組織との境界を識別するための学習を行い、学習によって得られた乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報を学習部113が情報記憶部160に記憶させる。
図8は、ディープラーニングで用いられるU−net構造のニューラルネットワークを示す図である。
図8に示すように、学習部113は、U−netと呼ばれるディープラーニングの技術を使ったプログラムを用いて、乳腺組織が存在する評価範囲と他の組織との境界を識別するための境界識別情報、つまり乳腺組織が存在する評価範囲の範囲を学習することができる。
U−netの特徴は、入力層と出力層が同じ画像サイズになることである。
通常のニューラルネットワークによって行われる画像認識では、たたみ込み層が物体の複雑な特徴を抽出し、プーリング層が物体の全体的な位置ズレを許容する役割を担っている。
このため層が深くなるほど複雑な特徴を抽出するようになるが、その抽出された特徴の位置情報はあいまいになってしまう。ところが、乳腺組織が存在する評価範囲などの境界を識別して範囲を特定するためには、抽出された複雑な特徴と全体的な位置情報を特定しなければならない。
そこで、図8に示されるようなU字型構造のニューラルネットワークを用いることで、プーリング層であいまいになった位置情報を、元画像上で復元させることができる。
図8の横向きの矢印は「たたみ込み層」、下向きの矢印は「プーリング層」、上向きの矢印は「たたみ込み+アップサンプリング」と呼ばれており、「たたみ込み層」の層が深くなるほど複雑な特徴を抽出することができる。
また、「プーリング層」を重ねて深くなるほど、抽出された特徴の位置情報が許容されるようになる。さらにアップサンプリングと前の層の情報を併せることで、「たたみ込み層」が抽出した特徴を保持したまま画像を復元することができる。
この下向きの矢印と上向きの矢印と横向きの矢印の処理によって、入力された画像の特徴を抽出し、抽出した特徴を保持したまま深い層から元の画像細部まで復元することができる。このような技術を用いることで、入力された画像から所望の領域を抽出することができる。
本実施の形態では、上記のU−netと呼ばれるディープラーニングの技術を使ったプログラムを用いることで、乳房のマンモグラフィ画像を入力層に入力し、出力層から出力される画像とマスキング画像とを比較させて一致させるように学習させることにより、乳房のマンモグラフィ画像から乳腺組織が存在する評価範囲と他の組織との境界を識別し、乳腺組織が存在する範囲のみを抽出することができるようになる。
また、学習部113による学習は、U−netと呼ばれるディープラーニングの技術を使ったプログラムだけでなく、FCN(Fully Convolutional Network)と呼ばれるディープラーニングによる技術など様々なプログラムを利用することができる。
図9は、学習部が学習する行程において、学習結果の計測方法を示す数式および図である。
図9に示すように、学習により出力される画像をX、手動でマスキングした画像をYとすると、DICE係数を用いると図9のようなDICE係数DSCで表される。
DICE係数は、2つの集合の平均要素数と共通要素数の割合を示すものであり、計算結果は0から1の間の値となる。DICE係数、つまりXとYとが重なる斜線で示された部分が1に近づくほど2つの集合の類似度は高いと判断される。
図10は、学習部が学習した結果を、DICE係数を用いて表したグラフである。
図10に示すように、学習部113は、U−netを用いて学習させたところ、DICE係数DSCは、0.8984となり、90%近い一致率を示している。この結果から、学習部113の学習により、マスク処理部110は乳腺組織が存在する評価範囲と他の組織との境界を自動で識別することができることがわかる。
図11は、マスク処理部が処理するマスク処理を示す図である。
図11に示すように、マスク処理部110は、図11(A)、(B)、(C)のようにマスク処理を行う。
図11(A)は、医療映像装置200により入力されるマンモグラフィ画像である。
図11(B)は、マスク処理部110に入力されたマンモグラフィ画像を、学習部113が学習した乳腺組織が存在する評価範囲と他の組織との境界を識別する境界識別情報により、境界決定部111が処理した評価対象となる乳腺組織が存在する範囲のみを囲んだマスキング画像である。
図11(C)は、画像処理部112が処理した結果の画像を示している。図11(A)
のマンモグラフィ画像と、図11(B)のマスキング画像とから、マスク処理を行い、図11(C)のような筋肉や皮膚、乳頭などを除外し、評価対象となる乳腺組織が存在する評価範囲のみを抽出した画像が描画される。
図12は、基準組織輝度算出部が基準組織の輝度を検出する状態を示す図である。
図12の画像は、マンモグラフィ画像による乳房の上部が描画されている。基準となる脂肪組織は、乳房の上部に多く存在し、本実施の形態では、乳房上部に存在する脂肪組織を基準として輝度を算出する例で示す。
まず、走査情報取得部121は、マンモグラフィ画像の一定の位置で走査を開始し、水平方向に移動しながら情報を取得する。走査を開始する位置は、医師が画面を見ながら決定することもでき、また一定の高さで走査を開始することもできる。
走査情報取得部121は、水平方向にピクセル単位で移動しながら走査し、背景と皮膚との境界を境界検出部122が検出する。
境界検出部122によって境界が検出された境界検出点より、乳房側に10〜100ピクセル水平に移動した位置で基準組織輝度計測部123が脂肪組織の輝度を計測し、更に水平方向に100ピクセル分の脂肪組織の輝度を基準組織輝度計測部123が計測する。
計測された脂肪組織の100ピクセル分の輝度は、平均値算出部124によって平均値が算出され、算出された平均値が基準となる脂肪組織の輝度として情報記憶部160に記憶される。
また基準組織輝度計測部123による100ピクセル分の脂肪組織の輝度の計測は、複数回繰り返して計測することもできる。具体的には、1回目の計測および平均値の算出後、乳房の下側に1〜50ピクセル分下がった位置で、再び境界検出部122による背景と皮膚との境界検出、基準組織輝度計測部123による乳房側に10〜100ピクセル水平に移動した位置での輝度の計測を100回など複数回繰り返し、その繰り返して算出された平均値をさらに平均して基準となる脂肪組織の輝度として情報記憶部160に記憶することもできる。
図13は、マンモグラフィ画像の一部を拡大して表示した図である。
図13に示すように、マンモグラフィ画像を拡大すると、コンピュータなどで画像を扱う際に、輝度情報を持つ最小単位であるピクセルの集合体で表示されていることがわかる。
マンモグラフィ画像は、各ピクセルがもつ輝度情報によって表示され、評価範囲輝度算出部130の評価範囲走査情報取得部131は、この各ピクセルがもつ輝度情報を取得し、評価範囲輝度計測部132によって1ピクセルごとの輝度が計測されていく。
図14は、相対輝度変換処理部が変換する処理を示すイメージ図である。
図14に示すように、基準組織輝度算出部120によって算出された基準となる脂肪組織の輝度を1としたときに、評価範囲輝度算出部130が算出した乳腺組織が存在する評価範囲の各部位の輝度の相対値に相対輝度変換処理部141が変換する。このように、図13で算出された評価範囲の輝度は、脂肪組織を基準とした相対値に変換される。
図15は、相対輝度割合計算部が処理した状態を示すイメージ図である。
図15に示すように、相対輝度変換処理部141が変換した脂肪組織を基準とした相対値に基づいて、相対輝度割合計算部142は、輝度の割合を計算および集計を行なう。
相対輝度は値が大きいほど白く描画され、値が小さくなるほど脂肪組織や背景に近い黒色で描画される。
図15では、相対輝度が0以上1未満であるものが全体の1%、相対輝度が1以上2未満であるものが全体の38%、相対輝度が3以上4未満であるものが全体の27%、相対輝度が4以上5未満であるものが全体の12%、相対輝度が5以上6未満であるものが全体の7%、相対輝度が6以上7未満であるものが全体の5%、相対輝度が7以上8未満であるものが全体の4%、相対輝度が8以上9未満であるものが全体の4%、相対輝度が9以上10未満であるものが全体の1%、相対輝度が10以上であるものが全体の0%であることを示している。
状態判断部150は、この結果と情報記憶部160に記憶された判断基準に基づいて、デンスブレストであるか、またはデンスブレストでないかの判定を行う。
例えば、判断基準を相対輝度3以上のものを白く描画されたものとして「相対輝度3以上の割合が30%以上の場合はデンスブレスト、相対輝度3以上の割合が30%未満の場合はデンスブレストではない」という基準に設定した場合、人間が評価した結果と77%一致する結果が出ている。
なお、図15で示された結果を上記判断基準に当てはめた場合、相対輝度3以上の合計割合は、27%+12%+7%+5%+4%+4%+1%=60%なので、相対輝度3以上の割合が30%以上となりデンスブレストであると判定される。
また、相対輝度割合計算部142は、相対輝度割合計算部142が処理した相対輝度の割合をヒートマップのように色で視覚化することもできる。具体的な例としては、相対輝度が0以上1未満の部位に対しては白色、相対輝度が1以上2未満の部位に対しては黄色、相対輝度が2以上3未満の部位に対してはピンク、相対輝度が3以上4未満の部位に対してはオレンジ、相対輝度が4以上の部位に対しては赤として、マスク処理前または処理後のマンモグラフィ画像などに対して反映させるようにしてもよい。
上記のように、相対輝度割合計算部142が処理した相対輝度の割合を色で視覚化することで、医師は数値からだけでなく視覚化された情報から、デンスブレストを評価することができる。
〔第2の実施の形態〕
次に、本発明の第2の実施の形態について説明する。本実施の形態の映像処理装置は、基準組織輝度算出部の構造および算出方法が異なる以外は、第1の実施の形態で示した構成とほぼ同様である。このため、上記第1の実施の形態とほぼ同様の構成部分については同一の符号を付すなどして適宜その説明を省略する。
図16は、第2の実施の形態に係る映像処理装置における基準組織輝度算出部の詳細を示すブロック図である。
図16に示すように、基準組織輝度算出部120は、走査情報取得部121、境界検出部122、基準組織輝度計測部123、平均値算出部124、輝度計測部125、移動平均算出部126、および移動平均傾き算出部127を備えている。
走査情報取得部121は、マスク処理部110、輝度計測部125および情報記憶部160に接続されており、医療映像装置200から入力されたマンモグラフィ画像上を走査して、画像上の情報を取得するためのものである。
走査情報取得部121は図示しない入力手段によって、入力されたマスク処理前のマンモグラフィ画像上の位置情報により、任意の位置や任意の範囲でマスク処理前のマンモグラフィ画像上の情報を得ることができる。
また、走査情報取得部121が走査する単位は任意で設定できるものとし、例えばマスク処理前のマンモグラフィ画像上をピクセル単位で走査することもでき、また1mm×1mmなどの任意の大きさの枠を走査させながらマスク処理前のマンモグラフィ画像上の情報を得ることもできる。なお本実施の形態は、走査情報取得部121がピクセル単位で走査するものとして説明する。
走査情報取得部121が、走査しながら得たマスク処理前のマンモグラフィ画像上の情報は、輝度計測部125に送信される。
輝度計測部125は、走査情報取得部121、移動平均算出部126、および情報記憶部160に接続されており、走査情報取得部121から受信したマスク処理前のマンモグラフィ画像上の情報から輝度を計測するためのものである。
輝度計測部125が計測した輝度情報は情報記憶部160に記憶される。また、輝度計測部125の処理が完了すると、輝度計測部125は、接続された移動平均算出部126に処理が完了したことを通知する。
移動平均算出部126は、輝度計測部125、移動平均傾き算出部127、および情報記憶部160に接続されており、輝度計測部125が計測した輝度から、走査情報取得部121が移動しながら取得する情報の一定区間ごとの平均値を、区間をずらしながら求める移動平均情報を算出するためのものである。
これにより、走査情報取得部121および輝度計測部125により得られる情報をグラフ化した際の輝度を表すなめらかな曲線グラフを描画することができる。移動平均算出部126が算出した移動平均情報は情報記憶部160に記憶される。また、移動平均算出部126の処理が完了すると、移動平均算出部126は、接続された移動平均傾き算出部127に処理が完了したことを通知する。
移動平均傾き算出部127は、移動平均算出部126、境界検出部122、および情報記憶部160に接続されており、移動平均算出部126が算出した移動平均情報から、移動平均線の変化の割合である傾きを算出するためのものである。
具体的には、移動平均算出部126によって算出されたマンモグラフィ画像の一定の位置の輝度情報による移動平均情報を微分することで、移動平均線の変化の割合を移動平均傾き算出部127が算出することができる。
移動平均傾き算出部127が算出した移動平均線の傾き情報は情報記憶部160に記憶される。また、移動平均傾き算出部127の処理が完了すると、移動平均傾き算出部127は、接続された境界検出部122に処理が完了したことを通知する。
境界検出部122は、移動平均傾き算出部127、基準組織輝度計測部123、および情報記憶部160に接続されており、移動平均傾き算出部127が算出した移動平均線の傾き情報、および輝度計測部125が算出した輝度情報から組織の境界を検出するためのものである。
具体的には、マンモグラフィ検診で撮影される胸部は、身体の内側から大胸筋、脂肪組織、および皮膚組織の順番に重なっている。大胸筋はエックス線を吸収するため白く描画されるのに対して、脂肪組織はエックス線を透過するため黒く描画される。
この大胸筋、脂肪組織、および皮膚組織が順番に重なる位置を、走査情報取得部121で走査し、輝度計測部125で輝度を計測し、移動平均算出部126で輝度の移動平均を算出し、移動平均傾き算出部127が移動平均線の傾きを算出することで、輝度の変化の割合を得ることができる。この変化の割合の差から、大胸筋、脂肪組織、および皮膚組織との境界を得ることができる。
さらに具体的には、移動平均傾き算出部127が算出した移動平均線の傾き情報で、マンモグラフィ画像の身体側から計測した傾きのうち最初に傾きが0以上になったところを、大胸筋と脂肪組織の境界であると境界検出部122が検出する。
また第1の実施の形態のように、輝度計測部125が算出した輝度をグラフ化した線で、マンモグラフィ画像の身体側から計測して輝度が0になった地点が皮膚組織と、背景との境界であると境界検出部122が検出する。これにより、大胸筋と皮膚組織とに挟まれた基準となる脂肪組織の部位を特定することができる。境界検出部122は、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出すると、その位置情報を基準組織輝度計測部123に送信する。
基準組織輝度計測部123は、境界検出部122、平均値算出部124、および情報記憶部160に接続されており、境界検出部122が検知した大胸筋と脂肪組織との境界、および皮膚組織と背景との境界情報から、脂肪組織の輝度を算出するためのものである。
基準組織輝度計測部123が計測した輝度情報は情報記憶部160に記憶させる。また、基準組織輝度計測部123の処理が完了すると、基準組織輝度計測部123は、接続された平均値算出部124に処理が完了したことを通知する。
平均値算出部124は、基準組織輝度計測部123、情報記憶部160、および評価範囲輝度算出部130に接続されており、情報記憶部160に記憶された基準組織輝度計測部123の処理による脂肪組織の輝度に基づいて、脂肪組織の輝度の平均値を算出するためのものである。
平均値算出部124は、基準組織輝度計測部123の処理が完了した通知を受けると、情報記憶部160に記憶された特定範囲における脂肪組織の輝度、具体的には、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界に挟まれた脂肪組織の輝度を情報記憶部160から呼び出し、これらの輝度から平均値を算出し、算出した脂肪組織の輝度の平均値を情報記憶部160に記憶させる。また、平均値算出部124の処理が完了すると、平均値算出部124は、接続された評価範囲輝度算出部130に処理が完了したことを通知する。
このように、基準組織輝度算出部120は、基準となる脂肪組織が多く存在する任意の位置で脂肪組織の輝度を計測し、その平均値を基準とするので、場所によって輝度にムラがあっても、その平均値を基準とすることができる。
また、走査情報取得部121、境界検出部122、基準組織輝度計測部123、平均値算出部124、輝度計測部125、移動平均算出部126、および移動平均傾き算出部127の処理は、必要に応じて走査情報取得部121が走査する位置を変えながら繰り返して処理することもできる。
具体的には、1回目の計測および平均値の算出後、走査情報取得部121が乳房の下側に1〜50ピクセル程度ピクセル分下がった位置で、再び輝度計測部125、移動平均算出部126、移動平均傾き算出部127、および境界検出部122による大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出し、境界と境界との間に挟まれた脂肪組織の輝度を基準組織輝度計測部123が計測し、平均値算出部124がその輝度の平均値を算出する処理を100回など複数回繰り返し、その繰り返して算出された平均値をさらに平均して基準となる脂肪組織の輝度として情報記憶部160に記憶することもできる。
図17は、走査情報取得部が走査する位置を示すマンモグラフィ画像である。
図17に示すように、マンモグラフィ検診で撮影されるマンモグラフィ画像は、身体の内側から大胸筋、脂肪組織、および皮膚組織の順番に重なって描画される。
基準組織輝度算出部120は、このように大胸筋、脂肪組織、および皮膚組織が重なった部位を走査して輝度を算出することで、大胸筋と脂肪組織との境界、および皮膚組織と背景との境界を検出し、境界と境界との間に挟まれた基準となる脂肪組織の部位を特定することができる。
図18は、輝度計測部が計測した輝度を可視化したグラフおよび移動平均算出部が算出した移動平均情報を可視化した移動平均線を示す図である。
図18に示すように、輝度計測部125が計測した輝度は、図18の実線で表示されており、大胸筋側から高い輝度で表され、輝度が低下するに伴って脂肪組織になり、やがて脂肪組織から輝度が0となる背景になる。
移動平均算出部126が算出した移動平均情報による移動平均線は、図18の点線で表示されており、なめらかな曲線で表され、基準組織輝度計測部123が計測した輝度と同様に、大胸筋側から高い輝度で表され、輝度が低下するに伴って脂肪組織になり、やがて脂肪組織から輝度が0となる背景になる。
図19は、移動平均傾き算出部が算出した移動平均線の傾き情報をグラフ化した図である。
図19に示すように、移動平均傾き算出部127が算出した移動平均線の傾き情報は、図19の実線で表示されており、大胸筋側付近では、傾きが激しく変化し、脂肪組織付近では傾きが0付近で変化し、やがて背景に移ると一定の値0に収束される。
境界検出部122は、移動平均線を微分した傾き情報のうち、大胸筋側から計測して最初に0以上になったところを大胸筋と脂肪組織との境界であると判定する。
なお、第1の実施の形態、および第2の実施の形態では、本発明の映像処理装置100がマンモグラフィ画像から脂肪組織を基準として乳腺組織が存在する評価範囲の輝度の割合を測定したが、基準とする細胞や評価対象である組織を変更することで様々な身体の状態を数値化することができる。
例えば、脂肪肝の検査の場合においては、肝臓付近の輝度があまり変化しない例えば腎臓の輝度を基準となる細胞として計測し、マスキング処理した肝臓全体の脂肪の割合を算出することで、見た目ではあいまいな判定であった脂肪肝の評価を客観的に評価することができるようになる。
他にも、メタボリックシンドロームの診断や、脳細胞における脳梗塞の進行度など、基準となる組織を基準組織輝度算出部120が特定して輝度を算出し、マスク処理部110によってマスク処理された評価対象である組織の輝度とを相対的に比較することで、あいまいであった評価を客観的に数値化して評価することができる。
また、本実施の形態では、マンモグラフィ検診によるマンモグラフィ画像を医療映像として本発明の映像処理装置100が処理を行なったが、医療映像はマンモグラフィ画像だけに留まらず、エックス線や超音波、磁気共鳴などを用いて映像化したものや、内視鏡検査や眼底カメラなどの可視光線のもとで撮影された検査画像を処理することもできる。
100 映像処理装置
110 マスク処理部
111 境界決定部
112 画像処理部
113 学習部
114 学習情報入力手段
120 基準組織輝度算出部
121 走査情報取得部
122 境界検出部
123 基準組織輝度計測部
124 平均値算出部
125 輝度計測部
126 移動平均算出部
127 移動平均傾き算出部
130 評価範囲輝度算出部
131 評価範囲走査情報取得部
132 評価範囲輝度計測部
140 基準輝度割合算出部
141 相対輝度変換処理部
142 相対輝度割合計算部
150 状態判断部
160 情報記憶部
161 マスク処理前画像記憶部
162 マスク処理後画像記憶部
163 基準組織輝度記憶部
164 評価範囲輝度記憶部
165 相対輝度割合記憶部
166 判断基準記憶部
167 境界識別情報記憶部
200 医療映像装置
300 表示手段

Claims (15)

  1. 入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理装置において、
    構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出する基準組織輝度算出手段と、
    前記評価範囲の輝度である評価範囲輝度を算出する評価範囲輝度算出手段と、
    前記基準範囲輝度に対して、前記評価組織輝度の割合を算出する基準輝度割合算出手段と、
    を備えることを特徴とする映像処理装置。
  2. 前記基準輝度割合算出手段は、
    前記基準組織輝度を基準とする前記評価範囲輝度の相対値である相対輝度に変換する相対輝度変換手段と、
    前記相対輝度の割合を算出する相対輝度割合算出手段と、
    を備えることを特徴とする請求項1記載の映像処理装置。
  3. 前記相対輝度割合算出手段は、
    前記相対輝度の割合を色で視覚化すること、
    を特徴とする請求項2記載の映像処理装置。
  4. 前記基準組織輝度算出手段は、
    前記評価範囲の内部と、前記評価範囲の外部との境界を検出する評価範囲境界検出手段と、
    前記評価範囲の内側、かつ前記境界から所定範囲部位の輝度を算出する所定範囲輝度算出手段と、
    前記所定範囲輝度算出手段が算出した所定範囲部位の輝度の平均値を算出する所定範囲部位輝度平均値算出手段と、
    を備えることを特徴とする請求項1記載の映像処理装置。
  5. 前記基準組織は、乳房における脂肪組織であり、前記評価対象組織は、乳房における乳腺組織であって、
    前記所定範囲輝度算出手段は、
    乳房の上部、かつ皮膚の内側にみられる脂肪組織の輝度を算出すること、
    を特徴とする請求項4記載の映像処理装置。
  6. 前記基準組織輝度算出手段は、
    前記医療映像のうち前記評価範囲を含む一定の高さで各部位の直線上の輝度を算出する直線輝度算出手段と、
    前記直線輝度算出手段が算出した各部位の輝度から、輝度の移動平均を算出する移動平均算出手段と、
    前記移動平均を可視化したときの移動平均線の傾きを算出する移動平均傾き算出手段と、
    前記移動平均線の傾きから、前記基準組織の境界を検出する基準組織境界検出手段と、
    前記基準組織の境界から所定範囲部位の輝度を算出する所定範囲輝度算出手段と、
    前記所定範囲輝度算出手段が算出した所定範囲部位の輝度の平均値を算出する所定範囲部位輝度平均値算出手段と、
    を備えることを特徴とする請求項1記載の映像処理装置。
  7. 前記基準組織は、乳房における脂肪組織であり、前記評価対象組織は、乳房における乳腺組織であって、
    直線輝度算出手段は、前記乳房のうち、大胸筋、脂肪組織、および皮膚組織が重なっている一定の高さで輝度を算出し、
    前記基準組織境界検出手段は、大胸筋と脂肪組織との境界、および皮膚組織と前記医療映像の背景との境界を検出すること、
    を特徴とする請求項6記載の映像処理装置。
  8. 前記基準組織境界検出手段は、
    前記大胸筋側からみた前記移動平均傾きで最初に0以上になったときを、大胸筋と脂肪組織との境界として検出すること、
    を特徴とする請求項7記載の映像処理装置。
  9. 前記評価範囲以外を除外するマスク処理を施すマスク処理部、
    を備えることを特徴とする請求項1記載の映像処理装置。
  10. 前記マスク処理部は、
    入力された学習用映像に基づいてマスク処理を施す範囲を学習する学習部と
    前記学習部が学習した情報に基づいて範囲を判断する範囲判断部と、
    を備えることを特徴とする請求項9記載の映像処理装置。
  11. 前記学習部は、
    ニューラルネットワークを用いたディープラーニングによって、学習用の医療映像から一定の範囲のみを識別する識別処理を学習する、
    ことを特徴とする請求項10記載の映像処理装置。
  12. 前記識別処理は、
    U−net構造のモデルを用いた画像領域抽出処理、
    であることを特徴とする請求項11記載の映像処理装置。
  13. 前記輝度割合算出手段が算出した輝度の割合に基づいて、対象組織の状態を判断する状態判断部、
    を備えることを特徴とする請求項1記載の映像処理装置。
  14. 入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理方法において、
    基準組織輝度算出手段が、構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出するステップと、
    評価範囲輝度算出手段が、前記評価範囲の輝度である評価範囲輝度を算出するステップと、
    基準輝度割合算出手段が、前記基準範囲輝度に対して、前記評価組織輝度の割合を算出するステップと、
    を備えることを特徴とする映像処理方法。
  15. 入力された医療映像内で、状態を評価する組織の評価範囲における構成割合を算出する映像処理プログラムにおいて、
    コンピュータを、
    構成割合を算出するために基準とする基準組織の輝度である基準組織輝度を算出する基準組織輝度算出手段、
    前記評価範囲の輝度である評価範囲輝度を算出する評価範囲輝度算出手段、
    前記基準範囲輝度に対して、前記評価組織輝度の割合を算出する基準輝度割合算出手段、
    として機能させることを特徴とする映像処理プログラム。
JP2018179275A 2018-09-25 2018-09-25 映像処理装置、映像処理方法、および映像処理プログラム Active JP7283878B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018179275A JP7283878B2 (ja) 2018-09-25 2018-09-25 映像処理装置、映像処理方法、および映像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018179275A JP7283878B2 (ja) 2018-09-25 2018-09-25 映像処理装置、映像処理方法、および映像処理プログラム

Publications (2)

Publication Number Publication Date
JP2020048707A true JP2020048707A (ja) 2020-04-02
JP7283878B2 JP7283878B2 (ja) 2023-05-30

Family

ID=69994388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018179275A Active JP7283878B2 (ja) 2018-09-25 2018-09-25 映像処理装置、映像処理方法、および映像処理プログラム

Country Status (1)

Country Link
JP (1) JP7283878B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190080121A (ko) * 2017-12-28 2019-07-08 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어 방법
KR20200133593A (ko) * 2019-05-20 2020-11-30 주식회사 힐세리온 인공지능형 초음파 지방간 자동 진단 장치 및 이를 이용한 원격 의료 진단 방법
KR20220103506A (ko) * 2021-01-15 2022-07-22 고려대학교 산학협력단 딥러닝 기반 자동 대흉근 측정 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038525A1 (fr) * 2006-09-26 2008-04-03 Konica Minolta Medical & Graphic, Inc. Système d'imagerie
JP2010253245A (ja) * 2009-03-31 2010-11-11 Fujifilm Corp 乳腺含有率推定装置及び方法
JP2011206240A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 医用画像表示装置および方法並びにプログラム
JP2015167829A (ja) * 2014-03-10 2015-09-28 株式会社東芝 医用検査管理装置、医用画像診断装置及び医用検査システム
US20160256126A1 (en) * 2013-11-19 2016-09-08 Jeffery C. Wehnes Obtaining breast density measurements and classifications
JP2018089301A (ja) * 2016-12-07 2018-06-14 学校法人常翔学園 生体画像処理装置、出力画像製造方法、学習結果製造方法、及びプログラム
CN108550150A (zh) * 2018-04-17 2018-09-18 上海联影医疗科技有限公司 乳腺密度的获取方法、设备及可读存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008038525A1 (fr) * 2006-09-26 2008-04-03 Konica Minolta Medical & Graphic, Inc. Système d'imagerie
JP2010253245A (ja) * 2009-03-31 2010-11-11 Fujifilm Corp 乳腺含有率推定装置及び方法
JP2011206240A (ja) * 2010-03-30 2011-10-20 Fujifilm Corp 医用画像表示装置および方法並びにプログラム
US20160256126A1 (en) * 2013-11-19 2016-09-08 Jeffery C. Wehnes Obtaining breast density measurements and classifications
JP2015167829A (ja) * 2014-03-10 2015-09-28 株式会社東芝 医用検査管理装置、医用画像診断装置及び医用検査システム
JP2018089301A (ja) * 2016-12-07 2018-06-14 学校法人常翔学園 生体画像処理装置、出力画像製造方法、学習結果製造方法、及びプログラム
CN108550150A (zh) * 2018-04-17 2018-09-18 上海联影医疗科技有限公司 乳腺密度的获取方法、设备及可读存储介质

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190080121A (ko) * 2017-12-28 2019-07-08 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어 방법
KR102591371B1 (ko) 2017-12-28 2023-10-19 삼성메디슨 주식회사 초음파 영상 장치 및 그 제어 방법
KR20200133593A (ko) * 2019-05-20 2020-11-30 주식회사 힐세리온 인공지능형 초음파 지방간 자동 진단 장치 및 이를 이용한 원격 의료 진단 방법
KR102258776B1 (ko) 2019-05-20 2021-05-31 주식회사 힐세리온 인공지능형 초음파 지방간 자동 진단 장치 및 이를 이용한 원격 의료 진단 방법
KR20220103506A (ko) * 2021-01-15 2022-07-22 고려대학교 산학협력단 딥러닝 기반 자동 대흉근 측정 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체
KR102549694B1 (ko) 2021-01-15 2023-06-29 고려대학교 산학협력단 딥러닝 기반 자동 대흉근 측정 장치 및 그 방법을 실행하기 위한 프로그램이 기록된 기록매체

Also Published As

Publication number Publication date
JP7283878B2 (ja) 2023-05-30

Similar Documents

Publication Publication Date Title
JP5145170B2 (ja) 医用画像の評価装置
JP6175071B2 (ja) 胸部画像の処理及び表示
JP5145169B2 (ja) 医用画像の撮影支援装置及びプログラム
JP5010375B2 (ja) 医用画像診断装置
JP5026939B2 (ja) 画像処理装置およびそのプログラム
JP5123954B2 (ja) 医療画像における病変部の特定及び分析
US20100014738A1 (en) Method and system for breast cancer screening
WO2008035444A1 (fr) Système de diagnostic de sein à ultrasons
JP2006116313A (ja) 3次元画像化における診断方法
JP7283878B2 (ja) 映像処理装置、映像処理方法、および映像処理プログラム
JP2000287955A (ja) 画像診断支援装置
KR102206621B1 (ko) 딥러닝 알고리즘을 이용한 근감소증 분석 프로그램 및 애플리케이션
JP6648587B2 (ja) 超音波診断装置
Loizou et al. Despeckle Filtering for Ultrasound Imaging and Video, Volume II: Selected Applications
JP6455235B2 (ja) 医用画像システム及びプログラム
JP3758894B2 (ja) マンモグラム画像診断支援装置
JPH09251535A (ja) 2次元多階調画像におけるパタン検出方法及び装置
JP4380176B2 (ja) 医用画像処理装置及び異常陰影候補の検出結果の表示方法
JP2006325640A (ja) 異常陰影候補の表示方法及び医用画像処理システム
JP2006340835A (ja) 異常陰影候補の表示方法及び医用画像処理システム
JP2003275196A (ja) 医用画像処理方法および医用画像処理装置
JP2006334140A (ja) 異常陰影候補の表示方法及び医用画像処理システム
JP2005058526A (ja) 断層画像撮影方法および装置
JP2002125961A (ja) 画像診断支援装置
KR20210081243A (ko) 탄성초음파영상에 대한 변형률 계산 및 변형량의 자동 측정을 위한 방법 및 시스템

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210806

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230407

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20230407

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230414

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20230418

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230518

R150 Certificate of patent or registration of utility model

Ref document number: 7283878

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150