JP7262203B2 - 画像処理装置および画像処理装置の制御方法ならびにプログラム - Google Patents

画像処理装置および画像処理装置の制御方法ならびにプログラム Download PDF

Info

Publication number
JP7262203B2
JP7262203B2 JP2018196071A JP2018196071A JP7262203B2 JP 7262203 B2 JP7262203 B2 JP 7262203B2 JP 2018196071 A JP2018196071 A JP 2018196071A JP 2018196071 A JP2018196071 A JP 2018196071A JP 7262203 B2 JP7262203 B2 JP 7262203B2
Authority
JP
Japan
Prior art keywords
estimation target
estimated
image processing
area
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018196071A
Other languages
English (en)
Other versions
JP2020064464A (ja
Inventor
敦司 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018196071A priority Critical patent/JP7262203B2/ja
Publication of JP2020064464A publication Critical patent/JP2020064464A/ja
Application granted granted Critical
Publication of JP7262203B2 publication Critical patent/JP7262203B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Description

本発明は、画像処理装置および画像処理装置の制御方法ならびにプログラムに関する。
機械学習の手法を用いて、画像内に含まれる被写体などの特定の領域と他の領域とを区別する領域分割技術が知られている(非特許文献1、特許文献1)。非特許文献1は、事前に対象の領域をラベルとして与えた画像(教師付データ)を機械学習の一手法であるディープニューラルネットワークに学習させ、その結果得られる学習済モデルを用いて画像内の意味的領域分割を行う技術を開示している。また、特許文献1は、複数のディープニューラルネットワークを用いて画像の中の顕著領域(重要な領域或いは人間が注目すると予測される領域)を検出する技術を開示している。この技術は、画像内の各ピクセルの顕著度を周囲の局所領域から計算した後に、ピクセル単位の顕著度とヒストグラム或いは領域の形状等の特徴量とを用いて複数の候補領域の顕著度を計算し、局所及び全体の特徴を考慮した入力画像の顕著性情報を生成する。
ところで、画像の領域分割技術は、画像内の人や動物、移動体などの一般的な物体を検出する場合のほか、例えば人体の患部周辺を撮影した画像から例えば褥瘡のような患部の領域を検出する用途にも適用可能な場合がある。従来、褥瘡など人体の患部の大きさの評価は、人間の手作業により行われてきたが、領域分割技術を用いて患部領域を検出し、検出した領域の大きさに基づいて患部の大きさを自動的に特定することができれば、患部の評価の人的負荷が軽減される。
特開2017-4480号公報
J.Long, E.Shelhamer, T.Darrell,Fully convolutional networks for semantic segmentation.In CVPR,2015.
非特許文献1に開示される意味的領域分割では、検出精度を高めるためには、十分な数の教師付データと十分な学習のイテレーション回数によって学習済モデルを生成することが必要である。人や動物等の一般的な物体の認識は、十分な数の教師付データで事前に作成した学習済モデルを共用することができるため、一度高精度な学習済モデルを作ってしまえば、その後の学習負荷を小さくすることができる場合がある。しかしながら、特定の対象、例えば褥瘡などの患部を領域分割するモデルを作成するためには、その褥瘡などの対象を追加的に学習させる必要がある。特定の対象に対して十分な精度を得るためには、一般に数千にも及ぶ数の教師付データが必要とされ、教師付データの収集や学習時間が大きな負荷になる。また、特許文献1に開示される技術では、複数の候補領域の顕著度を各候補領域の推定結果の信頼性に応じて重み付け加算するため、推定結果の信頼性に左右されて正確に領域分割することができない場合がある。
本発明は、上記課題に鑑みてなされ、その目的は、機械学習において学習させる教師付データが少ない場合であっても特定の対象について精度のよい領域分割を行うことが可能な技術を実現することである。
この課題を解決するため、例えば本発明の画像処理装置は以下の構成を備える。すなわち、機械学習における学習済モデルを用いて、入力画像内における推定対象の領域を推定する推定手段と、前記入力画像におけるエッジを抽出するエッジ抽出手段と、前記推定された推定対象の領域を、前記抽出されたエッジ上の位置に基づいて補正する補正手段とを有し、前記補正手段は、前記推定された推定対象の領域の境界上の位置の少なくとも一部を、該境界上の位置と対応付けられる前記抽出されたエッジ上の位置で置き換え、前記補正手段は、更に、前記学習済モデルを生成する際の前記推定対象に関する学習の程度に応じて、前記抽出されたエッジ上の位置による置き換えの基準を異ならせることを特徴とする。
本発明によれば、機械学習において学習させる教師付データが少ない場合であっても特定の対象について精度のよい領域分割を行うことが可能になる。
本実施形態による計測システムの全体構成例を概略的に示す図 本実施形態に係る画像処理装置の機能構成例を示すブロック図 本実施形態に係る画像処理の一連の動作を示すフローチャート 本実施形態に係る褥瘡を含む患部の画像例を模式的に示す図 本実施形態に係る機械学習による領域推定結果の一例を示す図 本実施形態に係るエッジ抽出結果の一例を示す図 本実施形態に係る制御点配置の一例を示す図 本実施形態に係る制御点選択の処理例を説明するための図 本実施形態に係る制御点選択の結果の一例を示す図 本実施形態に係る制御点再構成について説明するための図 本実施形態に係る画像のX方向の距離の算出方法を説明するための図 本実施形態に係る画像形成手段から出力される画像例を示す図
本発明の例示的な実施形態について、図面を参照して詳細に説明する。但し、以下の実施形態で説明する寸法、材料、形状、及び構成要素の相対的な位置等は任意であり、本発明が適用される装置の構成又は様々な条件に応じて変更され得る。また、図面において、同一であるか又は機能的に類似している要素を示すために図面間で同じ参照符号を用いる。
(計測システム1の構成)
まず、図1を参照して、実施形態に係る画像処理を用いて被験者8の患部9の面積を計測する患部面積計測システム(単に計測システムともいう)について説明する。計測システム1は、患部9の画像を撮影して被写体距離を測定し、次に画像内の患部の領域を領域分割する。そして、被写体距離とカメラの画角に基づき1ピクセルあたりの面積を計測したうえで、領域分割の結果と1ピクセルあたりの面積に基づいて、患部9の面積を計測する。
本実施形態では、被験者8の臀部(背中の下部の膨らんだ部分をいう)に生じた患部9の病態の一例を褥瘡(所謂床ずれ)として説明する。褥瘡は、患者が寝たきりによって、体の特定の箇所に圧迫が続き、その結果として血行不全を生じて組織が壊死し、皮膚組織が欠損することによって生じる。ひとたび褥瘡になると、その後定期的に病状を評価、管理する必要がある。褥瘡の評価指標の一つとして褥瘡の大きさが用いられている。褥瘡の病状の変化を確かめるために評価には正確性が要求され、褥瘡の大きさを容易に精度よく計測するためのシステムが求められている。本実施形態では、患部の例として褥瘡を例に説明するが、患部の対象は褥瘡に限定されるものではなく、やけど、裂傷、などであってもよい。また、計測対象は患部に限定されるものではなく、画像中のオブジェクトであってもよい。
図1を参照して、本実施形態による計測システム1の機能構成例について説明する。計測システム1は、例えば、計測モジュール2と、画像処理装置3と、表示装置4とを含む。計測モジュール2は、測距モジュール5と、カメラモジュール6と、通信インターフェース7とを含む。測距モジュール5は、TOFセンサ(不図示)とTOFセンサを駆動するドライバボード(不図示)から構成され、不図示の撮像レンズの焦点から被検体などの被写体までの距離(以後、被写体距離という)を取得することができる。なお、測距モジュール5は、TOF方式を用いたものに限らず、超音波測距方式、三角測量の原理を応用した光学式センサを用いた方法などの他の方法を用いたものであってもよい。
カメラモジュール6は、被写界深度の深い画像を得ることができる固定焦点方式を用いており、フォーカス範囲は例えば1mから無限遠である。X方向の画像サイズをXpix、Y方向の画像サイズをYpixとすると、撮影される画像サイズは、例えばXpixが640、Ypixが480である。カメラモジュール6は被検体をカラーで撮影し、カラーの画像を出力する。視野角は54×41度であり、画像の歪みは無視できるほど小さい。なお、画像の歪みが小さいものであれば、画像サイズ、視野角はこの例に限定されない。
通信インターフェース7は、測距モジュール5より取得した被写体距離のデータとカメラモジュール6が取得した画像データとを、例えばUSB通信インターフェース7を介して画像処理装置3に転送する。なお、通信インターフェース7は、USBに限らず、LANなど他の有線インターフェースであってもよいし、例えばWi-Fiなどの無線通信用のインターフェースであってもよい。
画像処理装置3は、画像データと被写体距離のデータとを計測モジュール2から取得して、画像データにおける患部の領域を領域分割し、画像データに対して患部領域を示す情報を重畳した画像(以下、患部領域オーバーレイ画像という)を生成する。更に、画像処理装置3は、被写体距離とカメラの画角から1ピクセルあたりの面積を計測し、領域分割結果と1ピクセルあたりの面積とに基づいて患部の面積を算出する。
表示装置4は、OLED又はLCD表示パネルを含み、画像処理装置3が生成した患部領域オーバーレイ画像と距離データを表示する。表示装置4は、患部オーバーレイ画像と距離データを表示するものであれば、他の表示パネルを用いてもよい。なお、本実施形態の例では、表示装置4は測定モジュール2と別体である場合を例に説明するが、表示装置4が測定モジュール2の一部として構成されていてもよい。
(画像処理装置の構成)
次に、図2を参照して、画像処理装置3の機能構成について説明する。画像処理装置3は、CPU、MPU或いはGPUで構成される演算回路と、RAMとROMとを含む制御部10を有する。制御部10は、ROMに記録されたプログラムを、RAMに展開、実行することにより、画像処理装置3を構成する後述の各部の機能を実現する。なお、画像処理装置3の機能ブロックの1つ以上は、ASICやプログラマブルロジックアレイなどのハードウェアによって実現されてもよいし、上述のCPUやGPUなどのハードウェアがソフトウェアを実行することによって実現されてもよい。また、PCなどの電子機器によって実現されてもよい。従って、以下の説明において、異なる機能ブロックが動作主体として記載されている場合であっても、同じハードウェアが主体として実現されうる。また、ROMの代わりに制御部10の外部に設けられた不図示の不揮発性の記録媒体を使用したり、RAMの代わりに制御部10の外部に設けられた不図示の揮発性メモリを使用したりしてもよい。
画像処理装置3は、通信部11、領域推定部12、エッジ抽出部13、制御点配置部14、選択部15、閉曲線再構成部16、面積算出部17、画像形成部18、及び表示制御部19を含む。また、画像処理装置3は、機械学習の推論演算等の数学的或いは統計的な演算装置として機能する。
通信部11は、計測モジュール2と通信インターフェース7を介して通信し、被写体距離データと計測モジュールにおいて撮像された入力画像データとを、計測モジュール2から受信する。
領域推定部12は、機械学習を用いた推論処理を行う。すなわち、褥瘡の画像を教師付データとする教師あり学習によって学習させた学習済モデルに基づき、入力画像から褥瘡の領域を推定する。このとき、本実施形態では、画像内の褥瘡の領域をピクセル単位で推定する。領域推定部12は、閉曲線で表され、褥瘡の領域を粗く推定した領域推定結果を出力する。領域推定部12で推定された褥瘡の領域に対し、後の手順においてより高精度な領域分割処理が施される。
なお、領域推定部12で行う推論処理には公知の手法を用いることができる。本実施形態では、例えば、非特許文献1に記載のFCN(Fully convolutional networks for semantic segmentation)を適用することができる。さらに、FCNを適用するニューラルネットワークには、2014年のImageNet Large Scale Visual Recognition Challengeで提案されたVGG16を用いることができる。このVGG16は、計16層から成る畳み込みニューラルネットワーク(所謂CNN)である。また、本実施形態では、PASCAL VOC 2011 の領域分割トレーニングデータセットを予め学習させたFCN-VGG16の学習済モデルに例えば200の褥瘡画像を追加学習させる、所謂FineTuningを行ったモデルを用いる。
エッジ抽出部13は、入力画像データにソーベルフィルタに代表される微分フィルタまたはハイパスフィルタを施し、画像内の褥瘡の境界部分であるエッジ成分を検出する。その後、検出したデータに2値化処理を施し、モルフォロジー処理、粒子分析による一般的な処理によりエッジでない信号を除去して、最終的なエッジを抽出する。
制御点配置部14は、領域推定部12で得られた褥瘡領域の境界がなす閉曲線の幾何中心から等間隔に放射される12本の放射状補助線(参照線ともいう)と閉曲線との交点を制御点として求め、求めた制御点を画像中に配置する。さらに、放射状補助線(参照線)とエッジ抽出部13で得られた褥瘡の境界の線分との交点を、別個の制御点として画像中に配置する。選択部15は、放射状補助線上の複数の制御点(領域推定部12による推定領域の境界の閉曲線上の制御点もしくはエッジ抽出部13によるエッジ上の制御点)のうち、どちらかを選択する。閉曲線再構成部16は、選択部15が選択した制御点に基づき、閉曲線を再構成する。本実施形態では、選択部15が選択した複数の制御点をベジェ曲線で滑らかな結び、閉曲線を再構成する。閉曲線によって囲まれた領域はピクセル単位で求められるため、閉曲線によって囲まれた領域の面積はピクセル数によって求められる。すなわち、制御点配置部14、選択部15、および閉曲線再構成部16は、推定領域の境界上の位置を補正する補正手段として機能する。なお、制御点から閉曲線を再構成する方法はベジェ曲線を用いる方法に限らず、スプライン曲線などの他の曲線を用いる方法でもよい。
面積算出部17は、通信部11が受信した被写体距離とカメラの画角から1ピクセルあたりの面積を算出する。さらに、閉曲線再構成部16が構成した閉曲線のピクセル数を算出し、1ピクセルあたりの面積と閉曲線のピクセル数を掛け合わせることによって、褥瘡部分の面積を算出する。
画像形成部18は、閉曲線再構成部16が生成した閉曲線領域を入力画像データに重畳した患部領域オーバーレイ画像を生成する。また、面積算出部17が算出した、褥瘡の面積の値を画像の一部の領域に表示する。表示制御部19は、画像形成部18が生成した患部領域オーバーレイ画像を、表示装置4に表示させるために出力する。
(画像処理に係る一連の動作)
次に、図3を参照して、本実施形態に係る画像処理の一連の動作について説明する。なお、本画像処理は、例えば画像処理装置3の制御部10が上述のプログラムをRAMに展開、実行することにより、制御部10自身により、又は制御部10が計測システムを構成する各部を制御することにより、実現される。また、本画像処理は、例えば、不図示の操作部を介してユーザから動作開始指示を受け取ったときに開始される。
S101において、通信部11は、測定モジュール2が撮像した被験者8の患部9を含む褥瘡画像を、入力画像データとして取得する。図4は、S101において取得される褥瘡の画像の一例を示している。
褥瘡の画像20には、臀部の皮膚23と、皮膚23上の褥瘡21とが撮像されている。そして、褥瘡は面で生じており、一般に褥瘡領域の内側は赤色などに変色しておりその外側の領域は正常な皮膚である。一般に、褥瘡21は、褥瘡の領域と褥瘡でない皮膚の領域とを分かつ境界がはっきりしている褥瘡の境界線(例えば境界線b1、b2、b3)と、褥瘡の内側と外側の態様が徐々に変化しており、境界がはっきりしていない部分(例えば部分a)を有する。
S102において、通信部11は、測定モジュール2が測定した被写体距離、すなわちカメラモジュール6の撮像レンズ(不図示)の焦点から被写体までの距離を取得する。
S103において、領域推定部12は、S101が取得した褥瘡画像に機械学習における学習済モデルを用いて、推定対象である褥瘡21の領域を推定する。ここで、S103の領域推定結果の一例を、図5を参照して説明する。図5では、S101で取得した入力画像データに、領域推定部12によって推定された褥瘡21の領域(推定領域31)を重畳した様子を示しており、推定領域31は閉曲線によって閉じられている。図5に示す例では、推定領域31は褥瘡の境界線b1,b2,b3を包含する領域まで広がっている。なお、推定領域31は、褥瘡の内側に褥瘡の境界線から乖離して広がる場合もある。
機械学習による領域推定の処理では、(使用した教師付データの内容や量に応じて)領域推定部12による領域推定結果と実際の対象の領域に乖離がみられる場合がある。機械学習において、対象のFineTuningに用いる追加画像の数を増やすことで、乖離は小さくなる(すなわち推定精度の誤差が小さくなる)が、そのためには少なくとも1000以上に及ぶ大量の教師付データが必要となり、学習の負荷が大きくなる。もっとも、対象となる患部によっては、撮影した画像を大量に収集して教師付データを用意できない場合もある。このような場合に対し、本画像処理を適用することで、(特定する領域を人が指定することなく)自動的に褥瘡の領域を領域分割することができる。
S104において、エッジ抽出部13は、S101で取得した入力画像データから褥瘡21のエッジを抽出し、2値画像を生成する。エッジ抽出部13は、例えば、ソーベルフィルタに代表される微分フィルタまたはハイパスフィルタによりエッジを抽出し、2値化処理を施す。更に、モルフォロジー処理、粒子分析による処理によりエッジでない信号を除去し、画像に存在する代表的なエッジの画像を生成する。ここで、S104のエッジ抽出結果の一例を、図6を参照して説明する。
図6は、S101において取得した入力画像データに対してエッジ抽出処理を行った結果の2値画像を示している。エッジ抽出処理の結果、臀部の皮膚23の境界線上のエッジ61と、褥瘡21の境界のエッジb1,b2,b3が抽出されている。
S105において、制御点配置部14は、S103において推定した褥瘡の領域の閉曲線上と、S104にて抽出したエッジ上に制御点を配置する。ここで、S105の制御点配置について図7を参照して説明する。制御点配置部14は、褥瘡の画像20において、領域推定部12で推定した褥瘡の推定領域31の領域内に、推定領域31がなす閉曲線の幾何中心41をポイントcとして配置する。そして、ポイントcを中心として等間隔に12本の参照線l1~l12を放射状に配置する。なお、本実施形態では参照線の数を12としたが、12に限らず他の本数であってもよい。参照線の数が多いほど、精度の高い領域分割結果が得られる一方、画像処理装置の計算負荷が大きくなり、処理にかかる時間が長くなる。
次に、制御点配置部14は、参照線l1~l12と推定領域31の閉曲線(境界上の位置)の交点のそれぞれに制御点p1~p12を配置する。更に、制御点配置部14は、参照線l1~l12とエッジb1,b2,b3の交点に制御点q1~p7およびq11、q12を配置する。また、制御点配置部14は、参照線l1~l12と臀部の皮膚23の境界線のエッジ61上に制御点r1,r2およびr9~r12を配置する。すなわち、制御点配置部14は、推定領域31の所定の範囲ごとに、推定領域31の境界上にある位置と、当該推定領域31の境界上にある位置と対応付けられるエッジ上の位置に、制御点を配置している。
次に、S106において、選択部15は、同一の参照線上に配置された複数の制御点から1つを選択する。この制御点の選択について、図8を参照して説明する。なお、選択部15による制御点の選択は、すべての参照線につき一度ずつ行われるが、ここでは、参照線l8、l10、l11における制御点の選択について代表として説明する。
まず、参照線l18上の制御点の選択について説明する。参照線l8には、参照点l8上には制御点が1つ(すなわちp8のみ)存在するため、選択部15は制御点p8を新しい制御点として選択する。換言すれば、参照線上に制御点が1つだけ存在する場合には、推定領域31の境界上にある制御点の位置のままになる。
次に、参照線l10上の制御点の選択について説明する。参照線l10上には、制御点が2つ(すなわちp10、r10)が存在する。参照線上に制御点が複数存在する場合、推定領域31の閉曲線上の交点にある制御点p10から他の制御点(ここではr10)までの距離が、予め設定された一定のピクセル距離範囲より近いかを判定する。選択部15は、制御点p10から他の制御点r10までの距離が予め設定された一定のピクセル距離範囲Lより近い場合には、その近い制御点を新しい制御点として選択する。一方、制御点p10から他の制御点r10までの距離が、当該ピクセル距離範囲Lより遠い場合には、制御点p10を新しい制御点として選択する。ここで、一定のピクセル距離範囲Lはユーザが設定する任意のパラメータである。一定のピクセル距離範囲Lが大きいと、制御点として褥瘡のエッジ上を選択できる範囲(すなわち補正可能範囲)は広いが、褥瘡21のエッジを誤検出する可能性が高くなる。図8においてs10は、p10から一定のピクセル距離範囲L内の範囲を表している。参照線l10における制御点の選択では、円s10内に制御点r10が存在しないため、新しい制御点として制御点p10が選択される。このように、(推定領域31の所定の範囲ごとに)推定領域31の境界上にある制御点の位置を当該制御点の位置と対応付けられるエッジ上の制御点の位置と置き換えるか否かを、ピクセル距離範囲を用いて判定する。この制御点同士の距離が近いことにより新たな制御点として制御点rを選択した場合には、制御点の位置をエッジ上の制御点の位置で置き換える(つまり補正する)。
更に、参照線l11上の制御点の選択について説明する。参照線l11上には制御点が3つ(すなわちp11、q11、r11)が存在する。p11は、推定領域31の閉曲線上と参照線l11との交点であり、q11は、S104で検出された褥瘡21の境界線を表すエッジと参照線l11との交点である。また、r11は、S104において抽出された臀部の皮膚23の境界線を表すエッジ61と参照線l11との交点を表す。選択部15は、参照線l10上の制御点の選択方法と同様に、推定領域上の制御点p11から一定のピクセル距離範囲Lの範囲内(円s11で表す)に存在するq11を、参照線l11上の制御点として選択する。
選択部15は、参照線l8,l10,l11上の制御点の選択方法と同様に、l1~l12で示すそれぞれの参照線上の制御点を選択する。図9には、選択部15によって選択された制御点を示す。図9では、褥瘡21において、新しい制御点が配置されている。褥瘡の境界がはっきりしている境界線b1,b2,b3においては制御点がその境界線上に配置され、境界がはっきりしない領域aにおいては、機械学習による推定領域31の境界に制御点が配置されている。すなわち、実際の褥瘡21の領域により精度良く合致するように、機械学習の手法を用いて推定した推定領域31を補正することができている。
なお、一定のピクセル距離範囲Lが小さいと褥瘡21のエッジを誤検出する可能性は低くなるが、補正可能範囲が狭くなる。このため、ピクセル距離範囲Lをより適切に設定することができるように、学習済モデルを生成する際の、推定対象である褥瘡に関する学習の程度に応じて、ピクセル距離範囲Lを異ならせてもよい。すなわち、推定対象である褥瘡に関する追加学習(FineTuning)に用いる学習用データのサンプル数(褥瘡に関する学習用データの画像数)や追加学習を行う際のイテレーション数に応じてピクセル距離範囲Lを設定してもよい。また、追加学習に用いる教師付データを、モデルを学習させためのトレーニングセットと学習済モデルの推定精度をテストするためのテストデータとに分ける場合、テストデータに対する学習済モデルの正答率の高さに応じてピクセル距離範囲Lを設定してもよい。
例えば、褥瘡等の推定対象に関する追加学習の程度が低い(すなわちデータサンプル数が少ない)ほど、褥瘡の推定領域31の精度が低くなるためピクセル距離範囲を大きくする。或いは、追加学習の程度が高いほど(すなわちデータサンプル数が多い)ほど、領域推定の精度が高くなるためピクセル距離範囲Lを小さくするようにしてもよい。このように、学習済モデルを生成する際の推定対象に関する学習の程度に応じてエッジ抽出結果の優先度を低くすることができる。つまり、機械学習による結果に対する補正範囲と誤検出のバランスを調整することができるようになる。このような制御点の選択を行うことにより、b1、b2、b3のように褥瘡の境界がはっきりしている部分、aのように褥瘡の境界がはっきりしていない部分が1画像中に存在する場合に、褥瘡領域の境界位置をより精度良く検出することができる。
S107において、閉曲線再構成部16は、S106において選択部15が選択した新しい制御点から新たな閉曲線を構成(すなわち新たな褥瘡21の閉領域を特定する)し、褥瘡21の領域として特定する。本ステップにおける閉曲線再構成処理について、図10を参照して説明する。本実施形態の例では、S107の結果として特定された閉領域51は、図5に示したS103における機械学習による推定領域31に比べて、本来の褥瘡21の領域との相違が少なくなっている。すなわち、(褥瘡のように)機械学習によって推定する推定対象が一般的でなく、推定対象に関する学習用の画像数が少ない場合であっても、推定対象に対する領域の特定をより精度良く行うことができる。
S108において、面積算出部17は、通信部11が受信した被写体距離とカメラの画角から1ピクセルあたりの面積を計測し、S107で構成された閉曲線が示す褥瘡21の領域に相当する領域の面積を算出する。ここでは、画像のX方向における距離の算出方法について、図11を参照して説明する。
被写体距離をL[mm]、画像のX方向の距離をW[mm]、画角をθとすると、Wは、図11の幾何学的関係より式(1)のように求められる。
W[mm] = 2L*tan(θ/2) ……(1)

さらに、X方向の画像サイズをXpix とすると、1ピクセル面積Spixは式(2)のように求められる。
Spix[mm^2] = [W/Xpix]^2 ……(2)

面積算出部17は、Spixに、S107で構成された閉曲線が示す褥瘡21の領域に相当する領域のピクセル数を乗算することで、領域の特定された褥瘡領域の面積を算出する。
S109において、画像形成部18は、S107で得られた閉曲線の領域に半透明のオブジェクトで重畳し、さらにS108で得られた面積の値を示す情報を付加した一つの画像を形成する。図12には、画像形成部18が形成した画像の一例を示している。画像形成部18は、褥瘡の画像20に対して、S107において再構成された閉曲線の領域を半透明のオブジェクト1201でオーバーレイする。さらに、面積の値を1202として、褥瘡の画像に付加する(重畳する)。
S110において、表示制御部19は、S109で形成した画像を表示装置4に送信し、表示装置4に表示させる。
以上説明したように、上述の実施形態によれば、機械学習における学習済モデルを用いて入力画像内の推定対象の領域を推定したうえで、当該入力画像から抽出されるエッジ上の位置を用いて推定された推定対象の領域を補正するようにした。このようにすることで、(褥瘡のように)機械学習によって推定する推定対象が一般的でなく、推定対象に関する学習用の画像数が少ない場合であっても、特定の対象について精度のよい領域分割を行うことができる。また、機械学習の手法によって推定された領域をエッジ上の位置を用いて補正する際に、推定された領域の境界上の位置と対応付けられるエッジ上の位置との位置関係に応じて、当該境界上の位置の少なくとも一部をエッジ上の位置で置き換えるようにした。このとき、学習済モデルを生成する際の推定対象に関する学習の程度が低いほど、エッジ上の点がより遠い位置関係にあっても補正(置き換え)を行うようにした。このようにすることで、推定対象に関する学習の程度が低いほど、エッジ抽出結果の優先度を高くすることができるようになる。すなわち、学習済モデルによる推定領域に対して局所的に境界位置を最適に補正することができる。
なお、上述の実施形態では、推定領域31の閉曲線上の位置に制御点を配置する例を説明した。しかし、領域推定部12の特性により推定領域31の境界が複雑な形状(例えばギザギザするような形状)で出力される場合、推定領域31の境界をやや平滑化した形状の閉曲線に修正したうえで当該閉曲線上に制御点を配置するようにしてもよい。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
2…計測モジュール、3…画像処理装置、12…領域推定部、13…エッジ抽出部、14…制御点配置部、15…閉曲線再構成部、16…選択部、17…面積算出部、18…画像形成部、19…表示制御部、20…制御部

Claims (12)

  1. 機械学習における学習済モデルを用いて、入力画像内における推定対象の領域を推定する推定手段と、
    前記入力画像におけるエッジを抽出するエッジ抽出手段と、
    前記推定された推定対象の領域を、前記抽出されたエッジ上の位置に基づいて補正する補正手段とを有
    前記補正手段は、前記推定された推定対象の領域の境界上の位置の少なくとも一部を、該境界上の位置と対応付けられる前記抽出されたエッジ上の位置で置き換え、
    前記補正手段は、更に、前記学習済モデルを生成する際の前記推定対象に関する学習の程度に応じて、前記抽出されたエッジ上の位置による置き換えの基準を異ならせる、ことを特徴とする画像処理装置。
  2. 前記補正手段は、前記推定された推定対象の領域の所定の範囲ごとの、前記推定された推定対象の領域の境界上にある第1の位置を前記第1の位置と対応付けられる前記抽出されたエッジ上の第2の位置と置き換えるか否かの判定に応じて、前記推定された推定対象の領域の境界上の位置の少なくとも一部を補正する、ことを特徴とする請求項に記載の画像処理装置。
  3. 前記補正手段は、前記推定された推定対象の領域の境界上にある第1の位置と対応付けられる前記抽出されたエッジ上の第2の位置が前記推定された推定対象の領域の境界上にある前記第1の位置から所定の距離の範囲内にある場合に、前記推定された推定対象の領域の境界上にある前記第1の位置を前記抽出されたエッジ上の前記第2の位置と置き換えると判定する、ことを特徴とする請求項に記載の画像処理装置。
  4. 前記置き換えの基準は、前記推定された推定対象の領域の境界上にある第1の位置からの距離の範囲であり、
    前記補正手段は、前記学習済モデルを生成する際の前記推定対象に関する学習の程度に応じて、前記距離の範囲を異ならせる、ことを特徴とする請求項に記載の画像処理装置。
  5. 前記補正手段は、前記学習済モデルを生成する際の前記推定対象に関する学習の程度が低いほど前記距離の範囲を大きくする、ことを特徴とする請求項に記載の画像処理装置。
  6. 前記推定対象に関する学習に用いる学習用データのサンプル数が少ないほど、前記推定対象に関する学習を行う際のイテレーション数が少ないほど、又は、前記学習済モデルの教師付データに対する正答率が低いほど、前記推定対象に関する学習の程度が低い、ことを特徴とする請求項に記載の画像処理装置。
  7. 前記推定された推定対象の領域の境界上にある第1の位置と対応付けられる前記抽出されたエッジ上の第2の位置は、前記抽出されたエッジと、前記推定された推定対象の領域の境界上にある前記第1の位置と、前記推定された推定対象の領域内に定められる所定の点の位置とによって特定される、ことを特徴とする請求項からのいずれか1項に記載の画像処理装置。
  8. 前記推定対象の被写体距離と、前記入力画像を撮像した際の画角とを取得する取得手段と、
    前記取得された前記被写体距離および前記画角と、前記補正された推定対象の領域とを用いて、前記推定対象の領域の実際の面積を算出する算出手段と、を更に有する、ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  9. 前記補正された推定対象の領域を表す情報を前記入力画像内の前記推定対象の領域に重畳した画像を生成する表示制御手段を更に有する、ことを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  10. 前記推定対象の被写体距離と、前記入力画像を撮像した際の画角とを取得する取得手段と、
    前記取得された前記被写体距離および前記画角と、前記補正された推定対象の領域とを用いて、前記推定対象の領域の実際の面積を算出する算出手段と、
    前記補正された推定対象の領域を表す情報を、前記入力画像内の前記推定対象の領域に重畳すると共に、前記算出された実際の面積を表す情報を前記入力画像の所定の領域に表示するようにした画像を生成する表示制御手段と、を更に有することを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  11. 画像処理装置の制御方法であって、
    機械学習における学習済モデルを用いて、入力画像内における推定対象の領域を推定する推定工程と、
    前記入力画像におけるエッジを抽出するエッジ抽出工程と、
    前記推定された推定対象の領域を、前記抽出されたエッジ上の位置に基づいて補正する補正工程とを有し、
    前記補正工程では、前記推定された推定対象の領域の境界上の位置の少なくとも一部を、該境界上の位置と対応付けられる前記抽出されたエッジ上の位置で置き換え、
    前記補正工程では、更に、前記学習済モデルを生成する際の前記推定対象に関する学習の程度に応じて、前記抽出されたエッジ上の位置による置き換えの基準を異ならせる、ことを特徴とする画像処理装置の制御方法
  12. コンピュータを、請求項1から10のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018196071A 2018-10-17 2018-10-17 画像処理装置および画像処理装置の制御方法ならびにプログラム Active JP7262203B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018196071A JP7262203B2 (ja) 2018-10-17 2018-10-17 画像処理装置および画像処理装置の制御方法ならびにプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018196071A JP7262203B2 (ja) 2018-10-17 2018-10-17 画像処理装置および画像処理装置の制御方法ならびにプログラム

Publications (2)

Publication Number Publication Date
JP2020064464A JP2020064464A (ja) 2020-04-23
JP7262203B2 true JP7262203B2 (ja) 2023-04-21

Family

ID=70388334

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018196071A Active JP7262203B2 (ja) 2018-10-17 2018-10-17 画像処理装置および画像処理装置の制御方法ならびにプログラム

Country Status (1)

Country Link
JP (1) JP7262203B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043376A (ja) 1999-07-30 2001-02-16 Canon Inc 画像抽出方法及び装置並びに記憶媒体
JP2006271840A (ja) 2005-03-30 2006-10-12 Hitachi Medical Corp 画像診断支援システム
JP2012254221A (ja) 2011-06-09 2012-12-27 Canon Inc 画像処理装置、画像処理装置の制御方法、およびプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH096961A (ja) * 1995-06-16 1997-01-10 Sony Corp 領域分割処理装置および方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001043376A (ja) 1999-07-30 2001-02-16 Canon Inc 画像抽出方法及び装置並びに記憶媒体
JP2006271840A (ja) 2005-03-30 2006-10-12 Hitachi Medical Corp 画像診断支援システム
JP2012254221A (ja) 2011-06-09 2012-12-27 Canon Inc 画像処理装置、画像処理装置の制御方法、およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
江 浩,外2名,領域情報とエッジ情報を併用したセグメンテーションの一手法,電子情報通信学会論文誌 (J74-D-II) 第12号,日本,社団法人電子情報通信学会,1991年,第J74-D-II巻

Also Published As

Publication number Publication date
JP2020064464A (ja) 2020-04-23

Similar Documents

Publication Publication Date Title
CN111325739B (zh) 肺部病灶检测的方法及装置,和图像检测模型的训练方法
CN107480677B (zh) 一种识别三维ct图像中感兴趣区域的方法及装置
WO2021003821A1 (zh) 一种肾小球病理切片图像的细胞检测方法、装置及设备
US9536316B2 (en) Apparatus and method for lesion segmentation and detection in medical images
JP6595474B2 (ja) 創傷アセスメントおよびマネジメントのための方法およびシステム
CN114820494B (zh) 用于可视化流动的使用机器学习的散斑对比度分析
EP3065072A1 (en) Apparatus and method for providing reliability for computer aided diagnosis
CN110136153B (zh) 一种图像处理方法、设备及存储介质
CN103026379A (zh) 推算图像噪音水平的方法
Chai et al. Edge detection in ultrasound images using speckle reducing anisotropic diffusion in canny edge detector framework
CN113034528B (zh) 基于影像组学的靶区及危及器官勾画轮廓准确性检验方法
CN114332132A (zh) 图像分割方法、装置和计算机设备
CN117315210B (zh) 一种基于立体成像的图像虚化方法及相关装置
WO2022127043A1 (zh) 基于卷积神经网络的检测方法、装置、计算机设备及存储介质
CN112598629B (zh) 一种基于人工智能的牙齿排列异常定位辅助系统
JP7262203B2 (ja) 画像処理装置および画像処理装置の制御方法ならびにプログラム
US20220301177A1 (en) Updating boundary segmentations
CN114093462A (zh) 医学影像处理方法、图像处理方法、计算机设备、存储介质
KR102173321B1 (ko) 형태학적 특징을 이용한 자동 척추 골절 진단 및 검출 장치 및 방법
CN112767403A (zh) 医学影像分割模型训练方法、医学影像分割方法及装置
CN109447948B (zh) 一种基于病灶彩色视网膜眼底图像的视盘分割方法
JP4127537B2 (ja) 画像処理方法および装置並びにプログラム
WO2022188102A1 (zh) 深度图像的修复方法及装置、摄像头组件及电子设备
JP7019104B2 (ja) 閾値の学習方法
JP5383486B2 (ja) 脳出血部位セグメンテーションする装置の作動方法および装置

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211004

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230411

R151 Written notification of patent or utility model registration

Ref document number: 7262203

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151