JP7430815B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP7430815B2
JP7430815B2 JP2022553498A JP2022553498A JP7430815B2 JP 7430815 B2 JP7430815 B2 JP 7430815B2 JP 2022553498 A JP2022553498 A JP 2022553498A JP 2022553498 A JP2022553498 A JP 2022553498A JP 7430815 B2 JP7430815 B2 JP 7430815B2
Authority
JP
Japan
Prior art keywords
region
learning
information
evaluation value
estimation model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022553498A
Other languages
English (en)
Other versions
JPWO2022070574A5 (ja
JPWO2022070574A1 (ja
Inventor
朗子 流石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2022070574A1 publication Critical patent/JPWO2022070574A1/ja
Publication of JPWO2022070574A5 publication Critical patent/JPWO2022070574A5/ja
Application granted granted Critical
Publication of JP7430815B2 publication Critical patent/JP7430815B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/62Analysis of geometric attributes of area, perimeter, diameter or volume
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • G06V2201/031Recognition of patterns in medical or anatomical images of internal organs

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Image Analysis (AREA)

Description

開示の技術は情報処理装置、情報処理方法及び情報処理プログラムに関する。
画像中に含まれる物体が何であるかを、画素単位で認識するセグメンテーションに関する技術として、以下の技術が知られている。
例えば、特表2017-532092号公報には、医療用画像をセグメント化するためコンピュータに実装された方法がされている。この方法は、メモリから画像を受け取るステップと、画像内の少なくともひとつのランドマークポイントを識別するステップと、画像内の画像ポイントを選択するステップと、プロセッサによって、少なくともひとつのランドマークポイントに関連する画像ポイントに対する少なくともひとつの特徴を決定するステップと、プロセッサによって、決定された少なくともひとつの特徴に基づいて、分類モデルを使用することにより画像ポイントを解剖学的構造と関連付けるステップとを含む。
特開2018-041176号公報には、少なくとも1つのコンピュータが対象車両の駐車位置を特定する駐車位置特定方法が記載されている。この方法は、対象車両に搭載されたカメラによる駐車領域の撮影によって生成される画像である入力データを取得し、入力データを、少なくとも1台の車両が駐車可能な広さを有する駐車領域と駐車領域における車両1台分の駐車位置との関係を示す学習モデルに入力することによって、撮影された前記駐車領域における対象車両の駐車位置を特定することを含む。
機械学習によって学習された推定モデルを用いた画像認識技術の医療分野での活用例として、画像診断支援が知られている。例えば、直腸がんでは、がんが腸管の内腔から発生し、進行するにつれて外側の組織へと浸潤する。がんが周辺組織にまで浸潤しているか否かで治療方針や手術で切除する領域が変わる。このため手術前の診断では、がん領域と周辺組織領域の包含関係を知ることが重要である。MRI(Magnetic Resonance Imaging)画像及びCT(Computed Tomography)画像等の医療用画像からがん領域と周辺組織領域との包含関係を特定することは、専門性が必要とされ、作業負担が大きい。このため、機械学習によって学習されたニューラルネットワーク等の推定モデルを用いて、周辺組織へのがんの浸潤の有無を適切に判定し、浸潤が認められる場合には浸潤している範囲を正しく可視化することが求められている。
深層学習等の機械学習によって推定モデルを学習させるためには、がん領域及び周辺組織領域を含む学習用画像に、これらの各領域が存在する範囲を示す範囲情報を正解マスクとして付与した学習用データを大量に用意する必要がある。しかしながら、学習用画像に範囲情報(正解マスク)を付与する作業には時間及び技能が必要とされる。また、臨床における画像診断プロセスでは、読影医が、がんの浸潤の有無について判定を行うものの、各領域について範囲情報を改めて作成しないのが通常である。このため、学習用画像に、範囲情報を付与した学習用データを大量に用意することは容易ではない。
開示の技術は、上記の点に鑑みてなされたものであり、学習用画像に範囲情報が付与された学習用データの数が比較的少ない場合においても、推定モデルが、処理対象の画像に含まれる複数の領域について適切にセグメンテーションを行うように、推定モデルに学習させることを目的とする。
開示の技術に係る情報処理装置は、少なくとも1つのプロセッサを備える。プロセッサは、複数の領域をそれぞれ含む複数の学習用画像のうちの少なくとも一部である第1の学習用画像に複数の領域の各々が存在する範囲を示す範囲情報を付与した複数の第1の学習用データ及び複数の学習用画像のうちの少なくとも一部である第2の学習用画像に複数の領域の関係性を示す関係情報を付与した複数の第2の学習用データを取得する。プロセッサは、第1の学習用画像の各々について、推定モデルを用いて特定される複数の領域が、範囲情報と整合するように推定モデルを学習させるための第1の評価値を算出する。プロセッサは、第2の学習用画像の各々について、推定モデルを用いて関係情報によって示される関係性を推定した推定情報を導出し、推定情報と関係情報との乖離の程度を示す第2の評価値を算出する。プロセッサは、第1の評価値及び第2の評価値を要素として含む損失が小さくなるように推定モデルを学習させる。
複数の領域の関係性は、複数の領域の包含関係であってもよい。複数の学習用画像は、それぞれ、第1の領域及び第1の領域の少なくとも一部を包含する第2の領域を含み得る。関係情報は、第2の学習用画像において、第1の領域が第2の領域に包含されていない部分を有しているか否かを示す情報であってもよく、推定情報は、第2の学習用画像において、第1の領域が第2の領域に包含されていない部分を有している確率であってもよい。プロセッサは、第2の学習用画像の各画素について、推定モデルを用いて、当該画素が第1の領域の第2の領域に包含されていない部分の画素である確率Pを算出し、各画素について算出した確率Pに基づいて算出される値を推定情報として導出してもよい。
学習用画像が医療用画像であり、第1の領域が病変領域であり、第2の領域が病変領域の少なくとも一部を包含する生体組織領域であってもよい。
プロセッサは、第1の領域及び第2の領域を含む対象画像を取得し、推定モデルを用いて、第1の領域、第2の領域及び第1の領域の第2の領域に包含されていない部分のうちの少なくとも1つを特定し、特定した領域又は部分を識別可能に表示する制御を行ってもよい。
複数の領域の関係性は、複数の領域の各々が備える特定の要素における大小関係であってもよい。複数の学習用画像は、それぞれ、第1の領域及び第2の領域を含み得る。関係情報は、第2の学習用画像において、第1の領域における要素が第2の領域における要素よりも大きいか否かを示す情報であってもよく、推定情報は、第2の学習用画像において、第1の領域における要素が第2の領域における要素よりも大きい確率であってもよい。プロセッサは、第2の学習用画像の各々について、推定モデルを用いて、第1の領域及び第2の領域を特定し、第1の領域における要素の大きさF及び第2の領域における要素の大きさFを導出し、第1の領域における要素の大きさFと第2の領域における要素の大きさFの差分に応じた値を推定情報として導出してもよい。
複数の領域の関係性は、複数の領域の位置関係であってもよい。複数の学習用画像は、それぞれ、第1の領域及び第2の領域を含み得る。関係情報は、第2の学習用画像において、第1の領域が第2の領域に対して特定の方向に位置しているか否かを示す情報であってもよく、推定情報は、第2の学習用画像において、第1の領域が第2の領域に対して特定の方向に位置している確率であってもよい。
プロセッサは、第2の学習用画像における各画素について、推定モデルを用いて、当該画素が第1の領域である確率P、当該画素が第2の領域である確率Pを算出し、確率Pが閾値以上である画素のうち特定の方向の側の端部の画素に対して特定の方向に位置する候補領域を設定し、候補領域内の画素について算出した確率Pに基づいて算出される値を推定情報として導出してもよい。
第2の評価値をE2、推定情報をy、関係情報をtとしたとき、下記の(I)式を満たすように第2の評価値E2を定めることができる。
E2=Σ{-tlogy-(1-t)log(1-y)} ・・・ (I)
開示の技術に係る情報処理方法は、複数の領域をそれぞれ含む複数の学習用画像のうちの少なくとも一部である第1の学習用画像に複数の領域の各々が存在する範囲を示す範囲情報を付与した複数の第1の学習用データ及び複数の学習用画像のうちの少なくとも一部である第2の学習用画像に複数の領域の関係性を示す関係情報を付与した複数の第2の学習用データを取得し、第1の学習用画像の各々について、推定モデルを用いて特定される複数の領域が、範囲情報と整合するように推定モデルを学習させるための第1の評価値を算出し、第2の学習用画像の各々について、推定モデルを用いて関係情報によって示される関係性を推定した推定情報を導出し、推定情報と関係情報との乖離の程度を示す第2の評価値を算出し、第1の評価値及び第2の評価値を要素として含む損失が小さくなるように推定モデルを学習させる方法である。
開示の技術に係る情報処理プログラムは、複数の領域をそれぞれ含む複数の学習用画像のうちの少なくとも一部である第1の学習用画像に複数の領域の各々が存在する範囲を示す範囲情報を付与した複数の第1の学習用データ及び複数の学習用画像のうちの少なくとも一部である第2の学習用画像に複数の領域の関係性を示す関係情報を付与した複数の第2の学習用データを取得し、第1の学習用画像の各々について、推定モデルを用いて特定される複数の領域が、範囲情報と整合するように推定モデルを学習させるための第1の評価値を算出し、第2の学習用画像の各々について、推定モデルを用いて関係情報によって示される関係性を推定した推定情報を導出し、推定情報と関係情報との乖離の程度を示す第2の評価値を算出し、第1の評価値及び第2の評価値を要素として含む損失が小さくなるように推定モデルを学習させる第2の学習処理を行う処理を情報処理装置が備える少なくとも1つのプロセッサに実行させるためのプログラムである。
開示の技術によれば、学習用画像に範囲情報が付与された学習用データの数が比較的少ない場合においても、推定モデルが、処理対象の画像に含まれる複数の領域について適切にセグメンテーションを行うように、推定モデルに学習させることが可能となる。
開示の技術の実施形態に係る情報処理装置の学習フェーズにおける機能的な構成の一例を示す図である。 複数の領域が完全包含関係にある場合を示す図である。 複数の領域が一部包含関係にある場合を示す図である。 直腸がんの症例を示す断層画像である。 直腸がんの症例を示す断層画像である。 開示の技術の実施形態に係る第1の学習用データの一例を示す図である。 開示の技術の実施形態に係る第2の学習用データの一例を示す図である。 開示の技術の実施形態に係る第2の学習用データの一例を示す図である。 開示の技術の実施形態に係る情報処理装置の運用フェーズにおける機能的な構成の一例を示す図である。 開示の技術の実施形態に係る情報処理装置における表示制御の一例を示す図である。 開示の技術の実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。 開示の技術の実施形態に係る学習処理の流れの一例を示すフローチャートである。 開示の技術の実施形態に係る第2の学習処理の流れの一例を示すフローチャートである。 開示の技術の実施形態に係る画像認識処理の流れの一例を示すフローチャートである。 開示の技術の他の実施形態に係る第2の学習処理の流れの一例を示すフローチャートである。 開示の技術の他の実施形態に係る第2の学習処理の流れの一例を示すフローチャートである。
以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一または等価な構成要素及び部分には同一の参照符号を付与し、重複する説明は適宜省略する。
[第1の実施形態]
図1は、開示の技術の実施形態に係る情報処理装置10の学習フェーズにおける機能的な構成の一例を示す図である。情報処理装置10は、取得部11、第1の評価値算出部12、第2の評価値算出部13、学習部17及び記憶部43を備える。記憶部43には、第1の学習用データ20、第2の学習用データ23及び推定モデル30が記憶されている。情報処理装置10は、学習フェーズにおいて、機械学習によって推定モデル30を学習させる処理を行う。情報処理装置10は、推定モデル30が、複数の領域について包含関係を特定しつつセグメンテーションを行うように推定モデル30を学習させる。
ここで、図2Aは、領域101及び領域102の包含関係が、完全包含関係にある状態の一例を示す図である。本明細書において、「完全包含関係」とは、一方の領域の全ての部分が他方の領域に包含されている関係をいう。図2Bは、領域101及び領域102の包含関係が一部包含関係にある状態の一例を示す図である。本明細書において「一部包含関係」とは、一方の領域の一部分のみが他方の領域に包含されている関係をいう。すなわち、2つの領域が一部包含関係にある場合、一方の領域は、他方の領域に包含されていない部分を有することになる。
図3A及び図3Bは、それぞれ直腸がんの症例を示す医療用画像(断層画像)である。これらの断層画像には、がん領域201、固有筋層領域202及び直腸間膜領域203が含まれている。図3Aは、がん領域201と固有筋層領域202とが完全包含関係にある症例、すなわち、がん領域201が直腸間膜領域203に浸潤していない初期のがんの症例である。図3Bは、がん領域201と固有筋層領域202とが一部包含関係にある症例、すなわち、がん領域201が直腸間膜領域203に浸潤している進行したがんの症例である。以下の説明では、推定モデル30が、がん領域201、固有筋層領域202及び直腸間膜領域203についてセグメンテーションを行う場合を例に説明する。
取得部11は、記憶部43に記憶されている複数の第1の学習用データ20及び複数の第2の学習用データ23を取得する。図4は、第1の学習用データ20の一例を示す図である。第1の学習用データ20は、複数の領域を含む第1の学習用画像21に、各領域が存在する範囲を示す範囲情報22を正解マスクとして付与したデータである。図4には、医療用画像である直腸がんの症例を示す断層画像を、第1の学習用画像21として用いた場合が例示されている。第1の学習用画像21には、がん領域201、固有筋層領域202及び直腸間膜領域203が含まれている。がん領域201及び固有筋層領域202は、完全包含関係又は一部包含関係を有する。なお、がん領域201は、開示の技術における第1の領域の一例であり、固有筋層領域202は開示の技術における第2の領域の一例である。
第1の学習用データ20は、がん領域201が存在する範囲を示す範囲情報22A、固有筋層領域202が存在する範囲を示す範囲情報22B、直腸間膜領域203が存在する範囲を示す範囲情報22Cを正解マスクとして第1の学習用画像21に付与したデータである。第1の学習用画像21に含まれるがん領域201と固有筋層領域202との包含関係が完全包含関係である場合、範囲情報22Aによって示されるがん領域が存在する範囲の全てが、範囲情報22Bによって示される固有筋層領域が存在する範囲内に含まれることになる。一方、第1の学習用画像21に含まれるがん領域201と固有筋層領域202との包含関係が一部包含関係である場合、範囲情報22Aによって示されるがん領域が存在する範囲の一部が、範囲情報22Bによって示される固有筋層領域が存在する範囲内に含まれないことになる。また、第1の学習用画像21において、がん領域201の固有筋層領域202に包含されている部分の各画素には、これらの領域の双方が正解として割り当てられることになる。
なお、第1の学習用データ20は、完全包含関係を有する複数の領域を含む第1の学習用画像21及び一部包含関係を有する複数の領域を含む第1の学習用画像21の双方を含んで構成されていることが好ましいが、いずれか一方のみを含んで構成されていてもよい。
第1の評価値算出部12は、取得部11が取得した複数の第1の学習用データ20を用いて推定モデル30を学習させるための第1の評価値E1を算出する。推定モデル30は、複数の領域を含む処理対象の画像(以下、対象画像という)について、画素(ボクセル又はピクセル)単位でセグメンテーションを行うように構築された数理モデルである。推定モデル30は、対象画像に含まれる複数の領域について、包含関係を特定しつつセグメンテーションを行う。すなわち、推定モデル30は、ある領域が他の領域に包含されている部分の画素に対して、複数の領域を割り当てる。推定モデル30は、例えばニューラルネットワークを構成するものであってもよい。
第1の評価値算出部12は、第1の学習用画像21の各々について、推定モデル30を用いて特定されるがん領域201、固有筋層領域202及び直腸間膜領域203が、範囲情報(正解マスク)22A、22B、22Cと整合するように推定モデル30を学習させるための第1の評価値E1を算出する。第1の評価値E1は、推定モデル30における各領域の推定結果と範囲情報22A、22B、22Cとの乖離の程度を示す値であってもよい。(1)式は、第1の評価値E1の一例である。(1)式に示すように、第1の評価値E1としてsoft dice lossを用いることができる。(1)式において、Gは範囲情報22Aに基づく画素毎の正解値であり、がん領域201である画素について1が付与され、がん領域201ではない画素について0が付与される。Pは、推定モデル30によって算出される、当該画素ががん領域201である確率である。Gは範囲情報22Bに基づく画素毎の正解値であり、固有筋層領域202である画素について1が付与され、固有筋層領域202ではない画素について0が付与される。Pは、推定モデル30によって算出される、当該画素が固有筋層領域202である確率である。Gは範囲情報22Cに基づく画素毎の正解値であり、直腸間膜領域203である画素について1が付与され、直腸間膜領域203ではない画素について0が付与される。Pは、推定モデル30によって算出される、当該画素が直腸間膜領域203である確率である。γ、δ及びεは、それぞれ、各クラス(がん領域201、固有筋層領域202及び直腸間膜領域203)に対する重み定数である。なお、第1の評価値E1については、(1)式によって示されるsoft dice lossに限らず、推定モデル30における各領域の推定結果と範囲情報22との乖離の程度を示す値であれば他のものを用いることが可能である。例えば、U-Net: Convolutional Networks for Biomedical Image Segmentation arXiv:1505.04597及びBoundary loss for highly unbalanced segmentation arXiv:1812.07032に記載の技術を適用することが可能である。
図5A及び図5Bは、それぞれ、第2の学習用データ23の一例を示す図である。第2の学習用データ23は、複数の領域を含む第2の学習用画像24に、これら複数の領域の関係性を示す関係情報tを正解ラベルとして付与したデータである。図5A及び図5Bには、第1の学習用画像21と同様、医療用画像である直腸がんの症例を示す断層画像を第2の学習用画像24として用いた場合が例示されている。第2の学習用画像24には、第1の学習用画像21と同様、がん領域201、固有筋層領域202及び直腸間膜領域203が含まれている。
本実施形態において、関係情報tによって示される関係性は、第2の学習用画像24に含まれる複数の領域の包含関係であり、関係情報tは、第2の学習用画像24において、がん領域201が固有筋層領域202に包含されていない部分を有しているか否か(すなわち、がん領域201及び固有筋層領域202が一部包含関係であるか否か)を示す情報である。図5Aに示すように、がん領域201が固有筋層領域202に包含されていない部分を有していない(がん領域201及び固有筋層領域202が一部包含関係ではない)第2の学習用画像24に対しては、関係情報tとして「0」が付与される。換言すれば、がん領域201が直腸間膜領域203に浸潤していない症例の第2の学習用画像24には、関係情報tとして「0」が付与される。一方、図5Bに示すように、がん領域201が固有筋層領域202に包含されていない部分を有している(がん領域201及び固有筋層領域202が一部包含関係である)第2の学習用画像24に対しては、関係情報tとして「1」が付与される。換言すれば、がん領域201が直腸間膜領域203に浸潤している症例の第2の学習用画像24には、関係情報tとして「1」が付与される。
第2の評価値算出部13は、取得部11が取得した複数の第2の学習用データ23を用いて推定モデル30を学習させるための第2の評価値E2を算出する。すなわち、第2の学習用データ23を用いた推定モデル30の学習においては、関係情報tによって示される関係性(本実施形態では、がん領域201と固有筋層領域202の包含関係)を制約条件とする学習が行われる。
第2の評価値算出部13は、第2の評価値E2を算出するにあたり、第2の学習用画像の各々について、推定モデル30を用いて、関係情報tによって示される関係性を推定した推定情報yを導出する。すなわち、第2の評価値算出部13は、推定モデル30を用いて、第2の学習用画像24において、「がん領域201が固有筋層領域202に包含されていない部分を有しているか否か」について推定した結果を推定情報yとして導出する。具体的には、第2の評価値算出部13は、第2の学習用画像24において、がん領域201が固有筋層領域202に包含されていない部分を有している確率を推定情報yとして導出する。推定情報yを導出する方法は、以下のとおりである。
第2の評価値算出部13は、取得部11が取得した第2の学習用画像24を推定モデル30に入力する。推定モデル30は、入力された第2の学習用画像24について画素毎にセグメンテーションを行う。具体的には、推定モデル30は、第2の学習用画像24の各画素について、当該画素ががん領域201である確率P及び当該画素が固有筋層領域202である確率Pを算出する。推定モデル30は、更に、第2の学習用画像24の各画素について、当該画素が、がん領域201の固有筋層領域202に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)である確率PとしてP×(1-P)を算出する。すなわち、確率Pは、がん領域201であり且つ固有筋層領域202でない確率として算出される。推定モデル30は、複数の第2の学習用画像24の各々の各画素について、確率P、P、及びPを算出する。
第2の評価値算出部13は、第2の学習用画像24の各画素について算出した確率P(=P×(1-P))に基づいて算出される値を推定情報y(第2の学習用画像24において、がん領域201が固有筋層領域202に包含されていない部分を有している確率)として導出する。第2の評価値算出部13は、例えば、第2の学習用画像24の各画素について算出された確率Pのうちの最大値を、当該第2の学習用画像24における推定情報yとして算出してもよい。また、第2の評価値算出部13は、当該第2の学習用画像24の各画素について算出された確率Pについて、値の大きい順に順位付けしたときの、上位いくつかの値の平均値を、当該第2の学習用画像24における推定情報yとして算出してもよい。また、第2の評価値算出部13は、当該第2の学習用画像24の各画素について、当該画素が、がん領域の固有筋層領域202に包含されていない部分ではない確率P(=1-(P×(1-P))を算出し、確率Pの総乗を1から引いた値(1-ΠP)を推定情報yとして算出してもよい。上記したもの以外にも、第2の学習用画像24において、がん領域201が固有筋層領域202に包含されていない部分を有している確率として適切な値を推定情報yとして適用することが可能である。
第2の評価値算出部13は、推定情報yと正解ラベルとしての関係情報tとの乖離の程度を示す第2の評価値E2を算出する。第2の評価値E2は、例えば、下記の(2)式によって表される。
E2=Σ{-tlogy-(1-t)log(1-y)} ・・・ (2)
すなわち、第2評価値E2は、第2の学習用画像24の各々について算出される-tlogy-(1-t)log(1-y)を、全ての第2の学習用画像24について積算した値である。
学習部17は、第1の評価値E1及び第2の評価値E2を要素として含む損失Lが小さくなるように推定モデル30を学習させる。下記の(3)式は、損失Lの一例である。(3)式において、W1は第1の評価値E1に対する重み定数であり、W2は第2の評価値E2に対する重み定数である。
L=E1×W1+E2×W2 ・・・(3)
図6は、情報処理装置10の運用フェーズにおける機能的な構成の一例を示す図である。情報処理装置10は、運用フェーズにおいて、学習済みの推定モデル30を運用して、対象画像に含まれる複数の領域についてセグメンテーションを行う。情報処理装置10は、取得部14、特定部15及び表示制御部16を有する。
取得部14は、セグメンテーションの対象となる複数の領域を含んだ対象画像を取得する。以下において、対象画像が図4に示す第1の学習用画像21及び図5に示す第2の学習用画像24に類似した医療用画像であり、対象画像には、がん領域、固有筋層領域及び直腸間膜領域が含まれており、これらの各領域についてセグメンテーションを行う場合を例に説明する。
特定部15は、取得部14が取得した対象画像を学習済みの推定モデル30に入力する。推定モデル30は、対象画像について画素毎にセグメンテーションを行う。具体的には、推定モデル30は、対象画像の各画素について、当該画素ががん領域である確率P、当該画素が固有筋層領域である確率P及び当該画素が直腸間膜領域である確率Pを算出する。
特定部15は、確率Pが所定の閾値以上である画素からなる領域をがん領域であると特定し、確率Pが所定の閾値以上である画素からなる領域を固有筋層領域であると特定し、確率Pが閾値以上である画素からなる領域を直腸間膜領域であると特定する。また、特定部15は、がん領域であると特定した領域のうち、固有筋層ではない領域を、がん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)であると特定する。
表示制御部16は、特定部15によって特定された各領域及び部分を識別可能に表示する制御を行う。例えば、表示制御部16は、例えば、図7に示すように、がん領域、固有筋層領領域及びがん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)が存在する範囲をそれぞれ示す、色分けされたラベル画像を対象画像に重畳して表示する制御を行う。なお、特定部15は、がん領域、固有筋層領域及びがん領域の固有筋層領域に包含されていない部分の少なくとも1つを特定してもよい。この場合、表示制御部16は、特定部15によって特定された領域又は部分を識別可能に表示する制御を行う。
図8は、情報処理装置10のハードウェア構成の一例を示す図である。情報処理装置10は、CPU(Central Processing Unit)41、一時記憶領域としてのメモリ42、及び不揮発性の記憶部43を備えている。また、情報処理装置10は、液晶ディスプレイ等の表示デバイスによって構成される表示部44、及びキーボード及びマウス等の入力デバイスによって構成される入力部45を備えている。CPU41、メモリ42、記憶部43、表示部44、及び入力部45は、バス46を介して接続されている。
記憶部43は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の不揮発性の記憶媒体によって実現される。記憶部43には、第1の学習用データ20、第2の学習用データ23、推定モデル30、学習プログラム51及び画像認識プログラム52が格納されている。CPU41は、学習プログラム51及び画像認識プログラム52を、メモリ42に展開した後に実行する。CPU41が学習プログラム51を実行することにより、CPU41は、取得部11、第1の評価値算出部12、第2の評価値算出部13及び学習部17として機能する。また、CPU41が画像認識プログラム52を実行することにより、CPU41は、取得部14、特定部15及び表示制御部16として機能する。CPU41は、開示の技術におけるプロセッサの一例である。
図9は、CPU41が、学習プログラム51を実行することにより実施される学習処理の流れの一例を示すフローチャートである。CPU41は、例えば、学習フェーズにおいて、ユーザによって入力部45を介して学習処理の実行指示が入力された場合に学習プログラム51を実行する。
ステップS1において、取得部11は、記憶部43に記憶されている複数の第1の学習用データ20及び複数の第2の学習用データ23を取得する。
ステップS2において、第1の評価値算出部12は、ステップS1において取得した第1の学習用データ20を用いて推定モデル30を学習させるための第1の評価値E1を算出する。より具体的には、第1の評価値算出部12は、第1の学習用画像21の各々について、推定モデル30を用いて特定されるがん領域201、固有筋層領域202及び直腸間膜領域203が、範囲情報22A、22B、22Cと整合するように推定モデル30を学習させるための第1の評価値E1を算出する。第1の評価値E1は、推定モデル30における各領域の推定結果と範囲情報22との乖離の程度を示す値であってもよく、例えば上記の(1)式によって示されるものを使用することが可能である。
ステップS3において、第2の評価値算出部13は、ステップS1において取得した第2の学習用データ23を用いて推定モデル30を学習させるための第2の評価値E2を算出する。図10は、第2の評価値E2の算出処理の詳細を示すフローチャートである。以下、図10を参照しつつ、第2の評価値E2の算出処理について説明する。
ステップS11において、第2の評価値算出部13は、推定モデル30を用いて、複数の第2の学習用画像24の各々の各画素について、当該画素ががん領域201である確率P、当該画素が固有筋層領域202である確率P、当該画素ががん領域201の固有筋層領域202に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)である確率P(=P×(1-P)を算出する。
ステップS12において、第2の評価値算出部13は、第2の学習用画像24の各画素について算出した確率Pに基づいて算出される値を当該第2の学習用画像24の推定情報yとして導出する。第2の評価値算出部13は、一例として、当該第2の学習用画像24の各画素について算出した確率Pのうちの最大値を、当該第2の学習用画像24における推定情報yとして導出してもよい。第2の評価値算出部13は、複数の第2の学習用画像24の各々について推定情報yを導出する。
ステップS13において、第2の評価値算出部13は、ステップS12において導出した推定情報yと関係情報tとの乖離の程度を示す第2の評価値E2を算出する。第2の評価値E2は、例えば、上記の(2)式によって示されるものを使用することが可能である。
ステップS4(図9参照)において、学習部17は、第1の評価値E1及び第2の評価値E2を要素として含む損失Lが小さくなるように推定モデル30を学習させる。損失Lは、例えば、上記の(3)式によって示されるものを使用することが可能である。使用する第1の学習用データ20及び第2の学習用データ23のデータセットを入れ換えながら、ステップS1~S4の処理を繰り返し実施することで、推定モデル30が最適化される。
図11は、CPU41が、画像認識プログラム52を実行することにより実施される画像認識処理の流れの一例を示すフローチャートである。CPU41は、例えば、運用フェーズにおいて、ユーザによって入力部45を介して画像認識処理の実行指示が入力された場合に画像認識プログラム52を実行する。
ステップS21において、取得部14は、がん領域、固有筋層領域及び直腸間膜領域を含む対象画像を取得する。ステップS22において、特定部15は、学習済みの推定モデル30を用いて、対象画像の各画素について、当該画素ががん領域である確率P、当該画素が固有筋層領域である確率Pを算出する。
ステップS23において、特定部15は、確率Pが所定の閾値以上である画素からなる領域をがん領域であると特定し、確率Pが所定の閾値以上である画素からなる領域を固有筋層領域であると特定する。また、特定部15は、がん領域であると特定した領域のうち、固有筋層ではない領域を、がん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)であると特定する。
ステップS24において、表示制御部16は、ステップS23において特定された各領域及び部分を識別可能に表示する制御を行う。表示制御部16は、例えば図7に示すように、がん領域、固有筋層領領域及びがん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)が存在する範囲をそれぞれ示す、色分けされたラベル画像を対象画像に重畳して表示する制御を表示部44に対して行う。
以上のように、開示の技術の実施形態に係る情報処理装置10は、推定モデル30を学習させる学習フェーズにおいて、複数の領域(がん領域201、固有筋層領域202、直腸間膜領域203)をそれぞれ含む複数の学習用画像のうちの少なくとも一部である第1の学習用画像21に上記複数の領域の各々が存在する範囲を示す範囲情報22(22A、22B、22C)を付与した複数の第1の学習用データ20を取得する。情報処理装置10は、上記複数の学習用画像のうちの少なくとも一部である第2の学習用画像24に上記複数の領域の関係性を示す関係情報tを付与した複数の第2の学習用データ23を取得する。情報処理装置10は、第1の学習用画像21の各々について、推定モデル30を用いて特定される上記複数の領域が、範囲情報22(22A、22B、22C)と整合するように推定モデル30を学習させるための第1の評価値E1を算出する。情報処理装置10は、第2の学習用画像24の各々について、推定モデル30を用いて関係情報tによって示される関係性を推定した推定情報yを導出する。情報処理装置10は、推定情報yと関係情報tとの乖離の程度を示す第2の評価値E2を算出する。情報処理装置10は、第1の評価値E1及び第2の評価値Eを要素として含む損失Lが小さくなるように推定モデル30を学習させる。
一般的に、対象画像に含まれる複数の領域についてセグメンテーションを行う推定モデルを学習させるためには、セグメンテーションの対象となる複数の領域を含む学習用画像に、これらの各領域が存在する範囲を示す範囲情報を正解マスクとして付与した学習用データ(本実施形態に係る第1の学習用データ)を大量に用意する必要がある。しかしながら、学習用画像に範囲情報を付与する作業には時間及び技能が必要とされるため、そのような学習用データを大量に用意することは容易ではない。
開示の技術の実施形態に係る情報処理装置10は、第1の学習用画像21に正解マスクとしての範囲情報22(22A、22B、22C)を付与した第1の学習用データ20のみならず、第2の学習用画像24に正解ラベルとしての関係情報tを付与した第2の学習用データ23を用いて推定モデル30を学習させる。従って、第1の学習用データ20の数が比較的少ない場合においても、第2の学習用データ23によって補完されるので、推定モデル30の学習を適切に行うことが可能となる。関係情報tは、第2の学習用画像24に含まれる複数の領域が、所定の関係性を有しているか否かを示す情報であり、範囲情報22(22A、22B、22C)と比較して、取得及び学習用画像への付与が容易である。すなわち、推定モデル30の学習に必要十分な量の第2の学習用データ23を用意することは、比較的容易である。
また、開示の技術の実施形態に係る情報処理装置10によれば、第2の学習用データ23を用いることで、セグメンテーションの対象となる複数の領域の包含関係を制約条件として推定モデル30を学習させるので、第1の学習用データ20のみを用いて推定モデル30を学習させる場合と比較して、特異度(一部包含関係ではない症例について、一部包含関係ではないもとして正しく判定する確率)を向上させることができる。
また、開示の技術の実施形態に係る情報処理装置10は、学習済みの推定モデル30を運用する運用フェーズにおいて、第1の領域及び第2の領域を含む対象画像を取得し、推定モデル30を用いて、第1の領域、第2の領域及び第1の領域の第2の領域に包含されていない部分のうちの少なくとも1つを特定し、特定した領域又は部分を識別可能に表示する制御を行う。情報処理装置10によれば、例えば、がん領域の周辺組織への浸潤の有無及び浸潤している範囲を可視化することが可能となる。
なお、以上の説明では、医療用画像に含まれるがん領域及び固有筋層領域についてセグメンテーションを行う場合を例示したが、がん領域以外の病変領域及び固有筋層領域以外の生体組織領域についてセグメンテーションを行う場合にも開示の技術を適用することが可能である。また、対象画像が医療用画像である場合を例示したが、これに限定されるものではない。例えば、顕微鏡画像及び製造ラインの検査工程で用いられる検査画像等に含まれる複数の領域についてセグメンテーションを行う場合に開示の技術を適用することも可能である。
また、以上の説明では、学習用画像に、範囲情報22及び関係情報tのいずれか一方を付与した学習用データを用いる場合を例示したが、学習用画像に、範囲情報22及び関係情報tの双方を付与した学習用データを用いることも可能である。この場合、第1の学習用データ20及び第2の学習用データ23の一方が、他方を兼ねることができる。
[第2の実施形態]
上記した第1の実施形態においては、関係情報tによって示される関係性が、第2の学習用画像24に含まれる複数の領域の包含関係であり、関係情報tが、第2の学習用画像24において、がん領域201が固有筋層領域202に包含されていない部分が含まれているか否かを示す情報である場合を例示した。第2の実施形態においては、関係情報tによって示される関係性は、第2の学習用画像24に含まれる複数の領域(第1の領域及び第2の領域)の各々が備える特定の要素における大小関係であり、関係情報tが第1の領域における特定の要素が、第2の領域における特定の要素よりも大きいか否かを示す情報とされる。特定の要素は、第2の学習用画像24から認識できる要素であれば特に限定されるものではなく、例えば、体積、輝度、体積当たりの表面積などが挙げられる。
第2の学習用データ23において、第1の領域における特定の要素が、第2の領域における特定の要素よりも小さい第2の学習用画像24に対しては、関係情報tとして「0」が付与される。一方、第2の学習用データ23において、第1の領域における特定の要素が、第2の領域における特定の要素よりも大きい第2の学習用画像24に対しては、関係情報tとして「1」が付与される。
第2の評価値算出部13は、取得部11が取得した複数の第2の学習用データ23を用いて推定モデル30を学習させるための第2の評価値E2を算出する。本実施形態に係る第2の学習用データ23を用いた学習においては、第1の領域及び第2の領域がそれぞれ備える特定の要素の大小関係を制約条件とする学習が行われる。以下において、本実施形態に係る第2の評価値E2の算出処理について詳細に説明する。
第2の評価値算出部13は、第2の評価値E2を算出するにあたり、第2の学習用画像24の各々について、推定モデル30を用いて、関係情報tによって示される関係性を推定した推定情報yを導出する。すなわち、第2の評価値算出部13は、推定モデル30を用いて、第2の学習用画像24において、「第1の領域における特定の要素が、第2の領域における特定の要素よりも大きいか否か」について推定した結果を推定情報yとして導出する。具体的には、第2の評価値算出部13は、第2の学習用画像24において、第1の領域における特定の要素が、第2の領域における特定の要素よりも大きい確率を推定情報yとして導出する。以下において、推定情報yを導出する方法について説明する。
第2の評価値算出部13は、取得部11が取得した第2の学習用画像24を推定モデル30に入力する。推定モデル30は、入力された第2の学習用画像24について画素毎にセグメンテーションを行い、第1の領域及び第2の領域を特定する。例えば、推定モデル30を用いて、第2の学習用画像24の各画素について、当該画素が第1の領域である確率P及び当該画素が第2の領域である確率Pを算出し、確率Pが閾値以上である画素からなる領域を第1の領域として特定し、確率Pが閾値以上である画素からなる領域を第2の領域として特定してもよい。
第2の評価値算出部13は、特定した第1の領域における特定の要素の大きさF及び特定した第2の領域における特定の要素の大きさFを導出する。F及びFは、第2の学習用画像24を解析することで導出することが可能である。
第2の評価値算出部13は、第2の学習用画像24の各々について、FとFの差分に応じた値を推定情報y(第1の領域における特定の要素が、第2の領域における特定の要素よりも大きい確率)として導出する。第2の評価値算出部13は、例えば、sigmoid{(F-F)/(F+F)}を推定情報yとして導出してもよい。但しsigmoid(x)=1/(1+e-x)である。
第2の評価値算出部13は、上記のようにして導出した推定情報yと正解ラベルとしての関係情報tとの乖離の程度を示す第2の評価値E2を算出する。第2の評価値E2は、例えば、上記の(2)式によって示されるものを使用することが可能である。学習部17は、第1の評価値E1及び第2の評価値E2を要素として含む損失Lが小さくなるように推定モデル30を学習させる。なお、第1の評価値E1は、第1の実施形態と同様に算出することが可能である。
図12は、第2の実施形態に係る第2の評価値E2の算出処理の詳細を示すフローチャートである。以下において、第2の実施形態に係る第2の評価値E2の算出処理を、図12を参照しつつ説明する。
ステップS31において、第2の評価値算出部13は、第2の学習用画像の各々について、推定モデル30を用いて、第1の領域及び第2の領域を特定する。
ステップS32において、第2の評価値算出部13は、第2の学習用画像の各々について、第1の領域における特定の要素の大きさF及び第2の領域における特定の要素の大きさFを導出する。
ステップS33において、第2の評価値算出部13は、第2の学習用画像の各々について、推定情報yとして、sigmoid{(F-F)/(F+F)}を導出する。
ステップS34において、第2の評価値算出部13は、ステップS33において導出された推定情報yと関係情報tとの乖離の程度を示す第2の評価値E2を算出する。第2の評価値E2は、例えば、上記の(2)式によって示されるものを使用することが可能である。
本実施形態に係る情報処理装置10によれば、第1の実施形態と同様、第1の学習用データ20の数が比較的少ない場合においても、第2の学習用データ23によって補完されるので、推定モデル30の学習を適切に行うことが可能となる。
[第3の実施形態]
上記した第1の実施形態においては、関係情報tによって示される関係性が、第2の学習用画像24に含まれる複数の領域の包含関係であり、関係情報tが、第2の学習用画像24において、がん領域201が固有筋層領域202に包含されていない部分が含まれているか否かを示す情報である場合を例示した。第3の実施形態においては、関係情報tによって示される関係性は、第2の学習用画像24に含まれる複数の領域(第1の領域及び第2の領域)の位置関係であり、関係情報tが第2の学習用画像24において、第1の領域が第2の領域に対して特定の方向に位置しているか否かを示す情報とされる。特定の方向は、例えば上下左右方向である。以下の説明においては、特定の方向が、右方向である場合を例に説明する。
第2の学習用データ23において、第1の領域が第2の領域に対して右方向に位置している第2の学習用画像24に対しては、関係情報tとして「1」が付与される。一方、第2の学習用データ23において、第1の領域が第2の領域に対して右方向に位置していない第2の学習用画像24に対しては、関係情報tとして「0」が付与される。
第2の評価値算出部13は、取得部11が取得した複数の第2の学習用データ23を用いて推定モデル30を学習させるための第2の評価値E2を算出する。本実施形態に係る第2の学習用データ23を用いた学習においては、第1の領域及び第2の領域の位置関係を制約条件とする学習が行われる。以下において、本実施形態に係る第2の評価値E2の算出処理について詳細に説明する。
第2の評価値算出部13は、第2の評価値E2を算出するにあたり、第2の学習用画像24の各々について、推定モデル30を用いて、関係情報tによって示される関係性を推定した推定情報yを導出する。すなわち、第2の評価値算出部13は、推定モデル30を用いて第2の学習用画像24において、「第1の領域が第2の領域に対して右方向に位置しているか否か」について推定した結果を推定情報yとして導出する。具体的には、第2の評価値算出部13は、第2の学習用画像24において、第1の領域が第2の領域に対して右方向に位置している確率を推定情報yとして導出する。以下において、推定情報yを導出する方法について説明する。
第2の評価値算出部13は、取得部11が取得した第2の学習用画像24を推定モデル30に入力する。推定モデル30は、入力された第2の学習用画像24について画素毎にセグメンテーションを行う。具体的には、推定モデル30は、第2の学習用画像24の各画素について、当該画素が第1の領域である確率P及び当該画素が第2の領域である確率Pを算出する。
第2の評価値算出部13は、確率Pが閾値以上である画素のうち右側の端部の画素に対して右側に位置する領域を候補領域として設定する。第2の評価値算出部13は、設定した候補領域内における各画素について算出した確率Pに基づいて算出される値を、当該第2の学習用画像24における推定情報y(第1の領域が第2の領域に対して右方向に位置している確率)として導出する。第2の評価値算出部13は、例えば、候補領域内における各画素について算出した確率Pのうちの最大値を、当該第2の学習用画像24における推定情報yとして導出してもよい。
第2の評価値算出部13は、上記のようにして導出した推定情報yと正解ラベルとしての関係情報tとの乖離の程度を示す第2の評価値E2を算出する。第2の評価値E2は、例えば、上記の(2)式によって示されるものを使用することが可能である。学習部17は、第1の評価値E1及び第2の評価値E2を要素として含む損失Lが小さくなるように推定モデル30を学習させる。なお、第1の評価値E1は、第1の実施形態と同様に算出することが可能である。
図13は、第3の実施形態に係る第2の評価値E2の算出処理の詳細を示すフローチャートである。以下において、第3の実施形態に係る第2の評価値E2の算出処理を、図13を参照しつつ説明する。
ステップS41において、第2の評価値算出部13は、第2の学習用画像24の各々の各画素について、推定モデル30を用いて、当該画素が第1の領域である確率P、当該画素が第2の領域である確率Pを算出する。
ステップS42において、第2の評価値算出部13は、第2の学習用画像24の各々について、確率Pが閾値以上である画素のうちの右側の端部の画素に対して右側に位置する候補領域を設定する。
ステップS43において、第2の評価値算出部13は、第2の学習用画像の各々について、候補領域内の各画素について算出した確率Pに基づいて算出される値を推定情報yとして導出する。第2の評価値算出部13は、例えば、候補領域内における各画素について算出した確率Pのうちの最大値を、当該第2の学習用画像24における推定情報yとして導出してもよい。
ステップS44において、第2の評価値算出部13は、ステップS43において導出された推定情報yと関係情報tとの乖離の程度を示す第2の評価値E2を算出する。第2の評価値E2は、例えば、上記の(2)式によって示されるものを使用することが可能である。
本実施形態に係る情報処理装置10によれば、第1の実施形態と同様、第1の学習用データ20の数が比較的少ない場合においても、第2の学習用データ23によって補完されるので、推定モデル30の学習を適切に行うことが可能となる。
上記の各実施形態において、例えば、取得部11、第1の評価値算出部12、第2の評価値算出部13、学習部17、取得部14、特定部15及び表示制御部16といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
また、上記実施形態では、学習プログラム51及び画像認識プログラム52が記憶部43に予め記憶(インストール)されている態様を説明したが、これに限定されない。学習プログラム51及び画像認識プログラム52は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、学習プログラム51及び画像認識プログラム52は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
なお、2020年9月29日に出願された日本国特許出願2020-163872の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (15)

  1. 少なくとも1つのプロセッサを備えた情報処理装置であって、
    前記プロセッサは、
    複数の領域をそれぞれ含む複数の学習用画像のうちの少なくとも一部である第1の学習用画像に前記複数の領域の各々が存在する範囲を示す範囲情報を付与した複数の第1の学習用データ及び前記複数の学習用画像のうちの少なくとも一部である第2の学習用画像に前記複数の領域の関係性を示す関係情報を付与した複数の第2の学習用データを取得し、
    前記第1の学習用画像の各々について、推定モデルを用いて特定される前記複数の領域が、前記範囲情報と整合するように前記推定モデルを学習させるための第1の評価値を算出し、
    前記第2の学習用画像の各々について、前記推定モデルを用いて前記関係情報によって示される関係性を推定した推定情報を導出し、前記推定情報と前記関係情報との乖離の程度を示す第2の評価値を算出し、
    前記第1の評価値及び前記第2の評価値を要素として含む損失が小さくなるように前記推定モデルを学習させる
    情報処理装置。
  2. 前記複数の領域の関係性は、前記複数の領域の包含関係である
    請求項1に記載の情報処理装置。
  3. 前記複数の学習用画像は、それぞれ、第1の領域及び前記第1の領域の少なくとも一部を包含する第2の領域を含み、
    前記関係情報は、前記第2の学習用画像において、前記第1の領域が前記第2の領域に包含されていない部分を有しているか否かを示す情報であり、
    前記推定情報は、前記第2の学習用画像において、前記第1の領域が前記第2の領域に包含されていない部分を有している確率である
    請求項2に記載の情報処理装置。
  4. 前記プロセッサは、
    前記第2の学習用画像の各画素について、前記推定モデルを用いて、当該画素が前記第1の領域の前記第2の領域に包含されていない部分の画素である確率Pを算出し、
    各画素について算出した前記確率Pに基づいて算出される値を前記推定情報として導出する
    請求項3に記載の情報処理装置。
  5. 前記学習用画像が医療用画像であり、
    前記第1の領域が病変領域であり、前記第2の領域が前記病変領域の少なくとも一部を包含する生体組織領域である
    請求項3又は請求項4に記載の情報処理装置。
  6. 前記プロセッサは、
    前記第1の領域及び前記第2の領域を含む対象画像を取得し、
    前記推定モデルを用いて、前記第1の領域、前記第2の領域及び前記第1の領域の前記第2の領域に包含されていない部分のうちの少なくとも1つを特定し、
    特定した領域又は部分を識別可能に表示する制御を行う
    請求項3から請求項5のいずれか1項に記載の情報処理装置。
  7. 前記複数の領域の関係性は、前記複数の領域の各々が備える特定の要素における大小関係である
    請求項1に記載の情報処理装置。
  8. 前記複数の学習用画像は、それぞれ、第1の領域及び第2の領域を含み、
    前記関係情報は、前記第2の学習用画像において、前記第1の領域における前記要素が前記第2の領域における前記要素よりも大きいか否かを示す情報であり、
    前記推定情報は、前記第2の学習用画像において、前記第1の領域における前記要素が前記第2の領域における前記要素よりも大きい確率である
    請求項7に記載の情報処理装置。
  9. 前記プロセッサは、
    前記第2の学習用画像の各々について、前記推定モデルを用いて、前記第1の領域及び前記第2の領域を特定し、
    前記第1の領域における前記要素の大きさF及び前記第2の領域における前記要素の大きさFを導出し、
    前記第1の領域における前記要素の大きさFと前記第2の領域における前記要素の大きさFの差分に応じた値を前記推定情報として導出する
    請求項8に記載の情報処理装置。
  10. 前記複数の領域の関係性は、前記複数の領域の位置関係である
    請求項1に記載の情報処理装置。
  11. 前記複数の学習用画像は、それぞれ、第1の領域及び第2の領域を含み、
    前記関係情報は、前記第2の学習用画像において、前記第1の領域が前記第2の領域に対して特定の方向に位置しているか否かを示す情報であり、
    前記推定情報は、前記第2の学習用画像において、前記第1の領域が前記第2の領域に対して前記特定の方向に位置している確率である
    請求項10に記載の情報処理装置。
  12. 前記プロセッサは、
    前記第2の学習用画像における各画素について、前記推定モデルを用いて、当該画素が前記第1の領域である確率P、当該画素が前記第2の領域である確率Pを算出し、
    前記確率Pが閾値以上である画素のうち前記特定の方向の側の端部の画素に対して前記特定の方向に位置する候補領域を設定し、
    前記候補領域内の画素について算出した前記確率Pに基づいて算出される値を前記推定情報として導出する
    請求項11に記載の情報処理装置。
  13. 前記第2の評価値をE2、前記推定情報をy、前記関係情報をtとしたとき、下記の(I)式を満たす
    請求項1から請求項12のいずれか1項に記載の情報処理装置。
    E2=Σ{-tlogy-(1-t)log(1-y)} ・・・ (I)
  14. 複数の領域をそれぞれ含む複数の学習用画像のうちの少なくとも一部である第1の学習用画像に前記複数の領域の各々が存在する範囲を示す範囲情報を付与した複数の第1の学習用データ及び前記複数の学習用画像のうちの少なくとも一部である第2の学習用画像に前記複数の領域の関係性を示す関係情報を付与した複数の第2の学習用データを取得し、
    前記第1の学習用画像の各々について、推定モデルを用いて特定される前記複数の領域が、前記範囲情報と整合するように前記推定モデルを学習させるための第1の評価値を算出し、
    前記第2の学習用画像の各々について、前記推定モデルを用いて前記関係情報によって示される関係性を推定した推定情報を導出し、前記推定情報と前記関係情報との乖離の程度を示す第2の評価値を算出し、
    前記第1の評価値及び前記第2の評価値を要素として含む損失が小さくなるように前記推定モデルを学習させる
    処理を情報処理装置が備える少なくとも1つのプロセッサが実行する情報処理方法。
  15. 複数の領域をそれぞれ含む複数の学習用画像のうちの少なくとも一部である第1の学習用画像に前記複数の領域の各々が存在する範囲を示す範囲情報を付与した複数の第1の学習用データ及び前記複数の学習用画像のうちの少なくとも一部である第2の学習用画像に前記複数の領域の関係性を示す関係情報を付与した複数の第2の学習用データを取得し、
    前記第1の学習用画像の各々について、推定モデルを用いて特定される前記複数の領域が、前記範囲情報と整合するように前記推定モデルを学習させるための第1の評価値を算出し、
    前記第2の学習用画像の各々について、前記推定モデルを用いて前記関係情報によって示される関係性を推定した推定情報を導出し、前記推定情報と前記関係情報との乖離の程度を示す第2の評価値を算出し、
    前記第1の評価値及び前記第2の評価値を要素として含む損失が小さくなるように前記推定モデルを学習させる
    処理を情報処理装置が備える少なくとも1つのプロセッサに実行させるための情報処理プログラム。
JP2022553498A 2020-09-29 2021-07-26 情報処理装置、情報処理方法及び情報処理プログラム Active JP7430815B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020163872 2020-09-29
JP2020163872 2020-09-29
PCT/JP2021/027590 WO2022070574A1 (ja) 2020-09-29 2021-07-26 情報処理装置、情報処理方法及び情報処理プログラム

Publications (3)

Publication Number Publication Date
JPWO2022070574A1 JPWO2022070574A1 (ja) 2022-04-07
JPWO2022070574A5 JPWO2022070574A5 (ja) 2023-06-08
JP7430815B2 true JP7430815B2 (ja) 2024-02-13

Family

ID=80949864

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022553498A Active JP7430815B2 (ja) 2020-09-29 2021-07-26 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US20230230247A1 (ja)
JP (1) JP7430815B2 (ja)
WO (1) WO2022070574A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141202A (ja) 2010-01-07 2011-07-21 Kokusai Gijutsu Kaihatsu Co Ltd 部品検査装置及びプログラム
JP2019153235A (ja) 2018-03-06 2019-09-12 株式会社東芝 物体領域識別装置、物体領域識別方法およびプログラム
WO2019180414A1 (en) 2018-03-20 2019-09-26 University Of Essex Enterprises Limited Localisation, mapping and network training
JP2019534520A (ja) 2017-03-08 2019-11-28 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像処理用のニューラルネットワークモデルのトレーニング方法、装置、及び記憶媒体
JP2019207561A (ja) 2018-05-29 2019-12-05 日鉄ソリューションズ株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6989688B2 (ja) * 2017-07-21 2022-01-05 トヨタ モーター ヨーロッパ セマンティック・インスタンス・セグメンテーションに使用されるニューラルネットワークを訓練するための方法およびシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011141202A (ja) 2010-01-07 2011-07-21 Kokusai Gijutsu Kaihatsu Co Ltd 部品検査装置及びプログラム
JP2019534520A (ja) 2017-03-08 2019-11-28 ▲騰▼▲訊▼科技(深▲セン▼)有限公司 画像処理用のニューラルネットワークモデルのトレーニング方法、装置、及び記憶媒体
JP2019153235A (ja) 2018-03-06 2019-09-12 株式会社東芝 物体領域識別装置、物体領域識別方法およびプログラム
WO2019180414A1 (en) 2018-03-20 2019-09-26 University Of Essex Enterprises Limited Localisation, mapping and network training
JP2019207561A (ja) 2018-05-29 2019-12-05 日鉄ソリューションズ株式会社 情報処理装置、情報処理方法及びプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KERVADEC, Hoel et al.,"Constrained-CNN Losses for Weakly Supervised Segmentation",[online],2019年02月08日,arXiv:1805.04628v2
PAPANDREOU, George et al.,"Weakly- and Semi-Supervised Learning of a Deep Convolutional Network for Semantic Image Segmentatio,[online],2015年10月05日,arXiv:1502.02734v3

Also Published As

Publication number Publication date
US20230230247A1 (en) 2023-07-20
WO2022070574A1 (ja) 2022-04-07
JPWO2022070574A1 (ja) 2022-04-07

Similar Documents

Publication Publication Date Title
US11813047B2 (en) Automatic quantification of cardiac MRI for hypertrophic cardiomyopathy
US10147185B2 (en) Interactive segmentation
CN110766730B (zh) 图像配准及随访评估方法、存储介质及计算机设备
JP2016531709A (ja) 疾患を診断するための画像解析技術
Beichel et al. Liver segment approximation in CT data for surgical resection planning
Shariaty et al. Texture appearance model, a new model-based segmentation paradigm, application on the segmentation of lung nodule in the CT scan of the chest
US20220020152A1 (en) Apparatus for identifying regions in a brain image
KR102119057B1 (ko) 골절 진단모델의 학습 방법 및 장치
JP2011526508A (ja) 医療用画像の領域分割
RU2752690C2 (ru) Обнаружение изменений на медицинских изображениях
CN114332132A (zh) 图像分割方法、装置和计算机设备
KR101892949B1 (ko) 복부 컴퓨터단층촬영 영상에서 다중 아틀라스 기반 형상 및 밝기값 정보를 이용한 계층적 장기 분할 방법 및 장치
US12100140B2 (en) Information processing apparatus, information processing method, and information processing program
Fontanella et al. Diffusion models for counterfactual generation and anomaly detection in brain images
JP7430815B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Delmoral et al. Segmentation of pathological liver tissue with dilated fully convolutional networks: A preliminary study
KR102580749B1 (ko) 의료영상의 화질평가 방법 및 장치
Huang et al. Diseased region detection of longitudinal knee magnetic resonance imaging data
Benrabha et al. Automatic ROI detection and classification of the achilles tendon ultrasound images
Mansoor et al. Near-optimal keypoint sampling for fast pathological lung segmentation
JP7542639B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Piedra et al. Assessing variability in brain tumor segmentation to improve volumetric accuracy and characterization of change
US20240331335A1 (en) Image processing apparatus, image processing method, and image processing program
Suganyadevi et al. SEGMENTATION OF KIDNEY STONE REGION IN ULTRA SOUND IMAGEBY USING REGION PARTITION AND MOUNTING SEGMENTATION ALGORITHM (RPM)
Ramos Analysis of medical images to support decision-making in the musculoskeletal field

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240131

R150 Certificate of patent or registration of utility model

Ref document number: 7430815

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150