WO2022070573A1 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2022070573A1
WO2022070573A1 PCT/JP2021/027589 JP2021027589W WO2022070573A1 WO 2022070573 A1 WO2022070573 A1 WO 2022070573A1 JP 2021027589 W JP2021027589 W JP 2021027589W WO 2022070573 A1 WO2022070573 A1 WO 2022070573A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
learning
calculated
probability
information processing
Prior art date
Application number
PCT/JP2021/027589
Other languages
English (en)
French (fr)
Inventor
朗子 流石
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2022553497A priority Critical patent/JPWO2022070573A1/ja
Publication of WO2022070573A1 publication Critical patent/WO2022070573A1/ja
Priority to US18/186,220 priority patent/US20230230245A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus for radiation diagnosis, e.g. combined with radiation therapy equipment
    • A61B6/02Devices for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computerised tomographs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

第1の領域及び第1の領域の少なくとも一部を包含する第2の領域をそれぞれ含む複数の学習用画像の各々に、第1の領域及び第2の領域が存在する範囲を示す範囲情報を付与した複数の学習用データを取得する。学習用画像の各画素について、当該画素が第1の領域の第2の領域に包含されていない部分である確率を、推定モデルを用いて算出する。複数の学習用画像の各々について上記の確率の和である確率和を算出する。第1の領域が第2の領域に包含されていない部分を有する学習用画像の各々について算出される確率和が大きくなり且つ第1の領域が第2の領域に包含されていない部分を有さない学習用画像の各々について算出される確率和がゼロになるように推定モデルを学習させる。

Description

情報処理装置、情報処理方法及び情報処理プログラム
 開示の技術は情報処理装置、情報処理方法及び情報処理プログラムに関する。
 画像中に含まれる物体が何であるかを、画素単位で認識するセグメンテーションに関する技術として、以下の技術が知られている。
 例えば、特開2017-049891号公報には、画像に含まれる対象物体の領域を特定する方法が記載されている。この方法は、下記の処理を含む。複数の画像の各々から対象物体の候補領域を抽出する。抽出された候補領域の各々から特徴量を抽出し、同じ画像から抽出された候補領域のペアの各々に対し、候補領域間の重複度を算出する。候補領域の集合から抽出された部分集合である物体領域集合に基づいて、対象物体を表すか否かを識別するためのモデルを推定する。候補領域の各々に対して抽出された特徴量と、候補領域のペアの各々に対して算出された重複度と、推定されたモデルとに基づいて、物体領域集合に含まれる同じ画像における候補領域間の重複度合いを表す関数を含む目的関数を最適化するように、候補領域の集合から物体領域集合を抽出する。
 機械学習によって学習された推定モデルを用いた画像認識技術の医療分野での活用例として、画像診断支援が知られている。例えば、直腸がんでは、がんが腸管の内腔から発生し、進行するにつれて外側の組織へと浸潤する。がんが周辺組織にまで浸潤しているか否かで治療方針や手術で切除する領域が変わる。このため手術前の診断では、がん領域と周辺組織領域との包含関係を知ることが重要である。MRI(Magnetic Resonance Imaging)画像及びCT(Computed Tomography)画像等の医療用画像からがん領域と周辺組織領域との包含関係を特定することは、専門性が必要とされ、作業負担が大きい。このため、機械学習によって学習されたニューラルネットワーク等の推定モデルを用いて、周辺組織へのがんの浸潤の有無を適切に判定し、浸潤が認められる場合には浸潤している範囲を正しく可視化することが求められている。
 ここで、図1Aは、領域101及び領域102の包含関係が、完全包含関係にある状態の一例を示す図である。本明細書において、「完全包含関係」とは、一方の領域の全ての部分が他方の領域に包含されている関係をいう。図1Bは、領域101及び領域102の包含関係が一部包含関係の状態の一例を示す図である。本明細書において「一部包含関係」とは、一方の領域の一部分のみが他方の領域に包含されている関係をいう。すなわち、2つの領域が一部包含関係にある場合、一方の領域は、他方の領域に包含されていない部分を有することになる。
 図2A及び図2Bは、それぞれ直腸がんの症例を示す断層画像である。これらの断層画像には、がん領域201、固有筋層領域202及び直腸間膜領域203が含まれている。図2Aは、がん領域201と固有筋層領域202とが完全包含関係にある症例、すなわち、がん領域201が直腸間膜領域203に浸潤していない初期のがんの症例である。図2Bは、がん領域201と固有筋層領域202とが一部包含関係にある症例、すなわち、がん領域201が直腸間膜領域203に浸潤している進行したがんの症例である。
 推定モデルを用いて、がん領域201の直腸間膜領域203への浸潤の有無を適切に判定し、浸潤が認められる場合には浸潤している範囲を正しく可視化するためには、推定モデルが、セグメンテーションの対象となるがん領域201と固有筋層領域202との包含関係を適切に特定しつつ、これらの領域のセグメンテーションを適切に行うことが必要となる。
 開示の技術は、上記の点に鑑みてなされたものであり、推定モデルが、セグメンテーションの対象となる複数の領域について、包含関係を適切に特定しつつセグメンテーションを適切に行うように、推定モデルを学習させることを目的とする。
 開示の技術に係る情報処理装置は、少なくとも1つのプロセッサを備える。プロセッサは、第1の領域及び第1の領域の少なくとも一部を包含する第2の領域をそれぞれ含む複数の学習用画像の各々に、第1の領域及び第2の領域が存在する範囲を示す範囲情報を付与した複数の学習用データを取得する。プロセッサは、学習用画像の各画素について、当該画素が第1の領域の第2の領域に包含されていない部分である確率を、推定モデルを用いて算出し、複数の学習用画像の各々について上記の確率の和である確率和を算出する。プロセッサは、第1の領域が第2の領域に包含されていない部分を有する学習用画像の各々について算出される確率和が大きくなり且つ第1の領域が第2の領域に包含されていない部分を有さない学習用画像の各々について算出される確率和がゼロとなるように推定モデルを学習させる。
 プロセッサは、第1の領域が第2の領域に包含されていない部分を有する学習用画像の各々について算出される確率和の平均値である第1の平均値を分母に含み、第1の領域が第2の領域に包含されていない部分を有さない学習用画像の各々について算出される確率和の平均値である第2の平均値を分子に含む評価値を要素の1つとして含む損失が小さくなるように推定モデルを学習させてもよい。
 評価値をE1、第1の平均値をA1、第2の平均値をA2、所定の定数をα及びβとしたとき、下記の(I)式を満たし得る。
E1=(A2+α)/(A1+A2+β) ・・・(I)
 推定モデルが、学習用画像の各画素について、当該画素が第1の領域である確率P及び当該画素が第2の領域である確率Pを算出し、当該画素が第1の領域の第2の領域に包含されていない部分である確率としてP×(1-P)を算出してもよい。
 学習用画像が医療用画像であってもよい。この場合、第1の領域が病変領域であり、第2の領域が病変領域の少なくとも一部を包含する生体組織領域であってもよい。
 プロセッサは、第1の領域及び第2の領域を含む対象画像を取得し、推定モデルを用いて、第1の領域、第2の領域及び第1の領域の第2の領域に包含されていない部分のうちの少なくとも1つを特定し、特定した領域又は部分を識別可能に表示する制御を行ってもよい。
 上記の確率和に代えて、第1の領域の第2の領域に包含されていない部分である確率が閾値以上である画素の数を用いることが可能である。
 開示の技術に係る情報処理方法は、第1の領域及び第1の領域の少なくとも一部を包含する第2の領域をそれぞれ含む複数の学習用画像の各々に、第1の領域及び第2の領域が存在する範囲を示す範囲情報を付与した複数の学習用データを取得し、学習用画像の各画素について、当該画素が第1の領域の第2の領域に包含されていない部分である確率を、推定モデルを用いて算出し、複数の学習用画像の各々について上記の確率の和である確率和を算出し、第1の領域が第2の領域に包含されていない部分を有する学習用画像の各々について算出される確率和が大きくなり且つ第1の領域が第2の領域に包含されていない部分を有さない学習用画像の各々について算出される確率和がゼロになるように推定モデルを学習させる処理を、情報処理装置が備える少なくとも1つのプロセッサが実行する、というものである。
 開示の技術に係る情報処理プログラムは、第1の領域及び第1の領域の少なくとも一部を包含する第2の領域をそれぞれ含む複数の学習用画像の各々に、第1の領域及び第2の領域が存在する範囲を示す範囲情報を付与した複数の学習用データを取得し、学習用画像の各画素について、当該画素が第1の領域の第2の領域に包含されていない部分である確率を、推定モデルを用いて算出し、複数の学習用画像の各々について上記の確率の和である確率和を算出し、第1の領域が第2の領域に包含されていない部分を有する学習用画像の各々について算出される確率和が大きくなり且つ第1の領域が第2の領域に包含されていない部分を有さない学習用画像の各々について算出される確率和がゼロになるように推定モデルを学習させる処理を、情報処理装置が備える少なくとも1つのプロセッサに実行させるためのプログラムである。
 開示の技術によれば、推定モデルが、セグメンテーションの対象となる複数の領域について、包含関係を適切に特定しつつセグメンテーションを適切に行うように、推定モデルを学習させることが可能となる。
複数の領域が完全包含関係にある場合を示す図である。 複数の領域が一部包含関係にある場合を示す図である。 直腸がんの症例を示す断層画像である。 直腸がんの症例を示す断層画像である。 開示の技術の実施形態に係る情報処理装置の学習フェーズにおける機能的な構成の一例を示す図である。 開示の技術の実施形態に係る学習用データの一例を示す図である。 開示の技術の実施形態に係る情報処理装置の運用フェーズにおける機能的な構成の一例を示す図である。 開示の技術の実施形態に係る情報処理装置における表示制御の一例を示す図である。 開示の技術の実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。 開示の技術の実施形態に係る学習処理の流れの一例を示すフローチャートである。 図9は、開示の技術の実施形態に係る画像認識処理の流れの一例を示すフローチャートである。
 以下、開示の技術の実施形態の一例を、図面を参照しつつ説明する。なお、各図面において同一または等価な構成要素及び部分には同一の参照符号を付与し、重複する説明は適宜省略する。
 図3は、開示の技術の実施形態に係る情報処理装置10の学習フェーズにおける機能的な構成の一例を示す図である。情報処理装置10は、学習フェーズにおいて、機械学習によって推定モデル30を学習させる処理を行う。情報処理装置10は、推定モデル30が、処理対象の画像(以下、対象画像という)に含まれる複数の領域の包含関係を適切に特定しつつ複数の領域のセグメンテーションを適切に行うように、推定モデル30を学習させる。情報処理装置10は、取得部11、学習部12及び記憶部43を備える。記憶部43には、複数の学習用データ20及び推定モデル30が記憶されている。
 取得部11は、記憶部43に記憶されている複数の学習用データ20を取得する。図4は、学習用データ20の一例を示す図である。学習用データ20は、完全包含関係又は一部包含関係を有する複数の領域を含む学習用画像21に、各領域が存在する範囲を示す範囲情報22を正解マスクとして付与したデータである。
 図4には、医療用画像である直腸がんの症例を示す断層画像を学習用画像21として用いた場合が例示されている。学習用画像21には、がん領域201、固有筋層領域202及び直腸間膜領域203が含まれている。がん領域201及び固有筋層領域202は、完全包含関係又は一部包含関係を有する。なお、がん領域201は、開示の技術における第1の領域の一例であり、固有筋層領域202は開示の技術における第2の領域の一例である。
 学習用データ20は、がん領域201が存在する範囲を示す範囲情報22A、固有筋層領域202が存在する範囲を示す範囲情報22B、直腸間膜領域203が存在する範囲を示す範囲情報22Cを正解マスクとして学習用画像21に付与したデータである。学習用画像21に含まれるがん領域201と固有筋層領域202との包含関係が完全包含関係である場合、範囲情報22Aによって示されるがん領域が存在する範囲の全てが、範囲情報22Bによって示される固有筋層領域が存在する範囲内に含まれることになる。一方、学習用画像21に含まれるがん領域201と固有筋層領域202との包含関係が一部包含関係である場合、範囲情報22Aによって示されるがん領域が存在する範囲の一部が、範囲情報22Bによって示される固有筋層領域が存在する範囲内に含まれないことになる。また、学習用画像21において、がん領域201の固有筋層領域202内に包含されている部分の各画素には、これらの領域の双方が正解として割り当てられることになる。
 学習用データ20は、完全包含関係を有する複数の領域を含む学習用画像21及び一部包含関係を有する複数の領域を含む学習用画像21の双方を含んで構成されている。
 学習部12は、取得部11が取得した学習用データ20を用いて推定モデル30を学習させる。推定モデル30は、複数の領域を含む対象画像について、画素(ボクセル又はピクセル)単位でセグメンテーションを行うように構築された数理モデルである。推定モデル30は、対象画像に含まれる複数の領域の包含関係を特定しつつセグメンテーションを行う。すなわち、推定モデル30は、ある領域が他の領域に包含されている部分の画素に対して、複数の領域を割り当てる。推定モデル30は、例えばニューラルネットワークを構成するものであってもよい。
 学習部12は、学習用画像21の各画素について、当該画素ががん領域201の固有筋層領域202に包含されていない部分である確率Pを、推定モデル30を用いて算出する。がん領域201の固有筋層領域202に包含されていない部分は、直腸間膜領域203に浸潤したがん領域又は直腸間膜領域203を越えて更に外側にまで浸潤したがん領域である。学習部12は、確率Pの算出を例えば以下のようにして行う。
 学習部12は、取得部11が取得した学習用画像21を推定モデル30に入力する。推定モデル30は、入力された学習用画像21について画素毎にセグメンテーションを行う。具体的には、推定モデル30は、学習用画像21の各画素について、当該画素ががん領域201である確率P及び当該画素が固有筋層領域202である確率Pを算出する。推定モデル30は、更に、学習用画像21の各画素について、当該画素ががん領域201の固有筋層領域202に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)である確率PとしてP×(1-P)を算出する。すなわち、確率Pは、がん領域201であり且つ固有筋層領域202でない確率として算出される。推定モデル30は、複数の学習用画像21の各々の各画素について、確率P、P、及びPを算出する。
 学習部12は、複数の学習用画像21の各々について、確率Pの和である確率和ΣPを算出する。確率和ΣPは、当該学習用画像21における、がん領域201の固有筋層領域202に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)の体積(又は面積)に応じた値となる。推定モデル30が理想的である場合、がん領域201及び固有筋層領域202の包含関係が一部包含関係である学習用画像21について算出される確率和ΣPはゼロよりも大きい比較的大きな値となるはずである。また、がん領域201及び固有筋層領域202の包含関係が完全包含関係である学習用画像21について算出される確率和ΣPはゼロとなるはずである。そこで学習部12は、がん領域201及び固有筋層領域202の包含関係が一部包含関係である学習用画像21の各々について算出される確率和ΣPがゼロよりも大きい比較的大きな値となり、がん領域201及び固有筋層領域202の包含関係が完全包含関係である学習用画像21について算出される確率和ΣPがゼロになるように推定モデル30を学習させる。
 具体的には、学習部12は、下記の(1)式によって示される評価値E1を要素の1つとして含む損失Lが小さくなるように推定モデル30を学習させる。(1)式において、A1は、がん領域201及び固有筋層領域202の包含関係が一部包含関係である学習用画像21の各々について算出される確率和ΣPの平均値であり、A2は、がん領域201及び固有筋層領域202の包含関係が完全包含関係である学習用画像21の各々について算出される確率和ΣPの平均値であり、α及びβは定数である。αとβは同じ値であってもよい。平均値A1は、がん領域201及び固有筋層領域202の包含関係が一部包含関係である学習用画像21の各々について算出される確率和ΣPの合計値を、これらの画像の枚数で除算した値を用いることができる。平均値A2は、がん領域201及び固有筋層領域202の包含関係が完全包含関係である学習用画像21の各々について算出される確率和ΣPの合計値を、これらの画像の枚数で除算した値を用いることができる。なお、平均値A1は、開示の技術における第1の平均値の一例であり、平均値A2は、開示の技術における第2の平均値の一例である。
E1=(A2+α)/(A1+A2+β) ・・・(1)
 下記の(2)式は、(1)式によって示される評価値E1を要素の1つとして含む損失Lの一例である。(2)式において、評価値E2は、損失Lの他の要素であり、W1は評価値E1に対する重み定数であり、W2は評価値E2に対する重み定数である。評価値E1は、主として領域間の包含関係の推定精度を向上させる役割を担い、評価値E2は、主としてセグメンテーションの精度を向上させる役割を担う。
L=E1×W1+E2×W2 ・・・(2)
 下記の(3)式は、評価値E2の一例である。(3)式に示すように、評価値E2としてsoft dice lossを用いることができる。(3)式において、Gは範囲情報22Aに基づく画素毎の正解値であり、がん領域201である画素について1が付与され、がん領域201ではない画素について0が付与される。Pは、推定モデル30によって算出される、当該画素ががん領域201である確率である。Gは範囲情報22Bに基づく画素毎の正解値であり、固有筋層領域202である画素について1が付与され、固有筋層領域202ではない画素について0が付与される。Pは、推定モデル30によって算出される、当該画素が固有筋層領域202である確率である。Gは範囲情報22Cに基づく画素毎の正解値であり、直腸間膜領域203である画素について1が付与され、直腸間膜領域203ではない画素について0が付与される。Pは、推定モデル30によって算出される、当該画素が直腸間膜領域203である確率である。γ、δ及びεは、それぞれ、各クラス(がん領域201、固有筋層領域202及び直腸間膜領域203)に対する重み定数である。なお、評価値E2については、(3)式によって示されるsoft dice lossに限らず、セグメンテーション精度の向上に寄与する他のものを用いることも可能である。
Figure JPOXMLDOC01-appb-M000001
 学習用画像21に含まれるがん領域201及び固有筋層領域202の包含関係が、完全包含関係であるか一部包含関係であるかは、当該学習用画像21に付与された正解マスクとしての範囲情報22A、22Bによって把握することができる。推定モデル30が理想的である場合、平均値A1はゼロよりも大きい比較的大きな値となり、平均値A2はゼロとなるはずである。従って、平均値A1を分母に含み、平均値A2を分子に含む評価値E1を要素の1つとして含む損失Lが小さくなるように推定モデル30を学習させることで、がん領域201及び固有筋層領域202の包含関係を適切に特定しつつこれらの領域のセグメンテーションを適切に行う推定モデル30を構築することができる。
 図5は、情報処理装置10の運用フェーズにおける機能的な構成の一例を示す図である。情報処理装置10は、運用フェーズにおいて、学習済みの推定モデル30を運用して、対象画像に含まれる複数の領域についてセグメンテーションを行う。情報処理装置10は、取得部13、特定部14及び表示制御部15を有する。
 取得部13は、セグメンテーションの対象となる複数の領域を含んだ対象画像を取得する。以下において、対象画像が図4に示す学習用画像21に類似した断層画像であり、対象画像には、がん領域、固有筋層領域及び直腸間膜領域が含まれており、これらの各領域についてセグメンテーションを行う場合を例に説明する。
 特定部14は、取得部13が取得した対象画像を学習済みの推定モデル30に入力する。推定モデル30は、対象画像について画素毎にセグメンテーションを行う。具体的には、推定モデル30は、対象画像の各画素について、当該画素ががん領域である確率P及び当該画素が固有筋層領域である確率Pを算出する。推定モデル30は、更に、対象画像の各画素について、当該画素ががん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)である確率PとしてP×(1-P)を算出する。
 特定部14は、確率Pが所定の閾値以上である画素からなる領域をがん領域であると特定し、確率Pが所定の閾値以上である画素からなる領域を固有筋層領域であると特定する。また、特定部14は、確率P(=P×(1-P))が所定の閾値以上である画素からなる領域を、がん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)であると特定する。
 表示制御部15は、特定部14によって特定された各領域を識別可能に表示する制御を行う。例えば、表示制御部15は、図6に示すように、がん領域、固有筋層領領域及びがん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)が存在する範囲をそれぞれ示す、色分けされたラベル画像を対象画像に重畳して表示する制御を行う。なお、特定部14は、がん領域、固有筋層領域及びがん領域の固有筋層領域に包含されていない部分の少なくとも1つを特定してもよい。この場合、表示制御部15は、特定部14によって特定された領域又は部分を識別可能に表示する制御を行う。
 図7は、情報処理装置10のハードウェア構成の一例を示す図である。情報処理装置10は、CPU(Central Processing Unit)41、一時記憶領域としてのメモリ42、及び不揮発性の記憶部43を備えている。また、情報処理装置10は、液晶ディスプレイ等の表示デバイスによって構成される表示部44、及びキーボード及びマウス等の入力デバイスによって構成される入力部45を備えている。CPU41、メモリ42、記憶部43、表示部44、及び入力部45は、バス46を介して接続されている。
 記憶部43は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等の不揮発性の記憶媒体によって実現される。記憶部43には、学習用データ20、推定モデル30、学習プログラム51、画像認識プログラム52が格納されている。CPU41は、学習プログラム51及び画像認識プログラム52を、メモリ42に展開した後に実行する。CPU41が学習プログラム51を実行することにより、CPU41は、取得部11及び学習部12として機能する。また、CPU41が画像認識プログラム52を実行することにより、CPU41は、取得部13、特定部14及び表示制御部15として機能する。CPU41は、開示の技術におけるプロセッサの一例である。
 図8は、CPU41が、学習プログラム51を実行することにより実施される学習処理の流れの一例を示すフローチャートである。CPU41は、例えば、学習フェーズにおいて、ユーザによって入力部45を介して学習処理の実行指示が入力された場合に学習プログラム51を実行する。
 ステップS1において、取得部11は、記憶部43に記憶されている複数の学習用データ20を取得する。
 ステップS2において、学習部12は、推定モデル30を用いて、複数の学習用画像21の各々の各画素について、当該画素ががん領域201である確率P、当該画素が固有筋層領域202である確率P、当該画素ががん領域201の固有筋層領域202に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)である確率P(=P×(1-P)を算出する。
 ステップS3において、学習部12は、複数の学習用画像21の各々について確率和ΣPを算出する。
 ステップS4において、学習部12は、ステップS3において算出された確率和ΣPに基づいて(1)式によって示される評価値E1を要素の1つとして含む損失Lを算出する。損失Lは、例えば(2)式によって示されるものを使用することが可能であり、評価値E2は、例えば(3)式によって示されるものを使用することが可能である。
 ステップS5において、学習部12は、ステップS4において算出された損失Lが最小となるように、推定モデル30を学習させる。使用する学習用データ20のセットを入れ換えながら、ステップS1~S5の処理を繰り返し実施することで、推定モデル30が最適化される。
 図9は、CPU41が、画像認識プログラム52を実行することにより実施される画像認識処理の流れの一例を示すフローチャートである。CPU41は、例えば、運用フェーズにおいて、ユーザによって入力部45を介して画像認識処理の実行指示が入力された場合に画像認識プログラム52を実行する。
 ステップS11において、取得部13は、対象画像を取得する。ステップS12において、特定部14は、学習済みの推定モデル30を用いて、対象画像の各画素について、当該画素ががん領域である確率P、当該画素が固有筋層領域である確率P、当該画素ががん領域の固有筋層領域に包含されていない部分(直腸間膜領域に浸潤したがん領域)である確率P(=P×(1-P))を算出する。
 ステップS13において、特定部14は、確率Pが所定の閾値以上である画素からなる領域をがん領域であると特定し、確率Pが所定の閾値以上である画素からなる領域を固有筋層領域であると特定する。また、特定部14は、確率P(=P×(1-P))が所定の閾値以上である画素からなる領域を、がん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)であると特定する。
 ステップS14において、表示制御部15は、ステップS13において特定された各領域を識別可能に表示する制御を行う。表示制御部15は、例えば図6に示すように、がん領域、固有筋層領領域及びがん領域の固有筋層領域に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)が存在する範囲をそれぞれ示す、色分けされたラベル画像を対象画像に重畳して表示する制御を表示部44に対して行う。
 以上のように、開示の技術の実施形態に係る情報処理装置10は、推定モデル30を学習させる学習フェーズにおいて、第1の領域(例えばがん領域)及び第1の領域の少なくとも一部を包含する第2の領域(例えば固有筋層領域)をそれぞれ含む複数の学習用画像21の各々に、第1の領域及び第2の領域が存在する範囲を示す範囲情報22A、22Bを付与した複数の学習用データ20を取得する。情報処理装置10は、学習用画像21の各画素について、当該画素が第1の領域の第2の領域に包含されていない部分(例えば、がん領域の直腸間膜領域に浸潤した部分)である確率P(=P×(1-P))を、推定モデル30を用いて算出する。情報処理装置10は、複数の学習用画像21の各々について確率Pの和である確率和ΣPを算出する。情報処理装置10は、第1の領域が第2の領域に包含されていない部分を有する(すなわち、第1の領域及び第2の領域の包含関係が一部包含関係である)学習用画像21の各々について算出される確率和ΣPが大きくなり且つ第1の領域が第2の領域に包含されていない部分を有さない(すなわち、第1の領域及び第2の領域の包含関係が完全包含関係である)学習用画像21の各々について算出される確率和ΣPがゼロになるように推定モデル30を学習させる。
 情報処理装置10が、上記のように推定モデル30を学習させることで、推定モデル30は、対象画像に含まれる複数の領域について、包含関係を適切に特定しつつセグメンテーションを適切に行うことが可能となる。特に、確率Pの要素を含む評価値E1を用いることで、特異度(一部包含関係ではない症例について、一部包含関係ではないものとして正しく判定する確率)を向上させることができる。
 また、開示の技術の実施形態に係る情報処理装置10は、学習済みの推定モデル30を運用する運用フェーズにおいて、第1の領域及び第2の領域を含む対象画像を取得し、学習済みの推定モデル30を用いて、第1の領域、第2の領域及び第1の領域の第2の領域に包含されていない部分のうちの少なくとも1つを特定し、特定した領域又は部分を識別可能に表示する制御を行う。これにより、例えば、がん領域の周辺組織への浸潤の有無及び浸潤している範囲を可視化することが可能となる。
 なお、以上の説明では、医療用画像に含まれるがん領域及び固有筋層領域についてセグメンテーションを行う場合を例示したが、がん領域以外の病変領域及び固有筋層領域以外の生体組織領域についてセグメンテーションを行う場合にも開示の技術を適用することが可能である。また、対象画像が医療用画像である場合を例示したが、これに限定されるものではない。例えば、顕微鏡画像及び製造ラインの検査工程で用いられる検査画像等に含まれる複数の領域についてセグメンテーションを行う場合に開示の技術を適用することも可能である。
 また、推定モデル30の学習に用いる評価値として、確率和ΣPに基づいて算出される評価値を用いる場合を例示したが、この態様に限定されない。確率和ΣPに代えて、確率Pが閾値以上である画素数Nを用いることも可能である。画素数Nは、確率和ΣPと同様、がん領域201の固有筋層領域202に包含されていない部分(がん領域の直腸間膜領域に浸潤した部分)の体積(又は面積)に応じた値となる。画素数Nを用いる場合、学習部12は、下記の(4)式によって示される評価値E1´を要素の1つとして含む損失Lが小さくなるように推定モデル30を学習させる。(4)式において、N1は、例えば、がん領域201及び固有筋層領域202の包含関係が一部包含関係である学習用画像21の各々について算出される画素数Nの平均値であり、N2は、がん領域201及び固有筋層領域202の包含関係が完全包含関係である学習用画像21の各々について算出される上記画素数Nの平均値であり、α及びβは定数である。αとβは同じ値であってもよい。
E1´=(N2+α)/(N1+N2+β) ・・・(4)
 上記の実施形態において、例えば、取得部11、学習部12、取得部13、特定部14及び表示制御部15といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 また、上記実施形態では、学習プログラム51及び画像認識プログラム52が記憶部43に予め記憶(インストール)されている態様を説明したが、これに限定されない。学習プログラム51及び画像認識プログラム52は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、学習プログラム51及び画像認識プログラム52は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 なお、2020年9月29日に出願された日本国特許出願2020-163871の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願、および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (9)

  1.  少なくとも1つのプロセッサを備えた情報処理装置であって、
     前記プロセッサは、
     第1の領域及び前記第1の領域の少なくとも一部を包含する第2の領域をそれぞれ含む複数の学習用画像の各々に、前記第1の領域及び前記第2の領域が存在する範囲を示す範囲情報を付与した複数の学習用データを取得し、
     前記学習用画像の各画素について、当該画素が前記第1の領域の前記第2の領域に包含されていない部分である確率を、推定モデルを用いて算出し、
     前記複数の学習用画像の各々について前記確率の和である確率和を算出し、
     前記第1の領域が前記第2の領域に包含されていない部分を有する学習用画像の各々について算出される前記確率和が大きくなり且つ前記第1の領域が前記第2の領域に包含されていない部分を有さない学習用画像の各々について算出される前記確率和がゼロとなるように前記推定モデルを学習させる
     情報処理装置。
  2.  前記プロセッサは、
     前記第1の領域が前記第2の領域に包含されていない部分を有する学習用画像の各々について算出される前記確率和の平均値である第1の平均値を分母に含み、前記第1の領域が前記第2の領域に包含されていない部分を有さない学習用画像の各々について算出される前記確率和の平均値である第2の平均値を分子に含む評価値を要素の1つとして含む損失が小さくなるように前記推定モデルを学習させる
     請求項1に記載の情報処理装置。
  3.  前記評価値をE1、前記第1の平均値をA1、前記第2の平均値をA2、所定の定数をα及びβとしたとき、下記の(I)式を満たす
     請求項2に記載の情報処理装置。
     E1=(A2+α)/(A1+A2+β) ・・・(I)
  4.  前記推定モデルが、前記学習用画像の各画素について、当該画素が前記第1の領域である確率P及び当該画素が前記第2の領域である確率Pを算出し、当該画素が前記第1の領域の前記第2の領域に包含されていない部分である確率としてP×(1-P)を算出する
     請求項1から請求項3のいずれか1項に記載の情報処理装置。
  5.  前記学習用画像が医療用画像であり、
     前記第1の領域が病変領域であり、前記第2の領域が前記病変領域の少なくとも一部を包含する生体組織領域である
     請求項1から請求項4のいずれか1項に記載の情報処理装置。
  6.  前記プロセッサは、
     前記第1の領域及び前記第2の領域を含む対象画像を取得し、
     前記推定モデルを用いて、前記第1の領域、前記第2の領域及び前記第1の領域の前記第2の領域に包含されていない部分のうちの少なくとも1つを特定し、
     特定した領域又は部分を識別可能に表示する制御を行う
     請求項1から請求項5のいずれか1項に記載の情報処理装置。
  7.  前記確率和に代えて、前記第1の領域の前記第2の領域に包含されていない部分である確率が閾値以上である画素の数を用いる
     請求項1から請求項6のいずれか1項に記載の情報処理装置。
  8.  第1の領域及び前記第1の領域の少なくとも一部を包含する第2の領域をそれぞれ含む複数の学習用画像の各々に、前記第1の領域及び前記第2の領域が存在する範囲を示す範囲情報を付与した複数の学習用データを取得し、
     前記学習用画像の各画素について、当該画素が前記第1の領域の前記第2の領域に包含されていない部分である確率を、推定モデルを用いて算出し、
     前記複数の学習用画像の各々について前記確率の和である確率和を算出し、
     前記第1の領域が前記第2の領域に包含されていない部分を有する学習用画像の各々について算出される前記確率和が大きくなり且つ前記第1の領域が前記第2の領域に包含されていない部分を有さない学習用画像の各々について算出される前記確率和がゼロとなるように前記推定モデルを学習させる
     処理を、情報処理装置が備える少なくとも1つのプロセッサが実行する情報処理方法。
  9.  第1の領域及び前記第1の領域の少なくとも一部を包含する第2の領域をそれぞれ含む複数の学習用画像の各々に、前記第1の領域及び前記第2の領域が存在する範囲を示す範囲情報を付与した複数の学習用データを取得し、
     前記学習用画像の各画素について、当該画素が前記第1の領域の前記第2の領域に包含されていない部分である確率を、推定モデルを用いて算出し、
     前記複数の学習用画像の各々について前記確率の和である確率和を算出し、
     前記第1の領域が前記第2の領域に包含されていない部分を有する学習用画像の各々について算出される前記確率和が大きくなり且つ前記第1の領域が前記第2の領域に包含されていない部分を有さない学習用画像の各々について算出される前記確率和がゼロとなるように前記推定モデルを学習させる
     処理を、情報処理装置が備える少なくとも1つのプロセッサに実行させるための情報処理プログラム。
PCT/JP2021/027589 2020-09-29 2021-07-26 情報処理装置、情報処理方法及び情報処理プログラム WO2022070573A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022553497A JPWO2022070573A1 (ja) 2020-09-29 2021-07-26
US18/186,220 US20230230245A1 (en) 2020-09-29 2023-03-20 Information processing apparatus, information processing method, and information processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-163871 2020-09-29
JP2020163871 2020-09-29

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/186,220 Continuation US20230230245A1 (en) 2020-09-29 2023-03-20 Information processing apparatus, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
WO2022070573A1 true WO2022070573A1 (ja) 2022-04-07

Family

ID=80951291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027589 WO2022070573A1 (ja) 2020-09-29 2021-07-26 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US20230230245A1 (ja)
JP (1) JPWO2022070573A1 (ja)
WO (1) WO2022070573A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160640A (ja) * 2009-01-07 2010-07-22 Seiko Epson Corp 画像処理装置、プリンター、画像処理方法および画像処理プログラム
JP2014071832A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 物体検出装置及びその検出方法
WO2019078154A1 (ja) * 2017-10-18 2019-04-25 株式会社ニコン 画像処理装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
WO2019159440A1 (ja) * 2018-02-14 2019-08-22 株式会社イシダ 検査装置
JP2020086545A (ja) * 2018-11-15 2020-06-04 トヨタ自動車株式会社 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010160640A (ja) * 2009-01-07 2010-07-22 Seiko Epson Corp 画像処理装置、プリンター、画像処理方法および画像処理プログラム
JP2014071832A (ja) * 2012-10-01 2014-04-21 Toshiba Corp 物体検出装置及びその検出方法
WO2019078154A1 (ja) * 2017-10-18 2019-04-25 株式会社ニコン 画像処理装置、顕微鏡システム、画像処理方法、及び画像処理プログラム
WO2019159440A1 (ja) * 2018-02-14 2019-08-22 株式会社イシダ 検査装置
JP2020086545A (ja) * 2018-11-15 2020-06-04 トヨタ自動車株式会社 物体検出装置、物体検出方法及び物体検出用コンピュータプログラム

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHATTERJEE CHANDRA CHURH; KRISHNA GOPAL: "A Novel method for IDC Prediction in Breast Cancer Histopathology images using Deep Residual Neural Networks", 2019 2ND INTERNATIONAL CONFERENCE ON INTELLIGENT COMMUNICATION AND COMPUTATIONAL TECHNIQUES (ICCT), IEEE, 28 September 2019 (2019-09-28), pages 95 - 100, XP033694822, DOI: 10.1109/ICCT46177.2019.8969037 *
HAN LE; RAJARSI GUPTA; LE HOU; SHAHIRA ABOUSAMRA; DANIELLE FASSLER; TAHSIN KURC; DIMITRIS SAMARAS; REBECCA BATISTE; TIANHAO ZHAO; : "Utilizing Automated Breast Cancer Detection to Identify Spatial Distributions of Tumor Infiltrating Lymphocytes in Invasive Breast Cancer", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 26 May 2019 (2019-05-26), 201 Olin Library Cornell University Ithaca, NY 14853 , XP081576916 *

Also Published As

Publication number Publication date
US20230230245A1 (en) 2023-07-20
JPWO2022070573A1 (ja) 2022-04-07

Similar Documents

Publication Publication Date Title
Mazurowski et al. Deep learning in radiology: An overview of the concepts and a survey of the state of the art with focus on MRI
Deniz et al. Segmentation of the proximal femur from MR images using deep convolutional neural networks
Cerri et al. A contrast-adaptive method for simultaneous whole-brain and lesion segmentation in multiple sclerosis
WO2019238804A1 (en) Localization and classification of abnormalities in medical images
Buda et al. Deep learning-based segmentation of nodules in thyroid ultrasound: improving performance by utilizing markers present in the images
Brugnara et al. Automated volumetric assessment with artificial neural networks might enable a more accurate assessment of disease burden in patients with multiple sclerosis
Galimzianova et al. Stratified mixture modeling for segmentation of white-matter lesions in brain MR images
El Adoui et al. A PRM approach for early prediction of breast cancer response to chemotherapy based on registered MR images
Chang et al. Quantitative diagnosis of rotator cuff tears based on sonographic pattern recognition
Huang et al. A liver fibrosis staging method using cross-contrast network
Xia et al. Automatic paraspinal muscle segmentation in patients with lumbar pathology using deep convolutional neural network
Ryalat et al. Harris hawks optimization for COVID-19 diagnosis based on multi-threshold image segmentation
Yao et al. A deep adversarial model for segmentation-assisted COVID-19 diagnosis using CT images
Dillman et al. Current and emerging artificial intelligence applications for pediatric abdominal imaging
Zhang et al. Confidence-aware cascaded network for fetal brain segmentation on mr images
Anand Kumar et al. Intensity inhomogeneity correction for magnetic resonance imaging of automatic brain tumor segmentation
Delmoral et al. Segmentation of pathological liver tissue with dilated fully convolutional networks: A preliminary study
Mamalakis et al. Artificial Intelligence framework with traditional computer vision and deep learning approaches for optimal automatic segmentation of left ventricle with scar
WO2022070573A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Luong et al. A computer-aided detection to intracranial hemorrhage by using deep learning: a case study
WO2022070574A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
Erickson Artificial intelligence in medicine: Technical basis and clinical applications
Gonçalves et al. Radiomics in head and neck cancer
Piedra et al. Assessing variability in brain tumor segmentation to improve volumetric accuracy and characterization of change
Friedberger et al. A new method for quantitative assessment of hand muscle volume and fat in magnetic resonance images

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21874877

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022553497

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21874877

Country of ref document: EP

Kind code of ref document: A1