JP2021056571A - 情報処理装置、情報処理システム、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理システム、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2021056571A
JP2021056571A JP2019176544A JP2019176544A JP2021056571A JP 2021056571 A JP2021056571 A JP 2021056571A JP 2019176544 A JP2019176544 A JP 2019176544A JP 2019176544 A JP2019176544 A JP 2019176544A JP 2021056571 A JP2021056571 A JP 2021056571A
Authority
JP
Japan
Prior art keywords
information processing
unit
feature amount
processing device
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019176544A
Other languages
English (en)
Inventor
達也 原田
Tatsuya Harada
達也 原田
修輔 高濱
Shusuke TAKAHAMA
修輔 高濱
優介 黒瀬
Yusuke Kurose
優介 黒瀬
喜連川 優
Masaru Kiregawa
優 喜連川
正久 深山
Masahisa Miyama
正久 深山
阿部 浩幸
Hiroyuki Abe
浩幸 阿部
昌伸 北川
Masanobu Kitagawa
昌伸 北川
明彦 吉澤
Akihiko Yoshizawa
明彦 吉澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japanese Society Of Pathology
University of Tokyo NUC
Original Assignee
Japanese Society Of Pathology
University of Tokyo NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japanese Society Of Pathology, University of Tokyo NUC filed Critical Japanese Society Of Pathology
Priority to JP2019176544A priority Critical patent/JP2021056571A/ja
Priority to PCT/JP2020/034919 priority patent/WO2021060076A1/ja
Publication of JP2021056571A publication Critical patent/JP2021056571A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

【課題】局所特徴と大域特徴との両方を考慮し、画像を識別する技術を提供すること。【解決手段】本発明の一態様によれば、情報処理装置であって、切り出し部と、特徴量取得部と、生成部と、識別部と、を有し、前記切り出し部は、画像から複数の部分画像を切り出し、前記特徴量取得部は、前記切り出し部によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、前記生成部は、前記特徴量取得部によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、前記複数の部分画像それぞれを識別する、情報処理装置が提供される。【選択図】図1

Description

本発明は、情報処理装置、情報処理システム、情報処理方法及びプログラムに関する。
組織の断片の画像をデジタル化したものはWhole Slide Image(WSI)と言われる。医師の診断を補助し負担を減らすため、WSIに対して深層学習を応用して病理画像の自動診断を実現する研究が行われている。
WSIは高解像度であることが特徴である。WSIの解像度を落とすことなく深層モデルの学習に用いるため、非特許文献1では、WSIをパッチと呼ばれる小画像に分割し、モデルに入力する方法が用いられている。
Le Hou et al. Patch−based convolutional neural network for whole slide tissue image cassification. In CVPR,2016.
しかし、非特許文献1の方法ではパッチサイズに制限された局所的な情報しか考慮することができない問題があった。
本発明は、かかる事情を鑑みてなされたものであり、局所特徴と大域特徴との両方を考慮し、画像を識別する技術を提供することを目的とする。
本発明の一態様によれば、情報処理装置であって、切り出し部と、特徴量取得部と、生成部と、識別部と、を有し、前記切り出し部は、画像から複数の部分画像を切り出し、前記特徴量取得部は、前記切り出し部によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、前記生成部は、前記特徴量取得部によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、前記複数の部分画像それぞれを識別する、情報処理装置が提供される。
本発明の一つによれば、局所特徴と大域特徴との両方を考慮し、画像を識別する技術を提供することができるという有利な効果を奏する。
図1は、情報処理システムのシステム構成の一例を示す図である。 図2は、サーバ装置のハードウェア構成の一例を示す図である。 図3は、サーバ装置の機能構成の一例を示す図である。 図4は、サーバ装置の情報処理の一例を示すアクティビティ図である。 図5は、パイプラインの一例を示す図である。 図6は、特徴マップを作成する際の配置の一例を示す図である。 図7は、実施形態1と等価なモデルの一例を示す図である。 図8は、性能評価の一例を示す図である。
以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
本明細書において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、実施形態1においては様々な情報を取り扱うが、これら情報は、0又は1で構成される2進数のビット集合体として信号値の高低によって表され、広義の回路上で通信・演算が実行されうる。
また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
<実施形態1>
1.システム構成
図1は、情報処理システムのシステム構成の一例を示す図である。情報処理システムは、サーバ装置100と、クライアント装置110と、を含む。サーバ装置100は、ネットワーク120を介してクライアント装置110と通信を行う。図1では説明の簡略化のため、1台のクライアント装置110がネットワーク120を介してサーバ装置100に接続されている。しかし、複数のクライアント装置がネットワーク120を介してサーバ装置100に接続されていてもよい。また、サーバ装置100は1台ではなく複数のサーバ装置、いわゆるクラウドとして、構成されてもよい。また、サーバ装置100は、ネットワーク120を介して、他のサーバ装置、システム等と接続されていてもよい。
(処理の概要)
サーバ装置100は、クライアント装置110からの要求等に基づき画像システムよりWSIを受け取ると、WSIから複数の部分画像を切り出し、切り出した複数の部分画像を特徴抽出モデルに入力し、複数の部分画像それぞれに対応する線形の特徴ベクトルを取得する。そして、サーバ装置100は、WSI中の部分画像の位置情報に基づき、特徴ベクトルを並べた特徴マップを生成し、生成した特徴マップをセグメンテーションモデルに入力し、予測マップを出力する。例えば、サーバ装置100は、要求元のクライアント装置110に予測マップを送信する。WSIは、上述したように、組織の断片の画像をデジタル化したものであり、病理画像の一例である。
2.ハードウェア構成
図2は、サーバ装置100のハードウェア構成の一例を示す図である。サーバ装置100は、ハードウェア構成として、制御部201と、記憶部202と、通信部203と、を含む。制御部201は、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)等であって、サーバ装置100の全体を制御したり、画像処理を制御したりする。記憶部202は、HDD(Hard Disk Drive)、ROM(Read Only Memory)、RAM(Random Access Memory)等であって、プログラム及び制御部201がプログラムに基づき処理を実行する際に利用するデータ等を記憶する。制御部201、より具体的にはGPUが、記憶部202に記憶されているプログラムに基づき、処理を実行することによって、後述する図3のサーバ装置100の機能構成及び後述する図4のアクティビティ図の処理が実現される。通信部203は、NIC(Network Interface Card)等であって、サーバ装置100をネットワーク120に接続する。記憶部202は、記憶媒体の一例である。
3.機能構成
図3は、サーバ装置100の機能構成の一例を示す図である。サーバ装置100(情報処理装置)は、機能構成として、切り出し部301と、特徴量取得部302と、生成部303と、識別部304と、出力部305と、学習部306と、を含む。切り出し部301は、WSIから部分画像を切り出す。WSIは、画像の一例である。特徴量取得部302は、切り出し部301によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得する。生成部303は、特徴量取得部302によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成する。識別部304は、特徴量マップをセグメンテーションモデルに入力し、複数の部分画像のそれぞれを識別する。出力部305は、識別部304による識別結果を出力する。学習部306は、ネットワークを学習する。
4.情報処理
図4は、サーバ装置100の情報処理の一例を示すアクティビティ図である。
A401において、切り出し部301は、クライアント装置110からの要求等に基づき画像システムより受け取ったWSIから部分画像を切り出す。
A402において、特徴量取得部302は、切り出し部301によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得する。特徴抽出モデルの一例は、GoogLeNetである。
A403において、生成部303は、特徴量取得部302によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成する。
A404において、識別部304は、特徴量マップをセグメンテーションモデルに入力し、複数の部分画像それぞれが正常か、異常かを識別する。セグメンテーションモデルの一例は、U−Netである。
A405において、出力部305は、識別部304によって正常と識別された部分画像及び識別部304によって異常と識別された部分画像にそれぞれ異なる色を付けた予測マップを識別の結果として出力する。実施形態1の例では、出力部305は、要求元のクライアント装置110に予測マップを送信する。他の例として、サーバ装置100がディスプレイ等の表示部を有していた場合、要求に応じて、出力部305は、予測マップをサーバ装置100のディスプレイに出力してもよい。また、要求に応じて、出力部305は、予測マップを記憶部202、又は外部装置の記憶部等に出力するようにしてもよい。
5.パイプライン
図5は、パイプラインの一例を示す図である。
切り出し部301は、クライアント装置110からの要求等に基づき画像システムより受け取ったWSIから部分画像を切り出す。特徴量取得部302は、切り出し部301によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得する。生成部303は、特徴量取得部302によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成する。識別部304は、特徴量マップをセグメンテーションモデルに入力し、複数の部分画像それぞれが正常か、異常かを識別する。出力部305は、識別部304によって正常と識別された部分画像及び識別部304によって異常と識別された部分画像にそれぞれ異なる色を付けた予測マップを識別の結果として出力する。
なお、他の例として識別部304と、出力部305とは、一体となり、識別部304が、特徴量マップをセグメンテーションモデルに入力し、複数の部分画像それぞれが正常か、異常かを識別し、正常と識別された部分画像及び異常と識別された部分画像に色を付けた予測マップを出力するようにしてもよい。
6.最適化手法
以下、学習部306によるネットワークの最適化手法について2通りの学習方法を説明する。
(1)個別学習
最適化手法の1つ目は、学習部306が特徴抽出モデルとセグメンテーションモデルを別々に学習する方法である。この方法では、学習部306は、まず前半の特徴抽出モデルを学習する。入力はWSIから切り取られた部分画像であり、出力は部分画像が正常か異常かを判定してその確率を表す2次元のベクトルである。訓練データに用いられる部分画像には医師のアノテーションに基づいて正常か異常かの教師ラベルが付されており、出力の2次元ベクトルの各要素は0から1までの値である。学習部306は、この訓練データを用いて性能が安定するまで特徴抽出モデルを学習する。ここで、特徴抽出モデルの性能は訓練データとは別に用意されているテストデータに対する汎化性を調べることによって求められる。
次に、学習部306は、学習が終わった特徴抽出モデルの重みを固定して訓練データ、テストデータすべての部分画像を入力し、識別結果の手前の中間特徴量を抽出する。各部分画像にはWSIの識別情報と座標情報が付随しており、学習部306は、位置情報に基づいて中間特徴量を並べてWSI全体の特徴マップを作成する。なお、セグメンテーションモデルに入力する際は全ての特徴マップが固定次元でなくてはならないが、WSIは大きさが画像によって異なることが想定される。したがって、図6のように、予め十分な0で埋められたマップを用意し、学習部306は、マップの中心にWSIが来るように特徴量を並べることとする。図6ではわかり易さのためWSIを配置しているが、実際に配置されるのは、各部分画像の特徴量ベクトルである。より具体的な例として縦L個、横L個の部分画像分の大きさがあるWSI全体を考える。その中で左からi個目、上からj個目に当たる部分画像を部分画像[i,j]とする。固定長の特徴マップを部分画像特徴量L×L(L>L、L>L)個分の大きさとすると、学習部306は、部分画像[i,j]の特徴量を
Figure 2021056571

となる[i’,j’]の位置に配置することで、全体としての特徴マップの中央に配置する。
また、同時に学習部306は、部分画像のラベル情報を並べた正解マップを作成する。WSI中の組織の全域又は一部分に医師によるアノテーションが付けられているデータセットを想定すると、正解データにおいて定義されるクラスは4つになる。1つ目は正常クラス、2つ目は異常クラス、3つ目はアノテーションが付けられていない組織部分であるラベルなしクラス、4つ目は特徴マップ上で部分画像が存在しない空白エリアである背景クラスである。部分画像の特徴量に対応する位置に、各部分画像に与えられている教師ラベルを入力する。
その後、学習部306は、セグメンテーションモデルを学習する。学習部306は、入力を生成した特徴マップ、教師データを正解マップとして教師あり学習を行う。この際、正しく識別したい対象は4つあるクラスのうち、正常クラス、異常クラスの2つであり、ラベルなしクラスと背景クラスは学習する必要がない。したがって、学習部306は、正常クラス、異常クラスのみに関してモデル更新のための誤差を計算し、その他のクラスに関しては誤差を0とする。学習部306は、このモデルを用いて性能が安定するまで学習を行う。識別性能はテストデータを用いて評価される。その際に、学習部306は、テストデータの識別予想マップを出力する。学習部306は、テストデータは、はじめの特徴抽出モデルを評価した際に用いたものと同じデータを使う。
このパイプラインを全体としてみると、モデル構造は異なるものの本質的にはWSI全体をセグメンテーションしていることと等価であるといえる。具体的には、特徴抽出モデルで畳み込みとプーリング等を行って部分画像サイズの特徴量を取り出し、元のWSIよりも小さいサイズの予想マップを出力している状態と捉えることができる。本来WSI全体をセグメンテーションしようとするとサーバ装置100のGPUのメモリ及び処理時間の制約が大きくなることを考えると、個別学習による最適化手法は、図7に示すように、セグメンテーションのエンコーダの前半部分をはじめに学習して固定した状態と捉えることができる。即ち、WSI全体のセグメンテーションをモデルの一部の勾配を固定することで実現しているといえる。
(2)一括学習
最適化手法の2つ目は、学習部306が特徴抽出モデルからセグメンテーションモデルまでをエンドツーエンドで学習する方法である。各モデルの構造及び学習方法は、個別学習で述べたものと基本的には同じである。
一般的にモデルを2つ以上直列に並べたネットワークでは、1つ目のモデルの出力を2つ目のモデルの入力として、最後の出力からはじめての入力まで一つのモデルで学習するのと同じように誤差を伝播することができる。しかし、実施形態1の条件では、一枚のWSIの特徴量を取り出すために数百から数千の部分画像の情報が必要となる。即ち、後半のセグメンテーションモデルに1つ入力を与えるためには前半の特徴抽出モデルに多い場合で数千の入力を与える必要がある。数千枚の部分画像を一括で入力しようとすると、誤差逆伝播のためにそれら全ての中間層出力を記憶していなければならない。具体的には、ある一枚のWSIから切り出される部分画像をNとし、1部分画像あたりの学習に必要な特徴抽出モデルの消費メモリをMとすると、1枚のWSIをセグメンテーションモデルで学習するために特徴抽出モデルでMNのメモリを消費することになり、これは結局、全WSIを、セグメンテーションモデルを使って学習するのに必要なメモリとほぼ同等であって、一括でWSI1枚分の部分画像を入力することはメモリ容量を考えると現実的ではない。
それを解決するため、WSIを構成する1セットの分割画像を現実的なサイズに分割し、複数回に分けて特徴抽出モデルを更新する。つまり、学習部306は、全部分画像数Nをr個のバッチに分割し順に学習する。このように数回に分けて更新することでメモリ消費量はNM/rとなる。学習部306は、M/rが計算可能なサイズになるようにrを調整する。このことで特徴抽出モデルの学習が可能となる。
特徴抽出モデルを一度に更新しないということは、2つのモデルの間で情報を一度保持しておく構造が必要になる。学習部306は、順計算の際には、個別学習と同じように前半の特徴抽出モデルから出力された中間特徴量を位置情報と共に保持し、特徴マップ上の全ての特徴量が出揃った時点でセグメンテーションモデルに入力する。逆伝播に関して、教師ラベルとの誤差はセグメンテーションモデルの最終出力との間に定義されるので、学習部306は、前半の特徴抽出モデルの勾配も最終誤差を微分して求めなくてはならず、特徴抽出モデルの更新のためにはセグメンテーションモデルから計算された誤差情報を保持して置く必要がある。誤差情報を少ないメモリ消費で保持するため、学習部306は、以下の方法をとる。
モデルに対して誤差Lが定義されたとき、特徴抽出モデルの主にwについて、重みを更新する際の式は、
Figure 2021056571

で表される。ηは学習係数である。
∂L/∂Wを求めることができれば重みを更新し、学習することができるが、特徴抽出モデルのwについてはモデルが別であるため単純には∂L/∂Wを計算できない。
ここで、前半の特徴抽出モデルの出力である中間特徴量をxとすると、連鎖律を用いて∂L/∂Wは、
Figure 2021056571

と書ける。
xはセグメンテーションモデルの入力でもあるので、∂L/∂xは計算することができる。∂L/∂xを使って、特徴抽出モデルの誤差L’を
Figure 2021056571

と改めて定義すれば
Figure 2021056571

として∂L/∂Wを求めることができる。
つまり、学習部306は、後半のセグメンテーションモデルについて∂L/∂xを計算して保持しておき、特徴抽出モデルを学習する際にモデルの出力xと保持していた値との内積をとれば、特徴抽出モデルの誤差と同等のものとして扱うことができる。学習部306は、このようにして特徴抽出モデルを更新することができる。
このように誤差としてセグメンテーションモデルの勾配と特徴抽出モデルの中間特徴量の内積を考えたとき、特徴抽出モデルの出力は部分画像を表す中間特徴量まででよい。したがって、一括学習の際は特徴抽出モデルの最終層は取り除かれている。
一括学習の最適化手順を整理すると次のようになる。
ステップ1:学習部306は、部分画像を入力として特徴抽出モデルを順計算し、部分画像ごとの特徴量を取り出す。学習部306は、取り出した特徴量を、部分画像に与えられている位置情報を基に並べ、WSI全体の特徴マップと正解マップを作成する。
ステップ2:学習部306は、全部分画像の順計算が終わったら、特徴マップと正解マップを用いてセグメンテーションモデルを学習し、更新する。
ステップ3:学習部306は、誤差Lと特徴抽出モデルの出力xを用いて[数4]を計算する。
ステップ4:学習部306は、計算したL’を用いて前半の特徴抽出モデルを学習する。
このような手順を踏むことで2つのモデルをエンドツーエンドで学習させることができる。また全部分画像に対する特徴抽出モデルの中間層出力は数が多すぎて保持できないため、ステップ1では各層の出力は保持せずに特徴量だけを取り出し、ステップ4で改めて現実的なバッチサイズで順計算と誤差逆伝播計算を行っている。このようにしてメモリ消費を抑え、WSI全体のスケールでの学習を実現している。
7.実施形態1の効果
実施形態1で説明した処理の結果を図8に示す。
「識別器のみ」の行は、特徴抽出モデルであるGoogLeNetのみの性能評価を示す。「セグメンテーションのみ」の行は、セグメンテーションモデルのみの性能評価を示す。「最適化手法1:個別学習」の行は、上述した個別学習で学習した実施形態1のパイプラインの性能評価を示す。「最適化手法2:一括学習」の行は、上述した一括学習で学習した実施形態1のパイプラインの性能評価を示す。なお、評価には、識別の正答率とPrecision Reall(PR)曲線のArea Under Curve(AUC)を用いている。
図8に示されるように、「識別器のみ」及び「セグメンテーションのみ」に比べて、実施形態1で説明した「最適化手法1:個別学習」及び「最適化手法2:一括学習」の方が、正答率及びPR−AUCで上回っている。
即ち、実施形態1によれば、GPUのメモリのハードウェア的制約の中で、局所特徴と大域特徴との両方を考慮し、画像を識別する技術を提供することによって、精度の高い識別を行うことができる。
<変形例>
実施形態1では、病理画像を例に説明を行った。しかし、画像は病理画像に限られない。例えば、画像として、航空画像を用い、航空画像について高精度な識別を行うようにしてもよい。上述した処理を実行することにより、航空画像についても精度の高い識別を行うことができる。
また、実施形態1では、情報処理システムは、サーバ装置100と、クライアント装置110と、を含む構成で説明した。しかし、例えば、サーバ装置100の機能をクライアント装置110が単特で有していてもよい。
次に記載の各態様で提供されてもよい。
前記情報処理装置であって、出力部を更に有し、前記出力部は、前記識別部による識別の結果を出力する、情報処理装置。
前記情報処理装置であって、前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像が正常か、異常かを識別する、情報処理装置。
前記情報処理装置であって、前記出力部は、前記識別部によって正常と識別された部分画像及び前記識別部によって異常と識別された部分画像に色を付けた予測マップを前記識別の結果として出力する、情報処理装置。
前記情報処理装置であって、学習部を更に有し、前記学習部は、前記特徴抽出モデルと、前記セグメンテーションモデルと、を別々に学習する、情報処理装置。
前記情報処理装置であって、学習部を更に有し、前記学習部は、前記特徴抽出モデルから前記セグメンテーションモデルまでを一括で学習する、情報処理装置。
前記情報処理装置であって、前記画像は病理画像である、情報処理装置。
前記情報処理装置であって、前記画像は航空画像である、情報処理装置。
情報処理システムであって、切り出し部と、特徴量取得部と、生成部と、識別部と、出力部と、を有し、前記切り出し部は、画像から複数の部分画像を切り出し、前記特徴量取得部は、前記切り出し部によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、前記生成部は、前記特徴量取得部によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像を識別し、前記出力部は、前記識別部による識別の結果を出力する、情報処理システム。
情報処理装置が実行する情報処理方法であって、第1の工程と、第2の工程と、第3の工程と、第4の工程と、を含み、前記第1の工程では、画像から複数の部分画像を切り出し、前記第2の工程では、前記第1の工程において切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、前記第3の工程では、前記第2の工程において取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、前記第4の工程では、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像に対する正常、異常を識別する、情報処理方法。
プログラムであって、コンピュータを、前記情報処理装置の各部として機能させるためのプログラム。
もちろん、この限りではない。
例えば、上述のプログラムを記憶する、コンピュータ読み取り可能な非一時的な記憶媒体として提供してもよい。
最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態やその変形は、発明の範囲や要旨に含まれると共に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
100 :サーバ装置
110 :クライアント装置
120 :ネットワーク
201 :制御部
202 :記憶部
203 :通信部
301 :切り出し部
302 :特徴量取得部
303 :生成部
304 :識別部
305 :出力部
306 :学習部

Claims (11)

  1. 情報処理装置であって、
    切り出し部と、特徴量取得部と、生成部と、識別部と、を有し、
    前記切り出し部は、画像から複数の部分画像を切り出し、
    前記特徴量取得部は、前記切り出し部によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、
    前記生成部は、前記特徴量取得部によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、
    前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、前記複数の部分画像それぞれを識別する、
    情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    出力部を更に有し、
    前記出力部は、前記識別部による識別の結果を出力する、
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像が正常か、異常かを識別する、
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記出力部は、前記識別部によって正常と識別された部分画像及び前記識別部によって異常と識別された部分画像に色を付けた予測マップを前記識別の結果として出力する、
    情報処理装置。
  5. 請求項1乃至請求項4の何れか1項に記載の情報処理装置であって、
    学習部を更に有し、
    前記学習部は、前記特徴抽出モデルと、前記セグメンテーションモデルと、を別々に学習する、
    情報処理装置。
  6. 請求項1乃至請求項4の何れか1項に記載の情報処理装置であって、
    学習部を更に有し、
    前記学習部は、前記特徴抽出モデルから前記セグメンテーションモデルまでを一括で学習する、
    情報処理装置。
  7. 請求項1乃至請求項6の何れか1項に記載の情報処理装置であって、
    前記画像は病理画像である、
    情報処理装置。
  8. 請求項1に記載の情報処理装置であって、
    前記画像は航空画像である、
    情報処理装置。
  9. 情報処理システムであって、
    切り出し部と、特徴量取得部と、生成部と、識別部と、出力部と、を有し、
    前記切り出し部は、画像から複数の部分画像を切り出し、
    前記特徴量取得部は、前記切り出し部によって切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、
    前記生成部は、前記特徴量取得部によって取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、
    前記識別部は、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像を識別し、
    前記出力部は、前記識別部による識別の結果を出力する、
    情報処理システム。
  10. 情報処理装置が実行する情報処理方法であって、
    第1の工程と、第2の工程と、第3の工程と、第4の工程と、を含み、
    前記第1の工程では、画像から複数の部分画像を切り出し、
    前記第2の工程では、前記第1の工程において切り出された複数の部分画像を特徴抽出モデルに入力し、特徴量を取得し、
    前記第3の工程では、前記第2の工程において取得された特徴量を、該当する部分画像の位置情報に基づき並べた特徴量マップを生成し、
    前記第4の工程では、前記特徴量マップをセグメンテーションモデルに入力し、各部分画像に対する正常、異常を識別する、
    情報処理方法。
  11. プログラムであって、コンピュータを、請求項1乃至請求項8の何れか1項に記載の情報処理装置の各部として機能させるためのプログラム。
JP2019176544A 2019-09-27 2019-09-27 情報処理装置、情報処理システム、情報処理方法及びプログラム Pending JP2021056571A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019176544A JP2021056571A (ja) 2019-09-27 2019-09-27 情報処理装置、情報処理システム、情報処理方法及びプログラム
PCT/JP2020/034919 WO2021060076A1 (ja) 2019-09-27 2020-09-15 情報処理装置、情報処理システム、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019176544A JP2021056571A (ja) 2019-09-27 2019-09-27 情報処理装置、情報処理システム、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021056571A true JP2021056571A (ja) 2021-04-08

Family

ID=75166983

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019176544A Pending JP2021056571A (ja) 2019-09-27 2019-09-27 情報処理装置、情報処理システム、情報処理方法及びプログラム

Country Status (2)

Country Link
JP (1) JP2021056571A (ja)
WO (1) WO2021060076A1 (ja)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10740896B2 (en) * 2017-12-29 2020-08-11 Leica Biosystems Imaging, Inc. Processing of histology images with a convolutional neural network to identify tumors
JP6800901B2 (ja) * 2018-03-06 2020-12-16 株式会社東芝 物体領域識別装置、物体領域識別方法およびプログラム
US10321728B1 (en) * 2018-04-20 2019-06-18 Bodygram, Inc. Systems and methods for full body measurements extraction

Also Published As

Publication number Publication date
WO2021060076A1 (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
CN110689038B (zh) 神经网络模型的训练方法、装置和医学图像处理系统
WO2020215984A1 (zh) 基于深度学习的医学图像检测方法及相关设备
US11200483B2 (en) Machine learning method and apparatus based on weakly supervised learning
KR20210122855A (ko) 검출 모델 훈련 방법과 장치, 컴퓨터 장치, 및 저장 매체
KR102460257B1 (ko) 진단 결과를 제공하기 위한 방법 및 장치
CN111369542A (zh) 血管标记方法、图像处理系统和存储介质
CN109447096B (zh) 一种基于机器学习的扫视路径预测方法和装置
CN113096137B (zh) 一种oct视网膜图像领域适应分割方法及系统
JP2023533587A (ja) モデルを訓練する訓練データセットの選択
CN115115829A (zh) 医疗图像的分割方法、装置、设备、存储介质及程序产品
JP2024500938A (ja) 医用画像における状態特徴の自動注釈付け
KR102179090B1 (ko) 신경망을 이용한 의료 진단 방법
CN110599444B (zh) 预测血管树的血流储备分数的设备、系统以及非暂时性可读存储介质
CN114782394A (zh) 一种基于多模态融合网络的白内障术后视力预测系统
US20220351863A1 (en) Method and System for Disease Quantification of Anatomical Structures
Kuş et al. Evolutionary Architecture Optimization for Retinal Vessel Segmentation
US20220026514A1 (en) Mri reconstruction with image domain optimization
WO2021060076A1 (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
US20220130065A1 (en) Method for analyzing thickness of cortical region
WO2023274599A1 (en) Methods and systems for automated follow-up reading of medical image data
JP7261884B2 (ja) 学習装置、方法およびプログラム、グラフ構造抽出装置、方法およびプログラム、並びに学習済み抽出モデル
EP3864620B1 (en) Correcting segmentation of medical images using a statistical analysis of historic corrections
CN117616467A (zh) 训练并使用深度学习算法来基于降维表示比较医学图像的方法
WO2021191438A1 (en) Determining image similarity by analysing registrations
JP2021064174A (ja) 情報処理装置、情報処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240423