JP2021120815A - 推定処理プログラム、推定処理方法、及び情報処理装置 - Google Patents

推定処理プログラム、推定処理方法、及び情報処理装置 Download PDF

Info

Publication number
JP2021120815A
JP2021120815A JP2020014106A JP2020014106A JP2021120815A JP 2021120815 A JP2021120815 A JP 2021120815A JP 2020014106 A JP2020014106 A JP 2020014106A JP 2020014106 A JP2020014106 A JP 2020014106A JP 2021120815 A JP2021120815 A JP 2021120815A
Authority
JP
Japan
Prior art keywords
region
estimation
image
annular surface
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020014106A
Other languages
English (en)
Other versions
JP7316611B2 (ja
Inventor
彬 酒井
Akira Sakai
彬 酒井
正明 小松
Masaaki Komatsu
正明 小松
貫人 生水
Kanto Shozu
貫人 生水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NATIONAL CANCER CENTER
Fujitsu Ltd
RIKEN Institute of Physical and Chemical Research
Original Assignee
NATIONAL CANCER CENTER
Fujitsu Ltd
RIKEN Institute of Physical and Chemical Research
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NATIONAL CANCER CENTER, Fujitsu Ltd, RIKEN Institute of Physical and Chemical Research filed Critical NATIONAL CANCER CENTER
Priority to JP2020014106A priority Critical patent/JP7316611B2/ja
Priority to US17/144,180 priority patent/US11869193B2/en
Priority to EP21150699.3A priority patent/EP3859668A1/en
Publication of JP2021120815A publication Critical patent/JP2021120815A/ja
Application granted granted Critical
Publication of JP7316611B2 publication Critical patent/JP7316611B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30044Fetus; Embryo

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

【課題】対象物の環状面の推定における精度向上を図る。【解決手段】対象物を撮影した入力画像2を、前記対象物の環状面の領域を推定する第1推定モデル3a、前記環状面の外周内の領域を推定する第2推定モデル3b、前記環状面の内周内の領域を推定する第3推定モデル3cのそれぞれに入力し、前記入力画像2の入力に応じて取得される第1、第2及び第3領域のうち、前記第1推定モデル3aの推定結果として出力された前記第1領域4aを和集合の算出に用いる第1要素とし、前記第2推定モデル3bの推定結果として出力された前記第2領域4bを和集合の算出に用いる第2要素とし、前記第3推定モデル3cの推定結果として出力された前記第3領域4cを差集合の算出に用いる第3要素として、前記第1、第2及び第3要素を合成した領域を、前記入力画像2における前記対象物の前記環状面であると推定した領域5として出力する処理をコンピュータに実行させる。【選択図】図1

Description

本発明は、推定処理プログラム、推定処理方法、及び情報処理装置に関する。
筒や管の切断面の確認、又は、断面のスキャン画像の確認等を行なうために、筒形状の対象物の断面画像をセグメンテーションするニーズがある。
例えば、セグメンテーションを行なう第1の手法として、円又は楕円の外周部上及び内周部上の点を複数抽出し、抽出した点を結ぶ円又は楕円を最小二乗法によりフィッティングする技術が知られている。
また、セグメンテーションを行なう第2の手法として、機械学習手法を用いて断面画像における断面の縁取りを学習する技術が知られている。
Olaf Ronneberger et al., "U-Net: Convolutional Networks for Biomedical Image Segmentation", Computer Science Department and BIOSS Centre for Biological Signalling Studies, University of Freiburg, Germany, 公開日: 2015年5月18日
上述した第1の手法では、筒の断面の形状が円又は楕円に限定されてしまう。また、内縁の円と外縁の円とが交差し易い。
また、上述した第2の手法では、機械学習手法の傾向として、縁取りの領域が途切れ易く、筒形状であるという事前知識が生かせない。
このように、上述した第1及び第2の手法では、いずれも、筒形状の対象物の断面、例えば環状面のセグメンテーションを行なう際に、筒の厚み及び円筒面の穴の有無について誤判定が生じる可能性がある。
1つの側面では、本発明は、対象物の環状面の推定における精度向上を図ることを目的とする。
1つの側面では、推定処理プログラムは、コンピュータに以下の処理を実行させてよい。前記処理は、対象物を撮影した入力画像を、前記対象物の環状面の領域を推定する第1推定モデル、前記環状面の外周内の領域を推定する第2推定モデル、前記環状面の内周内の領域を推定する第3推定モデル、のそれぞれに入力してよい。また、前記処理は、前記入力画像の入力に応じて取得される第1領域、第2領域及び第3領域のうち、前記第1推定モデルの推定結果として出力された前記第1領域を和集合の算出に用いる第1要素とし、前記第2推定モデルの推定結果として出力された前記第2領域を和集合の算出に用いる第2要素とし、前記第3推定モデルの推定結果として出力された前記第3領域を差集合の算出に用いる第3要素として、前記第1要素、前記第2要素及び前記第3要素を合成した領域を、前記入力画像における前記対象物の前記環状面であると推定した領域として出力してよい。
1つの側面では、対象物の環状面の推定における精度を向上させることができる。
一実施形態に係る情報処理装置による対象物の環状面の推定処理の一例を説明するための図である。 比較例に係る情報処理装置を説明するための図である。 比較例に係る情報処理装置を説明するための図である。 超音波により撮像した胎児胸部の断面図の一例を示す図である。 胸郭領域のセグメンテーション結果の一例を示す図である。 一実施形態に係るサーバの機能構成例を示すブロック図である。 訓練データセットの一例を示す図である。 入力データの一例を示す図である。 学習部により生成されるマスク画像の一例を示す図である。 学習部による推定部の機械学習処理の一例を説明するための図である。 実行部による推定処理の一例を説明するための図である。 ノイズ除去部によるノイズ除去処理の一例を説明するための図である。 出力データの一例を示す図である。 推定部の学習フェーズの動作例を説明するためのフローチャートである。 推定部の推定フェーズの動作例を説明するためのフローチャートである。 一実施形態に係るコンピュータのハードウェア構成例を示すブロック図である。
以下、図面を参照して本発明の実施の形態を説明する。ただし、以下に説明する実施形態は、あくまでも例示であり、以下に明示しない種々の変形や技術の適用を排除する意図はない。例えば、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。なお、以下の実施形態で用いる図面において、同一符号を付した部分は、特に断らない限り、同一若しくは同様の部分を表す。
〔1〕一実施形態
〔1−1〕情報処理装置による推定処理の説明
図1は、一実施形態に係る情報処理装置1による対象物の環状面の推定処理の一例を説明するための図である。なお、図1の説明では、「対象物」は、例えば、筒形状の物体であるものとする。また、入力画像2は、筒形状の対象物の断面を環状面が写るように撮像した画像である。
図1に例示するように、情報処理装置1は、入力画像2を用いて、以下の(a)及び(b)の処理を実行することで、対象物の環状面の推定精度を向上させることができる。
(a)情報処理装置1は、対象物を撮影した入力画像2を、対象物の環状面の領域を推定する第1推定モデル3a、環状面の外周内の領域を推定する第2推定モデル3b、環状面の内周内の領域を推定する第3推定モデル3c、のそれぞれに入力する。
なお、第1推定モデル3a、第2推定モデル3b及び第3推定モデル3cは、それぞれ、機械学習手法を用いて画像のセグメンテーションを学習済みのニューラルネットワークであってよい。
例えば、図1に示すように、第1推定モデル3aは、対象物の環状面の第1領域4aをマスクするセグメンテーションを行なうように学習されてよい。また、第2推定モデル3bは、対象物の外周内の第2領域4bをマスクするセグメンテーションを行なうように学習されてよく、第3推定モデル3cは、対象物の内周内の第3領域4cをマスクするセグメンテーションを行なうように学習されてよい。
(b)第1推定モデル3aの推定結果として出力された第1領域4aを和集合の算出に用いる第1要素とし、第2推定モデル3bの推定結果として出力された第2領域4bを和集合の算出に用いる第2要素とし、第3推定モデル3cの推定結果として出力された第3領域4cを差集合の算出に用いる第3要素とする。情報処理装置1は、第1要素、第2要素及び第3要素を合成した領域を、入力画像2における対象物の環状面であると推定した領域5として出力する。
図1の例では、対象物の環状面の第1領域4a及び環状面の外周内の第2領域4bのそれぞれにおけるマスクされた領域を網掛けで示し、環状面の内周内の第3領域4cにおけるマスクされた領域を斜線で示す。図1の例において、丸枠内の「+」(プラス)は、和集合の演算を示し、丸枠内の「−」(マイナス)は、差集合の演算を示す。
なお、領域5は、環状面であると推定した部分のセグメンテーションを少なくとも含む画像データであってよい。また、情報処理装置1は、図1に例示するように、領域5に対してノイズ除去処理6を実行してノイズを除去し、筒形状のセグメンテーション画像7を出力してもよい。
このように、一実施形態に係る情報処理装置1によれば、対象物である筒の断面形状が円又は楕円等の定まった形でなくとも、入力画像2における対象物の環状面の推定を行なうことが可能となる。
また、対象物の環状面の第1領域4a、環状面の外周内の第2領域4b、及び、環状面の内周内の第3領域4cを、それぞれ第1要素、第2要素及び第3要素として合成した領域5を出力することで、環状面の推定結果に途切れや欠けを生じ難くすることができる。
従って、対象物の環状面の推定における精度を向上させることができる。これにより、例えば、対象物の環状面の厚みの判定、及び、環状面の穴の有無の判定等を正確に行なうことが可能となる。
図2及び図3は、それぞれ、比較例に係る情報処理装置100A及び100Bを説明するための図である。
図2に示す比較例では、情報処理装置100Aにより、入力画像2の入力に応じて取得される、対象物の環状面の領域を推定する推定モデル300aの推定結果として出力された領域400aが、領域500aとして出力される場合を示す。図2の例のように、領域400aにおけるセグメンテーションされた筒形状には、符号A〜Dに示すような欠損が生じる場合がある。これらの欠損は、入力画像2における対象物の環状面であると推定した領域500aに残存するため、対象物が筒形状として認識されなくなる可能性がある。
図3に示す比較例では、情報処理装置100Bにより、入力画像2の入力に応じて取得される、環状面の外周内の領域を推定する推定モデル300bの推定結果として出力された領域400bから、環状面の内周内の領域を推定する推定モデル300cの推定結果として出力された領域400cを除外した領域が、領域500bとして出力される場合を示す。図3の例のように、領域400bから領域400cを除外する際に、領域400b及び400cの一方又は双方の位置にズレが生じる場合がある。この場合、領域500bの環状面の推定結果においては、符号E及びFに示すように、環状面の厚みが誤判定されたり、符号Gに示すように、途切れや欠けが生じて筒形状として認識されなくなったりする場合がある。
このように、推定モデルの推定結果として出力された1つ又は2つの領域を用いる場合、対象物の環状面の推定における精度が低下する可能性がある。
これに対し、一実施形態に係る情報処理装置1によれば、環状面と推定された第1領域4aに生じる可能性のある欠損部分を、環状面の外周内と推定された第2領域4bにより補う(補完する)ことができる。
また、環状面の内周内と推定された第3領域4cにより、第2領域4bから環状面の中心部を差し引くことで、例えばノイズ除去処理6によって環状面の内周が埋まってしまうことを回避できる。
従って、一実施形態に係る情報処理装置1によれば、図2及び図3に示す比較例において生じ得る、対象物の環状面の推定における精度低下を抑制できる、換言すれば、対象物の環状面の推定における精度を向上させることが可能となる。
なお、第1領域4a、第2領域4b及び第3領域4cの組み合わせ順序には、いくつかのパターンが考えられる。これらのパターンについては後述する。
〔1−2〕一実施形態の構成例
以下の説明では、情報処理装置1による推定処理が、超音波画像診断における胸郭の検出に利用される場合を例に挙げる。図4に例示するように、エコー画像における胎児胸部の皮膚から肋骨までの領域は、「胸郭」と呼ばれる部位である。胎児に何らかの先天性疾患がある場合、胸郭部分に、腹水に起因する膨らみや臓器の萎縮による陥没が生じる。
このような先天性疾患の判定の際に、胸郭の厚みの判定、及び、胸郭に穴が空いているか否かの判定等が行なわれる。このため、図5に例示するように、胸郭の領域を、内周及び外周を含めてピクセル単位でセグメンテーションすることが、胎児超音波診断において重要となる。
そこで、一実施形態の説明において、対象物は、胎児であり、セグメンテーションが行なわれる画像は、胎児の胸郭を撮像した、エコー画像等の超音波画像であり、セグメンテーション対象である環状面は、胎児の胸郭であるものとする。
図6は、一実施形態に係るサーバ10の機能構成例を示すブロック図である。サーバ10は、対象物の環状面を推定する装置であり、図1に示す情報処理装置1の一例である。
図6に示すように、サーバ10は、例示的に、メモリ部11、筒推定部12、外周推定部13、内周推定部14、取得部15、学習部16、実行部17、ノイズ除去部18及び出力部19を備えてよい。以下、筒推定部12、外周推定部13及び内周推定部14を総称して、「推定部12〜14」と表記する場合がある。
メモリ部11は、記憶領域の一例であり、筒推定部12、外周推定部13及び内周推定部14の学習、実行(推定)及び出力等に用いられる種々の情報を記憶する。図6に示すように、メモリ部11は、例示的に、複数のモデル情報11a、訓練データセット11b、入力データ11c及び出力データ11dを記憶可能であってよい。
筒推定部12は、図1に示す第1推定モデル3aの一例であり、例えば、対象物を撮影した画像(画像データ)の入力に応じて、対象物の環状面の領域を推定する。
外周推定部13は、図1に示す第2推定モデル3bの一例であり、例えば、上記の画像(画像データ)の入力に応じて、対象物の環状面の外周内の領域を推定する。
内周推定部14は、図1に示す第3推定モデル3cの一例であり、例えば、上記の画像(画像データ)の入力に応じて、対象物の環状面の内周内の領域を推定する。
推定部12〜14は、それぞれ、機械学習手法を用いて画像のセグメンテーションを行なうニューラルネットワークであってよく、一例として、U-Netが挙げられる。なお、推定部12〜14は、U-Netに限定されるものではなく、Semantic Segmentationを実行する他のニューラルネットワークであってもよく、Semantic Segmentation以外のセグメンテーション手法を用いるニューラルネットワークであってもよい。
推定部12〜14を実現するためのネットワーク構造や各種パラメータ等の情報は、例えば、推定部12〜14別にモデル情報11aとしてメモリ部11に記憶されてよい。
取得部15は、推定部12〜14の学習及び実行に用いる情報を、例えば図示しないコンピュータから取得する。
例えば、取得部15は、推定部12〜14の学習に用いる訓練データセット11bを取得し、メモリ部11に格納してよい。
訓練データセット11bは、訓練用対象物を撮影した訓練画像と、当該訓練画像中の訓練用対象物に対応する領域を示すアノテーションデータと、をそれぞれに含む訓練データのデータセットの一例である。
例えば、訓練データセット11bは、図7に示すように、n個(nは2以上の整数)の訓練データ110を含んでよい。各訓練データ110は、訓練用対象物の環状面を撮影した画像111と、当該画像111のセグメンテーションの正解データとしてのアノテーションマスク画像(以下、「マスク画像」と表記する場合がある)112とを含んでよい。
画像111は、訓練画像の一例であり、例えば、図7に示すように、訓練用対象物の一例である胎児の胸郭を撮像したエコー画像であってよい。複数の訓練データ110における各エコー画像は、一連のエコー映像から時系列(例えばt=0〜(n−1))に切り出されたフレームであってもよい。なお、各画像111は、互いに異なる動画像から切り出されたフレームであってもよいし、静止画像として撮影された画像であってもよい。
アノテーションマスク画像112は、アノテーションデータの一例であり、例えば、図7に示すように、訓練データ110の画像111におけるセグメンテーション対象の環状面(図7の例では「胸郭」)をマスクした画像である。なお、「マスク」とは、例えば、マスク対象の領域を、マスク対象ではない領域と区別可能な態様で表示することを意味し、一例として、マスク対象の領域を所定の色で塗り潰す(マスク対象の領域のピクセルに所定の色を設定する)ことであってよい。図7の例では、マスクされた領域、換言すれば胸郭に対応する領域を白塗りで示し、その他の領域、換言すれば胸郭以外の領域を黒塗りで示す。
一実施形態では、マスク画像112は、第1アノテーションデータの一例であり、筒推定部12の機械学習に用いられる正解データである。
また、取得部15は、推定部12〜14による推定処理に用いる入力データ11cを取得し、メモリ部11に格納してよい。
入力データ11cは、1以上の入力画像を含む画像セットであり、例えば、複数のフレームを含む映像等の動画像であってよい。一実施形態では、入力データ11cは、図8に示すように、エコー画像等である画像115を複数含むエコー映像であってよい。画像115は、推定処理において推定部12〜14に入力される入力画像の一例である。
学習部16は、学習実行部の一例であり、取得部15が取得した訓練データセット11bを用いて、推定部12〜14のそれぞれの学習を行なう。
なお、学習部16は、訓練データセット11bに含まれるマスク画像112に基づき、図9に示すように、複数のアノテーションマスク画像113及び114を生成してよい。
マスク画像113は、マスク画像112を訓練画像中の訓練用対象物の環状面の外周内の領域を示すように加工して得られる第2アノテーションデータの一例であり、外周推定部13の機械学習に用いられる正解データである。
例えば、学習部16は、環状面がマスクされたマスク画像112に対して、内周内をさらにマスクすることにより、図9に示すように、外周内全域をマスクしたマスク画像113を生成してよい。
マスク画像114は、マスク画像112を訓練画像中の訓練用対象物の環状面の内周内の領域を示すように加工して得られる第3アノテーションデータの一例であり、外周推定部13の機械学習に用いられる正解データである。
例えば、学習部16は、環状面がマスクされたマスク画像112に対して、環状面のマスクを解除するとともに、内周内をマスクすることにより、内周内全域をマスクしたマスク画像114を生成してよい。なお、学習部16は、マスク画像113からマスク画像112を除外する、例えばマスク画像113のマスク部分のピクセルの集合からマスク画像112のマスク部分のピクセルの集合を除外する、差集合を求めることで、マスク画像114を生成してもよい。
以上のように、学習部16は、訓練データセット11bに含まれる訓練データ110ごとに、マスク画像113及び114を生成し、生成したマスク画像113及び114を対応する訓練データ110に含めてよい。
なお、各訓練データ110に、画像111と、マスク画像112〜114とが含まれる場合には、学習部16によるマスク画像113及び114の生成は省略されてもよい。
図10は、学習部16による推定部12〜14の機械学習処理の一例を説明するための図である。図10に示すように、学習部16は、画像111を推定部12〜14のそれぞれに入力する。そして、学習部16は、画像111の入力に応じて取得される、筒推定部12が出力した推定結果と、マスク画像112とに基づいて、筒推定部12の機械学習を実行する。また、学習部16は、当該画像111の入力に応じて取得される、外周推定部13が出力した推定結果と、マスク画像113とに基づいて、外周推定部13の機械学習を実行する。さらに、学習部16は、当該画像111の入力に応じて取得される、内周推定部14が出力した推定結果と、マスク画像114とに基づいて、内周推定部14の機械学習を実行する。
学習部16による推定部12〜14の機械学習処理により、筒推定部12は、入力される画像に対して、マスク画像112と同様に、対象物の環状面の領域をマスクするセグメンテーションを行なうように学習される。また、外周推定部13は、マスク画像113と同様に、対象物の外周内の領域をマスクするセグメンテーションを行なうように学習される。さらに、内周推定部14は、マスク画像114と同様に、対象物の内周内の領域をマスクするセグメンテーションを行なうように学習される。
正解データ(マスク画像112〜114)を用いた推定部12〜14の機械学習手法としては、既知の種々の手法が採用されてよい。一例として、機械学習処理では、画像111の入力に応じて推定部12〜14の順伝播処理により得られる推定結果と、マスク画像112〜114とに基づき得られる誤差関数の値を小さくするために、順伝播方向の処理で使用するパラメータを決定する逆伝播処理が実行されてよい。そして、機械学習処理では、逆伝播処理の結果に基づいて重み等の変数を更新する更新処理が実行されてよい。
これらのパラメータや変数等は、モデル情報11aに含まれてよく、学習部16は、機械学習処理の実行に応じて、モデル情報11aを更新してよい。
学習部16は、例えば、訓練データセット11bに含まれる複数の訓練データ110を用いて、繰り返し回数又は精度等が閾値に達するまで、推定部12〜14の各々の機械学習処理を繰り返し実行してよい。なお、学習が終了した推定部12〜14は、訓練済みモデルの一例である。
学習部16によれば、閉じた筒等の環状面のアノテーションマスク画像112を用いて、外周推定部13の学習データであるアノテーションマスク画像113、及び、内周推定部14の学習データであるアノテーションマスク画像114を生成することができる。
従って、訓練データセット11bの提供元における、訓練データセット11bの生成の処理負荷を低減できるとともに、及び、訓練データセット11bの記憶領域の消費量を削減できる。
実行部17は、学習部16による訓練済みの推定部12〜14を用いて、入力データ11cに対する対象物のセグメンテーションの推定処理を実行する。
図11は、実行部17による推定処理の一例を説明するための図である。推定処理は、各推定部12〜14から出力される推定結果画像(マスク画像)の取得処理と、取得したそれぞれの推定結果画像の合成処理とを含んでよい。
図11に示すように、実行部17は、取得処理において、入力データ11cに含まれる画像115を抽出し、同一の画像115を、筒推定部12、外周推定部13及び内周推定部14にそれぞれ入力する。
換言すれば、実行部17は、画像115を、筒推定部12、外周推定部13、及び、内周推定部14、のそれぞれに入力する画像入力部の一例である。
そして、実行部17は、筒推定部12から出力される推定結果画像であるマスク画像12a、外周推定部13から出力される推定結果画像であるマスク画像13a、及び、内周推定部14から出力される推定結果画像であるマスク画像14a、をそれぞれ取得する。
環状面のマスク画像12aは、筒推定部12の推定結果として出力された第1領域の一例である。外周内のマスク画像13aは、外周推定部13の推定結果として出力された第2領域の一例である。内周内のマスク画像14aは、内周推定部14の推定結果として出力された第3領域の一例である。
実行部17は、合成処理において、取得した環状面のマスク画像12a、外周内のマスク画像13a、並びに、内周内のマスク画像14aを合成して、合成画像116を生成する。合成画像116は、画像115における対象物の環状面であると推定した領域の一例であり、環状面であると推定した部分のセグメンテーションを少なくとも含む画像データであってよい。
ここで、実行部17は、例えば、環状面のマスク画像12aを和集合の算出に用いる第1要素とし、外周内のマスク画像13aを和集合の算出に用いる第2要素とし、内周内のマスク画像14aを差集合の算出に用いる第3要素として利用してよい。
合成処理は、環状面のマスク画像12aのマスク部分のピクセルの集合をCとし、外周内のマスク画像13aのマスク部分のピクセルの集合をOとし、内周内のマスク画像14aのマスク部分のピクセルの集合をIとすると、下記式(1)により表されてよい。
合成画像116 = (C U O) / I (1)
ここで、上記式(1)において、“U”は和(和集合)を意味し、“/”は差(差集合)を意味する。
実行部17は、上記式(1)を演算することで、環状面のマスク画像12aと外周内のマスク画像13aとの和集合の領域から内周内のマスク画像14aを除外した領域を、合成画像116として出力してよい。
或いは、合成処理は、下記式(2)により表されてもよい。
合成画像116 = (O / I) U C (2)
実行部17は、上記式(2)を演算することで、外周内のマスク画像13aから内周内のマスク画像14aを除外した領域と、環状面のマスク画像12aとの和集合の領域を、合成画像116として出力してよい。
実行部17は、上記式(1)及び式(2)のうちの少なくともいずれか一方を用いた合成処理を実行してよい。なお、実行部17は、上記式(1)を用いた合成処理、及び、上記式(2)を用いた合成処理、の双方を実行する場合、それぞれの合成画像116を区別して出力もよいし、2つの合成画像116をさらに合成(例えば和集合を演算)して出力してもよい。双方の合成処理を実行することにより、入力データ11cに適した合成処理を実行できる可能性を高めることができ、推定処理の精度を向上できる。
実行部17は、上述した入力データ11cに含まれる複数の画像115を、例えば映像内の先頭フレームから最終フレームに向かって順に抽出し、抽出した画像115ごとに推定処理を実行してよい。或いは、実行部17は、複数の画像115のうちの2以上の画像115のセットを、推定部12〜14にそれぞれ入力して推定処理を実行してもよい。
ここで、図11に例示するように、環状面のマスク画像12aにおいて、「筒」に欠損が生じている(図2参照)。特に、画像115のようなエコー画像は、対象物の移動が少ないが、エコー画像内のノイズが多いという特性がある。このようなノイズ等の影響により、マスク画像12aの環状部分に欠損が生じる可能性が高い。
これに対し、上記式(1)又は式(2)を用いた合成処理によれば、当該欠損は、外周内のマスク画像13aとの合成により埋められる。従って、実行部17は、一繋がりの「筒」の形状となった合成画像116を出力することができる。
また、図3を用いて説明したように、外周内の領域400bのマスク部分のピクセルの集合から、内周内の領域400cのマスク部分のピクセルの集合を除外する(差集合を実行する)場合、位置ズレにより領域500bの「筒」に欠損等が生じる場合がある。
これに対し、上記式(2)を用いた合成処理によれば、(O / I)により「筒」に欠損等が生じたとしても、当該欠損は、環状面のマスク画像12aとの合成により埋められる。従って、実行部17は、一繋がりの「筒」の形状となった合成画像116を出力することができる。また、上記(1)を用いた合成処理によれば、差集合の実行の際の位置ズレにより生じる欠損については、後述するノイズ除去部18によるノイズ処理工程に依存して補間される。従って、上記(1)を用いた合成処理において位置ズレの影響が大きい場合には、上記(2)を用いた合成処理が採用されてよい。
また、実行部17は、推定部12〜14のそれぞれの推定結果画像を合成して、合成画像116を生成するため、対象物の環状面の形状が円又は楕円等の定まった形状でない場合においても、対象物の環状面を正確に推定することができる。
ノイズ除去部18は、画像115における対象物の環状面であると推定した合成画像116に対して、合成画像116に含まれるノイズを除去するノイズ除去処理を行なった結果であるセグメンテーション画像117を、出力部19に出力する。ノイズ除去部18としては、例えば、モルフォロジフィルタ等の種々の画像処理フィルタが用いられてよい。
ノイズ除去部18によるノイズ除去処理により、図12に例示するように、合成画像116におけるノイズを除去できるとともに、環状面と非環状面との間の境界を明確化したセグメンテーション画像117を出力することができる。
なお、サーバ10がノイズ除去部18を備えない構成も許容されてよい。この場合、実行部17は、合成画像116を出力部19に出力してよい。
出力部19は、実行部17又はノイズ除去部18から入力される合成画像116又はセグメンテーション画像117をメモリ部11に出力(蓄積)し、蓄積した複数の画像117に基づき、出力データ11dを作成してよい。
出力データ11dは、1以上の合成画像116又はセグメンテーション画像117、換言すれば1以上の出力画像を含む画像セットであり、例えば、複数のフレームを含む映像等の動画像であってよい。一実施形態では、出力部19は、図13に例示するように、各合成画像116又は各セグメンテーション画像117(図13の例ではセグメンテーション画像117)をフレームとして時系列に結合した映像であってよい。
なお、出力部19は、出力データ11dを、例えば図示しないコンピュータに送信してもよい。
以上のように、実行部17及び出力部19は、マスク画像12aを和集合の算出に用いる第1要素とし、マスク画像13aを和集合の算出に用いる第2要素とし、マスク画像14aを差集合の算出に用いる第3要素として、第1要素〜第3要素を合成した領域を、画像115における対象物の環状面であると推定した領域として出力する領域出力部の一例である。
他の側面では、実行部17及び出力部19は、マスク画像12aとマスク画像13aとの和集合の領域からマスク画像14aを除外した領域を、画像115における対象物の環状面であると推定した領域として出力する領域出力部の一例である。
さらに他の側面では、実行部17及び出力部19は、マスク画像12aとマスク画像13aとの和集合の領域からマスク画像14aを除外した領域を、画像115における対象物の環状面であると推定した領域として出力する領域出力部の一例である。
〔1−3〕動作例
次に、図14及び図15を参照して、上述の如く構成されたサーバ10の動作例を説明する。
〔1−3−1〕学習フェーズの動作例
図14は、推定部12〜14の学習フェーズの動作例を説明するためのフローチャートである。
図14に例示するように、取得部15は、訓練データセット11bを取得し(ステップS1)、メモリ部11に格納する。
学習部16は、各訓練データ110に含まれる、対象物の環状面をマスクした第1マスク画像112に基づき、環状面の外周内をマスクした第2マスク画像113、及び、環状面の内周内をマスクした第3マスク画像114をそれぞれ生成する(ステップS2)。
学習部16は、訓練データ110に含まれる画像111を、各推定部12〜14に入力し、機械学習を実行する(ステップS3)。機械学習では、学習部16は、筒推定部12に対して第1マスク画像112を正解データとして与え、外周推定部13に対して第2マスク画像113を正解データとして与え、内周推定部14に対して第3マスク画像114を正解データとして与える。
なお、学習部16は、訓練データセット11b内の複数の訓練データ110を用いて各推定部12〜14の機械学習を行ない、処理が終了する
〔1−3−2〕推定フェーズの動作例
図15は、推定部12〜14の推定フェーズの動作例を説明するためのフローチャートである。
図15に例示するように、取得部15は、入力データ11cを取得し(ステップS11)、メモリ部11に格納する。
実行部17は、入力データ11c内の画像115を推定部12〜14の各々に入力する(ステップS12)。
実行部17は、筒推定部12及び外周推定部13から出力されたマスク画像12a及び13aをそれぞれ和集合の要素とし、内周推定部14から出力されたマスク画像14aを差集合の要素とする。そして、実行部17は、マスク画像12a〜14aを合成して合成画像116を生成する(ステップS13)。なお、和集合の要素及び差集合の要素の組み合わせ順序は、上記式(1)又は式(2)に基づいてよい。
ノイズ除去部18は、合成画像116に対してノイズ除去処理を実行してセグメンテーション画像117を出力する(ステップS14)。なお、ステップS14の処理は省略されてもよい。
出力部19は、セグメンテーション画像117を蓄積し、蓄積したセグメンテーション画像117を結合した出力データ11dを出力し(ステップS15)、処理が終了する。なお、出力データ11dの出力先としては、例えば、メモリ部11の他に、図示しないコンピュータ等が挙げられる。
〔1−4〕ハードウェア構成例
図16は、情報処理装置1及びサーバ10の機能を実現するコンピュータ20のハードウェア(HW)構成例を示すブロック図である。情報処理装置1及びサーバ10の機能を実現するHWリソースとして、複数のコンピュータが用いられる場合は、各コンピュータが図16に例示するHW構成を備えてよい。
図16に示すように、コンピュータ20は、HW構成として、例示的に、プロセッサ20a、メモリ20b、記憶部20c、IF(Interface)部20d、I/O(Input / Output)部20e、及び読取部20fを備えてよい。
プロセッサ20aは、種々の制御や演算を行なう演算処理装置の一例である。プロセッサ20aは、コンピュータ20内の各ブロックとバス20iで相互に通信可能に接続されてよい。なお、プロセッサ20aは、複数のプロセッサを含むマルチプロセッサであってもよいし、複数のプロセッサコアを有するマルチコアプロセッサであってもよく、或いは、マルチコアプロセッサを複数有する構成であってもよい。
プロセッサ20aとしては、例えば、CPU、MPU、GPU、APU、DSP、ASIC、FPGA等の集積回路(IC:Integrated Circuit)が挙げられる。なお、プロセッサ20aとして、これらの集積回路の2以上の組み合わせが用いられてもよい。
例えば、情報処理装置1の少なくとも一部、サーバ10の取得部15、実行部17の少なくとも一部、ノイズ除去部18、及び、出力部19の処理機能は、プロセッサ20aとしてのCPU又はMPU等により実現されてもよい。また、情報処理装置1の少なくとも一部、サーバ10の推定部12〜14、学習部16、及び、実行部17の少なくとも一部の処理機能は、プロセッサ20aのうちのGPU又はASIC(例えばTPU)等のアクセラレータにより実現されてもよい。
CPUはCentral Processing Unitの略称であり、MPUはMicro Processing Unitの略称である。GPUはGraphics Processing Unitの略称であり、APUはAccelerated Processing Unitの略称である。DSPはDigital Signal Processorの略称であり、ASICはApplication Specific ICの略称であり、FPGAはField-Programmable Gate Arrayの略称である。TPUはTensor Processing Unitの略称である。
メモリ20bは、種々のデータやプログラム等の情報を格納するHWの一例である。メモリ20bとしては、例えばDRAM(Dynamic Random Access Memory)等の揮発性メモリ、及び、PM(Persistent Memory)等の不揮発性メモリ、の一方又は双方が挙げられる。
記憶部20cは、種々のデータやプログラム等の情報を格納するHWの一例である。記憶部20cとしては、HDD(Hard Disk Drive)等の磁気ディスク装置、SSD(Solid State Drive)等の半導体ドライブ装置、不揮発性メモリ等の各種記憶装置が挙げられる。不揮発性メモリとしては、例えば、フラッシュメモリ、SCM(Storage Class Memory)、ROM(Read Only Memory)等が挙げられる。
また、記憶部20cは、コンピュータ20の各種機能の全部若しくは一部を実現するプログラム20g(推定処理プログラム)を格納してよい。例えば、情報処理装置1のプロセッサ20aは、記憶部20cに格納されたプログラム20gをメモリ20bに展開して実行することにより、図1に例示する情報処理装置1としての機能を実現できる。また、サーバ10のプロセッサ20aは、記憶部20cに格納されたプログラム20gをメモリ20bに展開して実行することにより、図6に例示するサーバ10としての機能を実現できる。
なお、メモリ20b及び記憶部20cの少なくとも1つが有する記憶領域は、図6に示す各情報11a〜11dを記憶可能であってよい。換言すれば、図6に示すメモリ部11は、メモリ20b及び記憶部20cの少なくとも1つが有する記憶領域により実現されてよい。
IF部20dは、ネットワークとの間の接続及び通信の制御等を行なう通信IFの一例である。例えば、IF部20dは、イーサネット(登録商標)等のLAN(Local Area Network)、或いは、FC(Fibre Channel)等の光通信等に準拠したアダプタを含んでよい。当該アダプタは、無線及び有線の一方又は双方の通信方式に対応してよい。例えば、サーバ10は、IF部20dを介して、他の装置と相互に通信可能に接続されてよい。また、例えば、プログラム20gは、当該通信IFを介して、ネットワークからコンピュータ20にダウンロードされ、記憶部20cに格納されてもよい。
I/O部20eは、入力装置、及び、出力装置、の一方又は双方を含んでよい。入力装置としては、例えば、キーボード、マウス、タッチパネル等が挙げられる。出力装置としては、例えば、モニタ、プロジェクタ、プリンタ等が挙げられる。
読取部20fは、記録媒体20hに記録されたデータやプログラムの情報を読み出すリーダの一例である。読取部20fは、記録媒体20hを接続可能又は挿入可能な接続端子又は装置を含んでよい。読取部20fとしては、例えば、USB(Universal Serial Bus)等に準拠したアダプタ、記録ディスクへのアクセスを行なうドライブ装置、SDカード等のフラッシュメモリへのアクセスを行なうカードリーダ等が挙げられる。なお、記録媒体20hにはプログラム20gが格納されてもよく、読取部20fが記録媒体20hからプログラム20gを読み出して記憶部20cに格納してもよい。
記録媒体20hとしては、例示的に、磁気/光ディスクやフラッシュメモリ等の非一時的なコンピュータ読取可能な記録媒体が挙げられる。磁気/光ディスクとしては、例示的に、フレキシブルディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)、ブルーレイディスク、HVD(Holographic Versatile Disc)等が挙げられる。フラッシュメモリとしては、例示的に、USBメモリやSDカード等の半導体メモリが挙げられる。
上述したコンピュータ20のHW構成は例示である。従って、コンピュータ20内でのHWの増減(例えば任意のブロックの追加や削除)、分割、任意の組み合わせでの統合、又は、バスの追加若しくは削除等は適宜行なわれてもよい。例えば、情報処理装置1及びサーバ10において、I/O部20e及び読取部20fの少なくとも一方は、省略されてもよい。
〔2〕その他
上述した一実施形態に係る技術は、以下のように変形、変更して実施することができる。
例えば、図6に示すサーバ10が備える各処理機能12〜19は、それぞれ任意の組み合わせで併合してもよく、分割してもよい。
なお、一実施形態では、対象物、画像及び環状面が、それぞれ、胎児、胎児のエコー画像、及び、胸郭であるものとしたが、これらに限定されるものではない。一実施形態に係る手法は、下記のように、種々の対象物、画像及び環状面についても適用可能である。
対象物としては、例えば、人体の部位、土管、鋼管又はホース等の構造物等、筒又は略筒形状を有する種々の物体が挙げられる。画像としては、対象物の環状面の延在方向に交差する面で撮像された種々の画像が挙げられる。例えば、画像としては、エコー画像以外の超音波画像、磁気共鳴画像、X線画像、温度又は電磁波等を捉えるセンサによる検出画像、並びに、可視光又は非可視光を捉えるイメージセンサによる撮像画像、等の種々の画像が挙げられる。環状面としては、画像における、対象物の外壁又は内壁等の固体部分の他、液体部分又は気体(空間)部分が挙げられる。
また、図6に示すサーバ10は、複数の装置がネットワークを介して互いに連携することにより、各処理機能を実現する構成であってもよい。一例として、取得部15及び出力部19はWebサーバ、推定部12〜14、学習部16、実行部17及びノイズ除去部18はアプリケーションサーバ、メモリ部11はDB(Database)サーバ、であってもよい。この場合、Webサーバ、アプリケーションサーバ及びDBサーバが、ネットワークを介して互いに連携することにより、サーバ10としての各処理機能を実現してもよい。
さらに、推定部12〜14の学習処理(推定部12〜14、取得部15及び学習部16)、並びに、推定処理(実行部17、ノイズ除去部18及び出力部19)に係る各処理機能が、互いに異なる装置により提供されてもよい。この場合においても、これらの装置がネットワークを介して互いに連携することにより、サーバ10としての各処理機能を実現してもよい。
〔3〕付記
以上の実施形態に関し、さらに以下の付記を開示する。
(付記1)
対象物を撮影した入力画像を、前記対象物の環状面の領域を推定する第1推定モデル、前記環状面の外周内の領域を推定する第2推定モデル、前記環状面の内周内の領域を推定する第3推定モデル、のそれぞれに入力し、
前記入力画像の入力に応じて取得される第1領域、第2領域及び第3領域のうち、前記第1推定モデルの推定結果として出力された前記第1領域を和集合の算出に用いる第1要素とし、前記第2推定モデルの推定結果として出力された前記第2領域を和集合の算出に用いる第2要素とし、前記第3推定モデルの推定結果として出力された前記第3領域を差集合の算出に用いる第3要素として、前記第1要素、前記第2要素及び前記第3要素を合成した領域を、前記入力画像における前記対象物の前記環状面であると推定した領域として出力する、
処理をコンピュータに実行させる、推定処理プログラム。
(付記2)
前記出力は、前記第1領域と前記第2領域との和集合の領域から前記第3領域を除外した領域を、前記入力画像における前記対象物の前記環状面であると推定した前記領域として出力する、
付記1に記載の推定処理プログラム。
(付記3)
前記出力は、前記第2領域から前記第3領域を除外した領域と、前記第1領域との和集合の領域を、前記入力画像における前記対象物の前記環状面であると推定した前記領域として出力する、
付記1に記載の推定処理プログラム。
(付記4)
訓練用対象物を撮影した訓練画像と、前記訓練画像中の前記訓練用対象物に対応する領域を示すアノテーションデータと、をそれぞれに含む訓練データのデータセットを取得し、
前記訓練画像の入力に応じて取得される、前記第1推定モデルが出力した推定結果と、第1アノテーションデータとしての前記アノテーションデータとに基づいて、前記第1推定モデルの機械学習を実行し、
前記訓練画像の入力に応じて取得される、前記第2推定モデルが出力した推定結果と、前記アノテーションデータを前記訓練画像中の前記訓練用対象物の環状面の外周内の領域を示すように加工して得られる第2アノテーションデータとに基づいて、前記第2推定モデルの機械学習を実行し、
前記訓練画像の入力に応じて取得される、前記第3推定モデルが出力した推定結果と、前記アノテーションデータを前記訓練画像中の前記訓練用対象物の前記環状面の内周内の領域を示すように加工して得られる第3アノテーションデータとに基づいて、前記第3推定モデルの機械学習を実行する、
処理を前記コンピュータに実行させる、付記1〜付記3のいずれか1項に記載の推定処理プログラム。
(付記5)
前記入力画像における前記対象物の前記環状面であると推定した前記領域に対してノイズ除去処理を行なった結果を出力する、
処理を前記コンピュータに実行させる、付記1〜付記4のいずれか1項に記載の推定処理プログラム。
(付記6)
前記入力画像は、超音波画像である、
付記1〜付記5のいずれか1項に記載の推定処理プログラム。
(付記7)
対象物を撮影した入力画像を、前記対象物の環状面の領域を推定する第1推定モデル、前記環状面の外周内の領域を推定する第2推定モデル、前記環状面の内周内の領域を推定する第3推定モデル、のそれぞれに入力し、
前記入力画像の入力に応じて取得される第1領域、第2領域及び第3領域のうち、前記第1推定モデルの推定結果として出力された前記第1領域を和集合の算出に用いる第1要素とし、前記第2推定モデルの推定結果として出力された前記第2領域を和集合の算出に用いる第2要素とし、前記第3推定モデルの推定結果として出力された前記第3領域を差集合の算出に用いる第3要素として、前記第1要素、前記第2要素及び前記第3要素を合成した領域を、前記入力画像における前記対象物の前記環状面であると推定した領域として出力する、
処理をコンピュータが実行する、推定処理方法。
(付記8)
前記出力は、前記第1領域と前記第2領域との和集合の領域から前記第3領域を除外した領域を、前記入力画像における前記対象物の前記環状面であると推定した前記領域として出力する、
付記7に記載の推定処理方法。
(付記9)
前記出力は、前記第2領域から前記第3領域を除外した領域と、前記第1領域との和集合の領域を、前記入力画像における前記対象物の前記環状面であると推定した前記領域として出力する、
付記7に記載の推定処理方法。
(付記10)
訓練用対象物を撮影した訓練画像と、前記訓練画像中の前記訓練用対象物に対応する領域を示すアノテーションデータと、をそれぞれに含む訓練データのデータセットを取得し、
前記訓練画像の入力に応じて取得される、前記第1推定モデルが出力した推定結果と、第1アノテーションデータとしての前記アノテーションデータとに基づいて、前記第1推定モデルの機械学習を実行し、
前記訓練画像の入力に応じて取得される、前記第2推定モデルが出力した推定結果と、前記アノテーションデータを前記訓練画像中の前記訓練用対象物の環状面の外周内の領域を示すように加工して得られる第2アノテーションデータとに基づいて、前記第2推定モデルの機械学習を実行し、
前記訓練画像の入力に応じて取得される、前記第3推定モデルが出力した推定結果と、前記アノテーションデータを前記訓練画像中の前記訓練用対象物の前記環状面の内周内の領域を示すように加工して得られる第3アノテーションデータとに基づいて、前記第3推定モデルの機械学習を実行する、
処理を前記コンピュータが実行する、付記7〜付記9のいずれか1項に記載の推定処理方法。
(付記11)
前記入力画像における前記対象物の前記環状面であると推定した前記領域に対してノイズ除去処理を行なった結果を出力する、
処理を前記コンピュータが実行する、付記7〜付記10のいずれか1項に記載の推定処理方法。
(付記12)
前記入力画像は、超音波画像である、
付記7〜付記11のいずれか1項に記載の推定処理方法。
(付記13)
対象物を撮影した入力画像を、前記対象物の環状面の領域を推定する第1推定モデル、前記環状面の外周内の領域を推定する第2推定モデル、前記環状面の内周内の領域を推定する第3推定モデル、のそれぞれに入力する画像入力部と、
前記入力画像の入力に応じて取得される第1領域、第2領域及び第3領域のうち、前記第1推定モデルの推定結果として出力された前記第1領域を和集合の算出に用いる第1要素とし、前記第2推定モデルの推定結果として出力された前記第2領域を和集合の算出に用いる第2要素とし、前記第3推定モデルの推定結果として出力された前記第3領域を差集合の算出に用いる第3要素として、前記第1要素、前記第2要素及び前記第3要素を合成した領域を、前記入力画像における前記対象物の前記環状面であると推定した領域として出力する領域出力部と、
を備える、情報処理装置。
(付記14)
前記領域出力部は、前記第1領域と前記第2領域との和集合の領域から前記第3領域を除外した領域を、前記入力画像における前記対象物の前記環状面であると推定した前記領域として出力する、
付記13に記載の情報処理装置。
(付記15)
前記領域出力部は、前記第2領域から前記第3領域を除外した領域と、前記第1領域との和集合の領域を、前記入力画像における前記対象物の前記環状面であると推定した前記領域として出力する、
付記13に記載の情報処理装置。
(付記16)
訓練用対象物を撮影した訓練画像と、前記訓練画像中の前記訓練用対象物に対応する領域を示すアノテーションデータと、をそれぞれに含む訓練データのデータセットを取得する取得部と、
前記第1推定モデル、前記第2推定モデル及び前記第3推定モデルの機械学習を実行する学習実行部と、を備え、
前記学習実行部は、
前記訓練画像の入力に応じて取得される、前記第1推定モデルが出力した推定結果と、第1アノテーションデータとしての前記アノテーションデータとに基づいて、前記第1推定モデルの機械学習を実行し、
前記訓練画像の入力に応じて取得される、前記第2推定モデルが出力した推定結果と、前記アノテーションデータを前記訓練画像中の前記訓練用対象物の環状面の外周内の領域を示すように加工して得られる第2アノテーションデータとに基づいて、前記第2推定モデルの機械学習を実行し、
前記訓練画像の入力に応じて取得される、前記第3推定モデルが出力した推定結果と、前記アノテーションデータを前記訓練画像中の前記訓練用対象物の前記環状面の内周内の領域を示すように加工して得られる第3アノテーションデータとに基づいて、前記第3推定モデルの機械学習を実行する、
付記13〜付記15のいずれか1項に記載の情報処理装置。
(付記17)
前記入力画像における前記対象物の前記環状面であると推定した前記領域に対してノイズ除去処理を行なった結果を出力するノイズ除去部、
を備える、付記13〜付記16のいずれか1項に記載の情報処理装置。
(付記18)
前記入力画像は、超音波画像である、
付記13〜付記17のいずれか1項に記載の情報処理装置。
1 情報処理装置
2 入力画像
3a 第1推定モデル
3b 第2推定モデル
3c 第3推定モデル
4a 第1領域
4b 第2領域
4c 第3領域
5 領域
6 ノイズ除去処理
7、117 セグメンテーション画像
10 サーバ
11 メモリ部
11a モデル情報
11b 訓練データセット
11c 入力データ
11d 出力データ
110 訓練データ
111、115 画像
112、113、114 アノテーションマスク画像、マスク画像
116 合成画像
12 筒推定部、推定部
13 外周推定部、推定部
14 内周推定部、推定部
15 取得部
16 学習部
17 実行部
18 ノイズ除去部
19 出力部
20 コンピュータ

Claims (8)

  1. 対象物を撮影した入力画像を、前記対象物の環状面の領域を推定する第1推定モデル、前記環状面の外周内の領域を推定する第2推定モデル、前記環状面の内周内の領域を推定する第3推定モデル、のそれぞれに入力し、
    前記入力画像の入力に応じて取得される第1領域、第2領域及び第3領域のうち、前記第1推定モデルの推定結果として出力された前記第1領域を和集合の算出に用いる第1要素とし、前記第2推定モデルの推定結果として出力された前記第2領域を和集合の算出に用いる第2要素とし、前記第3推定モデルの推定結果として出力された前記第3領域を差集合の算出に用いる第3要素として、前記第1要素、前記第2要素及び前記第3要素を合成した領域を、前記入力画像における前記対象物の前記環状面であると推定した領域として出力する、
    処理をコンピュータに実行させる、推定処理プログラム。
  2. 前記出力は、前記第1領域と前記第2領域との和集合の領域から前記第3領域を除外した領域を、前記入力画像における前記対象物の前記環状面であると推定した前記領域として出力する、
    請求項1に記載の推定処理プログラム。
  3. 前記出力は、前記第2領域から前記第3領域を除外した領域と、前記第1領域との和集合の領域を、前記入力画像における前記対象物の前記環状面であると推定した前記領域として出力する、
    請求項1に記載の推定処理プログラム。
  4. 訓練用対象物を撮影した訓練画像と、前記訓練画像中の前記訓練用対象物に対応する領域を示すアノテーションデータと、をそれぞれに含む訓練データのデータセットを取得し、
    前記訓練画像の入力に応じて取得される、前記第1推定モデルが出力した推定結果と、第1アノテーションデータとしての前記アノテーションデータとに基づいて、前記第1推定モデルの機械学習を実行し、
    前記訓練画像の入力に応じて取得される、前記第2推定モデルが出力した推定結果と、前記アノテーションデータを前記訓練画像中の前記訓練用対象物の環状面の外周内の領域を示すように加工して得られる第2アノテーションデータとに基づいて、前記第2推定モデルの機械学習を実行し、
    前記訓練画像の入力に応じて取得される、前記第3推定モデルが出力した推定結果と、前記アノテーションデータを前記訓練画像中の前記訓練用対象物の前記環状面の内周内の領域を示すように加工して得られる第3アノテーションデータとに基づいて、前記第3推定モデルの機械学習を実行する、
    処理を前記コンピュータに実行させる、請求項1〜請求項3のいずれか1項に記載の推定処理プログラム。
  5. 前記入力画像における前記対象物の前記環状面であると推定した前記領域に対してノイズ除去処理を行なった結果を出力する、
    処理を前記コンピュータに実行させる、請求項1〜請求項4のいずれか1項に記載の推定処理プログラム。
  6. 前記入力画像は、超音波画像である、
    請求項1〜請求項5のいずれか1項に記載の推定処理プログラム。
  7. 対象物を撮影した入力画像を、前記対象物の環状面の領域を推定する第1推定モデル、前記環状面の外周内の領域を推定する第2推定モデル、前記環状面の内周内の領域を推定する第3推定モデル、のそれぞれに入力し、
    前記入力画像の入力に応じて取得される第1領域、第2領域及び第3領域のうち、前記第1推定モデルの推定結果として出力された前記第1領域を和集合の算出に用いる第1要素とし、前記第2推定モデルの推定結果として出力された前記第2領域を和集合の算出に用いる第2要素とし、前記第3推定モデルの推定結果として出力された前記第3領域を差集合の算出に用いる第3要素として、前記第1要素、前記第2要素及び前記第3要素を合成した領域を、前記入力画像における前記対象物の前記環状面であると推定した領域として出力する、
    処理をコンピュータが実行する、推定処理方法。
  8. 対象物を撮影した入力画像を、前記対象物の環状面の領域を推定する第1推定モデル、前記環状面の外周内の領域を推定する第2推定モデル、前記環状面の内周内の領域を推定する第3推定モデル、のそれぞれに入力する画像入力部と、
    前記入力画像の入力に応じて取得される第1領域、第2領域及び第3領域のうち、前記第1推定モデルの推定結果として出力された前記第1領域を和集合の算出に用いる第1要素とし、前記第2推定モデルの推定結果として出力された前記第2領域を和集合の算出に用いる第2要素とし、前記第3推定モデルの推定結果として出力された前記第3領域を差集合の算出に用いる第3要素として、前記第1要素、前記第2要素及び前記第3要素を合成した領域を、前記入力画像における前記対象物の前記環状面であると推定した領域として出力する領域出力部と、
    を備える、情報処理装置。
JP2020014106A 2020-01-30 2020-01-30 推定処理プログラム、推定処理方法、及び情報処理装置 Active JP7316611B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020014106A JP7316611B2 (ja) 2020-01-30 2020-01-30 推定処理プログラム、推定処理方法、及び情報処理装置
US17/144,180 US11869193B2 (en) 2020-01-30 2021-01-08 Computer-readable recoding medium having stored therein estimation processing program, estimation processing method and information processing apparatus
EP21150699.3A EP3859668A1 (en) 2020-01-30 2021-01-08 Estimation processing program, estimation processing method and information processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020014106A JP7316611B2 (ja) 2020-01-30 2020-01-30 推定処理プログラム、推定処理方法、及び情報処理装置

Publications (2)

Publication Number Publication Date
JP2021120815A true JP2021120815A (ja) 2021-08-19
JP7316611B2 JP7316611B2 (ja) 2023-07-28

Family

ID=74125083

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020014106A Active JP7316611B2 (ja) 2020-01-30 2020-01-30 推定処理プログラム、推定処理方法、及び情報処理装置

Country Status (3)

Country Link
US (1) US11869193B2 (ja)
EP (1) EP3859668A1 (ja)
JP (1) JP7316611B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009147814A1 (ja) * 2008-06-02 2009-12-10 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP2013061697A (ja) * 2011-09-12 2013-04-04 Dainippon Printing Co Ltd 個体識別装置、個体識別方法、及びプログラム
JP2016007270A (ja) * 2014-06-23 2016-01-18 東芝メディカルシステムズ株式会社 医用画像処理装置
WO2018118373A1 (en) * 2016-12-21 2018-06-28 Elekta, Inc. Online learning enhanced atlas-based auto-segmentation
JP2021511577A (ja) * 2018-01-10 2021-05-06 アンスティテュ・ドゥ・ルシェルシュ・シュール・レ・カンセール・ドゥ・ラパレイユ・ディジェスティフ−イ・エール・セ・ア・デ 3d医用画像のジオメトリに従った、構造化された畳み込みを通したいくつかのニューラルネットワークによる3d医用画像の自動セグメンテーションプロセス

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070014452A1 (en) * 2003-12-01 2007-01-18 Mitta Suresh Method and system for image processing and assessment of a state of a heart
US20060280348A1 (en) * 2005-06-01 2006-12-14 Smith Matthew W Method of screening cellular tissue
EP2339534A1 (en) * 2009-11-18 2011-06-29 Panasonic Corporation Specular reflection compensation
US9122950B2 (en) * 2013-03-01 2015-09-01 Impac Medical Systems, Inc. Method and apparatus for learning-enhanced atlas-based auto-segmentation
JP7024954B2 (ja) * 2017-04-12 2022-02-24 キヤノンメディカルシステムズ株式会社 医用画像処理装置及びx線ct装置
US10918326B2 (en) * 2018-05-31 2021-02-16 The Regents Of The University Of Michigan Automated assessment of bowel damage in intestinal diseases

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009147814A1 (ja) * 2008-06-02 2009-12-10 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP2013061697A (ja) * 2011-09-12 2013-04-04 Dainippon Printing Co Ltd 個体識別装置、個体識別方法、及びプログラム
JP2016007270A (ja) * 2014-06-23 2016-01-18 東芝メディカルシステムズ株式会社 医用画像処理装置
WO2018118373A1 (en) * 2016-12-21 2018-06-28 Elekta, Inc. Online learning enhanced atlas-based auto-segmentation
JP2020503923A (ja) * 2016-12-21 2020-02-06 エレクタ、インク.Elekta, Inc. オンライン学習により強化されたアトラスベース自動セグメンテーション
JP2021511577A (ja) * 2018-01-10 2021-05-06 アンスティテュ・ドゥ・ルシェルシュ・シュール・レ・カンセール・ドゥ・ラパレイユ・ディジェスティフ−イ・エール・セ・ア・デ 3d医用画像のジオメトリに従った、構造化された畳み込みを通したいくつかのニューラルネットワークによる3d医用画像の自動セグメンテーションプロセス

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
池本 健介 KENSUKE IKEMOTO: "胸壁および血管の正常構造を考慮したX線CTからの肺結節の認識 Recognition of lung nodules in CT imag", 電子情報通信学会技術研究報告 VOL.104 NO.580 IEICE TECHNICAL REPORT, vol. 第104巻, JPN6023025813, JP, ISSN: 0005091699 *

Also Published As

Publication number Publication date
JP7316611B2 (ja) 2023-07-28
US11869193B2 (en) 2024-01-09
US20210241461A1 (en) 2021-08-05
EP3859668A1 (en) 2021-08-04

Similar Documents

Publication Publication Date Title
US20170358100A1 (en) Image processing apparatus and image processing method
US11676361B2 (en) Computer-readable recording medium having stored therein training program, training method, and information processing apparatus
CN110287956B (zh) 血管中心线自动匹配方法及装置
JP2021106044A (ja) 画像処理装置、画像処理方法およびプログラム
WO2016032271A1 (ko) 스마트 기기를 이용한 초음파 신호의 고속 병렬 처리 방법
JP7212554B2 (ja) 情報処理方法、情報処理装置、及びプログラム
Shi et al. Tracing vocal fold vibrations using level set segmentation method
CN113658196A (zh) 红外图像中船舶的检测方法、装置、电子设备和介质
JP2021120815A (ja) 推定処理プログラム、推定処理方法、及び情報処理装置
JP7105369B2 (ja) トラッキング装置、学習済モデル、内視鏡システム及びトラッキング方法
KR101751750B1 (ko) X선 의료 영상에서의 디펙트 보정 방법
WO2018030519A1 (ja) 乳房領域検出システム、乳房領域検出方法、及びプログラム
CN110517239A (zh) 一种医学影像检测方法及装置
JP5430492B2 (ja) 画像処理装置、画像処理方法、プログラムおよび記録媒体
JP2010220904A (ja) 画像処理装置および方法ならびにプログラム
JP2014006745A (ja) 画像処理装置及びその制御方法
US20240087118A1 (en) Medical image processing apparatus and medical image processing method
WO2023152810A1 (ja) 画像処理装置、画像処理方法およびプログラム
JP2020004179A (ja) 画像処理プログラム、画像処理装置及び画像処理方法
JP6563964B2 (ja) 映像生成装置、映像生成方法、プログラム
JP2024516016A (ja) 入力画像の処理方法、入力画像の処理装置及びプログラム
KR100828194B1 (ko) 디지털 화상의 경계 흐림을 판단하는 장치와 방법 및 이를이용한 이미지 처리 시스템
WO2018220706A1 (ja) 画像処理装置および画像処理方法
JP2000283725A (ja) 中空糸測定装置および方法
CN116485683A (zh) 多孔径合成光学相干断层的成像方法、装置、设备及介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220801

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20221102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230609

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230707

R150 Certificate of patent or registration of utility model

Ref document number: 7316611

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150