JP7148657B2 - 情報処理装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
JP7148657B2
JP7148657B2 JP2021027404A JP2021027404A JP7148657B2 JP 7148657 B2 JP7148657 B2 JP 7148657B2 JP 2021027404 A JP2021027404 A JP 2021027404A JP 2021027404 A JP2021027404 A JP 2021027404A JP 7148657 B2 JP7148657 B2 JP 7148657B2
Authority
JP
Japan
Prior art keywords
image
difference
classification
mask
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021027404A
Other languages
English (en)
Other versions
JP2022128923A (ja
Inventor
祐二 綾塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CRESCO,Inc.
Original Assignee
CRESCO,Inc.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CRESCO,Inc. filed Critical CRESCO,Inc.
Priority to JP2021027404A priority Critical patent/JP7148657B2/ja
Priority to PCT/JP2022/004572 priority patent/WO2022181299A1/ja
Publication of JP2022128923A publication Critical patent/JP2022128923A/ja
Application granted granted Critical
Publication of JP7148657B2 publication Critical patent/JP7148657B2/ja
Priority to US18/237,467 priority patent/US20230394666A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Eye Examination Apparatus (AREA)

Description

本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。
従来から、画像に記録される物体を検出する技術が存在する。例えば、特許文献1に記載された技術は、ニューラルネットワークを利用することにより、画像に記録される物体を検出する。
特開2016-157219号公報
従来のニューラルネットワークを利用した物体の検出技術では、画像から得られる特徴量が大きい場所に特定の物体が存在することが推定される。この検出技術は、特定の物体が存在する場所を可視化することを主眼にしている。しかしながら、従来は、特定の物体を特定(分類)する場合に、なぜその物体に分類されるのかの判断のポイントが可視化されていない。
本発明は、画像に記録される物体を分類して当該物体の位置を提示する情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的とする。
一態様の情報処理装置は、第1画像に基づく第1画像情報を取得する取得部と、取得部によって取得する第1画像情報に基づく第1画像をその第1画像のサイズよりも小さいマスクによって隠した第2画像と、取得部によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出部と、算出部によって算出される分類に応じた差分に基づいて、その差分が生じる位置が示される第3画像を生成する生成部と、を備える。
一態様の情報処理装置では、算出部は、複数の異なるマスクそれぞれによって第1画像を隠すことにより得られる複数の第2画像それぞれと、第1画像とに基づいて、第2画像それぞれに応じた差分を算出することとしてもよい。
一態様の情報処理装置では、算出部は、第1サイズを有する複数の第1マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出すると共に、第1サイズとは異なる第2サイズを有する複数の第2マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出し、生成部は、第1マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像と、第2マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像とを合成した画像を生成することとしてもよい。
一態様の情報処理装置では、算出部は、合計数が奇数となる複数の第1マスクと、合計数が奇数となる複数の第2マスクとに基づいて、差分を算出することとしてもよい。
一態様の情報処理装置では、算出部は、対象を予め学習することにより生成される学習モデルを有するニューラルネットワークに第1画像を入力して、対象の分類毎に出力される第1値と、ニューラルネットワークに第2画像を入力して、対象の分類毎に出力される第2値と、の差分を算出することとしてもよい。
一態様の情報処理装置では、算出部は、対象として複数の眼底疾患が記録される画像を学習した学習モデルに基づいて、対象の分類として眼底疾患の種類に応じた第1値及び第2値を出力することとしてもよい。
一態様の情報処理装置では、生成部は、算出部によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、マスクで隠される第1画像に記録される対象が正の寄与と推定し、算出部によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、マスクで隠される第1画像に記録される対象が負の寄与と推定することとしてもよい。
一態様の情報処理装置では、生成部は、算出部によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、その差分が生じる位置を第3画像に示すときの態様を第1態様で示し、算出部によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、その差分が生じる位置を第3画像に示すときの態様を第1態様とは異なる第2態様で示すこととしてもよい。
一態様の情報処理装置では、生成部は、算出部によって算出される差分を表す数値が相対的に大きい場合、マスクで隠される第1画像に記録される対象が、算出部で算出される差分の分類に対応する可能性が相対的に高いと推定し、算出部によって算出される差分を表す数値が相対的に小さい場合、マスクで隠される第1画像に記録される対象が、算出部で算出される差分の分類に対応する可能性が相対的に低いと推定することとしてもよい。
一態様の情報処理装置では、生成部は、算出部によって算出される差分を表す数値が相対的に大きい場合、その差分が生じる位置を第3画像に示すときの態様を第3態様で示し、算出部によって算出される差分を表す数値が相対的に小さい場合、その差分が生じる位置を第3画像に示すときの態様を第3態様とは異なる第4態様で示すこととしてもよい。
一態様の情報処理方法では、コンピュータが、第1画像に基づく第1画像情報を取得する取得ステップと、取得ステップによって取得する第1画像情報に基づく第1画像をその第1画像のサイズよりも小さいマスクによって隠した第2画像と、取得ステップによって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出ステップと、算出ステップによって算出される分類に応じた差分に基づいて、その差分が生じる位置が示される第3画像を生成する生成ステップと、を実行する。
一態様の情報処理プログラムは、コンピュータに、第1画像に基づく第1画像情報を取得する取得機能と、取得機能によって取得する第1画像情報に基づく第1画像をその第1画像のサイズよりも小さいマスクによって隠した第2画像と、取得機能によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出機能と、算出機能によって算出される分類に応じた差分に基づいて、その差分が生じる位置が示される第3画像を生成する生成機能と、を実現させる。
一態様の情報処理装置は、第1画像(第1画像情報)を取得し、第1画像をその第1画像のサイズよりも小さいマスクによって隠した第2画像と、第1画像とに基づいて対象の分類に応じた第1画像と第2画像との差分を算出し、その差分が生じる位置が示される第3画像を生成するので、画像に記録される物体を分類してその物体の位置を提示することができる。
一態様の情報処理方法及び情報処理プログラムは、上述した一態様の情報処理装置と同様の効果を奏することができる。
一実施形態に係る情報処理システムについて説明するための図である。 一実施形態に係る情報処理装置について説明するためのブロック図である。 第1画像の一例について説明するための図である。 マスクの一例について説明するための図である。 ニューラルネットワークの概略構成について説明するための図である。 算出部によって差分を算出する場合の一例について説明するための図である。 サイズの異なる複数のマスクの一例について説明するための図である。 第3画像の一例について説明するための図である。 一実施形態に係る情報処理方法について説明するためのフローチャートである。 生成部によって生成される第3画像の一実施例について説明するための図である。 生成部によって生成される像の一実施例について説明するための図である。
以下、本発明の一実施形態について説明する
本明細書では、「情報」の文言を使用しているが、「情報」の文言は「データ」と言い換えることができ、「データ」の文言は「情報」と言い換えることができる。
本発明の一実施形態では、画像診断を行う機械学習モデルを解析し視覚化する手法、すなわち、その視覚化を行う情報処理システム1について説明する。
まず、一実施形態に係る情報処理システム1の概略について説明する。
図1は、一実施形態に係る情報処理システム1について説明するための図である。
情報処理システム1は、サーバ10、外部端末20及び情報処理装置30について説明する。
サーバ10は、情報処理装置30で利用される第1画像(第1画像情報)を蓄積すると共に、情報処理装置30に第1画像(第1画像情報)を送信する。第1画像は、例えば、病院及び歯科病院等において撮像される患者に関する画像であってもよい。具体的な一例として、第1画像は、光干渉断層計(OCT:Optical Coherence Tomography)で撮像される画像、レントゲン画像、CT(Computed Tomography)画像、及び、MRI(Magnetic Resonance Imaging)画像等を始めとする種々の画像であってもよい。なお、第1画像は、上述した一例に限定されることはなく、例えば、気象衛星等で撮像される気象に関する画像(気象画像)、及び、動物及び昆虫等を始めとする生物を撮像した画像(生物画像)を始めとする、画像に記録される対象を分類してそれの位置を特定するために利用される種々の画像であってもよい。
外部端末20は、例えば、情報処理装置30及びサーバ10の外部に配される端末である。外部端末20は、例えば、病院及び歯科病院等を始めとする種々の施設に配される。外部端末20は、例えば、デスクトップ、ラップトップ、タブレット及びスマートフォン等であってもよい。外部端末20は、第1画像をサーバ10に送信する。また、外部端末20は、情報処理装置30において第1画像に記録される対象が分類された結果と、その対象の第1画像上の位置とを特定された結果とを受信して出力する。例えば、外部端末20は、出力の一態様として、情報処理装置30における対象の分類結果とそれの位置を特定して結果とを端末表示部21に表示する。
情報処理装置30は、例えば、コンピュータ(一例として、サーバ、デスクトップ及びラップトップ等)であってもよい。情報処理装置30は、例えば、サーバ10から第1画像を取得する。また、情報処理装置30は、例えば、外部端末20から第1画像を取得してもよい。情報処理装置30は、例えば、機械学習等を利用して、第1画像に記録される対象を分類すると共に、その対象の第1画像上での位置を特定する。この場合、情報処理装置30は、第1画像の一部をマスクで覆い、マスクで覆われた第1画像上の部分が、マスクで覆っていない第1画像(元画像)と比較して、対象を分類する際に影響を与えるかを推定する。情報処理装置30は、第1画像のマスクで覆われた部分が対象の特定の分類に影響を与える場合、第1画像の特定の分類に寄与する箇所がマスクで覆われた部分にあると特定する。具体的な一例として、第1画像のマスクで覆われた部分に特定の症状がある場合、元画像と比較して差が生じるため、マスクで覆われた部分には特定の症状を示す対象があると推定し、そのマスクの部分の位置を特定する。情報処理装置30は、例えば、対象の分類結果とその対象の位置を特定した結果とを記録する画像(例えば、後述する第3画像)を生成してもよい。情報処理装置30は、分類結果と位置の特定結果(第3画像)を、サーバ10及び外部端末20のうち少なくとも一方に送信する。
なお、情報処理装置30は、画像に記録される症状を分類して、その症状の位置を特定する例に限定されることない。情報処理装置30は、気象画像に記録される雲を分類して、その分類した雲の位置を特定してもよく、生物画像に記録される生物を分類して、その分類に利用した対象(特徴)の位置を特定してもよい。また、情報処理装置30は、前述した一例に限定されず、画像に記録される対象を分類して、その分類した対象の位置を特定する種々のものに利用することができる。
次に、一実施形態に係る情報処理装置30について詳細に説明する。
図2は、一実施形態に係る情報処理装置30について説明するためのブロック図である。
情報処理装置30は、通信部35、記憶部36、表示部37、取得部32、算出部33及び生成部34を備える。取得部32、算出部33及び生成部34は、情報処理装置30の制御部31(例えば、演算処理装置等)の一機能として実現されてもよい。
通信部35は、例えば、サーバ10及び外部端末20等と通信を行う。すなわち、通信部35は、例えば、サーバ10及び外部端末20それぞれとの間で情報の送受信を行う。通信部35は、例えば、情報処理装置30の外部(例えば、サーバ10及び外部端末20等)から第1画像情報を受信する。通信部35は、例えば、後述する処理により得られる情報、すなわち、第1画像に記録される対象の分類結果及びその対象の位置を特定した結果(第3画像)に関する情報を外部(例えば、サーバ10及び外部端末20等)に送信する。
記憶部36は、例えば、種々の情報及びプログラム等を記憶する。記憶部36は、例えば、後述する処理により得られる情報、すなわち、第1画像に記録される対象の分類結果及びその対象の位置を特定した結果(第3画像)に関する情報を記憶する。
表示部37は、例えば、種々の文字、記号及び画像等を表示する。表示部37は、例えば、後述する処理により得られる情報、すなわち、第1画像に記録される対象の分類結果及びその対象の位置を特定した結果(第3画像)を表示する。
取得部32は、第1画像に基づく第1画像情報を取得する。すなわち、取得部32は、通信部35を介して、サーバ10及び外部端末20のうち少なくとも一方から第1画像情報を取得する。第1画像は、上述したように、例えば、病院及び歯科病院等において撮像される患者に関する画像であってもよく、又は、画像に記録される対象を分類してそれの位置を特定するために利用される種々の画像であってもよい。
図3は、第1画像の一例について説明するための図である。
図3に一例を示すように、第1画像には、特定の症状を示す対象100が記録される。一例として、第1画像は、眼底疾患の存在が推定されるOCT画像であってもよく、これ以外に、上述したような種々の画像であってもよい。
図4は、マスクの一例について説明するための図である。
算出部33は、取得部32によって取得する第1画像情報に基づく第1画像をその第1画像のサイズよりも小さいマスクによって隠した第2画像と、取得部32によって取得する第1画像とに基づいて、対象の分類に応じた第1画像(後述する第1値)と第2画像(後述する第2値)との差分を算出する。
まず、算出部33は、第1画像の一部を覆うマスクによって、その第1画像を覆う。
算出部33は、例えば、第1画像の縦及び横を三分割(3×3に分割)し、分割後のそれぞれの部分をマスクで覆い、第2画像を生成する。この場合、算出部33は、例えば、第1画像を複製して9枚の第1画像1A~1Iを生成する。生成部34は、例えば、第1画像1Aについては3×3で分割した左上部分をマスク2Aで覆い第2画像Aを生成し(図4(A)参照)、第1画像1Bについては3×3で分割した中上部分をマスク2Bで覆い第2画像Bを生成し(図4(B)参照)、第1画像1Cについては3×3で分割した右上部分をマスク2Cで覆い第2画像Cを生成する(図4(C)参照)。生成部34は、第1画像1D~1Iについても上述したようにマスク2D~2Iで覆い、それぞれで第2画像D~Iを生成する。
又は、算出部33は、例えば、1枚の第1画像を上述したマスク2A~2Iで順次覆いうことに基づいて、第2画像A~Iを生成してもよい。
算出部33は、複数の異なるマスクそれぞれによって第1画像を隠すことにより得られる複数の第2画像それぞれと、第1画像とに基づいて、第2画像それぞれに応じた差分を算出することとしてもよい。すなわち、算出部33は、上述したような第2画像A~Iと、マスクで隠す前の第1画像(元画像)とに基づいて、第1画像と第2画像A~Iそれぞれとの差分を算出する。
この場合、算出部33は、対象を予め学習することにより生成される学習モデルを有するニューラルネットワークに第1画像を入力して、対象の分類毎に出力される第1値を算出してもよい。また、算出部33は、上述したニューラルネットワークに第2画像を入力して、対象の分類毎に出力される第2値を算出してもよい。さらに、算出部33は、第1値と第2値との差分を算出することとしてもよい。
算出部33は、例えば、対象の分類を行うために、種々の画像(例えば、分類の対象が記録された画像等)を学習して学習モデルを取得する。一例として、算出部33は、対象として複数の眼底疾患が記録される画像を学習した学習モデルに基づいて、対象の分類として眼底疾患の種類(症状)に応じた第1値及び第2値を出力することとしてもよい。又は、一例として、算出部33は、対象として複数の種々の疾患が記録される画像を学習した学習モデルに基づいて、対象の分類として種々の疾患の種類(症状)に応じた第1値及び第2値を出力することとしてもよい。又は、一例として、算出部33は、対象として複数の雲が記録される画像を学習した学習モデルに基づいて、対象の分類として雲の種類に応じた第1値及び第2値を出力することとしてもよい。又は、一例として、算出部33は、対象として複数の生物が記録される画像を学習した学習モデルに基づいて、対象の分類として生物の種類に応じた第1値及び第2値を出力することとしてもよい。
算出部33は、制御部31によって上述した一例の画像が学習されることにより生成される学習モデルを取得してもよい。又は、算出部33は、情報処理装置30の外部で生成される学習モデルを取得してもよい。
図5は、ニューラルネットワーク200の概略構成について説明するための図である。
図5に一例を示すように、ニューラルネットワーク200は、画像が入力された場合、学習モデルに基づいて画像を分類し、分類結果(分類1,2)を出力する。なお、分類数は、図5に一例を示すように2つに限定されることはなく、3つ以上に分類されてもよい。具体的な一例として、ニューラルネットワーク200は、特定の症状を示す対象が記録される画像(例えば、眼底を撮影したOCT画像等)が入力された場合、学習モデルに基づいてOCT画像に記録される対象の眼底疾患を分類し、分類結果として複数の眼底疾患それぞれの可能性を分類する。すなわち、ニューラルネットワーク200は、例えば、分類結果として、分類1である可能性の値を算出し、分類2である可能性の値を算出する。なお、一例として、ニューラルネットワーク200は、分類結果としての確度が相対的に高い場合に、相対的に大きな値を出力してもよい。
算出部33は、機械学習等を利用して、種々の症状又は特定の症状(一例として、眼底疾患等)の画像を予め学習した学習モデルを生成し、その学習モデルと第1画像とに基づいて、第1画像において特定の症状を示す対象(患部)が存在するか分類する。
次に、算出部33は、例えば、上記と同じ学習モデルと第2画像A~Iそれぞれとに基づいて、第2画像それぞれにおいて特定の症状を示す対象(患部)が存在するか分類する。
すなわち、算出部33は、例えば、種々の症状の画像を予め学習してその症状に分類することが可能なニューラルネットワーク等に第1画像及び第2画像A~Iを通した後の分類結果として、それらの画像に記録される患部の症状を示す数値を得る。算出部33は、例えば、第1画像と第2画像A~Iそれぞれとをニューラルネットワークに通した後の第1画像(第1値)と第2画像A~Iそれぞれ(第2値)との差分を算出する。
算出部33は、上述したような分類結果毎に、第1画像と第2画像A~Iそれぞれとの差分を算出する。算出部33は、例えば、差分が相対的に大きい場合、すなわち第1画像をニューラルネットワークに通した後の特定の分類1の結果を示す数値と、第2画像それぞれをニューラルネットワークに通した後の特定の分類1の結果を示す数値との差が相対的に大きい(第1画像に対応する数値よりも第2画像に対応する数値がより低くなった場合)場合、元画像(第1画像)と比較して第2画像において分類1に対応する症状の影響が低くなっているため、マスクで覆った部分に患部があると推定して、その位置を特定する。
一方、算出部33は、例えば、第1画像をニューラルネットワークに通した後の特定の分類1の結果を示す数値と、第2画像それぞれをニューラルネットワークに通した後の特定の分類1の結果を示す数値との差が相対的に大きい(第1画像に対応する数値よりも第2画像に対応する数値がより高くなった場合)場合、元画像(第1画像)と比較して第2画像において分類1に対応する症状の影響が高くなっているため、マスクで覆った部分に患部がないと推定して、その位置を特定する。
また、算出部33は、例えば、差分が相対的に小さい場合、すなわち、第1画像をニューラルネットワークに通した後の特定の分類1の結果を示す数値と、第2画像それぞれをニューラルネットワークに通した後の特定の分類1の結果を示す数値との差が相対的に小さい場合には、数値の差分に応じて、元画像(第1画像)と比較して第2画像において分類1に対応する症状の影響が少し高く(又は、少し低く)、マスクで覆った部分に患部がある(又は、患部がない)可能性があると推定して、その位置を特定する。
図6は、算出部33によって差分を算出する場合の一例について説明するための図である。
図6に一例を示すように、算出部33は、第1画像Kをニューラルネットワークに通した後の分類結果として、分類1で6.23の第1値を得たとする。同様に、算出部33は、第2画像L~Nをニューラルネットワークに通した後の分類結果として、分類1でそれぞれ6.10、5.08及び7.35の第2値を得たとする。算出部33は、第1値6.23と、第2値6.10、5.08及び7.35それぞれとの差分として、-0.13、-1.05及び+1.12を得たとする。算出部33は、第2画像Mでは対象100の影響が相対的に大きいため、マスク101で対象100が隠されることにより第2値が5.08となり、第1値6.23と比べて低くなっている(差分が-1.05になっている)ことがわかる。
算出部33は、第1サイズを有する複数の第1マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出することとしてもよい。さらに、算出部33は、第1サイズとは異なる第2サイズを有する複数の第2マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出することとしてもよい。この場合、算出部33は、合計数が奇数となる複数の第1マスクと、合計数が奇数となる複数の第2マスクとに基づいて、差分を算出することとしてもよい。
すなわち、算出部33は、例えば、上述した第1画像と同一の画像について、上述したマスク(3×3)(第1マスク)とはサイズが異なるマスク(5×5、7×7、9×9及び11×11、…)(第2マスク)を利用して、上述した処理と同様に複数の第2画像を生成する。算出部33は、例えば、その第2画像について、上述した処理と同様に第1画像との差分を算出する。
図7は、サイズの異なる複数のマスクの一例について説明するための図である。
図7(A)は5×5のマスクを示し、図7(B)は7×7のマスクを示す。
算出部33は、図7(A)に例示すような5×5のマスクを利用して第1画像を覆うことにより、第2画像を生成する。同様に、算出部33は、図7(B)に例示するような7×7のマスクを利用して第1画像を覆うことにより、第2画像を生成する。
算出部33は、図7に例示するマスクを利用して第2画像を生成した場合でも、上述したものと同様の処理を行って第2値を取得し、第1値と第2値との差分を算出する。
生成部34は、算出部33によって算出される分類に応じた差分に基づいて、その差分が生じる位置が示される第3画像を生成する。図6に例示する場合、生成部34は、マスクで覆われる位置に対応して差分が生じる位置を示し、その位置に差分の数値に応じた態様を付して第3画像O~Qを生成してもよい。
この場合、生成部34は、第1マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像と、第2マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像とを合成した画像を生成することとしてもよい。すなわち、生成部34は、例えば、上述したように算出部33で算出される複数の差分、すなわち第1画像を3×3のマスク2A~2I(第1マスク)で覆うことに基づいて得られる第1画像と第2画像との差分、及び、第1画像を5×5のマスク(及び、7×7のマスク、9×9のマスク、11×11のマスク、…)(第2マスク)で覆うことに基づいて得られる第1画像と第2画像との差分等を1枚の画像(第3画像)に合成する。生成部34は、例えば、複数の第3画像(一例として、2つの第3画像R,S)を合成することとして、第3画像R,Sを重ねて、第3画像Rに記録される差分の位置と、第3画像Sに記録される差分の位置との両方が記録される1枚の画像を合成してもよい。
図8は、第3画像の一例について説明するための図である。
図8に例示するように、生成部34は、複数の第3画像を1枚に合成することにより、第1画像の撮像範囲に、特定の症状に分類される対象の位置を示すことが可能である。図3に示す第1画像及び図6に示す第1画像Kでは、画像の中央付近に対象が存在するため、図8においても、第3画像の中央付近に特定の症状に分類される対象の位置が示されることになる。すなわち、生成部34は、第1画像が眼底疾患を記録したOCT画像の場合には、その眼底疾患の症状を分類(特定)することができ、その症状の位置を示すことができる。
生成部34は、算出部33によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、その差分が生じる位置を第3画像に示すときの態様を第1態様で示すこととしてもよい。生成部34は、例えば、第1態様として、種々の色の態様を示してもよい。具体的な一例として、生成部34は、第1態様として、その位置を、赤色等を始めとする種々の色で示してもよい。この場合、生成部34は、算出部33によって算出される差分を表す数値が相対的に大きい場合、その差分が生じる位置を第3画像に示すときの態様を、第1態様及び後述する第2態様とは異なる第3態様で示すこととしてもよい。生成部34は、例えば、第3態様として、色の濃度の態様を示してもよい。具体的な一例として、生成部34は、第3態様として、第1態様で示される色の濃度を濃くしてもよく、相対的に濃い赤色であってもよい。
生成部34は、算出部33によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、マスクで隠される第1画像に記録される対象が正の寄与と推定することとしてもよい。すなわち、生成部34は、算出部33によって算出される差分を表す数値が相対的に一方側に大きい場合、マスクで隠される第1画像に記録される対象が、算出部33で算出される差分の分類に対応する可能性が相対的に高いと推定することとしてもよい。生成部34は、例えば、第3画像に示される、第1画像と第2画像との差分が相対的に一方側に大きい場合、すなわち、算出部33によって算出される第1画像に対応する数値よりも第2画像に対応する数値がより低くなった場合、元画像(第1画像)と比較して第2画像において特定の分類に対応する症状の影響が低くなっているため、マスクで覆った部分に患部があると推定して、その位置を特定する。
一方、生成部34は、算出部33によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、その差分が生じる位置を第3画像に示すときの態様を第1態様とは異なる第2態様で示すこととしてもよい。例えば、生成部34は、第2態様として、種々の色の態様を示してもよい。具体的な一例として、生成部34は、第2態様として、その位置を、青色等を始めとする種々の色で示してもよい。この場合、生成部34は、算出部33によって算出される差分を表す数値が相対的に大きい場合、その差分が生じる位置を第3画像に示すときの態様を、第1態様及び第2態様とは異なる第3態様で示すこととしてもよい。上述したように、生成部34は、例えば、第3態様として、色の濃度の態様を示してもよい。具体的な一例として、生成部34は、第3態様として、第2態様で示される色の濃度を濃くしてもよく、相対的に濃い青色であってもよい。
生成部34は、算出部33によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、マスクで隠される第1画像に記録される対象が負の寄与と推定することとしてもよい。すなわち、生成部34は、例えば、マスクで隠される第1画像に記録される対象が、特定の分類に対して阻害があると推定する。生成部34は、第3画像に示される、第1画像と第2画像との差分が相対的に他方側に大きい場合、すなわち、算出部33によって算出される第1画像に対応する数値よりも第2画像に対応する数値がより高くなった場合、元画像(第1画像)と比較して第2画像において特定の分類に対応する症状の影響が高くなっているため、マスクで覆った部分に患部がないと推定して、その位置を特定する。
又は、生成部34は、算出部33によって算出される差分を表す数値が相対的に小さい場合、その差分が生じる位置を第3画像に示すときの態様を第3態様とは異なる第4態様で示すこととしてもよい。生成部34は、例えば、第4態様として色の濃度の態様を示してもよい。具体的な一例として、生成部34は、第4態様として、第1態様及び第2態様で示される色の濃度を相対的に薄くしてもよい。すなわち、生成部34は、例えば、第1態様として差分が生じる位置が赤色で示される場合には、第4態様は相対的に薄い赤色であってもよい。同様に、生成部34は、例えば、第2態様として差分が生じる位置が青色で示される場合には、第4態様は相対的に薄い青色であってもよい。
生成部34は、算出部33によって算出される差分を表す数値が相対的に小さい場合、マスクで隠される第1画像に記録される対象が、算出部33で算出される差分の分類に対応する可能性が相対的に低いと推定することとしてもよい。生成部34は、例えば、第3画像に示される、第1画像と第2画像との差分が一方側又は他方側において相対的に小さい場合、その差分を示す数値に応じて、元画像(第1画像)と比較して第2画像において分類1に対応する症状の影響が少し高く(又は、少し低く)、マスクで覆った部分に患部がある(又は、患部がない)可能性があると推定して、その位置を特定する。
制御部31は、生成部34による推定結果を出力するよう制御する。
通信部35は、例えば、制御部31の制御に基づいて、生成部34で生成される第3画像に関する情報を外部に出力する。通信部35は、例えば、生成部34で生成される第3画像に関する情報をサーバ10及び外部端末20の少なくとも一方に出力する。外部端末20は、第3画像に関する情報を受信すると、その第3画像を端末表示部21に表示することが可能である。
記憶部36は、例えば、制御部31の制御に基づいて、生成部34で生成される第3画像に関する情報を記憶する。
表示部37は、例えば、制御部31の制御に基づいて、生成部34で生成される第3画像を表示する。
次に、一実施形態に係る情報処理方法について説明する。
図9は、一実施形態に係る情報処理方法について説明するためのフローチャートである。
ステップST101において、取得部32は、第1画像(第1画像情報)を取得する。
ステップST102において、算出部33は、ステップST101で取得する第1画像の一部をマスクで覆うことにより、第2画像を生成する。この場合、算出部33は、サイズの異なる複数のマスク(第1マスク及び第2マスク)で第1画像を覆うことにより、複数の第2画像を生成してもよい。マスクは、第1画像を複数に分割してそれぞれを覆うものであってもよく、ランダムなノイズであってもよい。なお、第1画像を複数に分割してそれぞれを覆うマスク(例えば、3×3マスク、5×5マスク、7×7マスク、…)は、例えば、合計数が奇数の数を有するマスクであってもよい。
ステップST103において、算出部33は、第1画像(第1値)と複数の第2画像(第2値)それぞれとの差分を算出する。すなわち、算出部33は、ステップST101で取得する第1画像をニューラルネットワークに通した後の第1値(分類後の数値)と、ステップST102で取得する第2画像をニューラルネットワークに通した後の第2値(分類後の数値)との差分を算出する。
ステップST104において、生成部34は、ステップST103で算出される差分に基づいて、分類毎のその差分が生じる位置が示される第3画像を生成する。生成部34は、第1マスクで第1画像を覆うことにより生成される複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像と、第2マスクで第1画像を覆うことにより生成される複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像とを合成した画像を生成することとしてもよい。
この場合、生成部34は、マスクで覆われる位置に対応して差分が生じる位置を示し、その位置に差分の数値に応じた態様を付した第3画像を生成してもよい。
生成部34は、例えば、ステップ103で算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方(又は、他方)を示す場合、その差分が生じる位置を第3画像に示すときの態様を第1態様(又は、第2態様)で示すこととしてもよい。第1態様及び第2態様は、例えば、色の違い等であってもよい。
生成部34は、ステップST103で算出される差分を表す数値が相対的に大きい(又は、小さい)場合、その差分が生じる位置を第3画像に示すときの態様を第3態様(又は、第4態様)で示すこととしてもよい。第3態様及び第4態様は、例えば、色の濃度の違い等であってもよい。
生成部34は、ステップST103で算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方(差分が相対的に大きい)を示す場合、マスクで隠される第1画像に記録される対象が正の寄与(ステップST103の分類結果に対応する可能性が高い)と推定することとしてもよい。
一方、生成部34は、ステップST103で算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方(差分が相対的に大きい)を示す場合、マスクで隠される第1画像に記録される対象が負の寄与(ステップST103の分類結果に対応する可能性が低い、換言すると、その分類に対する阻害が高い)と推定することとしてもよい。
また、生成部34は、ステップST103で算出される差分を表す数値が相対的に小さい場合、マスクで隠される第1画像に記録される対象が、ステップST103の分類結果に対応する可能性が相対的に低いと推定することとしてもよい。
次に、一実施例について説明する。
図10は、生成部34によって生成される第3画像の一実施例について説明するための図である。
図11は、生成部34によって生成される画像の一実施例について説明するための図である。
生成部34は、算出部33によって異なるサイズのマスク毎に生成される差分に応じた第3画像を生成する。 例えば、図10(A)に示すように、生成部34は、算出部33によって7×7のマスクに基づいて算出される差分に基づいた第3画像を生成する。また、例えば、図10(B)に示すように、生成部34は、算出部33によって9×9のマスクに基づいて算出される差分に基づいた第3画像を生成する。また、例えば、図10(C)に示すように、生成部34は、算出部33によって11×11のマスクに基づいて算出される差分に基づいた第3画像を生成する。生成部34は、図10(A)~10(C)に例示する以外にも、サイズの異なるマスクに基づいて第3画像を生成する。生成部34は、例えば、複数の第3画像を1枚の画像に合成して、図10(D)に示すような画像を生成する。図10(D)に例示する画像は、算出部33によって算出される差分と、その差分が生じる位置とを示す画像になる。
生成部34は、例えば、図10(D)に例示する画像と、第1画像とを1枚に合成して、図11に例示するような画像を生成してもよい。すなわち、図11に例示するように、生成部34は、対象(例えば、眼底疾患の症状)の分類毎に、算出部33によって算出される差分と、その差分が生じる位置とを示す画像を生成してもよい。この場合、生成部34は、例えば、各分類の合計の差分(Score)が相対的に高いほど、その分類の症状の可能性が高いことをしめしてもよい。
次に、本実施形態の効果について説明する。
情報処理装置30は、第1画像(第1画像情報)を取得する取得部32と、第1画像をその第1画像のサイズよりも小さいマスクによって隠した第2画像と、第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出部33と、その差分が生じる位置が示される第3画像を生成する生成部34と、を備える。
情報処理装置30は、マスクで隠される部分に分類の対象が存在すると、第1画像と第2画像との差分を取得することにより、その対象の影響を取得することができる。情報処理装置30は、第1画像と第2画像との差分に基づいて、画像に記録される物体(対象)を分類して、その物体(対象)の位置を提示することができる。
情報処理装置30では、算出部33は、複数の異なるマスクそれぞれによって第1画像を隠すことにより得られる複数の第2画像それぞれと、第1画像とに基づいて、第2画像それぞれに応じた差分を算出することとしてもよい。
情報処理装置30は、複数のマスクそれぞれによって第1画像に記録される物体(対象)を隠すことができる。情報処理装置30は、第1画像と、複数の第2画像それぞれとの差分を取得することにより、第1画像中の物体(対象)の影響を取得することができる。よって、情報処理装置30は、物体(対象)の位置を特定することができる。
情報処理装置30では、算出部33は、第1サイズを有する複数の第1マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出することとしてもよい。算出部33は、第2サイズを有する複数の第2マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出することとしてもよい。この場合、生成部34は、第1マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像と、第2マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像とを合成した画像を生成することとしてもよい。
情報処理装置30は、複数のサイズのマスク(第1マスク及び第2マスク)を利用して第1画像の一部を隠すので、物体(対象)のサイズが不明であっても、より正確に物体(対象)の位置を特定することができる。すなわち、情報処理装置30は、物体(対象)のサイズが相対的に大きい場合には、相対的にサイズの大きいマスクによって第1画像中の物体(対象)を隠すことができる。同様に、情報処理装置30は、物体(対象)のサイズが相対的に小さい場合には、相対的にサイズの小さいマスクによって第1画像中の物体(対象)の位置を特定するように隠すことができる。これにより、情報処理装置30は、第1画像中の物体(対象)のサイズが不明であっても、サイズの異なる複数のマスクによって第1画像を隠すことにおり、第1画像中の物体(対象)の影響を取得することができ、物体(対象)の分類及び位置を推定することができる。
情報処理装置30では、算出部33は、合計数が奇数となる複数の第1マスクと、合計数が奇数となる複数の第2マスクとに基づいて、差分を算出することとしてもよい。
これにより、情報処理装置30は、サイズの異なる複数のマスクで第1画像を隠す場合でも、それぞれのマスク(第1マスクと第2マスクと)の縁部が重なることがなく、第3画像中にマスクの縁部が重なって表示されることを防ぐことができる。
情報処理装置30では、算出部33は、対象を予め学習することにより生成される学習モデルを有するニューラルネットワークに第1画像を入力して、対象の分類毎に出力される第1値と、ニューラルネットワークに第2画像を入力して、対象の分類毎に出力される第2値と、の差分を算出することとしてもよい。
これにより、情報処理装置30は、予め学習した結果に基づいて対象を分類し、対象がその分類である可能性を数値で示すことができる。
情報処理装置30では、算出部33は、対象として複数の眼底疾患が記録される画像を学習した学習モデルに基づいて、対象の分類として眼底疾患の種類(症状)に応じた第1値及び第2値を出力することとしてもよい。
これにより、情報処理装置30は、第1画像に記録される対象(眼底疾患)の種類(症状)を分類することができ、またその眼底疾患の位置を特定することができる。
情報処理装置30では、生成部34は、算出部33によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、マスクで隠される第1画像に記録される対象が正の寄与と推定することとしてもよい。この場合、生成部34は、算出部33によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、マスクで隠される第1画像に記録される対象が負の寄与と推定することとしてもよい。
これにより、情報処理装置30は、差分の数値が相対的に大きい場合には、物体(対象)の影響が相対的に高い(低い)と推定することができる。すなわち、情報処理装置30は、物体(対象)の影響がより高い場合には、その影響が高いと推定される分類(例えば、症状)に該当する可能性が相対的に高く、その推定される画像上の位置に物体(対象)があると推定することができる。
情報処理装置30では、生成部34は、算出部33によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、その差分が生じる位置を第3画像に示すときの態様を第1態様で示すこととしてもよい。この場合、生成部34は、算出部33によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、その差分が生じる位置を第3画像に示すときの態様を第1態様とは異なる第2態様で示すこととしてもよい。
これにより、情報処理装置30は、物体(対象)の影響が相対的に高い(低い)と推定される場合には、所定の態様(例えば、色の相違等)で表示するため、情報処理システム1のユーザに物体(対象)の位置と、推定される分類(例えば、症状等)に該当する可能性を分かりやすく提示することができる。
情報処理装置30では、生成部34は、算出部33によって算出される差分を表す数値が相対的に大きい場合、マスクで隠される第1画像に記録される対象が、算出部33で算出される差分の分類に対応する可能性が相対的に高いと推定することとしてもよい。この場合、生成部34は、算出部33によって算出される差分を表す数値が相対的に小さい場合、マスクで隠される第1画像に記録される対象が、算出部33で算出される差分の分類に対応する可能性が相対的に低いと推定することとしてもよい。
これにより、情報処理装置30は、情報処理システム1のユーザに物体(対象)の位置と、推定される分類(例えば、症状等)に該当する可能性を提示することができる。
情報処理装置30では、生成部34は、算出部33によって算出される差分を表す数値が相対的に大きい場合、その差分が生じる位置を第3画像に示すときの態様を第3態様で示すこととしてもよい。この場合、生成部34は、算出部33によって算出される差分を表す数値が相対的に小さい場合、その差分が生じる位置を第3画像に示すときの態様を第3態様とは異なる第4態様で示すこととしてもよい。
これにより、情報処理装置30は、物体(対象)の影響が相対的に高い(低い)と推定される場合には、所定の態様(例えば、色の濃度等)で表示するため、情報処理システム1のユーザに物体(対象)の位置と、推定される分類(例えば、症状等)に該当する可能性を分かりやすく提示することができる。
情報処理方法では、コンピュータが、第1画像(第1画像情報)を取得する取得ステップと、第1画像をその第1画像のサイズよりも小さいマスクによって隠した第2画像と、第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出ステップと、その差分が生じる位置が示される第3画像を生成する生成ステップと、を実行する。
情報処理方法は、マスクで隠される部分に分類の対象が存在すると、第1画像と第2画像との差分を取得することにより、その対象の影響を取得することができる。情報処理方法は、第1画像と第2画像との差分に基づいて、画像に記録される物体(対象)を分類して、その物体(対象)の位置を提示することができる。
情報処理プログラムは、コンピュータに、第1画像(第1画像情報)を取得する取得機能と、第1画像をその第1画像のサイズよりも小さいマスクによって隠した第2画像と、第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出機能と、その差分が生じる位置が示される第3画像を生成する生成機能と、を実現させる。
情報処理プログラムは、マスクで隠される部分に分類の対象が存在すると、第1画像と第2画像との差分を取得することにより、その対象の影響を取得することができる。情報処理プログラムは、第1画像と第2画像との差分に基づいて、画像に記録される物体(対象)を分類して、その物体(対象)の位置を提示することができる。
上述した情報処理装置30の各部は、コンピュータの演算処理装置等の機能として実現されてもよい。すなわち、情報処理装置30の取得部32、算出部33及び生成部34(制御部31)は、コンピュータの演算処理装置等による取得機能、算出機能及び生成機能(制御機能)としてそれぞれ実現されてもよい。
情報処理プログラムは、上述した各機能をコンピュータに実現させることができる。情報処理プログラムは、外部メモリ又は光ディスク等の、コンピュータで読み取り可能な非一時的な記録媒体に記録されていてもよい。
また、上述したように、情報処理装置30の各部は、コンピュータの演算処理装置等で実現されてもよい。その演算処理装置等は、例えば、集積回路等によって構成される。このため、情報処理装置30の各部は、演算処理装置等を構成する回路として実現されてもよい。すなわち、情報処理装置30の取得部32、算出部33及び生成部34(制御部31)は、コンピュータの演算処理装置等を構成する取得回路、算出回路及び生成回路(制御回路)として実現されてもよい。
また、情報処理装置30の通信部35、記憶部36及び表示部37は、例えば、演算処理装置等の機能を含む通信機能、記憶機能及び表示機能として実現されもよい。また、情報処理装置30の通信部35、記憶部36及び表示部37は、例えば、集積回路等によって構成されることにより通信回路、記憶回路及び表示回路として実現されてもよい。また、情報処理装置30の通信部35、記憶部36及び表示部37は、例えば、複数のデバイスによって構成されることにより通信装置、記憶装置及び表示装置として構成されてもよい。
1 情報処理システム
10 サーバ
20 外部端末
30 情報処理装置
31 制御部
32 取得部
33 算出部
34 生成部
35 通信部
36 記憶部
37 表示部

Claims (17)

  1. 第1画像に基づく第1画像情報を取得する取得部と、
    前記取得部によって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得部によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出部と、
    前記算出部によって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成部と、
    前記算出部は、
    第1サイズを有する複数の第1マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出すると共に、
    第1サイズとは異なる第2サイズを有する複数の第2マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出し、
    前記生成部は、第1マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像と、第2マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像とを合成した画像を生成する、情報処理装置。
  2. 第1画像に基づく第1画像情報を取得する取得部と、
    前記取得部によって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得部によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出部と、
    前記算出部によって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成部と、
    前記算出部は、
    対象を予め学習することにより生成される学習モデルを有するニューラルネットワークに第1画像を入力して、対象の分類毎に出力される第1値と、
    前記ニューラルネットワークに第2画像を入力して、対象の分類毎に出力される第2値と、
    の差分を算出する情報処理装置。
  3. 第1画像に基づく第1画像情報を取得する取得部と、
    前記取得部によって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得部によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出部と、
    前記算出部によって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成部と、
    前記生成部は、
    前記算出部によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、マスクで隠される第1画像に記録される対象が正の寄与と推定し、
    前記算出部によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、マスクで隠される第1画像に記録される対象が負の寄与と推定する情報処理装置。
  4. 第1画像に基づく第1画像情報を取得する取得部と、
    前記取得部によって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得部によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出部と、
    前記算出部によって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成部と、
    前記生成部は、
    前記算出部によって算出される差分を表す数値が相対的に大きい場合、マスクで隠される第1画像に記録される対象が、前記算出部で算出される差分の分類に対応する可能性が相対的に高いと推定し、
    前記算出部によって算出される差分を表す数値が相対的に小さい場合、マスクで隠される第1画像に記録される対象が、前記算出部で算出される差分の分類に対応する可能性が相対的に低いと推定する情報処理装置。
  5. 前記算出部は、複数の異なるマスクそれぞれによって第1画像を隠すことにより得られる複数の第2画像それぞれと、第1画像とに基づいて、第2画像それぞれに応じた差分を算出する
    請求項1に記載の情報処理装置。
  6. 前記算出部は、合計数が奇数となる複数の第1マスクと、合計数が奇数となる複数の第2マスクとに基づいて、差分を算出する
    請求項に記載の情報処理装置。
  7. 前記算出部は、対象として複数の眼底疾患が記録される画像を学習した学習モデルに基づいて、対象の分類として眼底疾患の種類に応じた第1値及び第2値を出力する
    請求項に記載の情報処理装置。
  8. 前記生成部は、
    前記算出部によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、当該差分が生じる位置を第3画像に示すときの態様を第1態様で示し、
    前記算出部によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、当該差分が生じる位置を第3画像に示すときの態様を第1態様とは異なる第2態様で示す
    請求項に記載の情報処理装置。
  9. 前記生成部は、
    前記算出部によって算出される差分を表す数値が相対的に大きい場合、当該差分が生じる位置を第3画像に示すときの態様を第3態様で示し、
    前記算出部によって算出される差分を表す数値が相対的に小さい場合、当該差分が生じる位置を第3画像に示すときの態様を第3態様とは異なる第4態様で示す
    請求項に記載の情報処理装置。
  10. コンピュータが、
    第1画像に基づく第1画像情報を取得する取得ステップと、
    前記取得ステップによって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得ステップによって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出ステップと、
    前記算出ステップによって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成ステップと、
    前記算出ステップは、
    第1サイズを有する複数の第1マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出すると共に、
    第1サイズとは異なる第2サイズを有する複数の第2マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出し、
    前記生成ステップは、第1マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像と、第2マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像とを合成した画像を生成することを実行する情報処理方法。
  11. 第1画像に基づく第1画像情報を取得する取得ステップと、
    前記取得ステップによって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得ステップによって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出ステップと、
    前記算出ステップによって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成ステップと、
    前記算出ステップは、
    対象を予め学習することにより生成される学習モデルを有するニューラルネットワークに第1画像を入力して、対象の分類毎に出力される第1値と、
    前記ニューラルネットワークに第2画像を入力して、対象の分類毎に出力される第2値と、
    の差分を算出する情報処理方法。
  12. 第1画像に基づく第1画像情報を取得する取得ステップと、
    前記取得ステップによって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得ステップによって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出ステップと、
    前記算出ステップによって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成ステップと、
    前記生成ステップは、
    前記算出ステップによって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、マスクで隠される第1画像に記録される対象が正の寄与と推定し、
    前記算出ステップによって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、マスクで隠される第1画像に記録される対象が負の寄与と推定する情報処理方法。
  13. 第1画像に基づく第1画像情報を取得する取得ステップと、
    前記取得ステップによって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得ステップによって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出ステップと、
    前記算出ステップによって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成ステップと、
    前記生成ステップは、
    前記算出ステップによって算出される差分を表す数値が相対的に大きい場合、マスクで隠される第1画像に記録される対象が、前記算出ステップで算出される差分の分類に対応する可能性が相対的に高いと推定し、
    前記算出ステップによって算出される差分を表す数値が相対的に小さい場合、マスクで隠される第1画像に記録される対象が、前記算出ステップで算出される差分の分類に対応する可能性が相対的に低いと推定する情報処理方法。
  14. コンピュータに、
    第1画像に基づく第1画像情報を取得する取得機能と、
    前記取得機能によって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得機能によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出機能と、
    前記算出機能によって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成機能と、を実現させるものであって、
    前記算出機能は、
    第1サイズを有する複数の第1マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出すると共に、
    第1サイズとは異なる第2サイズを有する複数の第2マスクそれぞれによって第1画像の異なる位置を隠すことにより得られる複数の第2画像と、第1画像とに基づいて、第2画像それぞれに応じた差分を算出し、
    前記生成機能は、第1マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像と、第2マスクに応じた複数の第2画像それぞれに基づく分類に応じた差分に関する第3画像とを合成した画像を生成することを特徴とする情報処理プログラム。
  15. 第1画像に基づく第1画像情報を取得する取得機能と、
    前記取得機能によって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得機能によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出機能と、
    前記算出機能によって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成機能と、を実現させるものであって、
    前記算出機能は、
    対象を予め学習することにより生成される学習モデルを有するニューラルネットワークに第1画像を入力して、対象の分類毎に出力される第1値と、
    前記ニューラルネットワークに第2画像を入力して、対象の分類毎に出力される第2値と、
    の差分を算出することを特徴とする情報処理プログラム。
  16. 第1画像に基づく第1画像情報を取得する取得機能と、
    前記取得機能によって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得機能によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出機能と、
    前記算出機能によって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成機能と、を実現させるものであって、
    前記生成機能は、
    前記算出機能によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち一方を示す場合、マスクで隠される第1画像に記録される対象が正の寄与と推定し、
    前記算出機能によって算出される差分を表す数値が、プラス側及びマイナス側の数値のうち他方を示す場合、マスクで隠される第1画像に記録される対象が負の寄与と推定することを特徴とする情報処理プログラム。
  17. 第1画像に基づく第1画像情報を取得する取得機能と、
    前記取得機能によって取得する第1画像情報に基づく第1画像を当該第1画像のサイズよりも小さいマスクによって隠した第2画像と、前記取得機能によって取得する第1画像とに基づいて、対象の分類に応じた第1画像と第2画像との差分を算出する算出機能と、
    前記算出機能によって算出される分類に応じた差分に基づいて、当該差分が生じる位置が示される第3画像を生成する生成機能と、を実現させるものであって、
    前記生成機能は、
    前記算出機能によって算出される差分を表す数値が相対的に大きい場合、マスクで隠される第1画像に記録される対象が、前記算出機能で算出される差分の分類に対応する可能性が相対的に高いと推定し、
    前記算出機能によって算出される差分を表す数値が相対的に小さい場合、マスクで隠される第1画像に記録される対象が、前記算出機能で算出される差分の分類に対応する可能性が相対的に低いと推定することを特徴とする情報処理プログラム。


JP2021027404A 2021-02-24 2021-02-24 情報処理装置、情報処理方法及び情報処理プログラム Active JP7148657B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021027404A JP7148657B2 (ja) 2021-02-24 2021-02-24 情報処理装置、情報処理方法及び情報処理プログラム
PCT/JP2022/004572 WO2022181299A1 (ja) 2021-02-24 2022-02-07 情報処理装置、情報処理方法及び情報処理プログラム
US18/237,467 US20230394666A1 (en) 2021-02-24 2023-08-24 Information processing apparatus, information processing method and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021027404A JP7148657B2 (ja) 2021-02-24 2021-02-24 情報処理装置、情報処理方法及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP2022128923A JP2022128923A (ja) 2022-09-05
JP7148657B2 true JP7148657B2 (ja) 2022-10-05

Family

ID=83048246

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021027404A Active JP7148657B2 (ja) 2021-02-24 2021-02-24 情報処理装置、情報処理方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US20230394666A1 (ja)
JP (1) JP7148657B2 (ja)
WO (1) WO2022181299A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010283004A (ja) 2009-06-02 2010-12-16 Hitachi High-Technologies Corp 欠陥画像処理装置、欠陥画像処理方法、半導体欠陥分類装置および半導体欠陥分類方法
WO2019087803A1 (ja) 2017-10-31 2019-05-09 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体
WO2020255224A1 (ja) 2019-06-17 2020-12-24 日本電信電話株式会社 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、及び学習プログラム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3344995B2 (ja) * 2000-09-22 2002-11-18 東芝アイティー・ソリューション株式会社 錠剤表面検査装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010283004A (ja) 2009-06-02 2010-12-16 Hitachi High-Technologies Corp 欠陥画像処理装置、欠陥画像処理方法、半導体欠陥分類装置および半導体欠陥分類方法
WO2019087803A1 (ja) 2017-10-31 2019-05-09 日本電気株式会社 画像処理装置、画像処理方法及び記録媒体
WO2020255224A1 (ja) 2019-06-17 2020-12-24 日本電信電話株式会社 異常検知装置、学習装置、異常検知方法、学習方法、異常検知プログラム、及び学習プログラム

Also Published As

Publication number Publication date
JP2022128923A (ja) 2022-09-05
WO2022181299A1 (ja) 2022-09-01
US20230394666A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
JP6947759B2 (ja) 解剖学的対象物を自動的に検出、位置特定、及びセマンティックセグメンテーションするシステム及び方法
KR101887194B1 (ko) 피검체의 의료 영상의 판독을 지원하는 방법 및 이를 이용한 장치
RU2648836C2 (ru) Системы, способы и компьютерочитаемые носители для выявления вероятного влияния медицинского состояния на пациента
US10249042B2 (en) Method and apparatus for providing medical information service on basis of disease model
JP6885517B1 (ja) 診断支援装置及びモデル生成装置
KR101874348B1 (ko) 피검체의 흉부 pa 영상의 판독을 지원하는 방법 및 이를 이용한 장치
US20180247154A1 (en) Image classification apparatus, method, and program
JP2017174039A (ja) 画像分類装置、方法およびプログラム
CN105701331A (zh) 计算机辅助诊断设备和计算机辅助诊断方法
KR20200089146A (ko) 의료 영상 처리 장치 및 방법
CA3110581C (en) System and method for evaluating the performance of a user in capturing an image of an anatomical region
JP2019028887A (ja) 画像処理方法
CN114450716A (zh) 用于卒中表征的图像处理
Gaber et al. Comprehensive assessment of facial paralysis based on facial animation units
CN116580819B (zh) 用于自动化地确定图像序列中的检查结果的方法和系统
JP7148657B2 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JPWO2019235335A1 (ja) 診断支援システム、診断支援方法及び診断支援プログラム
US11836923B2 (en) Image processing apparatus, image processing method, and storage medium
Dimas et al. MedGaze: Gaze estimation on WCE images based on a CNN autoencoder
Rao et al. OTONet: Deep Neural Network for Precise Otoscopy Image Classification
CN109816632B (zh) 脑图像处理方法、装置、可读存储介质及电子设备
US20240265540A1 (en) Medical image processing apparatus, method for operating medical image processing apparatus, and non-transitory computer readable medium
US20240303973A1 (en) Actor-critic approach for generating synthetic images
JP7440665B2 (ja) 網膜画像処理
US20220084206A1 (en) Information processing apparatus, information processing method, and non-transitory storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220706

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220906

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220922

R150 Certificate of patent or registration of utility model

Ref document number: 7148657

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150