JP2021049270A - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP2021049270A
JP2021049270A JP2019175718A JP2019175718A JP2021049270A JP 2021049270 A JP2021049270 A JP 2021049270A JP 2019175718 A JP2019175718 A JP 2019175718A JP 2019175718 A JP2019175718 A JP 2019175718A JP 2021049270 A JP2021049270 A JP 2021049270A
Authority
JP
Japan
Prior art keywords
image
certainty
site
reflection
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019175718A
Other languages
English (en)
Inventor
雄一朗 星
Yuichiro Hoshi
雄一朗 星
有洋 渡邉
Arihiro Watanabe
有洋 渡邉
風里 渡辺
Furi Watanabe
風里 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Computermind Corp
Original Assignee
Computermind Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Computermind Corp filed Critical Computermind Corp
Priority to JP2019175718A priority Critical patent/JP2021049270A/ja
Publication of JP2021049270A publication Critical patent/JP2021049270A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Eye Examination Apparatus (AREA)

Abstract

【課題】診断者が画像から疾患部の部位を容易に特定できるようにする。【解決手段】画像処理装置4のBスキャン画像取得部51は、対象を奥行方向に撮像したBスキャン画像を取得する。平面画像取得部52は、対象を撮像した平面画像を取得する。部位検出部53は、画像が入力されると、画像に含まれる疾患部の部位に確信度を付与して出力するように学習して生成された学習モデルを基に、Bスキャン画像における疾患部に該当する部位を、疾患種別毎に確信度を付与して検出する。分類部54は、Bスキャン画像から検出された部位を構成する単位画像を確信度毎に分類する。反映部55は、分類部54により確信度毎に分類された前記部位又は前記部位の位置を示すオブジェクトを、所定の表示形態で表示されるように平面画像に重畳させた反映画像を生成する。【選択図】図3

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
従来より、機械学習の技術を用いて、疾患部の画像を疾患種別毎に分類して学習モデルを生成しておき、患者から取得した画像から疾患名を特定する技術がある。
従来は、画像分類ネットワークを使用して疾患種別の分類を試みていた。
特開2019−118814号公報
しかしながら、従来の機械学習には限界があり、画像に対して疾患が小さい場合は、特徴がうまく学習できず、疾患を特定する精度としてあまりよくはなかった。このため、従来は、画像全体に対して疾患名のラベルを付けた断層画像全体をモニタに表示する程度であり、医師等がモニタに表示された断層画像を目視して、異常箇所である疾患部の部位を特定するしかなく、部位の特定には、診断者(医師等)の長年の経験が必要であり、また画像全体をくまなく確認するため、部位の特定に時間を要していた。
本願発明はこのような状況に鑑みてなされたものであり、診断者が画像から疾患部の部位を容易に特定できるようにすることを目的とする。
上記目的を達成するため、本発明の一態様の情報処理装置は、
対象を奥行方向に撮像した第1画像を取得する第1画像取得手段と、
前記対象を撮像した平面状の第2画像を取得する第2画像取得手段と、
画像が入力されると、前記画像に含まれる疾患部の部位に確信度を付与して出力するように学習されて生成された学習モデルを基に、前記第1画像取得手段により取得された前記第1画像における疾患部に該当する部位を、疾患種別毎に確信度を付与して検出する部位検出手段と、
前記部位検出手段により前記第1画像から検出された前記部位を構成する単位画像を確信度毎に分類する分類手段と、
前記分類手段により確信度毎に分類された前記部位又は前記部位の位置を示すオブジェクトを、所定の表示形態で表示されるように前記第2画像に重畳させた反映画像を生成する反映手段と、
を具備する情報処理装置。
本発明の一態様の上記情報処理装置に対応する情報処理方法及びプログラムも、本発明の一態様の情報処理方法及びプログラムとして提供される。
本発明によれば、診断者が画像から疾患部の部位を容易に特定することができる。
本発明の情報処理装置の一実施形態に係る画像処理装置を含む情報処理システムの構成の例を示す図である。 図1の情報処理システムのうち、本発明の情報処理装置に係る画像処理装置のハードウェア構成の一例を示すブロック図である。 第1実施形態の図1の情報処理システム、即ち図2の画像処理装置及び学習装置の機能的構成の一例を示す機能ブロック図である。 情報処理システムの画像処理装置の動作を示すフローチャートである。 Bスキャン画像から検出された疾患部のX軸方向の画素の位置を平面画像に反映させる様子を示す図である。 Bスキャン画像の断面をY軸方向にずらして撮像した複数枚のBスキャン画像の疾患部の位置を平面画像に反映させる様子を示す図である。 画像処理装置により生成される反映画像の一例を示す図である。 画像処理装置により生成される反映画像の一例を示す図である。 画像処理装置により生成される反映画像の一例を示す図である。 画像処理装置により生成される反映画像の一例を示す図である。 画像処理装置により生成される反映画像の一例を示す図である。 画像処理装置により生成される反映画像の一例を示す図である。 画像処理装置により生成される反映画像の一例を示す図である。
以下、本発明の実施形態について、図面を用いて説明する。
図1は、本発明の情報処理装置の一実施形態に係る画像処理装置を含む情報処理システムの構成を示す図である。
図1に示す情報処理システムは、眼底カメラ付き光干渉断層計1(以下「OCT1」と称す)と、学習装置2と、画像処理装置4と、モデルDB3とを含むように構成される。OCTは、Optical Coherence Tomography(光コヒーレンストモトグラフィ)の略称である。
OCT1は、例えば被検眼の眼底部等の診断の対象を光干渉技術により生体組織へ入射させる光の方向(光軸方向)に撮像したBスキャン画像を画像処理装置4に出力する。Bスキャン画像は、光の光軸方向、つまり奥行方向に眼底部を撮像した画像であり、これを「第1画像」、「断層画像」、「光干渉断層画像」等と呼ぶ。
また、OCT1は、診断の対象の眼底部を眼底カメラにより2次元的(平面状)に撮像し、撮像した眼底部の平面画像を画像処理装置4に出力する。光の光軸に垂直な面をEnface平面といい、そのEnface平面の画像を「第2画像」又は「平面画像」等と呼ぶ。
学習装置2は、予め用意した疾患種別毎の複数のBスキャン画像について機械学習を行い、モデル化する。
具体的には、例えば、眼の疾患を持つ人(患者U)の眼底を撮影して得られた多数のBスキャン画像を疾患の種別毎にクラス分けした学習用の画像データ(以下「学習用データ」と称す)が学習装置2に入力される。
学習装置2は、一つ以上(多数)の学習用データを用いて機械学習をすることで、学習モデルを生成する。学習装置2により生成された学習モデルは、モデルDB3に格納される。なお、学習装置2の機能的構成や処理の詳細については、図3以降の図面を参照して後述する。
モデルDB3には、学習装置2により機械学習された学習モデルが格納される。学習モデルに対しては、例えば、畳み込み学習型ニューラルネットワーク等を適用することができる。なお、畳み込み学習型ニューラルネットワークは一例に過ぎず、これ以外の機械学習の手法を適用してもよい。更に言えば、学習モデルは、機械学習のモデルに限らず、所定のアルゴリズムにより判定を行う判定器を採用してもよい。
即ち、学習モデルは、画像が入力されると、画像に含まれる疾患部の部位に確信度を付与して出力するように学習して生成されたものであればよい。
画像処理装置4は、「眼底疾患モデル」をモデルDB3から取得する。画像処理装置4は、OCT1から取得したBスキャン画像と「眼底疾患モデル」を用いて疾患部の部位又は部位の位置を示すオブジェクトを平面画像に重畳(反映)させた画像(以下これを「反映画像」と呼ぶ)を生成する。
画像処理装置4は、疾患部の部位又は部位の位置を示すオブジェクトを平面画像に重畳させた反映画像を出力データとしてディスプレイ等の出力部16へ出力する。オブジェクトは、例えば領域線、等高線、マスク画像、矢印等のキャラクタアイコン、数値、グラフ等を含む。出力部16としてプリンタが接続されていれば、反映画像を印刷することもできる。
画像処理装置4の機能的構成や処理の詳細については、図3以降の図面を参照して後述する。
図2は、図1の情報処理システムのうち、本発明の情報処理装置の第1実施形態に係る画像処理装置のハードウェア構成の一例を示すブロック図である。
画像処理装置4は、CPU(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、出力部16と、入力部17と、記憶部18と、通信部19と、ドライブ20とを備えている。
CPU11は、ROM12に記録されているプログラム、又は、記憶部18からRAM13にロードされたプログラムに従って各種の処理を実行する。
RAM13には、CPU11が各種の処理を実行する上において必要なデータ等も適宜記憶される。
CPU11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14にはまた、入出力インターフェース15も接続されている。入出力インターフェース15には、出力部16、入力部17、記憶部18、通信部19、及びドライブ20が接続されている。
出力部16は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。
入力部17は、キーボードやマウス等で構成され、ユーザの指示操作に応じて各種情報を入力する。
記憶部18は、ハードディスク等で構成され、各種情報のデータを記憶する。
通信部19は、ネットワークを介して他の対象(例えば図1のOCT1やモデルDB3)との間で行う通信を制御する。
ドライブ20には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア21が適宜装着される。ドライブ20によってリムーバブルメディア21から読み出されたプログラムは、必要に応じて記憶部18にインストールされる。また、リムーバブルメディア21は、記憶部18に記憶されている各種データも、記憶部18と同様に記憶することができる。
なお、図示はしないが、図1の情報処理システムの学習装置2は、図2に示すハードウェア構成と基本的に同様の構成を有している。従って、学習装置2のハードウェア構成の説明は省略する。
また、説明の便宜上、画像処理装置4は、学習装置2とは別途設けるものとしたが、特にこれに限定されず、学習装置2と画像処理装置4との各機能を1台の情報処理装置に集約してもよい。
図3は、一実施形態の図1の情報処理システム、即ち図2の画像処理装置4及び学習装置2の機能的構成の一例を示す機能ブロック図である。
図3に示すように、学習装置2は、Bスキャン画像取得部41、部位検出部42、分類部43、モデル生成部45等を有する。
Bスキャン画像取得部41は、疾患があると思われる患者Uの眼の内側の眼底部(診断対象又は対象)をOCT1が撮影した奥行方向の断面画像であるBスキャン画像をOCT1から取得する。Bスキャン画像は、断面の位置をずらして複数枚撮影される。
部位検出部42は、取得した少なくとも一つのBスキャン画像と、予め用意したラベリング済みの複数の疾患部を含むサンプル画像とを基に、サンプル画像の中の疾患部に該当する部位がBスキャン画像に含まれているか否かを検出する。予め用意したサンプル画像は、見識のない人でもラベル付けを行える疾患部の断層画像である。
分類部43は、部位検出部42により検出されたBスキャン画像の中の疾患部の部位を疾患種別毎に分類しラベリングする。分類は、クラス分けを含む。
モデル生成部44は、分類部43により疾患部の部位がラベリングされた患者のBスキャン画像を新たな教師画像として、モデルDB3の眼底疾患モデル31に加える処理を行う。教師画像を眼底疾患モデル31に新たに加えることで眼底疾患モデル31が更新される。
即ち、学習装置2は、一つ以上(多数)の学習用データを用いて機械学習をすることで、新たな眼底疾患モデル31を生成しモデルDB3に格納する。
画像処理装置4は、Bスキャン画像取得部51と、平面画像取得部52と、部位検出部53と、分類部54と、反映部55とを有する。
Bスキャン画像取得部51は、眼底部を奥行方向に撮像したBスキャン画像を取得する。Bスキャン画像は、OCT1が撮影した断層画像である。Bスキャン画像は、断面の位置を一定の間隔でずらして複数枚撮影される。また、眼底部を診断対象又は対象と呼ぶ。
平面画像取得部52は、眼底部を撮像した平面状の平面画像を取得する。平面画像は、患者の眼底部をOCT1が眼底カメラによって2次元的に撮影した画像である。
部位検出部53は、モデルDB3に格納されている学習モデルである眼底疾患モデル31を基に、Bスキャン画像取得部51により取得されたBスキャン画像における疾患部に該当する部位を、疾患種別毎に確信度を付与して検出する。
部位検出部53は、Bスキャン画像取得部51により取得された少なくとも一つのBスキャン画像と眼底疾患モデル31とを用いて、Bスキャン画像の中の疾患部に該当する部位を検出する。
1枚のBスキャン画像は、一断面の画像のため、これを平面に投影した場合、疾患部に該当する部位を幅(線)でしか表すことができないが、断面の位置を一定方向にずらしてスキャンした複数枚のBスキャン画像を用いることで、部位を領域(面)として表現できる。X軸及びY軸で表される面をXY平面とし、XY平面に直交する方向をZ軸方向(奥行方向)とした場合、X軸方向にスキャンして1枚のBスキャン画像を得る場合の一定方向はY軸方向と言える。
分類部54は、部位検出部53によりBスキャン画像から検出された部位を構成する単位画像を確信度毎に分類する。単位画像は、1以上の画素の集合体であり、1画素でもよいし、ブロックでもよい。
分類部54は、部位を構成する単位画像毎に、予め疾患種別毎に設定された、疾患部であることの確さを示す確信度を付与して部位を疾患種別毎に分類(クラス分け)する。
このように検出された疾患部の部位の範囲の単位画像に疾患種別毎の確信度を付与することで、Bスキャン画像中に含まれる疾患部(疾患種別も含む)の位置をある程度特定することができる。
確信度は、Bスキャン画像中における疾患種別毎の部位の形状や幅、高さ等に応じた値が予め設定されている。確信度は、例えば100から0の範囲で設定される。また、確信度は、例えば疾患部の中心(幅の中心で高さが高い)に近い位置には高く設定され、中心から離れるほど低い値に設定される。
なお、上記確信度の設定例は、説明を解りやすくするための一例であり、部位周辺が高く、中心が低い疾患の例もあり、それ以外もあり、疾患の種別毎に異なる。
反映部55は、分類部54により確信度毎に分類された部位又は部位の位置を示すオブジェクトを、所定の表示形態(図7乃至図13参照)で表示されるように平面画像に重畳させた反映画像を生成する。
また、反映部55は、部位又は部位の位置を示すオブジェクトを、確信度に応じて表示形態を変化させるように平面画像に重畳させて反映画像を生成し出力部16に出力する。これにより、出力部16では、例えばディスプレイ等であれば入力された反映画像が描画され、表示される。
次に、図4を参照して、画像処理装置4により実行される画像処理について説明する。図4は、図3の機能的構成を有する画像処理装置4により実行される画像処理の流れの一例を説明するフローチャートである。
この情報処理システムの場合、画像処理装置4は、診断者が患者Uのスキャン画像から疾患部の部位を特定するのを支援するための画像処理を以下のように実行する。
ステップS11において、Bスキャン画像取得部51は、OCT1より眼底部をスキャンして得られたBスキャン画像を取得する。この際に、あるスキャン位置からY軸方向に一定間隔でずらしてスキャンした複数のBスキャン画像が取得される。
ステップS12において、平面画像取得部52は、OCT1より眼底部をスキャンして得られた平面画像を取得する。
ステップS13において、部位検出部53は、モデルDB3に格納されている学習モデルである眼底疾患モデル31を基に、Bスキャン画像取得部51により取得されたBスキャン画像における疾患部に該当する部位を、疾患種別毎の確信度を付与して検出する。
ステップS14において、分類部54は、部位検出部53によりBスキャン画像から検出された部位を構成する単位画像を確信度毎に分類する。
ステップS15において、反映部55は、分類部54により確信度毎に分類された部位又は部位の位置を示すオブジェクトを、所定の表示形態で表示されるように平面画像に重畳させた反映画像を生成し、出力部16に出力する。これにより、画像処理装置4の出力部16、例えばディスプレイ等の画面に反映画像が描画される。
画像処理装置4の画面に表示された反映画像を、診断者が目視することで、疾患部の部位が一目でわかる。
ここで、図5、図6を参照して反映部55がオブジェクトを平面画像に重畳させる動作を説明する。図5は、Bスキャン画像から検出された疾患部のX軸方向の画素の位置を平面画像に反映させる様子を示す図、図6は、Bスキャン画像(XZ平面)をY軸方向にずらして撮像した複数枚のBスキャン画像の疾患部の位置を平面画像に反映させる様子を示す図である。なお、X軸とは平面画像60、63、66の横軸を言い、Y軸とは平面画像60、63、66の縦軸を言い、平面画像60、63、66の面をXY平面と言う。Z軸とはXY平面と直交する方向を言い、Bスキャン画像62a乃至62gの面をXZ平面と言い、Z軸は、眼底部の奥行方向を指す。
この場合、図5に示すように、Bスキャン画像61a(XZ断面の画像)の中で疾患部に該当する部位62aをその幅(X軸方向の距離)で、平面画像60のXY平面に投影し、投影した位置に部位62aの幅の範囲でオブジェクトとしての線64を重畳し、反映画像63を生成する。
そして、図6に示すように、Bスキャン画像61aのスキャン位置からY軸方向に一定間隔ずつずらしてスキャンした複数のBスキャン画像61a乃至61g夫々の部位62a乃至62gについて平面画像60に対する上記投影処理を行うことで、オブジェクトとしての領域65を生成する。これにより、領域65を平面画像60に反映した反映画像66を生成することができる。
以下、図7乃至図13を参照して上記の例の他の反映画像の生成例を説明する。
(等高線の例)
この例では、図7に示すように、反映部55は、同等の信頼度を持つ単位画素どうしを結ぶ等高線72乃至76を平面画像60に重畳することで、反映画像71を生成する。各単位画素どうしの結び方としては、例えば確信度をいくつかに区分した区分毎に単位画素の信頼度を割り振り、その区分を示す線で緩やかに接続する等が考えられる。
確信度の区分とは、確信度全体が「1−100」までとすると、例えば確信度「1−20」を第1区分、確信度「21−40」を第2区分…、…確信度「81−100」を第5区分とする分け方がある。この場合、例えば確信度が「85」の単位画素は、第5区分に分類され、第5区分の等高線の中に入るものとなる。なお、この区分し方は、一例であり、これ以外の分け方であってもよい。
詳細に説明すると、反映部55は、疾患種別毎の確信度に応じた等高線72乃至76を平面画像60に重畳して反映画像71を生成する。等高線72、73は、第1の疾患種別の部位を示す。等高線72は、第1の確信度、等高線73は第2の確信度を示す。
等高線74、75、76は、第2の疾患種別の部位を示す。等高線74は、第3の確信度、等高線75は、第4の確信度を示す。等高線76は、第5の確信度を示す。各確信度は数値が異なる。等高線72乃至76毎にその範囲を色分けしてもよい。
この等高線の描画例では、疾患部の部位が確信度別の等高線72乃至76で表示されるので、診断者は、眼底部における疾患部の広がり方や範囲が一目でわかる。
(数値入りの等高線の例)
この例では、図8に示すように、反映部55は、確信度をいくつかに区分した区分毎に単位画素どうしを接続した等高線72乃至76と、各等高線72乃至76に対応する確信度の数値を平面画像60に重畳することで、反映画像81を生成する。
詳細に説明すると、反映部55は、疾患種別毎の確信度に応じた等高線82乃至87と、夫々の等高線82乃至87の確信度を示す数値が夫々の等高線82乃至87に対応するように平面画像60に重畳させて反映画像81を生成する。等高線82、83、84は、第1の疾患種別の部位を示す。等高線82は第1の確信度「90」、等高線83は第2の確信度「60」、等高線84は第3の確信度「30」を示す。
この数値入りの等高線の描画例では、疾患部の部位が確信度別の等高線82乃至87で表示されるとともに、各等高線82乃至87には夫々に確信度の数値が付与されて表示されるので、診断者は、疾患部の広がり方や範囲と共に、等高線82乃至87で示される疾患部の確からしさの違いが一目でわかる。
(輪郭線の例)
この例では、図9に示すように、反映部55は、確信度をいくつかに区分したうちの所定の区分の確信度をもつ単位画素どうしを結んだ輪郭線92、93を平面画像60に重畳することで、反映画像91を生成する。なお、所定の区分は、一例として、最小の区分とする。
このように、疾患部の部位を外枠だけで囲むことで、疾患部の広がり具合を広い範囲で示すことができるので、診断者は、その範囲で画像を確認し診断することができる。最小の区分は、例えば上記図7の等高線の例で言えば、確信度1−20の第1区分がこれに相当する。
この輪郭線の例では、疾患部の部位が輪郭線92、93で表示されるので、診断者は、疾患部のおおよその範囲が一目でわかる。
(マスク画像の例)
この例では、図10に示すように、反映部55は、確信度をいくつかに区分したうちの所定の区分範囲以外の単位画素をマスクするマスク画像102を平面画像60に重畳することで、反映画像101を生成する。
このマスク画像の例では、確信度が例えば「50」を超える区分の単位画素の領域を空けたマスク画像102によりそれ以外の部分(疾患部としての信頼度が「50」以下の部分)をマスクすることで、疾患部としての確信度が高い部位を際立たせることができ、診断者の注意をその部位に集中させることができる。
(ピンポイント表示の例)
この例では、図11に示すように、反映部55は、確信度が所定の値を超える単位画素に対応する平面画像60の位置に例えばマーク112、113等のオブジェクトを重畳することで、反映画像111を生成する。ここで、所定の値には、例えば90等を設定する。これにより、確信度が90を超える高確信度の平面画像60の位置にマーク112、113が表示される。
このピンポイント表示の例では、疾患部である確信度が所定の値を超える平面画像60の位置にマーク112、113が表示されるので、診断者は、そのマーク112、113の位置を中心として疾患の部分を診断することができる。
(グラフ表示の第1例)
この例では、図12に示すように、反映部55は、確信度が付与された単位画素の分布を示すグラフ122、125を平面画像60に並べて反映画像121を生成する。
反映部55は、反映画像121の中で単位画素の分布の幅を示す線を平面画像60に重畳することで、グラフ122、125と平面画像60の位置を対応させている。
グラフ122は、平面画像60(XY平面)上におけるX軸方向の疾患種別毎の確信度分布を示している。この例では、グラフ122に、第1疾患の分布123と、第2疾患の分布124が形成されている。
また、グラフ125は、平面画像60(XY平面)上におけるY軸方向の疾患種別毎の確信度分布を示している。この例では、グラフ125に、第1疾患の分布126と、第2疾患の分布127が形成されている。
このグラフ表示の第1例では、疾患部として検知された部位を、平面画像60とは別の領域にグラフ122、125で表示するので、診断者は、X軸方向及びY軸方向の2つの方向から確信度の分布(高さ)を確認し、平面画像60に照合して疾患部を診断することできる。なお、この例では、グラフ122、125を表示させたが、数字や文字等を平面画像60とは別の領域に表示させるようにしてもよい。
(グラフ表示の第2例)
この例では、図13に示すように、反映部55は、閾値の範囲が可変可能であり、範囲内に確信度が含まれる単位画素の分布を示すグラフ134、137を平面画像60に並べて配置する。この例では、グラフ134に、第1疾患の分布135と、第2疾患の分布136が形成されている。また、グラフ137に、第1疾患の分布138と、第2疾患の分布139が形成されている。また、反映部55は、上記分布の範囲を示す領域132、133等のオブジェクトを平面画像60に重畳することで反映画像131を生成する。なお、グラフ134、137と疾患部の部位を示す領域132、133のうちいずれか一方を表示するだけでもよく、両方を表示してもよい。
グラフ137には、閾値の範囲を可変可能とするためのスライドオブジェクト140、141が設けられている。スライドオブジェクト140は、この例では、全信頼度の範囲0−100の中で、下限の閾値(例えば20等)を決定するためのものでありユーザの操作により可変可能である。スライドオブジェクト141は、全信頼度の範囲0−100の中で、上限の閾値(例えば80等)を決定するためのものでありユーザの操作により可変可能である。
このグラフ表示の第2例では、スライドオブジェクト140、141をスライドさせて表示対象の確信度の範囲を調整することで、特定の確信度の部分のみが表示されるので、例えば確信度が低い部分のみを表示させることで、診断者が判断に迷った部分がどこなのかを確認することができる。
以上、説明したように本実施形態によれば、分類部54により確信度毎に分類された疾患部の部位の位置を示すオブジェクトを、所定の表示形態で表示されるように平面画像60に重畳させた反映画像(図7乃至図13の画像71、81、91、101、112、121、131等)を生成するので、重点的に診察しなければならない部分が明確になり、医師等の診断者の負担を低減することができる。
なお、上記実施形態では、光軸方向(奥行方向)の画像であるBスキャン画像をOCT1で撮像したが、OCT1の他に、例えばX線CT装置やMRI装置等を用いても撮影でき、撮像装置として、これらいずれかの装置を用いてもよい。また、上記実施形態では、光軸に対して垂直なEnface平面の画像を平面画像と呼んだが、Enface画像と呼んでもよい。
上記実施形態では、診断の対象として眼底部を一例にして説明したが、これ以外に、例えば口内や食道、胃、腸の内壁等のさまざまな疾患部を診断の対象としてもよい。
以上を換言すると、本発明が適用される情報処理装置は、次のような構成を有する各種各様の実施形態を取ることができる。
即ち、本発明が適用される情報処理装置(例えば図3等の画像処理装置4)は、
対象を奥行方向に撮像した第1画像(Bスキャン画像)を取得する第1画像取得手段(例えば図3等のBスキャン画像取得部51)と、
前記対象を平面的に撮像した第2画像(平面画像)を取得する第2画像取得手段(例えば図3等の平面画像取得部52)と、
画像が入力されると、前記画像に含まれる疾患部の部位に確信度を付与して出力するように学習されて生成された学習モデル(例えば図3等のモデルDBの眼底疾患モデル31)を基に、前記第1画像取得手段により取得された前記第1画像における疾患部に該当する部位を、疾患種別毎に確信度を付与して検出する部位検出手段(例えば図3等の部位検出部53)と、
前記部位検出手段により前記第1画像から検出された前記部位を構成する単位画像を確信度毎に分類する分類手段(例えば図3等の分類部54)と、
前記分類手段により確信度毎に分類された前記疾患部の部位又は前記部位の位置を示すオブジェクトを、所定の表示形態で表示されるように前記第2画像に重畳させた反映画像を生成する反映手段(例えば図3等の反映部55)と、
を備える。
これにより、対象からスキャンした第2画像(眼底部の平面画像)に、疾患種別毎に信頼度で分類された疾患部の部位又は部位の位置を示すオブジェクトが重畳された反映画像がディスプレイに表示されるので、診断者は、ディスプレイに表示された眼底部の平面画像から疾患部の部位又は部位の位置を示すオブジェクトを注視することで、疾患部の部位を容易に特定できるようなる。
前記反映手段(例えば図3等の反映部55)は、
前記疾患部の部位又は前記部位を示すオブジェクトを、前記確信度に応じて表示形態を変化させるように前記第2画像に重畳する、
ことにより、平面画像の中における疾患部の部位をより判断しやすくなる。
前記反映手段(例えば図3等の反映部55)は、
同等の信頼度を持つ単位画素どうしを結ぶ等高線(例えば図7の等高線72、73、74、75、76)、又は前記等高線(例えば図8の等高線82、83、84、85、86、87)と前記等高線に対応する前記確信度の数値「30」、「60」、「90」を前記第2画像(例えば図7、図8の平面画像60)に重畳する、
ことにより、平面画像の中における疾患部の広さや範囲をより特定しやすくなる。
前記反映手段(例えば図3等の反映部55)は、
前記確信度をいくつかに区分したうちの所定の区分の前記確信度をもつ単位画素を結ぶ輪郭線(例えば図9の輪郭線92、93)を前記第2画像(例えば図9の平面画像60)に重畳する、
ことにより、平面画像の中における疾患部のおおよその範囲が一目でわかる。
前記反映手段(例えば図3等の反映部55)は、
前記確信度をいくつかに区分したうちの所定の区分範囲以外の単位画素をマスクするマスク画像102を前記第2画像(例えば図10の平面画像60)に重畳する、
ことにより、画像の中で確信度が高い疾患部を際立たせることができ、診断者の注意をその部位に集中させて、疾患を判断しやすくなる。
前記反映手段(例えば図3等の反映部55)は、
前記確信度が所定の値を超える単位画素に対応する前記第2画像(例えば図11の平面画像60)の位置に前記オブジェクト(例えば図11のマーク112、113)を重畳する、
ことにより、疾患部である確信度が所定の値を超える平面画像の位置にマーク等のオブジェクトが表示されるので、診断者は、そのマークの位置を中心として疾患の部分を診断することができる。
前記反映手段(例えば図3等の反映部55)は、
前記確信度が付与された単位画素の分布を示すグラフを前記第2画像(例えば図12の平面画像60)に並べて配置する、
ことにより、疾患部として検知された部位を、第2画像(例えば図12の平面画像60)とは別の領域にグラフ(例えば図12のグラフ122、125)で並べて配置するので、診断者は、グラフから確信度の分布(高さ)を確認し、第2画像に照合して疾患部を診断することできる。
前記反映手段(例えば図3等の反映部55)は、
閾値の範囲が可変可能であり、前記範囲内に前記確信度が含まれる単位画素の分布を示すグラフ(例えば図13の平面画像60)を前記第2画像(例えば図13の平面画像60)に並べて配置、及び/又は分布の範囲を示すオブジェクト(例えば図13の領域132、133)を前記第2画像(例えば図13の平面画像60)に重畳する、
ことにより、閾値の範囲を可変して表示対象の確信度の範囲を調整することで、特定の確信度の部分のみが表示されるので、例えば確信度が低い部分のみを表示させることで、診断者が判断に迷って部分がどこなのかを確認することができる。
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。
換言すると、図3の機能構成は例示に過ぎず、特に限定されない。
即ち、上述した一連の処理を全体として実行できる機能が情報処理システムに備えられていれば足り、この機能を実現するためにどのような機能ブロックを用いるのかは特に図3の例に限定されない。また、機能ブロックの存在場所も、図3に特に限定されず、任意でよい。例えば、学習装置2の機能ブロックを画像処理装置4等に移譲させてもよい。また、画像処理装置4の機能ブロックを学習装置2等に移譲させてもよい。更に言えば、画像処理装置4と学習装置2は、同じハードウェアであってもよい。
また例えば、一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、コンピュータ等にネットワークや記録媒体からインストールされる。
コンピュータは、専用のハードウェアに組み込まれているコンピュータであってもよい。また、コンピュータは、各種のプログラムをインストールすることで、各種の機能を実行することが可能なコンピュータ、例えばサーバの他汎用のスマートフォンやパーソナルコンピュータであってもよい。
また、例えば、このようなプログラムを含む記録媒体は、ユーザにプログラムを提供するために装置本体とは別に配布される図示せぬリムーバブルメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される記録媒体等で構成される。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、その順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的或いは個別に実行される処理をも含むものである。
また、本明細書において、システムの用語は、複数の装置や複数の手段等より構成される全体的な装置を意味するものとする。
1・・・OCT、2・・・学習装置、3・・・モデルDB、4・・・画像処理装置、21・・・CPU、41、51・・・Bスキャン画像取得部、52・・・平面画像取得部、42、53・・・部位検出部、43、54・・・分類部、44・・・モデル生成部、55・・・反映部、60・・・平面画像、61a乃至61g・・・Bスキャン画像

Claims (10)

  1. 対象を奥行方向に撮像した第1画像を取得する第1画像取得手段と、
    前記対象を撮像した平面状の第2画像を取得する第2画像取得手段と、
    画像が入力されると、前記画像に含まれる疾患部の部位に確信度を付与して出力するように学習して生成された学習モデルを基に、前記第1画像取得手段により取得された前記第1画像における疾患部に該当する部位を、疾患種別毎に確信度を付与して検出する部位検出手段と、
    前記部位検出手段により前記第1画像から検出された前記部位を構成する単位画像を確信度毎に分類する分類手段と、
    前記分類手段により確信度毎に分類された前記疾患部の部位又は前記部位の位置を示すオブジェクトを、所定の表示形態で表示されるように前記第2画像に重畳させた反映画像を生成する反映手段と、
    を備える情報処理装置。
  2. 前記反映手段は、
    前記疾患部の部位又は前記部位を示すオブジェクトを、前記確信度に応じて表示形態を変化させるように前記第2画像に重畳する、
    請求項1記載の情報処理装置。
  3. 前記反映手段は、
    同等の信頼度を持つ単位画素どうしを結ぶ等高線、又は前記等高線と前記等高線に対応する前記確信度の数値を前記第2画像に重畳する、
    請求項1又は2に記載の情報処理装置。
  4. 前記反映手段は、
    前記確信度をいくつかに区分したうちの所定の区分の前記確信度をもつ前記単位画素どうしを結ぶ輪郭線を前記第2画像に重畳する、
    請求項1又は2記載の情報処理装置。
  5. 前記反映手段は、
    前記確信度をいくつかに区分したうちの所定の区分範囲以外をマスクするマスク画像を前記第2画像に重畳する、
    請求項1又は2記載の情報処理装置。
  6. 前記反映手段は、
    前記確信度が所定の値を超える単位画素に対応する前記第2画像の位置に前記オブジェクトを重畳する、
    請求項1又は2記載の情報処理装置。
  7. 前記反映手段は、
    前記確信度が付与された単位画素の分布を示すグラフを前記第2画像に並べて配置する、
    請求項1又は2記載の情報処理装置。
  8. 前記反映手段は、
    閾値の範囲が可変可能であり、前記範囲内に前記確信度が含まれる単位画素の分布を示すグラフを前記第2画像に並べて配置、及び/又は前記分布の範囲を示すオブジェクトを前記第2画像に重畳する、
    請求項1又は2記載の情報処理装置。
  9. 情報処理装置が実行する情報処理方法であって、
    対象を奥行方向に撮像した第1画像を取得するステップと、
    前記対象を撮像した平面状の第2画像を取得するステップと、
    画像が入力されると、前記画像に含まれる疾患部の部位に確信度を付与して出力するように学習して生成された学習モデルを基に、前記第1画像における疾患部に該当する部位を、疾患種別毎に確信度を付与して検出するステップと、
    前記第1画像から検出された前記部位を構成する単位画像を確信度毎に分類するステップと、
    前記確信度毎に分類された前記疾患部の部位又は前記部位の位置を示すオブジェクトを、所定の表示形態で表示されるように前記第2画像に重畳させた反映画像を生成するステップと、
    を含む情報処理方法。
  10. コンピュータに処理を実行させるプログラムであって、
    前記コンピュータを、
    対象を奥行方向に撮像した第1画像を取得する第1画像取得手段と、
    前記対象を撮像した平面状の第2画像を取得する第2画像取得手段と、
    画像が入力されると、前記画像に含まれる疾患部の部位に確信度を付与して出力するように学習して生成された学習モデルを基に、前記第1画像取得手段により取得された前記第1画像における疾患部に該当する部位を、疾患種別毎に確信度を付与して検出する部位検出手段と、
    前記部位検出手段により前記第1画像から検出された前記部位を構成する単位画像を確信度毎に分類する分類手段と、
    前記分類手段により確信度毎に分類された前記疾患部の部位又は前記部位の位置を示すオブジェクトを、所定の表示形態で表示されるように前記第2画像に重畳させた反映画像を生成する反映手段
    として機能させるプログラム。
JP2019175718A 2019-09-26 2019-09-26 情報処理装置、情報処理方法及びプログラム Pending JP2021049270A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019175718A JP2021049270A (ja) 2019-09-26 2019-09-26 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019175718A JP2021049270A (ja) 2019-09-26 2019-09-26 情報処理装置、情報処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2021049270A true JP2021049270A (ja) 2021-04-01

Family

ID=75156613

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019175718A Pending JP2021049270A (ja) 2019-09-26 2019-09-26 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2021049270A (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004283188A (ja) * 2003-03-19 2004-10-14 Konica Minolta Holdings Inc 画像診断支援装置、画像診断支援方法、プログラム及び記憶媒体
JP2008154950A (ja) * 2006-12-26 2008-07-10 Topcon Corp 眼底画像処理装置、眼底撮影装置及びプログラム
JP2011115264A (ja) * 2009-12-01 2011-06-16 Konica Minolta Medical & Graphic Inc 医用情報表示装置及びプログラム
JP2018020024A (ja) * 2016-08-05 2018-02-08 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018121886A (ja) * 2017-01-31 2018-08-09 株式会社ニデック 画像処理装置、および画像処理プログラム
WO2018143180A1 (ja) * 2017-01-31 2018-08-09 株式会社ニデック 画像処理装置、および画像処理プログラム
WO2019172231A1 (ja) * 2018-03-06 2019-09-12 富士フイルム株式会社 医療画像処理システム及び内視鏡システム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004283188A (ja) * 2003-03-19 2004-10-14 Konica Minolta Holdings Inc 画像診断支援装置、画像診断支援方法、プログラム及び記憶媒体
JP2008154950A (ja) * 2006-12-26 2008-07-10 Topcon Corp 眼底画像処理装置、眼底撮影装置及びプログラム
JP2011115264A (ja) * 2009-12-01 2011-06-16 Konica Minolta Medical & Graphic Inc 医用情報表示装置及びプログラム
JP2018020024A (ja) * 2016-08-05 2018-02-08 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
JP2018121886A (ja) * 2017-01-31 2018-08-09 株式会社ニデック 画像処理装置、および画像処理プログラム
WO2018143180A1 (ja) * 2017-01-31 2018-08-09 株式会社ニデック 画像処理装置、および画像処理プログラム
WO2019172231A1 (ja) * 2018-03-06 2019-09-12 富士フイルム株式会社 医療画像処理システム及び内視鏡システム

Similar Documents

Publication Publication Date Title
KR101373935B1 (ko) 안과 장치, 안과 장치의 제어 방법 및 컴퓨터 판독가능 저장 매체
KR102507711B1 (ko) 의료용 화상 처리 장치, 의료용 화상 처리 방법, 및 컴퓨터 판독가능 매체
US10349826B2 (en) Image processing apparatus, image processing method, and storage medium
JP6930283B2 (ja) 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
EP2710958B1 (en) Method and system for intelligent qualitative and quantitative analysis of digital radiography softcopy reading
JP2019118814A (ja) 機械学習ガイド付き撮影システム
KR20190087272A (ko) 안저영상을 이용한 녹내장 진단 방법 및 이를 위한 장치
CN113226153A (zh) 图像处理装置、图像处理方法和程序
US8724871B1 (en) Method and system for identifying anomalies in medical images
JP2013066632A (ja) 医用画像処理装置、医用画像処理方法、プログラム
CN111563523A (zh) 利用机器训练的异常检测的copd分类
JP2011224264A (ja) 断層像観察装置、表示制御方法及びプログラム
CN104011770A (zh) 处理并显示乳房图像
CN113557714A (zh) 医学图像处理装置、医学图像处理方法和程序
CN112822973A (zh) 医学图像处理装置、医学图像处理方法和程序
US20210383262A1 (en) System and method for evaluating a performance of explainability methods used with artificial neural networks
JP2014018251A (ja) 眼科撮影装置及び眼科撮影プログラム
JP2006263127A (ja) 眼底画像診断支援システム、及び眼底画像診断支援プログラム
JP2019536531A (ja) X線画像内の不透明度を検出する装置
JP2021049270A (ja) 情報処理装置、情報処理方法及びプログラム
KR102536369B1 (ko) 인공 지능 기반 위 내시경 영상 진단 보조 시스템 및 방법
JP7440665B2 (ja) 網膜画像処理
JP6033478B2 (ja) 眼科装置、層厚比較方法およびプログラム
WO2023053991A1 (ja) 医療画像処理装置、医療画像処理装置の作動方法、及び医療画像処理装置用プログラム
KR102517232B1 (ko) 머신러닝 기반의 의료 영상에 대한 반사광 제거 방법 및 이를 이용한 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230418

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230516

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230718

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20231114