JP6471559B2 - 診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム - Google Patents

診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム Download PDF

Info

Publication number
JP6471559B2
JP6471559B2 JP2015057036A JP2015057036A JP6471559B2 JP 6471559 B2 JP6471559 B2 JP 6471559B2 JP 2015057036 A JP2015057036 A JP 2015057036A JP 2015057036 A JP2015057036 A JP 2015057036A JP 6471559 B2 JP6471559 B2 JP 6471559B2
Authority
JP
Japan
Prior art keywords
image data
skin image
learning
skin
disease
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015057036A
Other languages
English (en)
Other versions
JP2016174728A (ja
Inventor
松永 和久
和久 松永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2015057036A priority Critical patent/JP6471559B2/ja
Publication of JP2016174728A publication Critical patent/JP2016174728A/ja
Application granted granted Critical
Publication of JP6471559B2 publication Critical patent/JP6471559B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Description

本発明は、診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラムに関する。
近年、高齢化やオゾン層破壊によってメラノーマ(悪性黒色腫)などの皮膚疾患の増加が問題となっている。肉眼や通常のルーペを用いて観察を行っても、メラノーマと良性の色素細胞母斑や血豆などとの鑑別は困難であり、メラノーマの早期発見及び早期治療を行うことが難しかった。
皮膚に向かう光のほとんどは、皮膚表面によって反射され、又は、皮膚に吸収される。このため、肉眼や通常のルーペを用いる場合、目から受領される情報は、ほとんどが皮膚表面についての情報であり、皮膚内部については十分な情報が得られなかった。つまり、メラノーマと良性の色素細胞母斑との鑑別の困難性は、メラノーマと良性の色素細胞母斑とは皮膚内部における色素分布や色合いが異なるにもかかわらず、肉眼や通常のルーペを用いても、皮膚内部における情報を十分に観察できないことに起因していた。
そこで、このような診断には、皮膚が部分的に透光性であることを利用することで、皮膚内部の色素分布や色合いを観察できるダーモスコープが活用されている。ダーモスコープは、発光ダイオードなどにより標的部に光を照射するとともに、皮膚内部を覆う皮膚表面からの反射光を低減し、かつ、標的部を10倍から30倍に拡大して観察することで、非侵襲的に皮膚内部の炎症、色、色素沈着、毛嚢及び血管などを視覚化できる。
皮膚表面からの反射光を低減する方法としては、ジェルや偏光フィルタを用いる方法が知られている。ジェルを用いる場合、皮膚表面にジェルを塗布することによって、皮膚表面にある角層の凹凸の影響をなくして光の乱反射を抑制するものである。
これに対して、偏光フィルタを用いる場合、光源から皮膚に向かう光は、まず第1の偏光フィルタによって直線偏光とされる。この光の一部は、皮膚で反射される。皮膚表面からの反射光は、入射光と同じ面を通るように反射される鏡面反射成分を多く含むが、皮膚内部からの反射光は入射角に対して反射角が変化する。第1の偏光フィルタと比較して偏光方向が90°ずれた第2の偏光フィルタを皮膚からレンズへの反射光の経路上に位置づけることで、この鏡面反射成分を除去し、皮膚内部からの反射光の少なくとも一部を透過することで、皮膚内部をレンズによって視覚化した交差偏光像を得ることができる。
また、皮膚表面の像と皮膚内部の像の比較や重ね合わせなどのために、皮膚表面と皮膚内部との両方を観察又は撮像したい場合がある、このため、皮膚表面を観察又は撮像できる状態と皮膚内部を観察又は撮像できる状態に相互に切り替えられるダーモスコープが所望されていた。
例えば、特許文献1には、このような要求に応えるために、ダイオードと、ダイオードからの光を偏光する上部偏光フィルタ及び下部偏光フィルタと、観察偏光フィルタを介して標的部を拡大して視認できる光学レンズと、を有するダーモスコープが開示されている。上部偏光フィルタは、上部偏光フィルタの偏光軸方向が、観察偏光フィルタの偏光軸方向に対して90°ずれていることで、上部偏光フィルタを通った光を用いると、皮膚内部を視覚化した交差偏光像を提供できるものである。これに対して、下部偏光フィルタは、下部偏光フィルタの偏光軸方向が観察偏光フィルタの偏光軸方向に対して平行となることで、下部偏光フィルタを通った光を用いると、皮膚表面のトポグラフィーと性質が強調された平行偏光像を提供できるものである。なお、上部偏光フィルタと下部偏光フィルタには所定のダイオードに対応する位置にそれぞれ開口が設けられており、発光するダイオードをスイッチで切り替えることで、交差偏光像と平行偏光像とを切り替えられるように構成されている。
米国特許第7,006,223号明細書
上記したダーモスコープにより撮影された皮膚画像を画像処理して行われる診断は、ジェルが塗布され、又は偏光フィルタを使用して撮影され、取り込まれた偏光処理を施した画像である。この場合、偏光処理を施すことにより皮膚表面の表面反射を抑制でき、皮膚内部の構造が明瞭になる利点はあるが、同時に皮膚表面の平滑性の情報が失われ、結果、皮膚疾患の判断情報が失われてしまう問題があった。
本発明は上記した課題を解決するためになされたものであり、皮膚表面の平滑性を捕捉でき、より精度の高い診断を可能にした、診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラムを提供することを目的とする。
上記した課題を解決するために本発明の一態様は、
皮膚画像を用いて皮膚の疾患を診断するための診断装置であって、
偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得する取得部と、
前記取得された偏光処理を行わずに撮影された第1の皮膚画像データから疾患部分の平滑度を算出する平滑度算出部と、
疾患の識別名称と、既知の皮膚画像データを関連付けて記録している皮膚画像データベースを用いて予め学習に付され、前記平滑度算出部で算出した前記第1の皮膚画像データからの平滑度と、前記第2の皮膚画像データからの判別値とを合わせて最終判別値を求め、該最終判別値に基づいて診断されるべき疾患を識別する識別器と、を有することを特徴とする診断装置である。
本発明の他の特徴は、本明細書及び添付図面の記載により、明らかにする。
本発明によれば、皮膚表面の平滑性を捕捉できより精度の高い診断を可能にした、診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラムを提供することができる。
本発明の実施形態に係る診断装置の構成を示すブロック図である。 図1の識別器の動作概念図である。 本発明の実施形態に係る診断装置の基本動作を示すフローチャートである。 図3の学習画像収集処理の詳細手順を示すフローチャートである。 本実施形態の識別器生成処理の詳細手順を示すフローチャートである。 本実施形態における未知の画像の識別処理の詳細手順を示すフローチャートである。 変形例の識別器生成処理の詳細手順を示すフローチャートである。 図7の平滑度算出処理の詳細手順を示すフローチャートである。 変形例における未知の画像の識別処理の詳細手順を示すフローチャートである。 変形例の切り抜き前の前景と切り抜き後の前景を示す図である。 ダーモスコープにより皮膚患部を観察する場合の光学的な原理を説明するために引用した図である。 ジェル塗布が無い場合とジェル塗布がある場合に撮影され取り込まれた「イボ」と「ほくろ」の画像の一例を示す図である。
以下、添付図面を参照して、本発明を実施するための形態(以下、「実施形態」と称する)について詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号を付している。
(実施形態の構成)
図1は、本実施形態に係る診断装置100の構成を示すブロック図である。図1に示すように、本実施形態に係る診断装置100には、ダーモスコープ付き撮影装置(取得部)110が接続されている。ダーモスコープ付き撮影装置110は、診断装置100(処理部10)からの指示により撮影を行ない、撮影画像(ダーモスコピー画像)を画像記憶部102に格納するとともに表示装置120上に表示する。また、撮影画像は、処理部10により画像処理が施されて画像記憶部102に保存されると共に表示装置120上に表示される。入力装置130は、ダーモスコープ画像の撮影開始指示、後述するダーモスコピー画像中の部位選択操作等を行う。なお、表示装置120、例えば、LCD(Liquid Crystal Display)モニタにより構成され、入力装置130は、マウス等により構成されている。
皮膚画像データベース103は、処理部10により、既知の皮膚画像データとして、偏光処理を行わずに撮影された第1の学習用皮膚画像データと、偏光処理を行って撮影された第2の学習用皮膚画像データとが、学習用に付された疾患の識別名称と関連付けて記録されるデータベースである。
処理部10は、畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を有し、第1の学習用皮膚画像データと第2の学習用皮膚画像データを畳み込みニューラルネットワークに入力することにより予め学習に付され、診断されるべき疾患の識別が可能なように分類情報を生成する識別器として機能する。識別器は、診断されるべき疾患について、未知の皮膚画像データとして、偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを多チャンネル化により統合した第3の皮膚画像データを学習済みの畳み込みニューラルネットワークへ入力することにより学習処理を経て診断すべき疾患を識別する。なお、識別器は、例えば診断装置100が製造工場から出荷される前に製造段階で予め学習に付されていてもよいし、出荷された後に病院側などで予め学習に付されることとしてもよい。ここで、「予め」とは、診断されるべき疾患を識別するよりも前にという意味である。
このため、処理部10は、処理部10がコンピュータにて実行するプログラムの機能をブロック展開して示したように、前処理部11と、特徴抽出部12と、識別部13とを含む。前処理部11は、偏光処理を行わずに撮影された第1の学習用皮膚画像データと、偏光処理を行って撮影された第2の学習用皮膚画像データとを、学習用に付された疾患の識別名称と関連付けて皮膚画像データベース103に記録する機能を持つ。また、前処理部11は、第1の学習用皮膚画像データと第2の学習用皮膚画像データを、多チャンネル化により統合された第3の学習用皮膚画像データとして畳み込みニューラルネットワークへ入力する機能も合わせ持つ。
特徴抽出部12と識別部13は、中間層で畳み込みとプーリングの処理を繰り返し行う畳み込みニューラルネットワークを構成する機能ブロックである。図2に、畳み込みニューラルネットワークの代表的構成を示す。図2によれば、畳み込みニューラルネットワークは、第3の学習用皮膚画像データ又は第3の皮膚画像データが入力される入力層(入力画像101)と、畳み込み層とプーリング層とから構成されるセット(処理ユニット12b)を複数有し、第3の学習用皮膚画像データ又は第3の皮膚画像データから特徴(特徴マップ12a)を抽出する中間層(第1層,第2層)と、中間層で抽出された特徴に基づき診断されるべき疾患の分類ごとに識別値を出力する出力層と、を備える。
特徴抽出部12は、重みフィルタによる畳み込み演算とプーリングとを繰り返すことにより入力画像101である第3の学習用皮膚画像データ又は第3の皮膚画像データの特徴を抽出する。具体的に、特徴抽出部12は、入力画像101に対して重みフィルタをラスタスキャンさせて繰り返し畳み込み演算を行うことで特徴マップ12aを得、その後、特徴マップ12aに対してプーリングを行う。プーリングとは、m−1の特徴マップ12aの小領域から値を出力してmの特徴マップに変換する処理であり、識別部13に入力する特徴次元削減機能を持つ。
上記した畳み込みニューラルネットワークの処理は、多段接続された複数の処理ユニット12bを介して接行われる。各処理ユニット12bの入出力は、入力画像101から抽出される複数の特徴である特徴マップ12aで示される複数の二次元画像である。この場合、入力画像101も1枚の特徴量マップとみなされる。ここでは、畳み込み演算とプーリングのユニットのペアが処理ユニット12bとして多段接続され、特徴量ベクトルを算出する。この特徴量ベクトルに対して識別部13で識別処理が行われ、出力クラスを得る構成になっている。
識別部13は、特徴抽出部12で抽出した特徴を入力して識別を行う。畳み込みニューラルネットワークの学習は、誤差逆転伝搬法による学習により各層の重みを更新する。識別処理として多層パーセプトロンが用いられる。多層パーセプトロンは、入力層、中間層、出力層で構成される非線形のクラス識別器である。各階層間の重みは、誤差伝搬法による確率的勾配降下法で求める。識別時は、特徴量を順次伝搬し、出力層の各ユニットの出力を各クラスの事後確率として画像を分類する。
畳み込みニューラルネットワークは、高い精度で画像を分類するのに一般的な手法であり、例えば、インターネットURL(http://en.wikipedia.org/wiki/Convolutional neural network)等に詳細に記載されている。
なお、第1の学習用皮膚画像データと第2の学習用皮膚画像データは畳み込みニューラルネットワークへ各別に入力されてもよい。この場合、識別器として機能する処理部10は、診断されるべき疾患について、偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データが学習済みの畳み込みニューラルネットワークへ各別に入力されることにより、診断されるべき疾患を第1の皮膚画像データ及び第2の皮膚画像データの予備的識別を統合して識別する。
畳み込みニューラルネットワークは、第1の学習用皮膚画像データ及び第2の学習用皮膚画像データ、又は第1の皮膚画像データ及び第2の皮膚画像データが入力される入力層と、畳み込み層とプーリング層から構成されたセットを複数有し、第1の学習用皮膚画像データ及び第2の学習用皮膚画像データ、又は第1の皮膚画像データ及び第2の皮膚画像データから特徴を抽出する中間層と、抽出された特徴に基づき診断されるべき疾患の分類ごとに第1の学習用皮膚画像データ及び第2の学習用皮膚画像データ、又は第1の皮膚画像データ及び第2の皮膚画像データの予備的識別値を統合して識別値を出力する出力層と、を備える。
なお、上記した第1の学習用皮膚画像データ及び第2の学習用皮膚画像データは、それぞれ、ダーモスコープを用いて、ジェル又は偏光フィルタなしで撮影された第1の学習用ダーモスコピー画像データ及びジェル又は偏光フィルタありで撮影された第2の学習用ダーモスコピー画像データである。また、第1の皮膚画像データ及び前記第2の皮膚画像データは、それぞれ、ダーモスコープを用いて、ジェル又は偏光フィルタなしで撮影された第1のダーモスコピー画像データ及びジェル又は偏光フィルタありで撮影された第2のダーモスコピー画像データであってもよい。
ここで、ダーモスコープにより撮影されるダーモスコピー画像について図11を参照しながら簡単に説明する。図11(a)に、医師が接触型のダーモスコープを用いて患者の腕の皮膚患部を診断している様子を示してある。図11(b)は、肉眼で観察する場合の皮膚の断面図、図11(c)はジェルを塗布して撮影する場合の皮膚の断面図である。
まず、ダーモスコープの使用例、およびジェルを用いる場合の光学的な原理及び皮膚への一般的な押し当て方について説明する。図11(a)に示すように、医師は、ダーモスコープ210を患者(被検査者)の皮膚の表面211に押し当て、ダーモスコープ210によって拡大した画像212で皮膚患部213を観察する。観察される皮膚患部213としては、例えば、色素細胞母斑、悪性黒色腫、脂漏性角化症、基底細胞癌、血管病変及びボーエン病などが挙げられる。
図11(b)に示すように、皮膚の表面211(角層215)は凹凸に形成されており、この角層215では、光の乱反射が起きる。このため、肉眼や通常のルーペによる観察では、角層215よりも深いところを観察することは難しい。一方、図11(c)に示すように、ジェル216を皮膚の表面211に塗布すると、角層215の凹凸の影響がなくなり光の乱反射が抑制される。このようなジェル216を介してダーモスコープ210を皮膚の表面211に押し当てることにより、角層215よりも深いところにある皮膚患部213を拡大レンズで拡大して観察することができる。図12(a)、(b)に、ジェル塗布が無い場合と、ジェル塗布がある場合に撮影され取り込まれた「イボ」と「ほくろ」のそれぞれの画像の一例が示されている。
以下の説明では、上記したジェル又は偏光フィルタを使用して撮影され取り込まれるダーモスコピー診断画像を「偏光処理を行って撮影され取り込まれる学習用皮膚画像(第1の学習用皮膚画像)」とし、ジェル又は偏光フィルタを用いずに撮影され取り込まれるダーモスコピー診断画像を「偏光処理を行わずに撮影された学習用皮膚画像(第2の学習用皮膚画像)」と称して説明を行う。
(実施形態の動作)
以下、図3以降のフローチャートを参照しながら、図1,図2に示す本実施形態に係る診断装置100の動作について詳細に説明する。
処理部10は、まず、前処理部11が、偏光処理を行わずに撮影された学習用皮膚画像データ(第1の学習用皮膚画像データ)と、偏光処理を行って撮影された学習用皮膚画像データ(第2の学習用皮膚画像データ)とを収集し、多チャンネル化により統合された学習用皮膚画像データ(第3の学習用皮膚画像データ)を特徴抽出部12へ出力する(ステップS10:学習画像収集処理)。このとき、前処理部11は、第1の学習用皮膚画像データと第2の学習用皮膚画像データとを、各別に特徴抽出部12へ出力してもよい。
図4に、ステップS10の学習画像収集処理の詳細手順が示されている。この学習画像収集にあたり、医師は、図10(a)に示すように、疾患部分をジェルが塗布されていない状態でダーモスコピー撮影を行なう。次に、疾患部分周辺にジェルを塗布した状態で表面反射を抑えたダーモスコピー撮影を行う。この撮影操作を経て前処理部11は、偏光処理を行わずに撮影された学習用皮膚画像データと、偏光処理を行って撮影された学習用皮膚画像データとを取り込む(ステップS11)。続いて、前処理部11は、症例の疾患名を、収集した学習用皮膚画像データに関連付けて皮膚画像データベース103へ登録する(ステップS12)。
次に、前処理部11は、学習用皮膚画像を必要数収集したか否かを判定し(ステップS13)、必要枚数収集するまで(ステップS13“YES”)、ステップS11とS12の手順を繰り返し実行し、皮膚画像データベース103を構築する。
説明を図3に戻す。前処理部11がステップS10で学習画像収集処理を実行後、特徴抽出部12が、重みフィルタによる畳み込み演算とプーリングとを繰り返すことにより入力画像101である第3の診断用皮膚画像又は第3の皮膚画像データの特徴を抽出する。具体的に、特徴抽出部12は、入力画像101に対して重みフィルタをラスタスキャンさせて繰り返し畳み込み演算を行うことで特徴マップ12aを得、その後、特徴マップ12aに対してプーリングを行ない、m−1の特徴マップ12aの小領域から値を出力してmの特徴マップに変換する識別器生成処理を実行する(ステップS20)。
次に、識別部13は、特徴抽出部12で抽出した特徴を入力して識別を行う。識別処理として多層パーセプトロンが用いられ、識別時は、特徴量を順次伝搬し、出力層の各ユニットの出力を各クラスの事後確率として入力画像を分類する未知の画像について識別処理を実行する(ステップS30)。
以下の説明では、偏光処理を行わずに撮影された学習用皮膚画像データと、偏光処理を行って撮影された学習用皮膚画像データが、多チャンネル化により統合された学習用皮膚画像データとして畳み込みニューラルネットワークへ入力され、機械学習され未知の画像を識別する場合を説明する。偏光処理を行わずに撮影された学習用皮膚画像データと、偏光処理を行って撮影された学習用皮膚画像データが畳み込みニューラルネットワークへ各別に入力され、偏光処理を行わずに撮影された学習用皮膚画像データを用いて疾患部分の平滑度を数値化し、スコア(判別値)を統合して未知の画像を識別する場合については、変形例として別に説明する。
図5は、本実施形態の識別器生成処理Aの手順(図3のステップS20)を示すフローチャートである。図5によれば、処理部10は、まず、前処理部11が、皮膚画像データベース103から学習画像データを取り出し、偏光処理を行なって撮影され取り込まれた、例えば、R,G,Bの3チャンネルの学習用皮膚画像データと、偏光処理を行わずに撮影され取り込まれた、例えば、R,G,Bの3チャンネルの学習用皮膚画像データを、6チャンネルの1入力画像に統合して特徴抽出部12へ引き渡す(ステップS21a)。なお、チャンネル数は任意で、かつ、表色系は、R,G,Bに限らずCIE Lab他の色空間で代替してもよい。
前処理部11から6チャンネルの1入力画像を取得した特徴抽出部112は、畳み込みニューラルネットワークを用いて学習する(ステップS22a)。特徴抽出部12は、畳み込み演算とプーリングとを繰り返すことにより、6チャンネルの1入力画像の特徴を抽出する。具体的に、特徴抽出部12は、6チャンネルの1入力画像に対して重みフィルタをラスタスキャンさせて繰り返し畳み込み演算を行うことで特徴マップを得、その特徴マップ12aに対してプーリングを行う。
この畳み込みニューラルネットワークの処理は、多段接続された複数の処理ユニット(図2の12b)を介して接行われる。各処理ユニットの入出力は、入力から抽出される複数の特徴である特徴マップで示される複数の二次元画像である。ここでは、畳み込み演算とプーリングのユニットのペアが処理ユニット12bとして多段接続され、特徴量ベクトルを算出する。畳み込み層とプーリンの最終層は、各ノードが、それぞれ疾患(クラス)の確率に対応する構成とする。
図6は、本実施形態の未知の画像の識別処理Aの手順(図3のステップS30)を示すフローチャートである。図6によれば、処理部10は、まず、前処理部11が、偏光処理を行なって撮影され取り込まれた、例えば、R,G,Bの3チャンネルの皮膚画像データと、偏光処理を行わずに撮影され取り込まれた、例えば、R,G,Bの3チャンネルの皮膚画像データを取得し(ステップS31a)、これらを6チャンネルの1入力画像に統合して識別部13へ引き渡す(ステップ32a)。ここで得られる皮膚画像データは、識別を行う対象の疾患部を撮影したものである。
識別部13は、更に、特徴抽出部12で抽出した特徴を入力して識別を行う。識別処理として多層パーセプトロンが用いられることは上記したとおりであり、識別時は、特徴量を順次伝搬して出力層の各ユニットの出力を各クラスの事後確率として判別値を得る(ステップS33a)、そして、その判別値に基づき入力画像の分類結果を表示装置120に表示する(ステップS34a)。
上述した本実施形態によれば、表面の状態が分かりやすい偏光処理がなされていないダーモスコピー画像と、皮膚内部の状態がわかりやすい偏光処理がなされたダーモスコピー画像とを用い、これらダーモスコピー画像を多チャンネル化して畳み込みニューラルネットワークへ入力して学習を行なうことで、症例の分類を高精度に行うことができる。例えば、図12(a)に示すように、主に表皮で発生する疾患の「イボ」と、図12(b)に示すように、主に真皮で発生する疾患の「ほくろ」とでは、皮膚表面の平滑度が大きく異なることがある。このため、偏光処理がなされていないダーモスコピー画像を用いて表面の平滑度情報を得ることにより、より高精度な症例識別を行うことが可能になる。
なお、本実施形態では、偏光処理がなされていない未知の画像として、患部にジェルが塗布されていない状態で撮影された未知の画像の替わりに、偏光フィルタが無い状態で撮影された未知の画像としてもよく、また、フラッシュ強度、方向を変えて撮影した画像としてもよい。また、前処理部11でこれら未知の画像を多チャンネル化する替わりに、個別画像でそれぞれニューラルネットワークを作成し、それぞれの出力を平均化する構成にしてもよい。更に、識別部13は、判別値加点式で、「ほくろ」判別値に加点する方式としたが、例えば、「イボ」のスコアを減点する方式で代替してもよい。
(変形例)
次に、変形例について説明する。変形例において、図3に示した基本動作フローチャートにおける学習画像収集処理(ステップS10)は、本実施形態と同様であるため重複を回避する意味で説明を省略する。ここでは、本実施形態との差異にのみ注目して説明を行う。図7は、変形例の識別器生成処理Bの手順(図3のステップS20)を示すフローチャートである。
本実施形態では、偏光処理を行なって撮影され取り込まれた、例えば、R,G,Bの3チャンネルの学習用皮膚画像データと、偏光処理を行わずに撮影され取り込まれた、例えば、R,G,Bの3チャンネルの学習用皮膚画像データを、6チャンネルの1入力画像に統合し、その後は機械学習により処理したが、以下に説明する変形例では、偏光処理を行わずに撮影され取り込まれた学習用皮膚画像データにより期待される効果をモデル化した識別器生成を行う。具体的に、処理部10(識別器)は、偏光処理を行わずに撮影され取り込まれた学習用皮膚画像データから疾患部分の平滑度を求め、従来のスコア(判別値)に加算する構成とした。
図7によれば、特徴抽出部12は、まず、前処理部11により出力される偏光処理を行わずに撮影され取り込まれた学習用皮膚画像データから平滑度を算出する(ステップS21b)。平滑度の算出方法は、図8にその詳細手順が示されている。図8によれば、特徴抽出部12は、偏光処理を行わずに撮影され取り込まれた学習用皮膚画像データから疾患部の前景部を抽出する(ステップS21b−1)。続いて、特徴抽出部12は、グラフカット等により疾患部位を切り出す。切り抜き前の前景と切り抜き後の前景を図10(a)、(b)にそれぞれ示す。そして、特徴抽出部12は、その疾患部位についてRGB画像から輝度画像に変換する(ステップS21b−2)。
続いて、特徴抽出部12は、前景部内を更にそのヒストグラムの上位5%で二直化する処理を実行する(ステップS21b−3)。すなわち、特徴抽出部12は、疾患部位の輝度画像のヒストグラムを算出し、高輝度側の5%となる値を前景とし、それ以外を背景とする。そして、前景側(高輝度側)の画素分散値を求め、それを前景面積で割り、その逆数を平滑度として算出する(ステップS21b−4)。
上記した前景内の高輝度画素の分散により、表面がざらついているか、平滑なのかを判断することができる。表面がざらついている場合は、高輝度画素が一様に前景全体に分散していて、表面が平滑な場合は、高輝度画素が局在していることが推測される。そこで、前景高輝度画素の平面内の分散(σ white_pix)を計算し、前景面積(Store)で割る正規化を行なった値をざらつき度とし、更に、このざらつき度の逆数をとることにより平滑度Hとする。
H=(σ white_pix/Store)^(−1)
但し、σ white_pixは前景内の上位5%の平面内分散、Storeは前景面積である。
説明を図7に戻す。特徴抽出部12は、ステップS21bで平滑度を算出後、偏光処理を行い撮影し取り込まれた学習用皮膚画像のみで畳み込みニューラルネットワークによる識別器生成を行う(ステップS22b)。特徴抽出部12は、畳み込みニューラルネットワークスコアである「ほくろ」判別値に加算する平滑加算係数を学習し(ステップS23b)、次に、従来の「ほくろ」判別値であるP従来(ほくろ)に対して、平滑度スコアを所定の割合で加算するモデルを考え、このモデルの平滑加算係数を求める。この係数は、学習画像の弁別性を最大にする値に設定する。
図9は、変形例の未知の画像の識別処理Bの手順(図3のステップS30)を示すフローチャートである。図9によれば、処理部10は、まず、前処理部11が、偏光処理を行なって撮影され取り込まれた、例えば、R,G,Bの3チャンネルの皮膚画像データと、偏光処理を行わずに撮影され取り込まれた、例えば、R,G,Bの3チャンネルの皮膚画像データを、個別に識別部13へ引き渡す(ステップS31b)。ここで得られる皮膚画像データは、識別を行う対象の疾患部を撮影したものである。
続いて、識別部13は、前処理部11により出力される偏光処理を行わずに撮影され取り込まれた識別を行う皮膚画像データから平滑度を算出する(ステップS32b)。平滑度の算出方法は、図8にその詳細手順が示されており、重複を回避する意味でここでの説明は省略する。そして、偏光処理を行い撮影し取り込まれた学習用皮膚画像のみで学習済み畳み込みニューラルネットワークによる識別器生成を行い、判別値を得る(ステップS33b)。
識別部13は、更に、ステップS32bで算出した平滑度を以下の演算式で得られる畳み込みニューラルネットワークの「ほくろ」判別値に加算して最終判別値を得る(ステップS34b)。そしてその判別値に基づき入力画像の分類結果を表示装置120に表示する(ステップS35b)。
P(イボ)=P従来(イボ)
P(ホクロ)=P従来(ほくろ)+k*H
但し、kは平滑加算係数であり、Hは平滑度である。
上述した変形例によれば、偏光処理を行わずに撮影された学習用皮膚画像データと、偏光処理を行って撮影された学習用皮膚画像データが畳み込みニューラルネットワークへ各別に入力され、偏光処理を行わずに撮影された学習用皮膚画像データを用いて疾患部分の平滑度を数値化し、スコアを統合して未知の画像を識別することにより、より高精度な症例識別を行うことが可能になる。
(実施形態の効果)
以上説明のように本実施形態に係る診断装置100によれば、処理部10(識別器)が、畳み込みニューラルネットワークを有し、第1の学習用皮膚画像データ(ジェル又は偏光フィルタなしで撮影された学習用ダーモスコピー画像)と第2の学習用皮膚画像データ(ジェル又は偏光フィルタありで撮影された学習用ダーモスコピー画像)が畳み込みニューラルネットワークへ入力されることにより学習を行い、診断されるべき疾患の識別が可能なように生成されることで、従来、ジェル又は偏光フィルタありで撮影された第2の学習用皮膚画像のみで診断を行っていた場合に比べて皮膚表面の平滑性を捕捉することができ、より精度の高い診断を可能にする。
また、本実施形態に係る診断装置100によれば、(1)偏光処理を行わずに撮影され取り込まれたた学習用皮膚画像データと、偏光処理を行って撮影され取り込まれた学習用皮膚画像データが、多チャンネル化により統合された学習用皮膚画像データとして畳み込みニューラルネットワークへ入力され、機械学習され未知の画像を識別する場合、あるいは、(2)偏光処理を行わずに撮影された学習用皮膚画像データと、偏光処理を行って撮影された学習用皮膚画像データが畳み込みニューラルネットワークへ各別に入力され、偏光処理を行わずに撮影された学習用皮膚画像データを用いて疾患部の平滑度を数値化し、スコア(判別値)を統合して未知の画像を識別する場合、のいずれの場合においても入力画像の高精度な分類が可能になり、診断精度の向上がはかれる。
最後に、以上では、本実施形態(変形例を含む)として、診断装置、その画像処理方法及びプログラムを説明したが、各要素をそれぞれの手段とする画像処理システムとして構築してもよい、例えば、個々の手段をネットワークで接続し、医療現場には患者の疾患に係る未知の皮膚画像データを取得する手段を端末として配置し、その皮膚画像データをもとに診断されるべき疾患を識別する手段を専門機関が有するサーバに配置するようにしてもよい。
以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。またその様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。
〔付記〕
[請求項1]
皮膚画像を用いて皮膚の疾患を診断するための診断装置であって、
疾患の識別名称と、既知の皮膚画像データを関連付けて記録している皮膚画像データベースと、
偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得する取得部と、
前記取得された前記第1の皮膚画像データ及び前記第2の皮膚画像データの特徴を抽出し、この抽出された特徴を基に前記皮膚画像データベースに記憶されている前記既知の皮膚画像データを参照して、前記疾患の識別名称を検索し、前記診断されるべき疾患を識別する識別器と、
を備えることを特徴とする診断装置。
[請求項2]
前記識別器は、前記取得された前記第1の皮膚画像データ及び前記第2の皮膚画像データから統合された第3の皮膚画像データを生成し、前記第3の皮膚画像データが入力されることにより、前記診断されるべき疾患を識別することを特徴とする請求項1に記載の診断装置。
[請求項3]
前記識別器は、前記取得された前記第1の皮膚画像データ及び前記第2の皮膚画像データが各別に入力され、各別の結果が統合されることにより、前記診断されるべき疾患を識別することを特徴とする請求項1に記載の診断装置。
[請求項4]
前記第1の皮膚画像データ及び前記第2の皮膚画像データが、それぞれ、ダーモスコープを用いて、ジェル又は偏光フィルタなしで撮影された第1のダーモスコピー画像データ及びジェル又は偏光フィルタありで撮影された第2のダーモスコピー画像データであることを特徴とする請求項1から3のいずれか1項に記載の診断装置。
[請求項5]
前記既知の皮膚画像データが、偏光処理を行わずに撮影された第1の学習用皮膚画像データと、偏光処理を行って撮影された第2の学習用皮膚画像データを含み、
前記識別器は、前記記録された前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データの特徴を抽出し、この抽出された特徴を基に前記疾患の識別名称と対照し、前記診断されるべき疾患を識別可能なように予め学習に付されていることを特徴とする請求項1から4のいずれか1項に記載の診断装置。
[請求項6]
前記識別器は、前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データから統合された第3の学習用皮膚画像データを生成し、前記第3の学習用皮膚画像データが入力されることにより、前記識別されるべき疾患を識別可能なように予め学習に付されていることを特徴とする請求項5に記載の診断装置。
[請求項7]
前記識別器は、前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データが各別に入力され、各別の結果が統合されることにより、前記識別されるべき疾患を識別可能なように予め学習に付されていることを特徴とする請求項5に記載の診断装置。
[請求項8]
前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データが、それぞれ、ダーモスコープを用いて、ジェル又は偏光フィルタなしで撮影された第1の学習用ダーモスコピー画像データ及びジェル又は偏光フィルタありで撮影された第2の学習用ダーモスコピー画像データであることを特徴とする請求項5から7のいずれか1項に記載の診断装置。
[請求項9]
前記識別器は、畳み込みニューラルネットワークを有し、
前記畳み込みニューラルネットワークが、
前記未知の皮膚画像データ又は前記既知の皮膚画像データが入力される入力層と、
畳み込み層とプーリング層から構成されたセットを複数有し、前記未知の皮膚画像データ又は前記既知の皮膚画像データから特徴を抽出する中間層と、
抽出された前記特徴に基づき前記診断されるべき疾患の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項1から8のいずれか1項に記載の診断装置。
[請求項10]
前記識別器は、畳み込みニューラルネットワークを有し、
前記畳み込みニューラルネットワークが、
前記未知の皮膚画像データとして、前記第1の皮膚画像データ及び前記第2の皮膚画像データから多チャンネル化により統合された前記第3の皮膚画像データが入力される入力層と、
畳み込み層とプーリング層から構成されたセットを複数有し、前記第3の皮膚画像データから特徴を抽出する中間層と、
抽出された前記特徴に基づき前記診断されるべき疾患の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項2から8のいずれか1項に記載の診断装置。
[請求項11]
前記識別器は、畳み込みニューラルネットワークを有し、
前記畳み込みニューラルネットワークが、
前記既知の皮膚画像データとして、前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データから多チャンネル化により統合された前記第3の学習用皮膚画像データが入力される入力層と、
畳み込み層とプーリング層から構成されたセットを複数有し、前記第3の学習用皮膚画像データから特徴を抽出する中間層と、
抽出された前記特徴に基づき前記診断されるべき疾患の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項6から8のいずれか1項に記載の診断装置。
[請求項12]
収集された既知の皮膚画像データと、疾患の識別名称を関連付けて記録した皮膚画像データベースを備え、皮膚画像を用いて皮膚の疾患を診断するための診断装置における画像処理方法であって、
偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得するステップと、
前記取得された前記第1の皮膚画像データ及び前記第2の皮膚画像データの特徴を抽出し、この抽出された特徴を基に前記皮膚画像データベースに記憶されている前記既知の皮膚画像データを参照して、前記疾患の識別名称を検索し、前記診断されるべき疾患を識別するステップと、を備えることを特徴とする画像処理方法。
[請求項13]
皮膚画像を用いて皮膚の疾患を診断するための診断装置における画像処理システムであって、
既知の皮膚画像データとして、偏光処理を行わずに撮影された第1の学習用皮膚画像データと、偏光処理を行って撮影された第2の学習用皮膚画像データを収集する手段と、
前記第1の学習用皮膚画像データと前記第2の学習用皮膚画像データを疾患の識別名称と関連付けて皮膚画像データベースに記録する手段と、
前記記録された前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データの特徴を抽出し、この抽出された特徴を基に前記疾患の識別名称と対照し、前記診断されるべき疾患を識別可能なように学習する手段と、
偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得する手段と、
前記取得された前記第1の皮膚画像データ及び前記第2の皮膚画像データの特徴を抽出し、この抽出された特徴を基に前記皮膚画像データベースに記憶されている前記既知の皮膚画像データを参照して、前記疾患の識別名称を検索し、前記診断されるべき疾患を識別する手段と、を備えることを特徴とする画像処理システム。
[請求項14]
収集された既知の皮膚画像データと、疾患の識別名称を関連付けて記録した皮膚画像データベースを備え、皮膚画像を用いて皮膚の疾患を診断するための診断装置における画像処理のプログラムであって、
コンピュータに、
偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得する機能と、
前記取得された前記第1の皮膚画像データ及び前記第2の皮膚画像データの特徴を抽出し、この抽出された特徴を基に前記皮膚画像データベースに記憶されている前記既知の皮膚画像データを参照して、前記疾患の識別名称を検索し、前記診断されるべき疾患を識別する機能と、を実行させることを特徴とするプログラム。
10…処理部(識別器)、11…前処理部、12…特徴抽出部、13…識別部、100…診断装置、102…画像記憶部、103…皮膚画像データベース、110…ダーモスコープ付き撮影装置(取得部)、120…表示装置、130…入力装置

Claims (16)

  1. 皮膚画像を用いて皮膚の疾患を診断するための診断装置であって、
    偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得する取得部と、
    前記取得された偏光処理を行わずに撮影された第1の皮膚画像データから疾患部分の平滑度を算出する平滑度算出部と、
    疾患の識別名称と、既知の皮膚画像データを関連付けて記録している皮膚画像データベースを用いて予め学習に付され、前記平滑度算出部で算出した前記第1の皮膚画像データからの平滑度と、前記第2の皮膚画像データからの判別値とを合わせて最終判別値を求め、該最終判別値に基づいて診断されるべき疾患を識別する識別器と、を有することを特徴とする診断装置。
  2. 前記識別器は、前記取得された前記第1の皮膚画像データ及び前記第2の皮膚画像データから統合された第3の皮膚画像データを生成し、前記第3の皮膚画像データが入力されることにより、前記診断されるべき疾患を識別することを特徴とする請求項1に記載の診断装置。
  3. 前記皮膚画像データベースは、既知の皮膚画像データとして、偏光処理を行わずに撮影された第1の学習用皮膚画像データと、偏光処理を行って撮影された第2の学習用皮膚画像データとが、疾患の識別名称と関連付けて記録されることを特徴とする請求項1に記載の診断装置。
  4. 前記第1の皮膚画像データ及び前記第2の皮膚画像データが、それぞれ、ダーモスコープを用いて、ジェル又は偏光フィルタなしで撮影された第1のダーモスコピー画像データ及びジェル又は偏光フィルタありで撮影された第2のダーモスコピー画像データであることを特徴とする請求項1から3いずれかに記載の診断装置。
  5. 前記既知の皮膚画像データが、偏光処理を行わずに撮影された第1の学習用皮膚画像データと、偏光処理を行って撮影された第2の学習用皮膚画像データを含み、
    前記識別器は、前記記録された前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データの特徴を抽出し、この抽出された特徴を基に前記疾患の識別名称と関連付けて、前記診断されるべき疾患を識別可能なように予め学習に付されていることを特徴とする請求項1から4のいずれか1項に記載の診断装置。
  6. 前記識別器は、前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データから統合された第3の学習用皮膚画像データを生成し、前記第3の学習用皮膚画像データが入力されることにより、前記識別されるべき疾患を識別可能なように予め学習に付されていることを特徴とする請求項2を引用する請求項5に記載の診断装置。
  7. 前記識別器は、前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データが各別に入力され、各別の結果が統合されることにより、前記識別されるべき疾患を識別可能なように予め学習に付されていることを特徴とする請求項2を引用する請求項5に記載の診断装置。
  8. 前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データが、それぞれ、ダーモスコープを用いて、ジェル又は偏光フィルタなしで撮影された第1の学習用ダーモスコピー画像データ及びジェル又は偏光フィルタありで撮影された第2の学習用ダーモスコピー画像データであることを特徴とする請求項5から7のいずれか1項に記載の診断装置。
  9. 前記識別器は、畳み込みニューラルネットワークを有し、
    前記畳み込みニューラルネットワークが、
    前記未知の皮膚画像データ又は前記既知の皮膚画像データが入力される入力層と、
    畳み込み層とプーリング層から構成されたセットを複数有し、前記未知の皮膚画像データ又は前記既知の皮膚画像データから特徴を抽出する中間層と、
    抽出された前記特徴に基づき前記診断されるべき疾患の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項1から8のいずれか1項に記載の診断装置。
  10. 前記識別器は、畳み込みニューラルネットワークを有し、
    前記畳み込みニューラルネットワークが、
    前記未知の皮膚画像データとして、前記第1の皮膚画像データ及び前記第2の皮膚画像データから多チャンネル化により統合された前記第3の皮膚画像データが入力される入力層と、
    畳み込み層とプーリング層から構成されたセットを複数有し、前記第3の皮膚画像データから特徴を抽出する中間層と、
    抽出された前記特徴に基づき前記診断されるべき疾患の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項2に記載の診断装置。
  11. 前記識別器は、畳み込みニューラルネットワークを有し、
    前記畳み込みニューラルネットワークが、
    前記既知の皮膚画像データとして、前記第1の学習用皮膚画像データ及び前記第2の学習用皮膚画像データから多チャンネル化により統合された前記第3の学習用皮膚画像データが入力される入力層と、
    畳み込み層とプーリング層から構成されたセットを複数有し、前記第3の学習用皮膚画像データから特徴を抽出する中間層と、
    抽出された前記特徴に基づき前記診断されるべき疾患の分類ごとに識別値を出力する出力層と、を備えることを特徴とする請求項6に記載の診断装置。
  12. 前記平滑度算出部は、疾患部位の輝度画像のヒストグラムを算出し、高輝度側の所定割合の値の画素分散値を求め、それを前記高輝度側の所定割合の画素面積で割り、その逆数を平滑度として算出することを特徴とする請求項1に記載の診断装置。
  13. 疾患の識別名称と、既知の皮膚画像データを関連付けて記録している皮膚画像データベースで予め学習に付された識別器を備え、皮膚画像を用いて皮膚の疾患を診断するための診断装置における画像処理方法であって、
    前記診断装置のコンピュータが、
    偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得するステップと、
    前記取得された前記偏光処理を行わずに撮影された第1の皮膚画像データから疾患部分の平滑度を算出するステップと、
    前記算出した前記第1の皮膚画像データからの平滑度と、前記第2の皮膚画像データからの判別値とを合わせて最終判別値を求めるステップと、
    を実行し、前記識別器が前記最終判別値に基づいて診断されるべき疾患を識別することを特徴とする画像処理方法。
  14. 前記平滑度を算出するステップは、
    疾患部位の輝度画像のヒストグラムを算出し、高輝度側の所定割合の値の画素分散値を求め、それを前記高輝度側の所定割合の画素面積で割り、その逆数を平滑度として算出するステップを備えることを特徴とする請求項13に記載の画像処理方法。
  15. 疾患の識別名称と、既知の皮膚画像データを関連付けて記録している皮膚画像データベースで予め学習に付された識別器を備え、皮膚画像を用いて皮膚の疾患を診断するための診断装置における画像処理システムであって、
    前記識別器に、偏光処理を行わずに撮影された第1の学習用皮膚画像データと、偏光処理を行って撮影された第2の学習用皮膚画像データの特徴を抽出し、この抽出された特徴を基に前記疾患の識別名称と対照し、前記診断されるべき疾患を識別可能なように学習を付する手段と、
    偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得する手段と、
    前記取得された偏光処理を行わずに撮影された第1の皮膚画像データから疾患部分の平滑度を算出する平滑度算出部と、を備え、
    前記識別器は、前記平滑度算出部で算出した前記第1の皮膚画像データからの平滑度と、前記第2の皮膚画像データからの判別値とを合わせて最終判別値を求め、該最終判別値に基づいて診断されるべき疾患を識別することを特徴とする画像処理システム。
  16. 疾患の識別名称と、既知の皮膚画像データを関連付けて記録している皮膚画像データベースで予め学習に付された識別器を備え、皮膚画像を用いて皮膚の疾患を診断するための診断装置における画像処理のプログラムであって、
    コンピュータに、
    偏光処理を行わずに撮影された第1の皮膚画像データと、偏光処理を行って撮影された第2の皮膚画像データを含む未知の皮膚画像データを取得する機能と、
    前記取得された前記偏光処理を行わずに撮影された第1の皮膚画像データから疾患部分の平滑度を算出する機能と、
    前記識別器により前記算出した前記第1の皮膚画像データからの平滑度と、前記第2の皮膚画像データからの判別値とを合わせて最終判別値を求め、該最終判別値に基づいて診断されるべき疾患を識別する機能と、
    を実行させることを特徴とするプログラム。
JP2015057036A 2015-03-20 2015-03-20 診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム Active JP6471559B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015057036A JP6471559B2 (ja) 2015-03-20 2015-03-20 診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015057036A JP6471559B2 (ja) 2015-03-20 2015-03-20 診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム

Publications (2)

Publication Number Publication Date
JP2016174728A JP2016174728A (ja) 2016-10-06
JP6471559B2 true JP6471559B2 (ja) 2019-02-20

Family

ID=57069471

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015057036A Active JP6471559B2 (ja) 2015-03-20 2015-03-20 診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム

Country Status (1)

Country Link
JP (1) JP6471559B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6757054B2 (ja) * 2017-05-30 2020-09-16 国立大学法人東北大学 皮膚組織の病理画像を用いた診断支援のためのシステム及び方法
JP7087390B2 (ja) 2018-01-09 2022-06-21 カシオ計算機株式会社 診断支援装置、画像処理方法及びプログラム
IT201800010536A1 (it) * 2018-11-23 2020-05-23 Torino Politecnico Dispositivo e metodo per la rilevazione ed il monitoraggio di patologie cutanee
US10878567B1 (en) 2019-09-18 2020-12-29 Triage Technologies Inc. System to collect and identify skin conditions from images and expert knowledge

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4437202B2 (ja) * 2004-01-09 2010-03-24 学校法人慶應義塾 色素沈着部位の遠隔診療システム
US20080194928A1 (en) * 2007-01-05 2008-08-14 Jadran Bandic System, device, and method for dermal imaging

Also Published As

Publication number Publication date
JP2016174728A (ja) 2016-10-06

Similar Documents

Publication Publication Date Title
US10383511B2 (en) Image processing apparatus, image processing method, and program
JP2021154159A (ja) 機械学習ガイド付き撮影システム
US20210133473A1 (en) Learning apparatus and learning method
JP6471559B2 (ja) 診断装置並びに当該診断装置における画像処理方法、画像処理システム及びそのプログラム
Vocaturo et al. On the usefulness of pre-processing step in melanoma detection using multiple instance learning
JP2007252891A (ja) 肌の美しさの目視評価値の推定方法
WO2017020045A1 (en) System and methods for malarial retinopathy screening
Haddad et al. Image analysis model for skin disease detection: framework
CA2915651C (en) Diagnostic apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method
Ho et al. Detecting mouse squamous cell carcinoma from submicron full‐field optical coherence tomography images by deep learning
ES2669606T3 (es) Aparato de diagnóstico y procedimiento de procesamiento de imágenes en el mismo aparato
US20240032784A1 (en) Integrated analysis of multiple spectral information for ophthalmology applications
Lange et al. Computer-aided-diagnosis (CAD) for colposcopy
EP3038052B1 (en) Diagnosis support apparatus and image processing method in the same apparatus
EP3023936B1 (en) Diagnostic apparatus and image processing method in the same apparatus
Madan et al. Learning-based detection of acne-like regions using time-lapse features
Zaman et al. Classification of diabetes using machine learning
Al-Fahdawi et al. An automatic corneal subbasal nerve registration system using FFT and phase correlation techniques for an accurate DPN diagnosis
Cudek et al. Automatic system for classification of melanocytic skin lesions based on images recognition
JP6319370B2 (ja) 診断装置並びに当該診断装置における画像処理方法及びそのプログラム
Hashim et al. A study on RGB color extraction of psoriasis lesion using principle component analysis (PCA)
Szymkowski et al. A simple algorithm for hard exudate detection in diabetic retinopathy using spectral-domain Optical Coherence Tomography
Relan et al. Robustness of Fourier fractal analysis in differentiating subgroups of retinal images
Huang et al. Capillary detection for clinical images of basal cell carcinoma
Kumar et al. Pioneering Skin Health: Harnessing Thermal Images for Cutting-Edge Computer-Aided Diagnosis

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180622

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180731

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180907

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20180907

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181009

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181120

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181225

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190107

R150 Certificate of patent or registration of utility model

Ref document number: 6471559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150