JP2016190063A - Diagnostic system, image processing method in diagnostic system, and program therefor - Google Patents
Diagnostic system, image processing method in diagnostic system, and program therefor Download PDFInfo
- Publication number
- JP2016190063A JP2016190063A JP2016124923A JP2016124923A JP2016190063A JP 2016190063 A JP2016190063 A JP 2016190063A JP 2016124923 A JP2016124923 A JP 2016124923A JP 2016124923 A JP2016124923 A JP 2016124923A JP 2016190063 A JP2016190063 A JP 2016190063A
- Authority
- JP
- Japan
- Prior art keywords
- image
- component
- captured image
- luminance component
- diagnostic apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、診断装置並びに当該診断装置における画像処理方法及びそのプログラムに関する。 The present invention relates to a diagnostic apparatus, an image processing method in the diagnostic apparatus, and a program thereof.
一般に、皮膚病変の診断として視診が必ず行われ、多くの情報を得ることが出来る。しかしながら、肉眼やルーペだけでは、例えば、ホクロとしみの判別さえ難しく、良性腫瘍と悪性腫瘍の鑑別も難しい。このため、従来、ダーモスコープ付きカメラを用いて病変を撮影するダーモスコピー診断が行われている。 In general, visual inspection is always performed as a diagnosis of skin lesions, and a lot of information can be obtained. However, with the naked eye or loupe alone, for example, it is difficult to discriminate between moles and spots, and it is also difficult to distinguish benign tumors from malignant tumors. For this reason, dermoscopy diagnosis is conventionally performed in which a lesion is imaged using a camera with a dermoscope.
ダーモスコープとは、ハロゲンランプ等で病変部を明るく照射し、エコージェルや偏光フィルタなどにより反射光の無い状態に設定し、10倍程度に拡大して観察する非侵襲性診察器具である。この器具を用いた観察法をダーモスコピー診断と呼んでいる。ダーモスコピー診断については、インターネットURL(http://www.twmu.ac.jp/DNH/department/dermatology/dermoscopy.html)<平成26年9月1日閲覧>に詳細に記載されている。このダーモスコピー診断によれば、角質による乱反射がなくなることにより、表皮内から真皮浅層までの色素分布が良く見えてくる。 A dermoscope is a non-invasive diagnostic instrument that illuminates a lesion with a halogen lamp or the like, sets it to a state without reflected light using an echo gel or a polarizing filter, and observes the magnified image about 10 times. The observation method using this instrument is called dermoscopy diagnosis. The dermoscopy diagnosis is described in detail in the Internet URL (http://www.twmu.ac.jp/DNH/department/dermatology/dermoscopy.html) <browse September 1, 2014>. According to this dermoscopy diagnosis, the pigment distribution from within the epidermis to the superficial dermis can be clearly seen by eliminating irregular reflection due to the keratin.
例えば、特許文献1に、上記したダーモスコープで撮影された皮膚画像に対して、色調、テクスチャ、非対称度、円度等の値を用いて診断を行う色素沈着部位の遠隔診断システムの技術が開示されている。特許文献1に開示された技術によれば、ダーモスコープを付したカメラ付き携帯電話を用い、ダーモスコープを通して、メラノーマの心配がある良性色素性母斑などがある皮膚を撮影する。そして、携帯電話のネットワーク接続機能を用いてインターネットに接続し、撮影した皮膚画像を遠隔診断装置に送信して診断を要求するものである。そして、要求に基づき皮膚画像を受信した遠隔診断装置は、メラノーマ診断プログラムを用い、皮膚画像から、それがメラノーマであるか否か、あるいはメラノーマであった場合にどの病期のメラノーマであるかを診断し、その結果を要求者である医師に返信する。
For example,
ところで、皮膚病については上記したダーモスコープ画像による診断が普及しつつあるが、明瞭な形状変化や模様を得られないことも多く、画像の観察や病変の判断は医師の熟練度に依存しているのが現状である。したがって、ダーモスコープ画像の病変部分を強調する等、画像処理によって、容易、かつ的確に診断可能なツールの出現がのぞまれていた。 By the way, although the diagnosis by dermoscope image mentioned above is spreading about dermatosis, it is often not possible to obtain a clear shape change or pattern, and the observation of the image and the determination of the lesion depend on the skill level of the doctor. is the current situation. Therefore, the emergence of tools that can be easily and accurately diagnosed by image processing, such as emphasizing a lesion part of a dermoscope image, has been expected.
本発明は上記した課題を解決するためになされたものであり、医師の診断を容易にするとともに診断精度の向上をはかる、診断装置並びに当該診断装置における画像処理方法及びそのプログラムを提供することを目的とする。 The present invention has been made to solve the above-described problems, and provides a diagnostic device, an image processing method in the diagnostic device, and a program thereof that facilitate diagnosis by a doctor and improve diagnostic accuracy. Objective.
上記した課題を解決するために本発明は、患部の撮影画像を用いて病変を診断する診断装置であって、前記撮影画像を記憶する画像記憶部と、前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、前記処理部が、前記撮影画像を輝度成分と色情報成分に分離する分離手段と、診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出することを特徴とする。 In order to solve the above-described problem, the present invention provides a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, the image storage unit storing the captured image, and the imaging stored in the image storage unit A processing unit for processing an image, wherein the processing unit separates the captured image into a luminance component and a color information component, and a part to be diagnosed is used to emphasize the likelihood of the part , And extracting the luminance component or the color information component of the photographed image.
また、本発明は、患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、前記撮影画像を輝度成分と色情報成分に分離するステップと、診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出するステップと、を有することを特徴とする。 Further, the present invention is an image processing method in a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, the step of separating the captured image into a luminance component and a color information component, Extracting the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
さらに、本発明は、患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、コンピュータに、記憶した前記撮影画像を輝度成分と色情報成分に分離する機能と、診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出する機能と、を実行させることを特徴とする。 Furthermore, the present invention is an image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area, and a function for separating the photographed image stored in a computer into a luminance component and a color information component; And a function of extracting the target part of the target image using the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
本発明によれば、医師の診断を容易にするとともに診断精度の向上をはかる、診断装置並びに当該診断装置における画像処理方法及びそのプログラムを提供することができる。 According to the present invention, it is possible to provide a diagnostic apparatus, an image processing method in the diagnostic apparatus, and a program thereof that facilitate diagnosis of a doctor and improve diagnostic accuracy.
以下、添付図面を参照して、本発明を実施するための形態(以下、「実施形態」と称する)について詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号を付している。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described in detail with reference to the accompanying drawings. Note that the same number is assigned to the same element throughout the description of the embodiment.
(実施形態の構成)
図1は、本実施形態に係る診断装置100の構成を示すブロック図である。図1に示すように、本実施形態に係る診断装置100には、ダーモスコープ付き撮影装置110が接続されている。ダーモスコープ付き撮影装置110は、診断装置100(処理部101)からの指示により患部の撮影を行ない、撮影画像(ダーモスコープ画像)を画像記憶部102に格納するとともに表示装置120に表示する。また、撮影画像は、処理部101により強調処理が施されて画像記憶部102に保存されると共に表示装置120に表示される。なお、入力装置130は、ダーモスコープ画像の撮影開始指示、後述するダーモスコープ画像中の部位選択操作等を行う。
(Configuration of the embodiment)
FIG. 1 is a block diagram illustrating a configuration of a
なお、表示装置120、例えば、LCD(Liquid Crystal Display)モニタであり、入力装置130は、例えば、マウス等の入力デバイスである。
The
処理部101は、画像記憶部102に記憶されたダーモスコピー画像等、患部の撮影画像を処理するもので、図1に示すように、分離手段101aと、抽出手段101bと、生成手段101cと、を含む。
The
分離手段101aは、撮影画像を輝度成分と色情報成分に分離する手段として機能する。抽出手段101bは、血管相当部位等、診断の対象の部位を、部位のそれらしさを強調するために、撮影画像の輝度成分又は色情報成分により抽出する手段として機能する。
The separating
生成手段101cは、上記した部位の抽出された結果を背景画像と再合成して生成する手段として機能する。このとき、背景画像は、医師が入力装置130を操作することにより選択される、撮影画像、撮影画像のグレー変換画像、撮影画像のコントラスト強調画像、及び撮影画像の輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像からなる群のうちの少なくとも1つである。
The
上記した分離手段101a、抽出手段101b、生成手段101cは、いずれも、処理部101が、処理部101が有する本実施形態に係るプログラムを逐次読み出し実行することにより、それぞれが持つ上記した機能を実現する。
The
(実施形態の動作)
以下、図1に示す本実施形態に係る診断装置100の動作について、図2以降を参照しながら詳細に説明する。
(Operation of the embodiment)
Hereinafter, the operation of the
図2に、本実施形態に係る診断装置100の基本処理動作の流れが示されている。図2によれば、処理部101は、まず、ダーモスコープ付き撮影装置110で撮影された患部(皮膚病変部位)の撮影画像を取得する(ステップS11)。そして、取得した撮影画像を画像記憶部102の所定の領域に格納するとともに、表示装置120に表示する(ステップS12)。
FIG. 2 shows a flow of basic processing operations of the
図4に表示装置120に表示される表示画面イメージの一例が示されている。画面に向かって左に撮影画像表示領域121が、右に、例えば、血管の強調画像表示領域122が割り当てられ、それぞれの領域に、撮影画像、強調画像が表示される。医師が、図面右下に割り当てられている「撮影開始」ボタン123を、入力装置130を使用してクリックすることで、ダーモスコープ付き撮影装置110による患部の撮影が開始され、処理部101が、撮影画像を取得し、表示装置120の撮影画像表示領域121に表示することができる。
FIG. 4 shows an example of a display screen image displayed on the
なお、画面左下には、血管領域の表示方法(表示形態)を指定するために用意されたチェックボックス124,125,126が割り付けられており、撮影画像上に赤色で強調して表示する場合、白黒撮影画像上に赤色で強調して表示する場合、血管画像を表示する場合に、医師が入力装置130を使用して選択操作(クリック)することで、該当のチェックボックス124,125,126にチェックマークが付される。
In the lower left of the screen,
説明を図2のフローチャートに戻す。処理部101は、取得した撮影画像を表示装置120の撮影画像表示領域121に表示した後、その撮影画像から血管領域を尤度Aとして抽出する(ステップS13)。ここで、血管領域は2値の場合、“0”または“1”の値を持ち、多値の場合、0から1の範囲で値を持つ。ここでは、“0”が非血管領域で、“1”が血管領域を表し、この血管領域を尤度Aとして抽出する処理については後述する。
The description returns to the flowchart of FIG. The
次に、処理部101は、表示装置120の表示画面上でのチェックボックス124,125,126の状態から医師により指定される表示方法(表示形態)な関する情報を取得する。医師が、所望のチェックボックス124,125,126のいずれかを選択操作することで、処理部101は、その選択された方法(形態)で血管相当部位を強調して表示装置120の強調画像表示領域122に表示する。
Next, the
具体的に、チェックボックス124が選択されていた場合(ステップS14“撮影画像と合成”)、処理部101は、生成手段101cが、撮影画像IMG上に、血管領域を赤色で描画した血管強調画像Eを生成する(ステップS15)。ここで、血管強調画像Eは、E=IMG.*(1−A)+Red*Aにより生成することができる。ここで、IMG.は撮影画像を、Redは赤色を、*は乗算を、「.*」は要素毎の乗算を表す。続いて処理部101は、生成した血管強調画像Eを、表示装置120の撮影画像表示領域121に表示されている撮影画像とともに強調画像表示領域122に並べて表示する(ステップS16)。
Specifically, when the
一方、チェックボックス125が選択されていた場合(ステップS14“グレー画像と合成”)、処理部101は、生成手段101cが、撮影画像をグレー画像に変換した後、血管領域を赤色で描画した血管強調画像Eを生成する(ステップS17)。ここで、血管強調画像Eは、E=Grey(IMG).*(1−A)+Red*Aにより生成することができる。なお、Grey()は、グレー画像への変換を表している。続いて処理部101は、生成した血管強調画像Eを、表示装置120の撮影画像表示領域121に表示されている撮影画像とともに強調画像表示領域122に並べて表示する(ステップS16)。
On the other hand, when the
また、チェックボックス126が選択されていた場合(ステップS14“血液画像を表示”)、処理部101は、生成手段101cが、血管部分を赤で描画し、非血管部分を黒で描画する血管強調画像を生成する(ステップS18)。ここで、血管強調画像Eは、E=Red*Aにより生成することができる。なお、血管領域は赤で示しているが、任意であり、赤に限定されない。続いて処理部101は、生成した血管強調画像Eを、表示装置120の撮影画像表示領域121に表示されている撮影画像とともに強調画像表示領域122に並べて表示する(ステップS16)。
When the
ここで、ステップS13の血管領域を尤度Aとして抽出する処理について図3のフローチャートを用いて詳述する。図3によれば、処理部101は、まず、分離手段101aが、RGB色空間の撮影画像を、Lab色空間(正確にはCIE 1976 L*a*b色空間)に変換する。Lab色空間については、例えば、インターネットURL(http://Ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93)<平成26年9月1日閲覧>にその詳細が記述されている。
Here, the process of extracting the blood vessel region in step S13 as the likelihood A will be described in detail with reference to the flowchart of FIG. According to FIG. 3, in the
続いて、処理部101は、抽出手段101bが、分離手段101aにより取得されたLab色空間のL画像(輝度画像)を利用し、輝度画像Lに対して画素毎にヘシアン行列Hを取得する(ステップS132)。ヘシアン行列Hは、各画素で、x方向への2階微分、y方向への2階微分、xy方向への2階部分の3つの要素を持つ。それぞれの要素を、Hxx,Hxy,Hyyとすれば、
Hxx=s^2*(Dxx※L)
Hyy=s^2*(Dyy※L)
Hxy=s^2*(Dxy※L)
で示される。
Subsequently, in the
Hxx = s ^ 2 * (Dxx * L)
Hyy = s ^ 2 * (Dyy * L)
Hxy = s ^ 2 * (Dxy * L)
Indicated by
ここで、※は畳み込み(コンポリューション)を示し、Dxxは、ガウスカーネルをx方向に2階微分したもので、
Dxx=1/(2*pi*σ^*4)*((X.^2)/s^2−1).*exp(−(X.^2+Y.^2)/(2*s^2))で与えられる。
Here, * indicates convolution, and Dxx is a second derivative of the Gaussian kernel in the x direction.
Dxx = 1 / (2 * pi * σ ^ * 4) * ((X. ^ 2) / s ^ 2-1). * Exp (-(X. ^ 2 + Y. ^ 2) / (2 * s ^ 2) )).
ここで、sは、検出する血管の太さに応じたスケール値である。なお、複数の太さの血管を抽出する場合には、血管の太さごとに後述する血管らしさAを求め、画素毎に最大となるAの値を選択すればよい。piは円周率、X及びYは、カーネル内の位置、「.*」は、行列の要素毎の乗算、「.^」は要素毎の累乗を表す。 Here, s is a scale value corresponding to the thickness of the blood vessel to be detected. When blood vessels having a plurality of thicknesses are extracted, a blood vessel likelihood A described later is obtained for each blood vessel thickness, and the maximum value A may be selected for each pixel. pi represents the circumference, X and Y represent the positions in the kernel, “. *” represents the multiplication for each element of the matrix, and “. ^” represents the power for each element.
Dyyは、ガウスカーネルをY方向に2階微分したものであり、Dxxの転置で与えられる。
Dyy=Dxx'
ここで、'は転置を表す。
Dyy is a second-order derivative of the Gaussian kernel in the Y direction, and is given by transposing Dxx.
Dyy = Dxx '
Here, 'represents transposition.
Dxyは、ガウスカーネルをx方向に1階、y方向に1階微分したもので、
Dxy=1/(2*pi*σ^*6)*(Y.*Y).*exp(−(X.^2+Y.^2)/(2*s^2))で与えられる。
Dxy is the first derivative of the Gaussian kernel in the x direction and the first derivative in the y direction.
Dxy = 1 / (2 * pi * σ ^ * 6) * (Y. * Y). * Exp (− (X. ^ 2 + Y. ^ 2) / (2 * s ^ 2)).
ヘシアン行列Hは、
H=[Hxx Hxy; Hxy Hyy]で表される。
Hessian matrix H is
H = [Hxx Hxy; Hxy Hyy].
次に、抽出手段101bは、画素毎にヘシアン行列Hの固有値λ1、λ2を取得する(ステップS133)。ヘシアン行列Hは、実対象行列であるため、固有値λ1、λ2は必ず実数になり、以下で求めることができる。
λ1=0.5*(Dxx+Dyy+tmp)
λ2=0.5*(Dxx;Dyy−tmp)
ここで、tmp=sqrt((Dxx−Dyy).*(Dxx−Dyy)+4*Dxy.*Dxy)である。
Next, the
λ1 = 0.5 * (Dxx + Dyy + tmp)
λ2 = 0.5 * (Dxx; Dyy-tmp)
Here, tmp = sqrt ((Dxx-Dyy). * (Dxx-Dyy) + 4 * Dxy. * Dxy).
そして、抽出手段101bは、ステップS133で取得した各画素での固有値λ1とλ2から以下の式にしたがい血管領域Aを抽出する(ステップS135)。血管領域Aは、A=1−exp((K.^2)/2*σ^2))で示される。但し、Kは、ステップS134で示されるように、K=sqrt(λ1.*λ1+λ2.*λ2)で掲載された値である。ここで、σは調整係数であり、sqrt()は要素ごとの平方根を表している。
Then, the
なお、処理部101は、血管領域を2値で表す場合、th1を閾値として2値化すれば良い。
すなわち、
A=0 if A<th1
A=1 else
Note that when the blood vessel region is represented by binary values, the
That is,
A = 0 if A <th1
A = 1 else
(実施形態の効果)
以上説明のように本実施形態に係る診断装置100によれば、処理部101は、分離手段101aが、撮影画像を輝度成分と色情報成分に分離し、抽出手段101bが、血管相当部位等、診断の対象の部位を、部位のそれらしさを強調するために、撮影画像の輝度成分又は色情報成分により抽出し、抽出された結果を表示装置120に表示する。このため、医師は、診断の対象の部位について強調表示された画面を視認することで、容易、かつ的確に診断を行うことができ、その結果、診断精度が向上する。
(Effect of embodiment)
As described above, according to the
また、本実施形態に係る診断装置100によれば、処理部101は、生成手段101cが、部位の抽出された結果を背景画像と再合成して表示装置120に表示する。このとき、医師に、背景画像として、(1)撮影画像、(2)撮影画像のグレー変換画像、(3)撮影画像のコントラスト強調画像、及び(4)撮影画像の輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像からなる群の中から選択できるUI(User Interface)を提供することで、診断目的に応じた表示形態を動的に選択することができ、その結果、医師は、一層容易に、かつ的確に診断を行うことができ、診断精度が一段と向上する。
Further, according to the
なお、撮影画像の輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像が選択されると、分離手段101aが、Lab色空間で輝度に相当するL画像を用い、大域変動成分と局所変動成分を分離するためにエッジ保存型フィルタ処理を施す。ここで、エッジ保存型フィルタとして、例えば、バイラテラルフィルタを用いる。バイラテラルフィルタについては、例えば、インターネットURL(http://en.wikipedia.org/wiki/Bilateral filter)<平成26年9月1日閲覧>にその詳細が記載されている。
When a luminance component enhanced image obtained by separating the luminance component of the photographed image into a global variation component and a local variation component and performing different enhancement is selected, the
以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態及び実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications and improvements can be made to the above-described embodiments and examples. Further, it is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.
以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。 The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.
〔付記〕
[請求項1]
患部の撮影画像を用いて病変を診断する診断装置であって、
前記撮影画像を記憶する画像記憶部と、
前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、
前記処理部が、
前記撮影画像を輝度成分と色情報成分に分離する分離手段と、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出することを特徴とする診断装置。
[請求項2]
前記部位が血管相当部位であることを特徴とする請求項1に記載の診断装置。
[請求項3]
さらに、前記部位の抽出された結果を背景画像と再合成して生成する生成手段を備えることを特徴とする請求項1又は2に記載の診断装置。
[請求項4]
前記背景画像が、前記撮影画像、前記撮影画像のグレー変換画像、前記撮影画像のコントラスト強調画像、及び前記撮影画像の前記輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像からなる群から選択される少なくとも1つであることを特徴とする請求項3に記載の診断装置。
[請求項5]
患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、
前記撮影画像を輝度成分と色情報成分に分離するステップと、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出するステップと、を有することを特徴とする画像処理方法。
[請求項6]
患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、
コンピュータに、
記憶した前記撮影画像を輝度成分と色情報成分に分離する機能と、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出する機能と、を実行させることを特徴とするプログラム。
[Appendix]
[Claim 1]
A diagnostic device for diagnosing a lesion using a photographed image of an affected area,
An image storage unit for storing the captured image;
A processing unit that processes the captured image stored in the image storage unit,
The processing unit is
Separating means for separating the captured image into a luminance component and a color information component;
A diagnostic apparatus, wherein a part to be diagnosed is extracted by the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
[Claim 2]
The diagnostic apparatus according to
[Claim 3]
The diagnostic apparatus according to
[Claim 4]
The background image is subjected to different emphasis by separating the luminance component of the captured image, the gray-converted image of the captured image, the contrast-enhanced image of the captured image, and the luminance component of the captured image into a global variation component and a local variation component. The diagnostic apparatus according to claim 3, wherein the diagnostic apparatus is at least one selected from the group consisting of luminance component enhanced images.
[Claim 5]
An image processing method in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
Separating the captured image into a luminance component and a color information component;
Extracting a region to be diagnosed from the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the region.
[Claim 6]
An image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
On the computer,
A function of separating the stored photographed image into a luminance component and a color information component;
A program for executing a function of extracting a part to be diagnosed by the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
100…診断装置、101…処理部、101a…分離手段、101b…抽出手段、101c…生成手段、110…ダーモスコープ付き撮影装置、120…表示装置、121…撮影画像、122…強調画像、123…撮影開始ボタン、124,125,126…チェックボックス、130…入力装置
DESCRIPTION OF
本発明の一態様は、患部の撮影画像を用いて病変を診断する診断装置であって、前記撮影画像を記憶する画像記憶部と、前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、前記処理部が、前記撮影画像を輝度成分と色情報成分に分離する分離手段と、診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出する抽出手段と、を備えることを特徴とする診断装置を提供するものである。 One aspect of the present invention is a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, and an image storage unit that stores the captured image, and a process that processes the captured image stored in the image storage unit A separation means for separating the photographed image into a luminance component and a color information component, and a region to be diagnosed to emphasize the likelihood of the portion of the photographed image. And an extraction unit that extracts the luminance component or the color information component.
Claims (6)
前記撮影画像を記憶する画像記憶部と、
前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、
前記処理部が、
前記撮影画像を輝度成分と色情報成分に分離する分離手段と、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出することを特徴とする診断装置。 A diagnostic device for diagnosing a lesion using a photographed image of an affected area,
An image storage unit for storing the captured image;
A processing unit that processes the captured image stored in the image storage unit,
The processing unit is
Separating means for separating the captured image into a luminance component and a color information component;
A diagnostic apparatus, wherein a part to be diagnosed is extracted by the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
前記撮影画像を輝度成分と色情報成分に分離するステップと、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出するステップと、を有することを特徴とする画像処理方法。 An image processing method in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
Separating the captured image into a luminance component and a color information component;
Extracting a region to be diagnosed from the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the region.
コンピュータに、
記憶した前記撮影画像を輝度成分と色情報成分に分離する機能と、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出する機能と、を実行させることを特徴とするプログラム。 An image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
On the computer,
A function of separating the stored photographed image into a luminance component and a color information component;
A program for executing a function of extracting a part to be diagnosed by the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124923A JP6319370B2 (en) | 2016-06-23 | 2016-06-23 | DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016124923A JP6319370B2 (en) | 2016-06-23 | 2016-06-23 | DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014227527A Division JP6003964B2 (en) | 2014-11-07 | 2014-11-07 | Diagnostic device, image processing method in the diagnostic device, and program thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016190063A true JP2016190063A (en) | 2016-11-10 |
JP2016190063A5 JP2016190063A5 (en) | 2016-12-22 |
JP6319370B2 JP6319370B2 (en) | 2018-05-09 |
Family
ID=57245940
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016124923A Active JP6319370B2 (en) | 2016-06-23 | 2016-06-23 | DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6319370B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021060358A1 (en) * | 2019-09-26 | 2021-04-01 | 東洋紡株式会社 | Analysis device and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003093342A (en) * | 2001-09-27 | 2003-04-02 | Fuji Photo Optical Co Ltd | Electronic endoscope system |
JP2009000494A (en) * | 2007-05-23 | 2009-01-08 | Noritsu Koki Co Ltd | Porphyrin detection method, porphyrin display method, and porphyrin detector |
JP2010115243A (en) * | 2008-11-11 | 2010-05-27 | Hoya Corp | Image signal processing apparatus for electronic endoscope |
WO2013098512A1 (en) * | 2011-12-26 | 2013-07-04 | Chanel Parfums Beaute | Method and device for detecting and quantifying cutaneous signs on an area of skin |
JP2013534851A (en) * | 2010-07-02 | 2013-09-09 | シャネル パルファン ボーテ | Method and apparatus for detecting and quantizing skin symptoms in skin zone |
-
2016
- 2016-06-23 JP JP2016124923A patent/JP6319370B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003093342A (en) * | 2001-09-27 | 2003-04-02 | Fuji Photo Optical Co Ltd | Electronic endoscope system |
JP2009000494A (en) * | 2007-05-23 | 2009-01-08 | Noritsu Koki Co Ltd | Porphyrin detection method, porphyrin display method, and porphyrin detector |
JP2010115243A (en) * | 2008-11-11 | 2010-05-27 | Hoya Corp | Image signal processing apparatus for electronic endoscope |
JP2013534851A (en) * | 2010-07-02 | 2013-09-09 | シャネル パルファン ボーテ | Method and apparatus for detecting and quantizing skin symptoms in skin zone |
WO2013098512A1 (en) * | 2011-12-26 | 2013-07-04 | Chanel Parfums Beaute | Method and device for detecting and quantifying cutaneous signs on an area of skin |
JP2015500722A (en) * | 2011-12-26 | 2015-01-08 | シャネル パルファン ボーテChanel Parfums Beaute | Method and apparatus for detecting and quantifying skin symptoms in a skin zone |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021060358A1 (en) * | 2019-09-26 | 2021-04-01 | 東洋紡株式会社 | Analysis device and program |
JPWO2021060358A1 (en) * | 2019-09-26 | 2021-04-01 |
Also Published As
Publication number | Publication date |
---|---|
JP6319370B2 (en) | 2018-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9996928B2 (en) | Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method | |
JP6003963B2 (en) | Diagnostic device, image processing method in the diagnostic device, and program thereof | |
EP3038051B1 (en) | Diagnostic apparatus and image processing method in the same apparatus | |
JP6471559B2 (en) | Diagnostic device, image processing method, image processing system, and program for the diagnostic device | |
JP6003964B2 (en) | Diagnostic device, image processing method in the diagnostic device, and program thereof | |
JP6519703B2 (en) | Image processing method, diagnostic device, and program | |
JP6319370B2 (en) | DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF | |
US10291893B2 (en) | Diagnosis support apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method | |
JP6036790B2 (en) | Diagnostic device, image processing method in the diagnostic device, and program thereof | |
EP3038052B1 (en) | Diagnosis support apparatus and image processing method in the same apparatus | |
JP6459410B2 (en) | Diagnostic device, image processing method in the diagnostic device, and program thereof | |
JP6265231B2 (en) | Diagnostic device, image processing method, and program | |
JP6003965B2 (en) | Diagnostic device, image processing method in the diagnostic device, and program thereof | |
JP6503733B2 (en) | Diagnosis support apparatus, image processing method in the diagnosis support apparatus, and program thereof | |
JP2018043041A (en) | Diagnostic support apparatus, image processing method and program therefor | |
JP2018043042A (en) | Diagnostic support apparatus, image processing method and program therefor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161003 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161003 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170829 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180306 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180319 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6319370 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |