JP2016087274A - Diagnosis device, image processing method in the diagnosis device and program thereof - Google Patents

Diagnosis device, image processing method in the diagnosis device and program thereof Download PDF

Info

Publication number
JP2016087274A
JP2016087274A JP2014227529A JP2014227529A JP2016087274A JP 2016087274 A JP2016087274 A JP 2016087274A JP 2014227529 A JP2014227529 A JP 2014227529A JP 2014227529 A JP2014227529 A JP 2014227529A JP 2016087274 A JP2016087274 A JP 2016087274A
Authority
JP
Japan
Prior art keywords
image
extracting
luminance component
captured image
extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014227529A
Other languages
Japanese (ja)
Other versions
JP6459410B2 (en
JP2016087274A5 (en
Inventor
中嶋 光康
Mitsuyasu Nakajima
光康 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014227529A priority Critical patent/JP6459410B2/en
Publication of JP2016087274A publication Critical patent/JP2016087274A/en
Publication of JP2016087274A5 publication Critical patent/JP2016087274A5/ja
Application granted granted Critical
Publication of JP6459410B2 publication Critical patent/JP6459410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a diagnosis device which facilitates a diagnosis of a doctor and improves diagnostic accuracy by using a photographed image of an affected part to display a part of a target of a diagnosis by emphasizing the part.SOLUTION: A diagnosis device 100 for using a photographed image of an affected part to diagnose a lesion includes an image storage part 102 for storing a photographed image, and a processing part 101 for processing the photographed image stored in the image storage part. The processing part includes division means 101a for dividing the photographed image into a luminance part and a color information component, and extraction means 101b for extracting a part of a target of a diagnosis. The extraction means includes at least one of first extraction means 101b-1 for extracting a candidate for the part from the luminance component, and second extraction means 101b-2 for extracting the uniqueness of the part from a color space composed of the luminance component and the color information component.SELECTED DRAWING: Figure 1

Description

本発明は、診断装置並びに当該診断装置における画像処理方法及びそのプログラムに関する。   The present invention relates to a diagnostic apparatus, an image processing method in the diagnostic apparatus, and a program thereof.

皮膚病変の診断として視診は必ず行われ、多くの情報を得ることが出来る。しかしながら、肉眼やルーペだけでは、ホクロとしみの判別さえ難しく、良性腫瘍と悪性腫瘍の鑑別も難しい。そこで、ダーモスコープ付きカメラを用いて病変を撮影するダーモスコピー診断が行われている。   Visual inspection is always performed as a diagnosis of skin lesions, and a lot of information can be obtained. However, even with the naked eye or loupe alone, it is difficult to distinguish between moles and spots, and it is also difficult to distinguish benign and malignant tumors. Therefore, dermoscopy diagnosis is performed in which lesions are imaged using a camera with a dermoscope.

ダーモスコープとは、ハロゲンランプ等で病変部を明るく照らし、エコージェルや偏光フィルタなどにより反射光の無い状態にし、10倍程度に拡大して観察する非侵襲性の診察器具である。この器具を用いた観察法をダーモスコピーと呼んでいる。ダーモスコピー診断については、インターネットURL(http://www.twmu.ac.jp/DNH/department/dermatology/dermoscopy.html)<平成26年9月1日閲覧>に詳細に記載されている。ダーモスコピー診断によれば、角質による乱反射がなくなることにより、表皮内から真皮浅層までの色素分布が良く見えてくる。   A dermoscope is a non-invasive diagnostic instrument that brightly illuminates a lesion with a halogen lamp or the like, and makes an echo gel, a polarizing filter or the like free from reflected light, and magnifies and observes about 10 times. The observation method using this instrument is called dermoscopy. The dermoscopy diagnosis is described in detail in the Internet URL (http://www.twmu.ac.jp/DNH/department/dermatology/dermoscopy.html) <browse September 1, 2014>. According to the dermoscopy diagnosis, the pigment distribution from the epidermis to the superficial dermis can be seen well by eliminating the irregular reflection due to the stratum corneum.

例えば、特許文献1に、上記したダーモスコープで撮影された皮膚画像に対して、色調、テクスチャ、非対称度、円度等の値を用いて診断を行う色素沈着部位の遠隔診断システムの技術が開示されている。それは、ダーモスコープを付けたカメラ付き携帯電話を用い、ダーモスコープを通して、メラノーマの心配がある良性色素性母斑などがある皮膚を撮影する。そして、携帯電話のネットワーク接続機能を用いてインターネットに接続し、撮影した皮膚画像を遠隔診断装置に送信して診断を依頼するものである。皮膚画像を受信した遠隔診断装置は、メラノーマ診断プログラムを用い、皮膚画像から、それがメラノーマであるか否か、あるいはメラノーマであった場合にどの病期のメラノーマであるかを診断し、その結果を医師に返信する。   For example, Patent Document 1 discloses a technique of a remote diagnosis system for a pigmentation site that performs diagnosis using skin tone images taken with the above-described dermoscope using values such as color tone, texture, asymmetry, and circularity. ing. It uses a camera phone with a dermoscope to photograph skin with benign pigmented nevus, which is a concern for melanoma, through the dermoscope. Then, the mobile phone is connected to the Internet using the network connection function, and the photographed skin image is transmitted to the remote diagnosis device to request diagnosis. The remote diagnostic device that has received the skin image uses the melanoma diagnostic program to diagnose from the skin image whether or not it is a melanoma, and if it is a melanoma, the stage of melanoma, and as a result Reply to the doctor.

特開2005−192944号JP-A-2005-192944

皮膚病については上記したダーモスコープ画像による診断が普及しつつあるが、明瞭な形状変化や模様を得られないことも多く、画像の観察や病変の判断は医師の熟練度に依存しているのが現状である。したがって、ダーモスコープ画像の病変部分を強調する等、画像処理によって、容易、かつ的確に診断可能なツールの出現がのぞまれていた。   For dermatoses, diagnosis using the above-mentioned dermoscope image is spreading, but it is often impossible to obtain clear shape changes and patterns, and image observation and lesion determination depend on the skill level of the doctor. Currently. Therefore, the emergence of tools that can be easily and accurately diagnosed by image processing, such as emphasizing a lesion part of a dermoscope image, has been expected.

本発明は上記した課題を解決するためになされたものであり、医師の診断を容易にするとともに診断精度の向上をはかる、診断装置並びに当該診断装置における画像処理方法及びそのプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a diagnostic device, an image processing method in the diagnostic device, and a program thereof that facilitate diagnosis by a doctor and improve diagnostic accuracy. Objective.

上記した課題を解決するために、本発明は、患部の撮影画像を用いて病変を診断するための診断装置であって、前記撮影画像を記憶する画像記憶部と、前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、前記処理部が、前記撮影画像を輝度成分と色情報成分に分離する分離手段と、診断の対象の部位を抽出する抽出手段と、を備え、前記抽出手段が、前記部位の候補を前記輝度成分により抽出する第1の抽出手段、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出される第2の抽出手段の少なくとも1つを含むことを特徴とする。   In order to solve the above-described problems, the present invention provides a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area, the image storage unit storing the photographed image, and the image storage unit storing the image storage unit. A processing unit that processes the captured image, and the processing unit includes a separating unit that separates the captured image into a luminance component and a color information component, and an extracting unit that extracts a region to be diagnosed. The extraction means extracts a first candidate for extracting the part candidate by the luminance component, and extracts the likelihood of the part by a color space composed of the luminance component and the color information component. It includes at least one of two extraction means.

また、本発明は、患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、記憶された前記撮影画像を輝度成分と色情報成分に分離するステップと、診断の対象の部位を前記輝度成分又は前記色情報成分により抽出するステップと、前記部位の抽出された結果を単独、前記撮影画像との再合成、及び前記撮影画像のグレー変換画像との再合成からなる群から選択される少なくとも1つにより生成するステップと、を備え、前記抽出ステップが、前記部位の候補を前記輝度成分により抽出すること、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出することの少なくとも1つを含むことを特徴とする。   The present invention also provides an image processing method in a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, the step of separating the stored captured image into a luminance component and a color information component, Extracting a part by the luminance component or the color information component, a result obtained by extracting the part alone, recombining with the captured image, and recombining with the gray-converted image of the captured image Generating by at least one selected, wherein the extraction step extracts the part candidates by the luminance component, and the likelihood of the part from the luminance component and the color information component It is characterized by including at least one of extracting by the comprised color space.

更に、本発明は、患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、コンピュータに、記憶された前記撮影画像を輝度成分と色情報成分に分離する分離機能と、診断の対象の部位を前記輝度成分又は前記色情報成分により抽出する抽出機能と、前記部位の抽出された結果を単独、前記撮影画像との再合成、及び前記撮影画像のグレー変換画像との再合成からなる群から選択される少なくとも1つにより生成する生成機能と、を実行させ、前記抽出機能が、前記部位の候補を前記輝度成分により抽出する機能、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出する機能の少なくとも1つを含むことを特徴とする。   Furthermore, the present invention is an image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area, the computer having a separation function for separating the photographed image stored in a luminance component and a color information component An extraction function for extracting a region to be diagnosed by the luminance component or the color information component, and a result of extracting the region alone, recombining with the captured image, and a gray-converted image of the captured image A generation function generated by at least one selected from the group consisting of re-synthesis, and the extraction function extracts a candidate for the part by the luminance component, and the brightness of the part as the luminance It includes at least one of functions for extraction by a color space composed of a component and the color information component.

本発明によれば、医師の診断を容易にするとともに診断精度の向上をはかる、診断装置並びに当該診断装置における画像処理方法及びそのプログラムを提供することができる。   According to the present invention, it is possible to provide a diagnostic apparatus, an image processing method in the diagnostic apparatus, and a program thereof that facilitate diagnosis of a doctor and improve diagnostic accuracy.

本発明の実施の形態に係る診断装置の構成を示すブロック図である。It is a block diagram which shows the structure of the diagnostic apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る診断装置の基本処理動作を示すフローチャートである。It is a flowchart which shows the basic processing operation | movement of the diagnostic apparatus which concerns on embodiment of this invention. 図2の撮影画像の血管抽出処理動作を示すフローチャートである。3 is a flowchart illustrating a blood vessel extraction processing operation of the captured image of FIG. 2. 図3のL画像からボトムハット処理で輝度強調画像を得る処理動作を示すフローチャートである。It is a flowchart which shows the processing operation which obtains a brightness | luminance emphasis image by the bottom hat process from the L image of FIG. 図4の膨張処理画像の一例を示す図である。It is a figure which shows an example of the expansion process image of FIG. 図3の血管らしさを尤度Aとして抽出する処理動作の一例を示すフローチャートである。4 is a flowchart showing an example of a processing operation for extracting the likelihood of blood vessels in FIG. 3 as likelihood A. FIG. 図3の血管らしさを尤度Aとして抽出する処理動作の他の例を示すフローチャートである。10 is a flowchart showing another example of the processing operation for extracting the likelihood of blood vessels in FIG. 本発明の実施の形態に係る診断装置の表示画面構成の一例を示す図である。It is a figure which shows an example of the display screen structure of the diagnostic apparatus which concerns on embodiment of this invention.

以下、添付図面を参照して、本発明を実施するための形態(以下、「実施形態」と称する)について詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号を付している。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described in detail with reference to the accompanying drawings. Note that the same number is assigned to the same element throughout the description of the embodiment.

(実施形態の構成)
図1は、本実施形態に係る診断装置100の構成を示すブロック図である。図1に示すように、本実施形態に係る診断装置100には、ダーモスコープ付き撮影装置110が接続されている。ダーモスコープ付き撮影装置110は、診断装置100(処理部101)からの指示により撮影を行ない、撮影画像(ダーモスコピー画像)を画像記憶部102に格納するとともに表示装置120上に表示する。また、撮影画像は、処理部101により強調処理が施されて画像記憶部102に保存されると共に表示装置120上に表示される。入力装置130は、ダーモスコープ画像の撮影開始指示、後述するダーモスコピー画像中の部位選択操作等を行う。
(Configuration of the embodiment)
FIG. 1 is a block diagram illustrating a configuration of a diagnostic apparatus 100 according to the present embodiment. As shown in FIG. 1, an imaging device 110 with a dermoscope is connected to the diagnostic device 100 according to the present embodiment. The imaging device 110 with a dermoscope performs imaging in accordance with an instruction from the diagnostic device 100 (processing unit 101), and stores the captured image (dermoscopy image) in the image storage unit 102 and displays it on the display device 120. In addition, the captured image is emphasized by the processing unit 101 and stored in the image storage unit 102 and displayed on the display device 120. The input device 130 performs a dermoscope image capturing start instruction, a part selection operation in a dermoscopy image, which will be described later, and the like.

なお、表示装置120、例えば、LCD(Liquid Crystal Display)モニタにより構成され、入力装置130は、マウス等により構成されている。   Note that the display device 120 is constituted by, for example, an LCD (Liquid Crystal Display) monitor, and the input device 130 is constituted by a mouse or the like.

処理部101は、画像記憶部102に記憶された撮影画像を処理するもので、図1に示すように、分離手段101aと、抽出手段101bと、生成手段101cと、を含む。   The processing unit 101 processes a captured image stored in the image storage unit 102, and includes a separation unit 101a, an extraction unit 101b, and a generation unit 101c as shown in FIG.

分離手段101aは、前記撮影画像を輝度成分と色情報成分に分離する手段として機能する。   The separating unit 101a functions as a unit that separates the captured image into a luminance component and a color information component.

抽出手段101bは、診断の対象として選択された部位を抽出する手段として機能し、少なくとも、部位の候補を前記輝度成分により抽出する第1の抽出手段101b−1、及び部位のそれらしさを輝度成分と色情報成分とから構成される色空間により抽出される第2の抽出手段101b−2の一方を含む。   The extraction unit 101b functions as a unit that extracts a region selected as a diagnosis target, and at least the first extraction unit 101b-1 that extracts a region candidate using the luminance component, and the likelihood of the region as a luminance component And a second extraction unit 101b-2 that is extracted by a color space composed of color information components.

第1の抽出手段101b−1は、後述するように、モルフォロジー処理(ここではボトムハット処理)を用い、部位の候補を輝度成分により抽出する。また、第2の抽出手段101b−2は、後述するように、例えば、CIELab色空間の赤系の色相方向に応じた色情報成分を用いて抽出し、赤系の色相方向と、青系の色相方向とにより構成される平面座標を、赤系の色相方向の特定の点を中心に反時計まわりに所定角回転させ、特定の値域で輝度成分に制限をかけて部位のそれらしさを示す尤度を算出する。そして、算出された尤度を、輝度成分の画像にボトムハット処理を施して得られる輝度画像に乗算することにより、選択された部位を強調して抽出する。   As will be described later, the first extracting unit 101b-1 uses a morphological process (here, a bottom hat process), and extracts a candidate for a region based on a luminance component. Further, as will be described later, the second extraction unit 101b-2 extracts, for example, using a color information component corresponding to the red hue direction of the CIELab color space, and extracts the red hue direction and the blue hue direction. The plane coordinates composed of the hue direction are rotated by a predetermined angle counterclockwise around a specific point in the red hue direction, and the luminance component is limited in a specific value range to indicate the likelihood of the part. Calculate the degree. Then, the selected likelihood is extracted by multiplying the calculated likelihood by a luminance image obtained by performing bottom hat processing on the luminance component image.

生成手段101cは、部位の抽出された結果を単独、又は背景画像と合成して生成する手段として機能し、このとき、背景画像は、撮影画像及び撮影画像のグレー変換画像の少なくとも一方である。   The generation unit 101c functions as a unit that generates a part extraction result alone or in combination with a background image. At this time, the background image is at least one of a captured image and a gray-converted image of the captured image.

上記した分離手段101a、抽出手段101b(第1の抽出手段101b−1,第2の抽出手段101b−2)、生成手段101cは、いずれも、処理部101が有する本実施形態に係るプログラムを逐次読み出し実行することにより、それぞれが持つ上記した機能を実現する。   The above-described separation unit 101a, extraction unit 101b (first extraction unit 101b-1, second extraction unit 101b-2), and generation unit 101c all sequentially execute the program according to the present embodiment that the processing unit 101 has. By executing the reading, the above functions are realized.

(実施形態の動作)
以下、図1に示す本実施形態に係る診断装置100の動作について、図2以降を参照しながら詳細に説明する。
(Operation of the embodiment)
Hereinafter, the operation of the diagnostic apparatus 100 according to the present embodiment shown in FIG. 1 will be described in detail with reference to FIG.

図2に、本実施形態に係る診断装置100の基本処理動作の流れが示されている。図2によれば、処理部101は、まず、ダーモスコープ付き撮影装置110で撮影された、例えば、皮膚病変部位等、患部の撮影画像を取得する(ステップS11)。そして、取得した撮影画像を画像記憶部102の所定の領域に格納するとともに、表示装置120に表示する(ステップS12)。続いて、処理部101は、撮影画像から血管抽出E処理を行い(ステップS13)、抽出された血管を強調処理し、その処理画像を先に表示した撮影画像とともに表示装置120に並べて表示し、診断を医師に委ねる(ステップS14)。   FIG. 2 shows a flow of basic processing operations of the diagnostic apparatus 100 according to the present embodiment. According to FIG. 2, the processing unit 101 first obtains a photographed image of an affected part, such as a skin lesion site, photographed by the photographing apparatus 110 with a dermoscope (step S11). The acquired captured image is stored in a predetermined area of the image storage unit 102 and displayed on the display device 120 (step S12). Subsequently, the processing unit 101 performs blood vessel extraction E processing from the photographed image (step S13), emphasizes the extracted blood vessel, displays the processed image side by side on the display device 120 together with the photographed image previously displayed, The diagnosis is entrusted to the doctor (step S14).

図8に表示装置120に表示される表示画面イメージの一例が示されている。画面に向かって左に撮影画像表示領域121が、右に、強調画像表示領域122が割り当てられており、それぞれの領域に、撮影画像、血管の強調画像が表示されている。医師が、入力装置130を用い、表示装置120の画面右下に割り当てられている「撮影開始」ボタン123をクリックすることにより、ダーモスコープ付き撮影装置110による患部の撮影が開始される。そして処理部101による血管抽出処理により、表示装置120の撮影画像表示領域121に撮影画像が、強調画像表示領域122に、撮影画像のうち抽出された血管が強調された強調画像が並んで表示される。   FIG. 8 shows an example of a display screen image displayed on the display device 120. A captured image display area 121 is allocated to the left and an emphasized image display area 122 is allocated to the right, and a captured image and a blood vessel emphasized image are displayed in each area. When the doctor uses the input device 130 and clicks the “start imaging” button 123 assigned to the lower right of the screen of the display device 120, imaging of the affected area is started by the imaging device 110 with a dermoscope. Then, by the blood vessel extraction processing by the processing unit 101, the captured image is displayed in the captured image display area 121 of the display device 120, and the enhanced image in which the extracted blood vessels in the captured image are emphasized is displayed in the enhanced image display area 122. The

図3に、図2のステップS13の「血管抽出E処理」の詳細な手順が示されている。図3によれば、処理部101は、まず、分離手段101aが、RGB色空間の撮影画像を、Lab色空間(正確には、CIE 1976 L*a*b色空間)に変換する(ステップS131)。Lab色空間の詳細は、インターネットURL(http://ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93)<平成26年9月1日>に記載されている。   FIG. 3 shows a detailed procedure of the “blood vessel extraction E process” in step S13 of FIG. According to FIG. 3, in the processing unit 101, first, the separation unit 101 a converts the captured image in the RGB color space into the Lab color space (more precisely, the CIE 1976 L * a * b color space) (step S <b> 131). ). Details of the Lab color space can be found on the Internet URL (http://ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93) <September 1, 2014 >.

次に、処理部101は、抽出手段101bが、診断の対象として選択された部位を抽出する。具体的に、第1の抽出手段101b−1が、選択された部位の候補(血管候補)を輝度成分から抽出する。このため、第1の抽出手段101b−1は、分離手段101aによって色空間変換されたLab色空間で輝度に相当するL画像を用い、モルフォロジー処理(ここでは、Bottmhat:ボトムハット処理)によりコントラスト強調画像BHを得る(ステップS132)。モルフオロジー処理とは、構造化要素を入力画像に適用し、同じサイズの出力画像としてのBHを生成するもので、出力画像の各値は、入力画像内の対応する画素と近傍画素との比較に基づいている。   Next, in the processing unit 101, the extraction unit 101b extracts a part selected as a diagnosis target. Specifically, the first extraction unit 101b-1 extracts the selected part candidate (blood vessel candidate) from the luminance component. Therefore, the first extraction unit 101b-1 uses the L image corresponding to the luminance in the Lab color space that has been color space converted by the separation unit 101a, and performs contrast enhancement by morphological processing (here, Bottom hat processing). An image BH is obtained (step S132). Morphology processing applies structuring elements to the input image and generates BH as an output image of the same size. Each value of the output image is compared with the corresponding pixel in the input image and neighboring pixels. Based on.

最も基本的なモロフォロジー処理は、膨張と収縮である。膨張は入力画像内のオブジェクトの境界に画素を付加し、収縮は、境界の画素を除去する。オブジェクトに付加し、あるいは削除する画素の数は、画像処理に使用される構造化要素のサイズと形状によって異なる。   The most basic morphological processes are expansion and contraction. Dilation adds pixels to the boundary of the object in the input image, and shrinkage removes the boundary pixels. The number of pixels added to or deleted from the object varies depending on the size and shape of the structuring element used for image processing.

ここでは、ボトムハットを用いたモルフォロジー処理を実行し、診断の対象として選択された部位(血管候補)を輝度成分から抽出する方法について説明する。ボトムハット処理については、図4にその詳細手順が示されている。   Here, a method of executing a morphological process using a bottom hat and extracting a region (blood vessel candidate) selected as a diagnosis target from luminance components will be described. The detailed procedure of the bottom hat process is shown in FIG.

図4によれば、第1の抽出手段101b−1は、L画像に膨張処理を行い、処理後の輝度画像L1を得る(ステップS132a)。膨張処理の詳細は、インターネットURL(http://www.mathworks.co.jp/jp/help/images/morphology−fundamentals−dilation−and−erosion.html)<平成26年9月1日閲覧>に記載されている。   According to FIG. 4, the first extraction unit 101b-1 performs an expansion process on the L image, and obtains a processed luminance image L1 (step S132a). Details of the expansion process can be found on the Internet URL (http://www.mathworks.co.jp/jp/help/images/morphology-fundamentals-dilation-and-erosion.html) <browse September 1, 2014> Have been described.

次に、第1の抽出手段101b−1は、膨張処理後の輝度画像L1に対して収縮処理を行い、輝度画像L2を得る(ステップS132b)。続いて、第1の抽出手段101b−1は、収縮処理後の輝度画像L2からL画像を減算して(BH=L2−L)ボトムハット処理後の画像BHを得る(ステッフS133)。この様子が図5に示されている。図5(a)がL画像、(b)が膨張処理後の画像L1、(c)がボトムハット処理後の画像BHである。   Next, the first extraction unit 101b-1 performs a contraction process on the brightness image L1 after the expansion process, and obtains a brightness image L2 (step S132b). Subsequently, the first extraction unit 101b-1 subtracts the L image from the luminance image L2 after the contraction process (BH = L2-L) to obtain the image BH after the bottom hat process (step S133). This is shown in FIG. 5A is an L image, FIG. 5B is an image L1 after the expansion process, and FIG. 5C is an image BH after the bottom hat process.

ここで、膨張処理について補足する。例えば、5×5画素の構造化要素を考える。膨張処理とは、注目画素の構造化要素の範囲内での最大値をその注目画像の値とする処理を全画素について行うことをいう。すなわち、出力される注目画素値は、入力画素近傍の中で全ての画素の最大値である。一方、縮小処理は、注目画素の構造化要素の範囲内での最小値をその注目画素の値とする。すなわち、注目画素値は、入力画素近傍の中で全ての画素の最小値である。以上により、L画像からボトムハット処理でコントラスト強調された画像BHを得ることができる。   Here, the expansion process will be supplemented. For example, consider a 5 × 5 pixel structuring element. The expansion processing is to perform processing for all the pixels with the maximum value within the range of the structuring element of the target pixel as the value of the target image. That is, the output target pixel value is the maximum value of all the pixels in the vicinity of the input pixel. On the other hand, in the reduction process, the minimum value within the range of the structuring element of the target pixel is set as the value of the target pixel. That is, the target pixel value is the minimum value of all the pixels in the vicinity of the input pixel. As described above, an image BH in which contrast enhancement is performed by the bottom hat process can be obtained from the L image.

説明を図3に戻す。次に、処理部101は、第2の抽出手段101b−2が、選択された部位のそれらしさ(血管らしさ)を輝度成分と色情報成分とから構成される色空間により抽出する。このため、第2の抽出手段101b−2は、血管らしさを尤度Aとして計算する(ステップS133)。尤度Aの求め方は図6にその一例が示されている。   Returning to FIG. Next, in the processing unit 101, the second extraction unit 101b-2 extracts the likelihood (blood vessel likelihood) of the selected part using a color space composed of a luminance component and a color information component. For this reason, the second extraction unit 101b-2 calculates the likelihood of blood vessels as the likelihood A (step S133). An example of how to obtain the likelihood A is shown in FIG.

図6によれば、処理部101は、第2の抽出手段101b−2が、色空間の赤系の色相方向に応じた色情報成分であるa軸の値、及び青系の色相方向に応じた色情報成分であるb軸の値を用いて抽出する。すなわち、第2の抽出手段101b−2は、Lab色空間のa軸,b軸の値から以下の計算を行うことによってLH1を生成する(ステップS133b)。   According to FIG. 6, in the processing unit 101, the second extraction unit 101b-2 responds to the value of the a axis that is a color information component according to the red hue direction of the color space, and the blue hue direction. The b-axis value that is the color information component is extracted. That is, the second extraction unit 101b-2 generates LH1 by performing the following calculation from the values of the a axis and the b axis of the Lab color space (step S133b).

ad=(a−ca)*cos(r)+b*sin(r)+ca
bd=−(a−ca)*sin(r)+b*cos(r)
LH1=exp(−((ad*ad)/sa/sa+(bd*bd)
/sb/sb))
ad = (a−ca) * cos (r) + b * sin (r) + ca
bd = − (a−ca) * sin (r) + b * cos (r)
LH1 = exp (-((ad * ad) / sa / sa + (bd * bd)
/ Sb / sb))

ここで、ad,bdは、(ca,0)を中心に、反時計回りにab平面をrラジアンだけ回転させたものとなる。また、rの値として、0.3〜0.8ラジアン程度を設定する。caは、0〜50の間で設定する。sa,sbは、それぞれa軸方向の感度の逆数、b軸方向の感度の逆数となる。ここでは、sa>sbとして設定する。   Here, ad and bd are obtained by rotating the ab plane by r radians counterclockwise around (ca, 0). Also, the value of r is set to about 0.3 to 0.8 radians. ca is set between 0 and 50. sa and sb are the reciprocal of the sensitivity in the a-axis direction and the reciprocal of the sensitivity in the b-axis direction, respectively. Here, it is set as sa> sb.

次に、第2の抽出手段101b−2は、得られたLH1に輝度Lで制限をかける。輝度Lが閾値TH1以上であれば0にしたものをLH2とし(ステップS133c)、輝度Lが閾値TH2以下のものをLH3とする(ステップS133d)。ここでは、閾値TH1は60から100の間で、閾値TH2は0から40の間で設定するものとする。ここで求めたLH3を血管らしさを示す尤度Aとする(ステップS133e)。   Next, the second extraction unit 101b-2 limits the obtained LH1 with the luminance L. If the luminance L is greater than or equal to the threshold TH1, the one set to 0 is set to LH2 (step S133c), and the luminance L is equal to or lower than the threshold TH2 is set to LH3 (step S133d). Here, the threshold value TH1 is set between 60 and 100, and the threshold value TH2 is set between 0 and 40. The LH3 obtained here is set as a likelihood A indicating the likelihood of blood vessels (step S133e).

説明を図3に戻す。第2の抽出手段101b−2は、上記した手順にしたがい血管らしさを尤度Aとして抽出した後(ステップS133)、ボトムハット処理後の画像BHと、血管らしさを示す尤度Aの各要素を乗算し、係数Nで除算する(ステップS134)。さらに、1でクリッピング処理を行なうことで強調された血管抽出Eの画像を生成する(ステップS135)。   Returning to FIG. The second extraction unit 101b-2 extracts the likelihood of blood vessels as the likelihood A according to the above-described procedure (step S133), and then obtains each element of the image BH after the bottom hat processing and the likelihood A indicating the likelihood of blood vessels. Multiply and divide by coefficient N (step S134). Further, an image of the blood vessel extraction E emphasized by performing clipping processing at 1 is generated (step S135).

上記した例によれば、血管抽出Eの画像は、0〜1までの値を持つ多値画像であるものの、ポトムハット処理を経ているため、抽出された血管の境界は急峻になっている。さらに急峻な境界を得たい場合は、所望の閾値で2値化をしてもよい。   According to the above-described example, the blood vessel extraction E image is a multi-valued image having a value from 0 to 1, but has undergone a pottom hat process, so the boundary of the extracted blood vessel is steep. If it is desired to obtain a steeper boundary, binarization may be performed with a desired threshold value.

上述したように、第2の抽出手段101b−2は、色空間の赤系の色相方向と、青系の色相方向で構成される平面座標を、赤系の色相方向軸の特定の点を中心に反時計まわりに所定角回転させ、特定の値域で輝度成分に制限をかけることにより、選択された部位の血管らしさを示す尤度Aを算出する。そして、算出された尤度Aを、輝度成分の画像にボトムハット処理を施して得られる輝度画像に乗算して選択された部位を強調する。   As described above, the second extraction unit 101b-2 uses the plane coordinates formed by the red hue direction of the color space and the blue hue direction as the center of a specific point on the red hue direction axis. Then, the likelihood A indicating the blood vessel likeness of the selected part is calculated by rotating a predetermined angle counterclockwise and limiting the luminance component in a specific value range. Then, the selected likelihood is emphasized by multiplying the calculated likelihood A by the luminance image obtained by performing the bottom hat process on the luminance component image.

血管らしさを尤度Aとして抽出する変形例について、図7のフローチャートを参照して説明する。抽出手段は、Lab色空間の赤系の色相方向であるa軸の値を取得し(ステップS133x)、Sを例えば80とし(ステップS133y)、血管らしさAの値を、0〜80の範囲で制限を与えて正規化(A←max(min(a,S),0)/S)を行い、0から1の値範囲に設定している(ステップS133z)。ここでは、0から80の値で制限を与えたが、この値は一例であり、この値に制限されない。   A modification in which the likelihood of blood vessels is extracted as likelihood A will be described with reference to the flowchart of FIG. The extraction means acquires the value of the a axis that is the red hue direction of the Lab color space (step S133x), sets S to 80 (step S133y), and sets the value of blood vessel likelihood A in the range of 0 to 80. Normalization (A ← max (min (a, S), 0) / S) is performed with a restriction, and a value range of 0 to 1 is set (step S133z). Here, the limit is given by a value from 0 to 80, but this value is an example and is not limited to this value.

最後に、処理部101は、生成手段101cが、部位の抽出された結果を背景画像と再合成して表示装置120に表示する。このとき、医師に、背景画像として、撮影画像、あるいは撮影画像のグレー変換画像のいずれかである。   Finally, in the processing unit 101, the generation unit 101c re-synthesizes the extracted result of the part with the background image and displays the result on the display device 120. At this time, it is either a photographed image or a gray converted image of the photographed image as a background image to the doctor.

(実施形態の効果)
以上説明のように、本実施形態に係る診断装置100によれば、処理部101は、第1の抽出手段101b−1が、選択された部位の候補を輝度成分により抽出し、第2の抽出手段101b−2が、選択された部位のそれらしさを輝度成分と色情報成分とから構成される色空間により抽出し、抽出された結果を表示装置120に表示する。このため、医師は、診断の対象の部位について強調表示された画面を視認することで、容易、かつ的確に診断を行うことができ、その結果、診断精度が向上する。
(Effect of embodiment)
As described above, according to the diagnostic apparatus 100 according to the present embodiment, the processing unit 101 causes the first extraction unit 101b-1 to extract the selected part candidate using the luminance component, and the second extraction. The means 101b-2 extracts the likelihood of the selected part by a color space composed of the luminance component and the color information component, and displays the extracted result on the display device 120. For this reason, the doctor can easily and accurately make a diagnosis by visually recognizing the screen highlighted for the site to be diagnosed, and as a result, the diagnostic accuracy is improved.

また、本実施形態に係る診断装置100によれば、処理部101は、第1の抽出手段101b−1が、モルフォロジー処理(ボトムハット処理)を用いて血管候補を抽出し、第2の抽出手段101b−2が、血管らしさを尤度として算出し、尤度Aと血管候補とから血管領域を抽出するため、血管の明瞭な形状変化や模様等を再現することができる。なお、処理部101は、生成手段101cが、部位の抽出された結果を背景画像と再合成して表示装置120に表示する。このとき、背景画像として、医師に、撮影画像、あるいは撮影画像のグレー変換画像を提供することで、診断目的に応じた表示形態を動的に変更でき、その結果、医師は、一層容易に、かつ的確に診断を行うことができ、診断精度が一段と向上する。   Further, according to the diagnostic apparatus 100 according to the present embodiment, the processing unit 101 causes the first extraction unit 101b-1 to extract a blood vessel candidate using a morphological process (bottom hat process), and the second extraction unit. Since 101b-2 calculates the likelihood of blood vessels as a likelihood and extracts a blood vessel region from the likelihood A and the blood vessel candidate, it is possible to reproduce a clear shape change or pattern of the blood vessel. In the processing unit 101, the generation unit 101c re-synthesizes the extracted result of the part with the background image and displays the result on the display device 120. At this time, by providing the doctor with a captured image or a gray-converted image of the captured image as a background image, the display form according to the diagnostic purpose can be dynamically changed, and as a result, the doctor can more easily Diagnosis can be performed accurately and accurately, and the diagnostic accuracy is further improved.

以上、各実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態及び実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using each embodiment, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications and improvements can be made to the above-described embodiments and examples. Further, it is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。   The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.

[付記]
[請求項1]
患部の撮影画像を用いて病変を診断するための診断装置であって、
前記撮影画像を記憶する画像記憶部と、
前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、
前記処理部が、
前記撮影画像を輝度成分と色情報成分に分離する分離手段と、
診断の対象の部位を抽出する抽出手段と、を備え、
前記抽出手段が、
前記部位の候補を前記輝度成分により抽出する第1の抽出手段、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出される第2の抽出手段の少なくとも1つを含むことを特徴とする診断装置。
[請求項2]
前記第1の抽出手段がモルフォロジー処理を用いることを特徴とする請求項1に記載の診断装置。
[請求項3]
前記モルフォロジー処理がボトムハット処理であることを特徴とする請求項2に記載の診断装置。
[請求項4]
前記部位の抽出された結果を単独、又は背景画像と合成して生成する生成手段をさらに備えることを特徴とする請求項1に記載の診断装置。
[請求項5]
前記背景画像が、前記撮影画像及び前記撮影画像のグレー変換画像の少なくとも1つであることを特徴とする請求項4に記載の診断装置。
[請求項6]
前記第2の抽出手段が色空間の赤系の色相方向に応じた色情報成分を用いて抽出することを特徴とする請求項1に記載の診断装置。
[請求項7]
前記第2の抽出手段が、色空間の赤系の色相方向と、青系の色相方向で構成される平面座標を、前記赤系の色相方向軸の特定の点を中心に反時計まわりに所定角回転させ、前記特定の点の大きさに前記輝度成分で制限をかけて前記部位のそれらしさを示す尤度を算出し、前記算出された尤度を、前記輝度成分の画像にボトムハット処理を施して得られる輝度画像に乗算して前記選択された部位を強調して抽出することを特徴とする請求項1に記載の診断装置。
[請求項8]
前記色空間がCIELab色空間であることを特徴とする請求項6又は7に記載の診断装置。
[請求項9]
患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、
記憶された前記撮影画像を輝度成分と色情報成分に分離するステップと、
診断の対象の部位を前記輝度成分又は前記色情報成分により抽出するステップと、
前記部位の抽出された結果を単独、前記撮影画像との再合成、及び前記撮影画像のグレー変換画像との再合成からなる群から選択される少なくとも1つにより生成するステップと、を備え、
前記抽出ステップが、前記部位の候補を前記輝度成分により抽出すること、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出することの少なくとも1つを含むことを特徴とする画像処理方法。
[請求項10]
患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、
コンピュータに、
記憶された前記撮影画像を輝度成分と色情報成分に分離する分離機能と、
診断の対象の部位を前記輝度成分又は前記色情報成分により抽出する抽出機能と、
前記部位の抽出された結果を単独、前記撮影画像との再合成、及び前記撮影画像のグレー変換画像との再合成からなる群から選択される少なくとも1つにより生成する生成機能と、を実行させ、
前記抽出機能が、前記部位の候補を前記輝度成分により抽出する機能、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出する機能の少なくとも1つを含むことを特徴とするプログラム。
[Appendix]
[Claim 1]
A diagnostic device for diagnosing a lesion using a photographed image of an affected area,
An image storage unit for storing the captured image;
A processing unit that processes the captured image stored in the image storage unit,
The processing unit is
Separating means for separating the captured image into a luminance component and a color information component;
An extraction means for extracting a site to be diagnosed,
The extraction means comprises:
At least a first extraction means for extracting the candidate for the part by the luminance component, and a second extraction means for extracting the likelihood of the part by a color space composed of the luminance component and the color information component; A diagnostic device comprising one.
[Claim 2]
The diagnostic apparatus according to claim 1, wherein the first extraction unit uses morphological processing.
[Claim 3]
The diagnostic apparatus according to claim 2, wherein the morphology process is a bottom hat process.
[Claim 4]
The diagnostic apparatus according to claim 1, further comprising a generation unit configured to generate the extracted result of the part alone or in combination with a background image.
[Claim 5]
The diagnostic apparatus according to claim 4, wherein the background image is at least one of the captured image and a gray converted image of the captured image.
[Claim 6]
The diagnostic apparatus according to claim 1, wherein the second extraction unit performs extraction using a color information component corresponding to a red hue direction of a color space.
[Claim 7]
The second extracting means determines a plane coordinate composed of a red hue direction and a blue hue direction in a color space counterclockwise around a specific point on the red hue direction axis. Rotate the angle, limit the size of the specific point with the luminance component, calculate the likelihood indicating the likelihood of the part, and apply the calculated likelihood to the luminance component image in a bottom hat process The diagnostic apparatus according to claim 1, wherein the selected portion is emphasized and extracted by multiplying a luminance image obtained by applying the luminance image.
[Claim 8]
The diagnostic apparatus according to claim 6 or 7, wherein the color space is a CIELab color space.
[Claim 9]
An image processing method in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
Separating the stored captured image into a luminance component and a color information component;
Extracting a region to be diagnosed by the luminance component or the color information component;
Generating the extracted result of the part alone by at least one selected from the group consisting of recombining with the captured image and recombining with the gray-converted image of the captured image,
The extraction step includes at least one of extracting the part candidates by the luminance component and extracting the likelihood of the part by a color space constituted by the luminance component and the color information component. An image processing method.
[Claim 10]
An image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
On the computer,
A separation function for separating the stored captured image into a luminance component and a color information component;
An extraction function for extracting a region to be diagnosed by the luminance component or the color information component;
A generation function that generates the extracted result of the part by at least one selected from the group consisting of recombining with the captured image and recombining with the gray-converted image of the captured image; ,
The extraction function includes at least one of a function of extracting the part candidates by the luminance component and a function of extracting the likelihood of the part by a color space composed of the luminance component and the color information component. A program characterized by that.

100…診断装置、101…処理部、101a…分離手段、101b…抽出手段、101b−1…第1の抽出手段、101b−2…第2の抽出手段、101c…生成手段、110…ダーモスコープ付き撮影装置、120…表示装置、121…撮影画像表示領域、122…強調画像表示領域、130…入力装置   DESCRIPTION OF SYMBOLS 100 ... Diagnostic apparatus 101 ... Processing part 101a ... Separation means 101b ... Extraction means 101b-1 ... First extraction means 101b-2 ... Second extraction means 101c ... Generation means 110 ... Photography with dermoscope Device 120, display device 121, photographed image display area 122, highlight image display region 130, input device

Claims (10)

患部の撮影画像を用いて病変を診断するための診断装置であって、
前記撮影画像を記憶する画像記憶部と、
前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、
前記処理部が、
前記撮影画像を輝度成分と色情報成分に分離する分離手段と、
診断の対象の部位を抽出する抽出手段と、を備え、
前記抽出手段が、
前記部位の候補を前記輝度成分により抽出する第1の抽出手段、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出される第2の抽出手段の少なくとも1つを含むことを特徴とする診断装置。
A diagnostic device for diagnosing a lesion using a photographed image of an affected area,
An image storage unit for storing the captured image;
A processing unit that processes the captured image stored in the image storage unit,
The processing unit is
Separating means for separating the captured image into a luminance component and a color information component;
An extraction means for extracting a site to be diagnosed,
The extraction means comprises:
At least a first extraction means for extracting the candidate for the part by the luminance component, and a second extraction means for extracting the likelihood of the part by a color space composed of the luminance component and the color information component; A diagnostic device comprising one.
前記第1の抽出手段がモルフォロジー処理を用いることを特徴とする請求項1に記載の診断装置。   The diagnostic apparatus according to claim 1, wherein the first extraction unit uses morphological processing. 前記モルフォロジー処理がボトムハット処理であることを特徴とする請求項2に記載の診断装置。   The diagnostic apparatus according to claim 2, wherein the morphology process is a bottom hat process. 前記部位の抽出された結果を単独、又は背景画像と合成して生成する生成手段をさらに備えることを特徴とする請求項1に記載の診断装置。   The diagnostic apparatus according to claim 1, further comprising a generation unit configured to generate the extracted result of the part alone or in combination with a background image. 前記背景画像が、前記撮影画像及び前記撮影画像のグレー変換画像の少なくとも1つであることを特徴とする請求項4に記載の診断装置。   The diagnostic apparatus according to claim 4, wherein the background image is at least one of the captured image and a gray converted image of the captured image. 前記第2の抽出手段が色空間の赤系の色相方向に応じた色情報成分を用いて抽出することを特徴とする請求項1に記載の診断装置。   The diagnostic apparatus according to claim 1, wherein the second extraction unit performs extraction using a color information component corresponding to a red hue direction of a color space. 前記第2の抽出手段が、色空間の赤系の色相方向と、青系の色相方向で構成される平面座標を、前記赤系の色相方向軸の特定の点を中心に反時計まわりに所定角回転させ、前記特定の点の大きさに前記輝度成分で制限をかけて前記部位のそれらしさを示す尤度を算出し、前記算出された尤度を、前記輝度成分の画像にボトムハット処理を施して得られる輝度画像に乗算して前記選択された部位を強調して抽出することを特徴とする請求項1に記載の診断装置。   The second extracting means determines a plane coordinate composed of a red hue direction and a blue hue direction in a color space counterclockwise around a specific point on the red hue direction axis. Rotate the angle, limit the size of the specific point with the luminance component, calculate the likelihood indicating the likelihood of the part, and apply the calculated likelihood to the luminance component image in a bottom hat process The diagnostic apparatus according to claim 1, wherein the selected portion is emphasized and extracted by multiplying a luminance image obtained by applying the luminance image. 前記色空間がCIELab色空間であることを特徴とする請求項6又は7に記載の診断装置。   The diagnostic apparatus according to claim 6 or 7, wherein the color space is a CIELab color space. 患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、
記憶された前記撮影画像を輝度成分と色情報成分に分離するステップと、
診断の対象の部位を前記輝度成分又は前記色情報成分により抽出するステップと、
前記部位の抽出された結果を単独、前記撮影画像との再合成、及び前記撮影画像のグレー変換画像との再合成からなる群から選択される少なくとも1つにより生成するステップと、を備え、
前記抽出ステップが、前記部位の候補を前記輝度成分により抽出すること、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出することの少なくとも1つを含むことを特徴とする画像処理方法。
An image processing method in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
Separating the stored captured image into a luminance component and a color information component;
Extracting a region to be diagnosed by the luminance component or the color information component;
Generating the extracted result of the part alone by at least one selected from the group consisting of recombining with the captured image and recombining with the gray-converted image of the captured image,
The extraction step includes at least one of extracting the part candidates by the luminance component and extracting the likelihood of the part by a color space constituted by the luminance component and the color information component. An image processing method.
患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、
コンピュータに、
記憶された前記撮影画像を輝度成分と色情報成分に分離する分離機能と、
診断の対象の部位を前記輝度成分又は前記色情報成分により抽出する抽出機能と、
前記部位の抽出された結果を単独、前記撮影画像との再合成、及び前記撮影画像のグレー変換画像との再合成からなる群から選択される少なくとも1つにより生成する生成機能と、を実行させ、
前記抽出機能が、前記部位の候補を前記輝度成分により抽出する機能、及び前記部位のそれらしさを前記輝度成分と前記色情報成分とから構成される色空間により抽出する機能の少なくとも1つを含むことを特徴とするプログラム。
An image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
On the computer,
A separation function for separating the stored captured image into a luminance component and a color information component;
An extraction function for extracting a region to be diagnosed by the luminance component or the color information component;
A generation function that generates the extracted result of the part by at least one selected from the group consisting of recombining with the captured image and recombining with the gray-converted image of the captured image; ,
The extraction function includes at least one of a function of extracting the part candidates by the luminance component and a function of extracting the likelihood of the part by a color space composed of the luminance component and the color information component. A program characterized by that.
JP2014227529A 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof Active JP6459410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014227529A JP6459410B2 (en) 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014227529A JP6459410B2 (en) 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018147900A Division JP6519703B2 (en) 2018-08-06 2018-08-06 Image processing method, diagnostic device, and program

Publications (3)

Publication Number Publication Date
JP2016087274A true JP2016087274A (en) 2016-05-23
JP2016087274A5 JP2016087274A5 (en) 2016-07-14
JP6459410B2 JP6459410B2 (en) 2019-01-30

Family

ID=56016230

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014227529A Active JP6459410B2 (en) 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof

Country Status (1)

Country Link
JP (1) JP6459410B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010520774A (en) * 2007-03-02 2010-06-17 エレクトロ−オプティカル サイエンシス インコーポレイテッド Quantitative analysis of skin features
JP2011103118A (en) * 2009-10-14 2011-05-26 Carestream Health Inc Method for extracting carious lesion area
JP2012205855A (en) * 2011-03-30 2012-10-25 Kao Corp Body surface evaluation method and body surface evaluation device
JP2013090751A (en) * 2011-10-25 2013-05-16 Fujifilm Corp Spot detection method, spot detection device, spot detection program, spot classification method, spot classification device and spot classification program
JP2013534851A (en) * 2010-07-02 2013-09-09 シャネル パルファン ボーテ Method and apparatus for detecting and quantizing skin symptoms in skin zone

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010520774A (en) * 2007-03-02 2010-06-17 エレクトロ−オプティカル サイエンシス インコーポレイテッド Quantitative analysis of skin features
JP2011103118A (en) * 2009-10-14 2011-05-26 Carestream Health Inc Method for extracting carious lesion area
JP2013534851A (en) * 2010-07-02 2013-09-09 シャネル パルファン ボーテ Method and apparatus for detecting and quantizing skin symptoms in skin zone
JP2012205855A (en) * 2011-03-30 2012-10-25 Kao Corp Body surface evaluation method and body surface evaluation device
JP2013090751A (en) * 2011-10-25 2013-05-16 Fujifilm Corp Spot detection method, spot detection device, spot detection program, spot classification method, spot classification device and spot classification program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Y. VANDER HAEGHEN ET AL.: "DEVELOPMENT OF A DERMATOLOGICAL WORKSTATION: PRELIMINARY RESULTS ON LESION SEGMENTATION IN CIEL*A*B*", INTERNATIONAL CONFERENCE ON COLOR IN GRAPHICS AND IMAGE PROCESSING, JPN6018023654, 30 October 2000 (2000-10-30), FR, ISSN: 0003822993 *

Also Published As

Publication number Publication date
JP6459410B2 (en) 2019-01-30

Similar Documents

Publication Publication Date Title
US9996928B2 (en) Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
JP6003963B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
CA2915651C (en) Diagnostic apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method
JP6519703B2 (en) Image processing method, diagnostic device, and program
JP6471559B2 (en) Diagnostic device, image processing method, image processing system, and program for the diagnostic device
US10291893B2 (en) Diagnosis support apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method
JP6003964B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6036790B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6187535B2 (en) Diagnosis support apparatus, image processing method in the diagnosis support apparatus, and program thereof
JP6319370B2 (en) DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF
JP6459410B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6503733B2 (en) Diagnosis support apparatus, image processing method in the diagnosis support apparatus, and program thereof
JP6838549B2 (en) Diagnostic support device, image processing method and its program
JP6003965B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6265231B2 (en) Diagnostic device, image processing method, and program
JP2018043042A (en) Diagnostic support apparatus, image processing method and program therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160531

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170601

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180727

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R150 Certificate of patent or registration of utility model

Ref document number: 6459410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150