JP2016087275A - Diagnosis device, image processing method in the diagnosis device and program thereof - Google Patents

Diagnosis device, image processing method in the diagnosis device and program thereof Download PDF

Info

Publication number
JP2016087275A
JP2016087275A JP2014227530A JP2014227530A JP2016087275A JP 2016087275 A JP2016087275 A JP 2016087275A JP 2014227530 A JP2014227530 A JP 2014227530A JP 2014227530 A JP2014227530 A JP 2014227530A JP 2016087275 A JP2016087275 A JP 2016087275A
Authority
JP
Japan
Prior art keywords
component
image
detailed
luminance
color information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014227530A
Other languages
Japanese (ja)
Other versions
JP6036790B2 (en
Inventor
中嶋 光康
Mitsuyasu Nakajima
光康 中嶋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2014227530A priority Critical patent/JP6036790B2/en
Priority to US14/860,618 priority patent/US9881368B2/en
Priority to AU2015230737A priority patent/AU2015230737B2/en
Priority to CA2905163A priority patent/CA2905163C/en
Priority to EP16203645.3A priority patent/EP3163534B1/en
Priority to EP15186621.7A priority patent/EP3029629B1/en
Publication of JP2016087275A publication Critical patent/JP2016087275A/en
Application granted granted Critical
Publication of JP6036790B2 publication Critical patent/JP6036790B2/en
Priority to US15/843,657 priority patent/US9996928B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate a diagnosis of a doctor and to improve diagnostic accuracy by displaying a selected part of a photographed image by emphasizing the selected part.SOLUTION: A diagnosis device 100 for using a photographed image of an affected part to diagnose a lesion includes an image storage part 102 for storing a photographed image, and a processing part 101 for processing the photographed image stored in the image storage part. The processing part includes first division means 101a for dividing the photographed image between a luminance component and a color information component, second division means 101b for dividing the luminance component between a skeleton component and a detailed component, emphasis means 101c for performing emphasis processing of the detailed component, and generation means 101d for restoring luminance from the skeleton component and the emphasized detailed component, and generating an emphasized image by using the color information component. The emphasis means emphasizes the detailed component in accordance with the uniqueness of the part of a target of a diagnosis.SELECTED DRAWING: Figure 1

Description

本発明は、診断装置並びに当該診断装置における画像処理方法及びそのプログラムに関する。   The present invention relates to a diagnostic apparatus, an image processing method in the diagnostic apparatus, and a program thereof.

皮膚病変の診断として視診は必ず行われ、多くの情報を得ることが出来る。しかしながら、肉眼やルーペだけでは、ホクロとしみの判別さえ難しく、良性腫瘍と悪性腫瘍の鑑別も難しい。そこで、ダーモスコープ付きカメラを用いて病変を撮影するダーモスコピー診断が行われている。   Visual inspection is always performed as a diagnosis of skin lesions, and a lot of information can be obtained. However, even with the naked eye or loupe alone, it is difficult to distinguish between moles and spots, and it is also difficult to distinguish benign and malignant tumors. Therefore, dermoscopy diagnosis is performed in which lesions are imaged using a camera with a dermoscope.

ダーモスコープとは、ハロゲンランプ等で病変部を明るく照らし、エコージェルや偏光フィルタなどにより反射光の無い状態にし、10倍程度に拡大して観察する非侵襲性の診察器具である。この器具を用いた観察法をダーモスコピーと呼んでいる。ダーモスコピー診断については、インターネットURL(http://www.twmu.ac.jp/DNH/department/dermatology/dermoscopy.html)<平成26年9月1日閲覧>に詳細に記載されている。ダーモスコピー診断によれば、角質による乱反射がなくなることにより、表皮内から真皮浅層までの色素分布が良く見えてくる。   A dermoscope is a non-invasive diagnostic instrument that brightly illuminates a lesion with a halogen lamp or the like, and makes an echo gel, a polarizing filter or the like free from reflected light, and magnifies and observes about 10 times. The observation method using this instrument is called dermoscopy. The dermoscopy diagnosis is described in detail in the Internet URL (http://www.twmu.ac.jp/DNH/department/dermatology/dermoscopy.html) <browse September 1, 2014>. According to the dermoscopy diagnosis, the pigment distribution from the epidermis to the superficial dermis can be seen well by eliminating the irregular reflection due to the stratum corneum.

例えば、特許文献1に、上記したダーモスコープで撮影された皮膚画像に対して、色調、テクスチャ、非対称度、円度等の値を用いて診断を行う色素沈着部位の遠隔診断システムの技術が開示されている。それは、ダーモスコープを付けたカメラ付き携帯電話を用い、ダーモスコープを通して、メラノーマの心配がある良性色素性母斑などがある皮膚を撮影する。そして、携帯電話のネットワーク接続機能を用いてインターネットに接続し、撮影した皮膚画像を遠隔診断装置に送信して診断を依頼するものである。皮膚画像を受信した遠隔診断装置は、メラノーマ診断プログラムを用い、皮膚画像から、それがメラノーマであるか否か、あるいはメラノーマであった場合にどの病期のメラノーマであるかを診断し、その結果を医師に返信する。   For example, Patent Document 1 discloses a technique of a remote diagnosis system for a pigmentation site that performs diagnosis using skin tone images taken with the above-described dermoscope using values such as color tone, texture, asymmetry, and circularity. ing. It uses a camera phone with a dermoscope to photograph skin with benign pigmented nevus, which is a concern for melanoma, through the dermoscope. Then, the mobile phone is connected to the Internet using the network connection function, and the photographed skin image is transmitted to the remote diagnosis device to request diagnosis. The remote diagnostic device that has received the skin image uses the melanoma diagnostic program to diagnose from the skin image whether or not it is a melanoma, and if it is a melanoma, the stage of melanoma, and as a result Reply to the doctor.

特開2005−192944号JP-A-2005-192944

皮膚病については上記したダーモスコープ画像による診断が普及しつつあるが、明瞭な形状変化や模様を得られないことも多く、画像の観察や病変の判断は担当医の熟練度に依存しているのが現状である。したがって、ダーモスコープ画像の病変部分を強調する等、画像処理によって、容易、かつ的確に診断可能なツールの出現がのぞまれていた。   For dermatoses, diagnosis using the above-mentioned dermoscope image is spreading, but it is often impossible to obtain clear shape changes and patterns, and image observation and lesion determination depend on the skill level of the doctor in charge. Is the current situation. Therefore, the emergence of tools that can be easily and accurately diagnosed by image processing, such as emphasizing a lesion part of a dermoscope image, has been expected.

本発明は上記した課題を解決するためになされたものであり、医師の診断を容易にするとともに診断精度の向上をはかる、診断装置並びに当該診断装置における画像処理方法及びそのプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a diagnostic device, an image processing method in the diagnostic device, and a program thereof that facilitate diagnosis by a doctor and improve diagnostic accuracy. Objective.

上記した課題を解決するために本発明は、患部の撮影画像を用いて病変を診断する診断装置であって、前記撮影画像を記憶する画像記憶部と、前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、前記処理部が、前記撮影画像を輝度成分と色情報成分とに分離する第1の分離手段と、前記輝度成分を骨格成分と詳細成分とに分離する第2の分離手段と、前記詳細成分に対して強調処理を施す強調手段と、前記骨格成分と前記強調された詳細成分とから輝度を復元し、前記色情報成分を用いて強調画像を生成する生成手段と、を備え、前記強調手段が、前記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とする。   In order to solve the above-described problem, the present invention provides a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, the image storage unit storing the captured image, and the imaging stored in the image storage unit A processing unit for processing an image, wherein the processing unit separates the captured image into a luminance component and a color information component, and separates the luminance component into a skeleton component and a detailed component. Luminance is restored from the second separation means, the enhancement means for performing enhancement processing on the detailed component, the skeleton component and the enhanced detailed component, and an enhanced image is generated using the color information component Generating means, wherein the emphasizing means emphasizes the detailed component according to the likelihood of the site to be diagnosed.

また、本発明は、患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、記憶された撮影画像を輝度成分と色情報成分とに分離する第1の分離ステップと、前記輝度成分を骨格成分と詳細成分とに分離する第2の分離ステップと、前記詳細成分に対して強調処理を施す強調ステップと、前記骨格成分と前記強調された詳細成分とから輝度画像を復元し、前記色情報成分を用いて強調画像を生成する生成ステップと、を有し、前記強調ステップが、記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とする。   Further, the present invention is an image processing method in a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, the first separation step of separating a stored captured image into a luminance component and a color information component; A second separation step that separates the luminance component into a skeleton component and a detailed component, an enhancement step that performs enhancement processing on the detailed component, and a luminance image is restored from the skeleton component and the enhanced detailed component And generating a highlighted image using the color information component, wherein the highlighting step emphasizes the detailed component according to the likelihood of the portion to be diagnosed. Features.

また、本発明は、患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、コンピュータに、記憶された撮影画像を輝度成分と色情報成分とに分離する第1の分離機能と、前記輝度成分を骨格成分と詳細成分とに分離する第2の分離機能と、前記詳細成分に対して強調処理を施す強調機能と、 前記骨格成分と前記強調された詳細成分とから輝度画像を復元し、前記色情報成分を用いて強調画像を生成する生成機能と、を実行させ、前記強調機能が、記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とする。   In addition, the present invention is an image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area. A separation function, a second separation function for separating the luminance component into a skeleton component and a detailed component, an enhancement function for performing enhancement processing on the detailed component, and the skeleton component and the enhanced detailed component A generation function that restores a luminance image and generates an enhanced image using the color information component, and the enhancement function converts the detailed component into the detailed component according to the likelihood of the region to be diagnosed. It is characterized by emphasis.

本発明によれば、医師の診断を容易にするとともに診断精度の向上をはかる、診断装置並びに当該診断装置における画像処理方法及びそのプログラムを提供することができる。   According to the present invention, it is possible to provide a diagnostic apparatus, an image processing method in the diagnostic apparatus, and a program thereof that facilitate diagnosis of a doctor and improve diagnostic accuracy.

本発明の実施の形態に係る診断装置の構成を示すブロック図である。It is a block diagram which shows the structure of the diagnostic apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る診断装置の基本処理動作を示すフローチャートである。It is a flowchart which shows the basic processing operation | movement of the diagnostic apparatus which concerns on embodiment of this invention. 図2の撮影画像の強調処理動作の詳細を示すフローチャートである。3 is a flowchart showing details of a captured image enhancement processing operation of FIG. 2. 図3の血管らしさ抽出処理理動作の詳細を示すフローチャートである。It is a flowchart which shows the detail of the blood vessel likelihood extraction process operation | movement of FIG. 本発明の実施の形態に係る診断装置の表示画面構成の一例を示す図である。It is a figure which shows an example of the display screen structure of the diagnostic apparatus which concerns on embodiment of this invention.

以下、添付図面を参照して、本発明を実施するための形態(以下、本実施形態と言う)について詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号または符号を付している。   DESCRIPTION OF EMBODIMENTS Hereinafter, a mode for carrying out the present invention (hereinafter referred to as this embodiment) will be described in detail with reference to the accompanying drawings. Note that the same numbers or symbols are assigned to the same elements throughout the description of the embodiment.

(実施形態の構成)
図1は、本実施形態に係る診断装置100の構成を示すブロック図である。図1に示すように、本実施形態に係る診断装置100には、ダーモスコープ付き撮影装置110が接続されている。ダーモスコープ付き撮影装置110は、診断装置100(処理部101)からの指示により撮影を行ない、撮影画像(ダーモスコピー画像)を画像記憶部102に格納するとともに表示装置120上に表示する。また、撮影画像は、処理部101により強調処理が施されて画像記憶部102に保存されると共に表示装置120上に表示される。入力装置130は、ダーモスコープ画像の撮影開始指示、後述するダーモスコピー画像中の部位選択操作等を行う。
(Configuration of the embodiment)
FIG. 1 is a block diagram illustrating a configuration of a diagnostic apparatus 100 according to the present embodiment. As shown in FIG. 1, an imaging device 110 with a dermoscope is connected to the diagnostic device 100 according to the present embodiment. The imaging device 110 with a dermoscope performs imaging in accordance with an instruction from the diagnostic device 100 (processing unit 101), and stores the captured image (dermoscopy image) in the image storage unit 102 and displays it on the display device 120. In addition, the captured image is emphasized by the processing unit 101 and stored in the image storage unit 102 and displayed on the display device 120. The input device 130 performs a dermoscope image capturing start instruction, a part selection operation in a dermoscopy image, which will be described later, and the like.

なお、表示装置120、例えば、LCD(Liquid Crystal Display)モニタにより構成され、入力装置130は、マウス等により構成されている。   Note that the display device 120 is constituted by, for example, an LCD (Liquid Crystal Display) monitor, and the input device 130 is constituted by a mouse or the like.

処理部101は、画像記憶部102に記憶された撮影画像を処理するもので、図1に示すように、第1の分離手段101aと、第2の分離手段101bと、強調手段101cと、生成手段101dと、を含む。   The processing unit 101 processes a captured image stored in the image storage unit 102. As illustrated in FIG. 1, the processing unit 101 generates a first separation unit 101a, a second separation unit 101b, an enhancement unit 101c, and a generation unit. Means 101d.

第1の分離手段101aは、撮影画像を輝度成分と色情報成分とに分離する手段として機能する。第2の分離手段101bは、輝度成分を骨格成分と詳細成分に分離する手段として機能する。   The first separation unit 101a functions as a unit that separates a captured image into a luminance component and a color information component. The second separation unit 101b functions as a unit that separates the luminance component into a skeleton component and a detailed component.

強調手段101cは、詳細成分に対して強調処理を施す手段として機能し、詳細成分を診断の対象の部位のそれらしさに応じて強調する。このとき、強調手段101cは、第1の色空間(CIELab色空間)の赤系の色相方向に応じた色情報成分を取得し、この色情報成分の所定の範囲を正規化し、正規化して得られる部位のそれらしさを示す尤度を詳細成分の強調係数に反映させて強調された詳細画像を生成してもよい。   The emphasizing unit 101c functions as a unit that performs emphasis processing on the detailed component, and emphasizes the detailed component in accordance with the likelihood of the site to be diagnosed. At this time, the enhancement unit 101c obtains a color information component corresponding to the red hue direction of the first color space (CIELab color space), normalizes a predetermined range of the color information component, and obtains it by normalization. A detailed image that is emphasized may be generated by reflecting the likelihood indicating the likelihood of a given portion in the enhancement coefficient of the detailed component.

生成手段101dは、第2の分離手段により分離された骨格成分と、強調手段101cにより強調された詳細成分とを加算して輝度を復元し、復元された輝度と、第1の色空間(CIELab色空間)の赤系の色相方向と青色の色相方向に応じた色情報成分とから第2の色空間(RGB色空間)に変換して強調画像を生成する手段として機能する。   The generation unit 101d restores the luminance by adding the skeleton component separated by the second separation unit and the detailed component enhanced by the enhancement unit 101c, and restores the restored luminance and the first color space (CIELab). It functions as a means for generating an enhanced image by converting the color information component corresponding to the red hue direction and the blue hue direction of the (color space) into the second color space (RGB color space).

上記した第1の分離手段101a、第2の分離手段101b、強調手段101c、生成手段101dは、いずれも、処理部101が、処理部101が有する本実施形態に係るプログラムを逐次読み出し実行することにより、それぞれが持つ上記した機能を実現する。   In each of the first separation unit 101a, the second separation unit 101b, the enhancement unit 101c, and the generation unit 101d described above, the processing unit 101 sequentially reads and executes the program according to the present embodiment included in the processing unit 101. As a result, the functions described above are realized.

(実施形態の動作)
以下、図1に示す本実施形態に係る診断装置100の動作について、図2以降を参照しながら詳細に説明する。
(Operation of the embodiment)
Hereinafter, the operation of the diagnostic apparatus 100 according to the present embodiment shown in FIG. 1 will be described in detail with reference to FIG.

図2に、実施例1の基本処理動作の流れが示されている。図2によれば、処理部101は、まず、ダーモスコープ付き撮影装置110で撮影された患部(皮膚病変部位)の撮影画像を取得する(ステップS11)。そして、取得した撮影画像を画像記憶部102の所定の領域に格納するとともに、表示装置120に表示する(ステップS12)。続いて、処理部101は、撮影画像に対して強調処理を施し(ステップS13)、その処理画像を先に表示した撮影画像とともに表示装置120に並べて表示して医師の診断に委ねる(ステップS14)。   FIG. 2 shows a flow of basic processing operations of the first embodiment. According to FIG. 2, the processing unit 101 first acquires a captured image of an affected part (skin lesion site) captured by the imaging device 110 with a dermoscope (step S <b> 11). The acquired captured image is stored in a predetermined area of the image storage unit 102 and displayed on the display device 120 (step S12). Subsequently, the processing unit 101 performs enhancement processing on the captured image (step S13), displays the processed image along with the previously displayed captured image on the display device 120, and leaves it to the doctor's diagnosis (step S14). .

図5に表示装置120に表示される表示画面イメージの一例が示されている。画面に向かって左に撮影画像が表示される撮影画像表示領域121が、右に、例えば、血管の強調画像が表示される強調画像表示領域122が割り当てられている。医師が、図面右下に割り当てられている「撮影開始」ボタン123を、入力装置130を操作(クリック)することによりダーモスコープ付き撮影装置110による患部の撮影が開始される。そして上記した処理部101の処理により、表示装置120の各表示領域121,122に、撮影画像と、撮影画像のうち、例えば、血管部位の強調画像とが並んで表示される。   FIG. 5 shows an example of a display screen image displayed on the display device 120. A captured image display area 121 in which a captured image is displayed on the left side of the screen is assigned, and an enhanced image display area 122 in which an enhanced image of a blood vessel is displayed on the right side, for example. When the doctor operates (clicks) the input device 130 on the “start imaging” button 123 assigned to the lower right of the drawing, imaging of the affected area by the imaging device 110 with a dermoscope is started. Then, by the processing of the processing unit 101 described above, the captured image and, for example, an emphasized image of a blood vessel part among the captured images are displayed side by side in the display areas 121 and 122 of the display device 120.

図3に、図2のステップS13の「画像強調処理」の詳細な処理手順が示されている。ここでは、処理部101が、ダーモスコープ付き撮影装置110で撮影された患部(皮膚病変部位)の撮影画像から骨格成分と詳細成分とに分離し、それぞれに対して異なる強調処理を施す例を示している。   FIG. 3 shows a detailed processing procedure of “image enhancement processing” in step S13 of FIG. Here, an example is shown in which the processing unit 101 separates a skeleton component and a detailed component from a captured image of an affected part (skin lesion site) captured by the imaging device 110 with a dermoscope, and performs different enhancement processing on each. Yes.

処理部101は、まず、色空間変換を行う。処理部101は、第1の分離手段101aが、ダーモスコープ付き撮影装置110から取得されるRGB色空間の撮影画像を、CIELAB色空間(以下、単にLab色空間というが、正確には、CIE 1976 L*a*b*色空間)に変換する(ステップS131)。Lab色空間については、例えば、インターネットURL(http://Ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93)<平成26年9月1日閲覧>にその詳細が記述されている。   The processing unit 101 first performs color space conversion. The processing unit 101 uses the CIELAB color space (hereinafter simply referred to as the Lab color space, but to be precise, the CIE 1976 L) for the RGB color space captured image obtained by the first separation unit 101a from the imaging device 110 with a dermoscope. * A * b * color space) (step S131). For the Lab color space, for example, an Internet URL (http://Ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93)<September 2014 The details are described in <Browsing Date>.

次に、処理部101は、第2の分離手段101bが、撮影画像を骨格成分と詳細成分とに分離するために、L画像にエッジ保存型フィルタ処理を施す(ステップS132)。ここで、エッジ保存型フィルタとして、例えば、バイラテラルフィルタを用いる。バイラテラルフィルタは、例えば、インターネットURL(http://en.wikipedia.org/wiki/Bilateral filter)<平成26年9月1日閲覧>にその詳細が記述されている。   Next, in the processing unit 101, the second separation unit 101b performs edge preserving filter processing on the L image in order to separate the captured image into a skeleton component and a detailed component (step S132). Here, for example, a bilateral filter is used as the edge preserving filter. The details of the bilateral filter are described in, for example, an Internet URL (http://en.wikipedia.org/wiki/Bilateralfilter) <browse September 1, 2014>.

次に、処理部101は、強調手段101cが、L画像にバイラテルフィルタ処理を施して得られるB画像、B=bilateral_filter(L)を取得する。ここで、B画像は骨格成分である。次に、強調手段101cが、詳細成分であるD画像を取得する。D画像は、D=L画像−B画像により取得することができる(ステップS133)。   Next, the processing unit 101 acquires a B image B = bilateral_filter (L) obtained by the enhancement unit 101c performing bilateral filter processing on the L image. Here, the B image is a skeleton component. Next, the enhancement unit 101c acquires a D image that is a detailed component. The D image can be acquired by D = L image−B image (step S133).

続いて、強調手段101c(第1の強調手段)は、骨格画像Bをp階乗することにより強調された骨格画像B1を得る(ステップS134)。このときのpは、p<=1となる。このとき、強調手段101cは、骨格画像Bの取りうる最大値と最小値が変換前後で同じになるように処理する。具体的には、Lab色空間では輝度Lの値範囲が0から100であるため、B1は、B1=(B^p)/(100^p)*100で求めることができる。次に、強調手段101cは、B1を、値Zを基準にK1倍して圧縮画像B2を得る(S135)。   Subsequently, the enhancement unit 101c (first enhancement unit) obtains the enhanced skeleton image B1 by raising the skeleton image B to the p factorial (step S134). At this time, p is p <= 1. At this time, the enhancement unit 101c performs processing so that the maximum value and the minimum value that the skeleton image B can take are the same before and after conversion. Specifically, since the value range of the luminance L is 0 to 100 in the Lab color space, B1 can be obtained by B1 = (B ^ p) / (100 ^ p) * 100. Next, the enhancement unit 101c multiplies B1 by K1 with the value Z as a reference to obtain a compressed image B2 (S135).

圧縮画像B2は、B2=(B1−Z)*K1+Zで求めることができる。ここで、係数K1は圧縮率で1以下とし、ここでは0.2〜0.8程度の値とする。また、Zは、中心Cよりも明るめに設定する。ここで、Cは圧縮を行う中心位置であり、C=(50^p)/(100^p)*100であり、これを5%から50%程度大きくした値がZになる。すなわち、強調手段101cは、骨格成分を中心値よりも明るく圧縮して強調する。   The compressed image B2 can be obtained by B2 = (B1-Z) * K1 + Z. Here, the coefficient K1 is set to 1 or less in terms of the compression rate, and here is a value of about 0.2 to 0.8. Z is set brighter than the center C. Here, C is a center position for compression, and C = (50 ^ p) / (100 ^ p) * 100. A value obtained by increasing this by about 5% to 50% is Z. That is, the emphasis unit 101c compresses and emphasizes the skeleton component brighter than the center value.

次に、強調手段101cは、圧縮画像B2にシャープネスフィルタ処理を施して鮮鋭化画像B3とする(ステップS136:B3_←_sharpnessFilter(B2))。強調手段101cは、シャープネスフィルタ処理を実行するにあたり、以下のカーネルMを圧縮画像B2に畳み込み演算(convoltion)を行う。なお、以下に示すコンボリューション行列(畳み込みカーネルMの値)は一例である。   Next, the enhancement unit 101c performs sharpness filter processing on the compressed image B2 to obtain a sharpened image B3 (step S136: B3_ ← _sharpnessFilter (B2)). When executing the sharpness filter processing, the enhancement unit 101c performs a convolution operation (convolution) with the following kernel M on the compressed image B2. The convolution matrix (value of the convolution kernel M) shown below is an example.

|−0.1667 −0.6667 −0.1667|
M=|−0.6667 4.3333 −0.6667|
|−0.1667 −0.6667 −0.1667|
| −0.1667 −0.6667 −0.1667 |
M = | −0.6667 4.3333−0.6667 |
| −0.1667 −0.6667 −0.1667 |

なお、強調手段101cは、圧縮強調処理と、続くシャープネスフィルタ処理を行うものとして説明したが、圧縮強調処理とシャープネスフィルタ処理の両方を実行することは必須でなく、少なくとも圧縮強調処理とシャープネスフィルタ処理の一方でよい。   The emphasis unit 101c has been described as performing the compression emphasis process and the subsequent sharpness filter process. However, it is not essential to execute both the compression emphasis process and the sharpness filter process, and at least the compression emphasis process and the sharpness filter process are performed. On the other hand.

次に、強調手段101cは、血管らしさを尤度Aとして抽出して詳細画像の強調の程度に反映させる処理を実行する(ステップS307)。血管らしさ(尤度A)は、ノイズを除去した骨格画像の圧縮画像B2と同じ次元の情報をもっており、各ピクセルに対して0から1の血管らしさの情報を持つ。血管らしさが増すと1に近づく。図5に、血管らしさを尤度Aとして抽出する処理の流れがフローチャートで示されている。   Next, the enhancement unit 101c executes a process of extracting the likelihood of blood vessels as the likelihood A and reflecting it in the degree of enhancement of the detailed image (step S307). The blood vessel likelihood (likelihood A) has information of the same dimension as that of the compressed image B2 of the skeleton image from which noise is removed, and has blood vessel likelihood information of 0 to 1 for each pixel. It approaches 1 when the blood vessel quality increases. FIG. 5 is a flowchart showing the flow of processing for extracting the likelihood of blood vessels as the likelihood A.

図4によれば、強調手段101cは、Lab色空間の赤系の色相方向であるa軸の値を取得し(ステップS137a)、血管らしさ(尤度A)について、aの値を、0からSの範囲で制限を与えて正規化を行い、0から1の値範囲に設定する(ステップS137b,S137c)。ここで、Sは、例えば80とする。ここでは、0から80の値で制限を与えたが、この値は一例であり、この値に制限されるものではない。   According to FIG. 4, the enhancement unit 101 c acquires the value of the a axis that is the red hue direction of the Lab color space (step S <b> 137 a), and sets the value of a from 0 for the likelihood of blood vessels (likelihood A). Normalization is performed with a restriction in the range of S, and a value range of 0 to 1 is set (steps S137b and S137c). Here, S is 80, for example. Here, the limit is given by a value from 0 to 80, but this value is an example, and the value is not limited to this value.

説明を図3のフローチャートに戻す。強調手段101cは、上記のように血管らしさを尤度Aとして抽出した後(ステップS137)、その尤度Aを用いて詳細画像Dの強調係数K3を求める(ステップS3138)。強調係数K3は、K3=A*K2で求めることができる。ここでは、強調係数K3の下限を係数K2のLM1倍とする。ここで、LM1は、0〜1の範囲で、例えば0.5とする。すなわち、K3=max(K3,LM1)で、max()は、要素ごとに2つの引数の最大値を返す関数である。LM1はスカラーであるため、強調係数K3と同次元に同値で拡張して処理がなされる。強調手段101cは、詳細画像Dに強調係数K3を用いて強調処理を施し、詳細画像Dの強調画像D1とする(ステップS139)。すなわち、詳細成分の強調画像D1は、D1=D*K3で求められる。   The description returns to the flowchart of FIG. The enhancement unit 101c extracts the blood vessel likelihood as the likelihood A as described above (step S137), and then obtains the enhancement coefficient K3 of the detailed image D using the likelihood A (step S3138). The enhancement coefficient K3 can be obtained by K3 = A * K2. Here, the lower limit of the enhancement coefficient K3 is LM1 times the coefficient K2. Here, LM1 is in the range of 0 to 1, for example, 0.5. That is, K3 = max (K3, LM1), and max () is a function that returns the maximum value of two arguments for each element. Since LM1 is a scalar, processing is performed with the same value as the enhancement coefficient K3 expanded with the same value. The enhancement unit 101c performs enhancement processing on the detail image D using the enhancement coefficient K3, and sets the enhancement image D1 of the detail image D (step S139). That is, the emphasized image D1 of the detailed component is obtained by D1 = D * K3.

続いて、処理部101は、生成手段101dが、強調手段101cにより強調され変換された骨格画像B1と、強調され変換された強調画像D1とを加算(L”=B3+D1)することにより、変換された輝度画像L”を取得する(ステップS140)。続いて、得られた強調輝度L”と、赤系の色相成分であるa軸ならびに青系の色相成分であるb軸の値とによりRGB色空間に変換して最終的な強調画像Eを生成する(ステップS141)。すなわち、生成手段101dは、強調された骨格成分と詳細成分画像とから輝度を復元し、色情報成分を用いて強調画像を生成する。そして、処理部101は、表示装置120に、例えば、図5の表示画面に示すように、撮影画像表示領域121と強調画像表示領域122とを並べて表示する。   Subsequently, the processing unit 101 converts the skeleton image B1 that has been enhanced and converted by the enhancement unit 101c and the enhanced image D1 that has been enhanced and converted (L ″ = B3 + D1). The obtained luminance image L ″ is acquired (step S140). Subsequently, a final enhanced image E is generated by converting into the RGB color space using the obtained enhanced luminance L ″ and the values of the a-axis that is the red hue component and the b-axis that is the blue hue component. That is, the generation unit 101d restores the luminance from the emphasized skeleton component and the detailed component image, and generates an emphasized image using the color information component, and the processing unit 101 displays the display device. For example, as shown in the display screen of FIG. 5, a captured image display area 121 and an emphasized image display area 122 are displayed side by side at 120.

なお、強調手段101cは、上記したように、骨格成分と、詳細成分のいずれをも強調することができ、骨格成分については明るめに圧縮するか、シャープネスフィルタ処理により圧縮して強調し、詳細成分については、血管らしさに応じて強調処理を施した。これをうけて生成手段101dが変換された輝度画像L”を取得するにあたり(ステップS140)、必ずしも、強調された骨格成分と、強調された詳細成分の両方を必要とせず、少なくとも一方を使用することで復元することができる。例えば、生成手段101dは、第2の分離手段101bにより分離された骨格成分(B画像)と、強調手段101cにより強調された詳細成分(D1画像)とを加算することにより、変換された輝度画像L”を取得することが可能である。   As described above, the enhancement unit 101c can emphasize both the skeleton component and the detailed component, and the skeleton component is compressed brightly or compressed and sharpened by a sharpness filter process. About, the emphasis process was performed according to the vascularity. When the generation unit 101d receives this and obtains the converted luminance image L ″ (step S140), it does not necessarily require both the emphasized skeleton component and the emphasized detailed component, and uses at least one of them. For example, the generation unit 101d adds the skeleton component (B image) separated by the second separation unit 101b and the detailed component (D1 image) enhanced by the enhancement unit 101c. Thus, the converted luminance image L ″ can be acquired.

(実施形態の効果)
以上説明のように本実施形態に係る診断装置100によれば、処理部101が、画像記憶部102に記憶された撮影画像を輝度成分と色情報成分とに分離し、輝度成分を骨格成分と詳細成分とに分離し、強調手段101cが、詳細成分を診断の対象の部位のそれらしさに応じて強調処理を施し、生成手段101dが、骨格成分と強調された詳細成分とから輝度を復元し、色情報成分を用いて強調画像を生成することにより、例えば、図5の表示画面に示すように、撮影画像表示領域121と強調画像表示領域122とを並べて表示することができる。詳細成分を血管らしさに応じて強調すると、全体のノイズ感を変えずに血管周辺が鮮明になり、したがって、医師は、例えば、線状血管や点状血管について、撮影画像とは異なる明瞭な画像を視認でき、容易、かつ的確に診断を行うことができ、その結果、診断精度が向上する。
(Effect of embodiment)
As described above, according to the diagnostic apparatus 100 according to the present embodiment, the processing unit 101 separates a captured image stored in the image storage unit 102 into a luminance component and a color information component, and the luminance component is a skeleton component. The emphasis unit 101c performs the emphasis process on the detailed component according to the characteristics of the region to be diagnosed, and the generation unit 101d restores the luminance from the skeleton component and the emphasized detail component. By generating the emphasized image using the color information component, for example, as shown in the display screen of FIG. 5, the captured image display area 121 and the emphasized image display area 122 can be displayed side by side. By emphasizing the detailed components according to the vascularity, the periphery of the blood vessel becomes clear without changing the overall noise sensation. Can be easily and accurately diagnosed, and as a result, the diagnostic accuracy is improved.

なお、本実施形態に係る診断装置100によれば、輝度成分を骨格成分と詳細成分とに分離する際にバイラテラルフィルタ処理を用いることとしたが、バイラテラルフィルタに限らず、エプシロンフィルタ等、エッジ保存型平滑化フィルタであれば代替可能である。また、表示例として、撮影画面と強調画面とを並べて表示したが、同じ画面上で切り替えて表示しても同様の効果が得られる。また、輝度画像を得るのにLab色空間を利用したが、Lab色空間によらず、例えば、輝度信号と2つの色差信号を使って表現されるYUV色空間の輝度信号Yを使用してもよい。なお、YUV色空間については、インターネットURL:http://Ja.wikipedia.org/wiki/YUV(平成26年9月1日閲覧)にその詳細が開示されている。   According to the diagnostic apparatus 100 according to the present embodiment, the bilateral filter processing is used when separating the luminance component into the skeleton component and the detailed component. Any edge-preserving smoothing filter can be substituted. In addition, as a display example, the shooting screen and the highlight screen are displayed side by side, but the same effect can be obtained by switching and displaying on the same screen. In addition, although the Lab color space is used to obtain the luminance image, the luminance signal Y in the YUV color space expressed using the luminance signal and the two color difference signals is used regardless of the Lab color space. Good. For the YUV color space, Internet URL: http: // Ja. wikipedia. The details are disclosed in org / wiki / YUV (accessed on September 1, 2014).

また、本実施形態に係る診断装置100によれば、血管らしさとして、Lab色空間のa軸を用いたが、a軸をb軸のプラス方向に、(a1,b1)を中心として回転させた軸を使用してもよい。その場合、a1は10〜50の値を、b1は0、回転量は0.3ラジアンから0.8ラジアン程度回転させることが必要である。   Moreover, according to the diagnostic apparatus 100 according to the present embodiment, the a-axis of the Lab color space is used as the blood vessel, but the a-axis is rotated in the plus direction of the b-axis and (a1, b1) is the center. An axis may be used. In that case, it is necessary that a1 is a value of 10 to 50, b1 is 0, and the rotation amount is about 0.3 to 0.8 radians.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。またその様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiments. Further, it is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。   The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.

〔付記〕
[請求項1]
患部の撮影画像を用いて病変を診断する診断装置であって、
前記撮影画像を記憶する画像記憶部と、
前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、
前記処理部が、
前記撮影画像を輝度成分と色情報成分とに分離する第1の分離手段と、
前記輝度成分を骨格成分と詳細成分とに分離する第2の分離手段と、
前記詳細成分に対して強調処理を施す強調手段と、
前記骨格成分と前記強調された詳細成分とから輝度を復元し、前記色情報成分を用いて強調画像を生成する生成手段と、を備え、
前記強調手段が、
前記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とする診断装置。
[請求項2]
前記強調手段が、
第1の色空間の赤系の色相方向に応じた前記色情報成分を取得し、前記色情報成分の所定の範囲を正規化し、前記正規化して得られる前記部位のそれらしさを示す尤度を前記詳細成分の強調係数に反映させて強調された前記詳細画像を生成することを特徴とする請求項1に記載の診断装置。
[請求項3]
前記生成手段が、
前記骨格成分と前記強調された詳細成分とを加算して前記輝度を復元し、前記復元された輝度と、第1の色空間の赤系の色相方向と青色の色相方向に応じた前記色情報成分とから第2の色空間に変換して前記強調画像を生成することを特徴とする請求項1に記載の診断装置。
[請求項4]
前記第1の色空間がCIELab色空間であることを特徴とする請求項2又は3の診断装置。
[請求項5]
前記第2の色空間がRGB色空間であることを特徴とする請求項3の診断装置。
[請求項6]
患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、
記憶された撮影画像を輝度成分と色情報成分とに分離する第1の分離ステップと、
前記輝度成分を骨格成分と詳細成分とに分離する第2の分離ステップと、
前記詳細成分に対して強調処理を施す強調ステップと、
前記骨格成分と前記強調された詳細成分とから輝度画像を復元し、前記色情報成分を用いて強調画像を生成する生成ステップと、を有し、
前記強調ステップが、
記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とする画像処理方法。
[請求項7]
患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、
コンピュータに、
記憶された撮影画像を輝度成分と色情報成分とに分離する第1の分離機能と、
前記輝度成分を骨格成分と詳細成分とに分離する第2の分離機能と、
前記詳細成分に対して強調処理を施す強調機能と、
前記骨格成分と前記強調された詳細成分とから輝度画像を復元し、前記色情報成分を用いて強調画像を生成する生成機能と、を実行させ、
前記強調機能が、
記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とするプログラム。
[Appendix]
[Claim 1]
A diagnostic device for diagnosing a lesion using a photographed image of an affected area,
An image storage unit for storing the captured image;
A processing unit that processes the captured image stored in the image storage unit,
The processing unit is
First separation means for separating the captured image into a luminance component and a color information component;
Second separation means for separating the luminance component into a skeleton component and a detailed component;
An emphasizing means for emphasizing the detailed components;
Generating means for restoring luminance from the skeleton component and the emphasized detailed component, and generating an enhanced image using the color information component;
The highlighting means is
The diagnostic apparatus characterized in that the detailed component is emphasized in accordance with the likelihood of a site to be diagnosed.
[Claim 2]
The highlighting means is
Obtaining the color information component corresponding to the red hue direction of the first color space, normalizing a predetermined range of the color information component, and a likelihood indicating the likelihood of the part obtained by the normalization The diagnostic apparatus according to claim 1, wherein the detailed image enhanced by reflecting the enhancement coefficient of the detailed component is generated.
[Claim 3]
The generating means is
The luminance information is restored by adding the skeleton component and the emphasized detailed component, and the color information corresponding to the restored luminance and the red hue direction and the blue hue direction of the first color space The diagnostic apparatus according to claim 1, wherein the emphasized image is generated by converting the component into a second color space.
[Claim 4]
4. The diagnostic apparatus according to claim 2, wherein the first color space is a CIELab color space.
[Claim 5]
4. The diagnostic apparatus according to claim 3, wherein the second color space is an RGB color space.
[Claim 6]
An image processing method in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
A first separation step of separating the stored captured image into a luminance component and a color information component;
A second separation step of separating the luminance component into a skeleton component and a detailed component;
An emphasizing step of emphasizing the detailed component;
Generating a luminance image from the skeletal component and the enhanced detail component, and generating an enhanced image using the color information component, and
The emphasis step comprises:
An image processing method comprising: emphasizing the detailed component according to the likelihood of the site to be diagnosed.
[Claim 7]
An image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
On the computer,
A first separation function for separating a stored captured image into a luminance component and a color information component;
A second separation function for separating the luminance component into a skeleton component and a detailed component;
An emphasis function for emphasizing the detailed components;
Generating a luminance image from the skeletal component and the enhanced detail component, and generating a highlighted image using the color information component;
The emphasis function is
A program characterized by emphasizing the detailed component according to the likelihood of the site to be diagnosed.

100…診断装置、101…処理部、101a…第1の分離手段、101b…第2の分離手段、101c…強調手段、101d…抽出手段、111e…指定手段、110…ダーモスコープ付き撮影装置、120…表示装置、121…撮影画像表示領域、122…強調画像表示領域、130…入力装置   DESCRIPTION OF SYMBOLS 100 ... Diagnostic apparatus 101 ... Processing part 101a ... 1st separation means 101b ... 2nd separation means 101c ... Emphasis means 101d ... Extraction means 111e ... Designation means 110 ... Imaging device with a dermoscope, 120 ... Display device 121... Captured image display area 122. Highlighted image display area 130 130 Input device

上記した課題を解決するために本発明は、患部の撮影画像を用いて病変を診断する診断装置であって、前記撮影画像を記憶する画像記憶部と、前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、前記処理部が、前記撮影画像を輝度成分と色情報成分とに分離する第1の分離手段と、前記輝度成分を骨格成分と詳細成分とに分離する第2の分離手段と、前記詳細成分に対して強調処理を施す強調手段と、前記骨格成分と前記強調された詳細成分とから輝度成分を復元し、前記色情報成分を用いて強調画像を生成する生成手段と、を備え、前記強調手段が、前記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とする。
In order to solve the above-described problem, the present invention provides a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, the image storage unit storing the captured image, and the imaging stored in the image storage unit A processing unit for processing an image, wherein the processing unit separates the captured image into a luminance component and a color information component, and separates the luminance component into a skeleton component and a detailed component. A luminance component is restored from the second separation unit, an enhancement unit that performs enhancement processing on the detailed component, the skeleton component and the enhanced detailed component, and an enhanced image is generated using the color information component Generating means for enhancing the detailed component in accordance with the likelihood of the region to be diagnosed.

Claims (7)

患部の撮影画像を用いて病変を診断する診断装置であって、
前記撮影画像を記憶する画像記憶部と、
前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、
前記処理部が、
前記撮影画像を輝度成分と色情報成分とに分離する第1の分離手段と、
前記輝度成分を骨格成分と詳細成分とに分離する第2の分離手段と、
前記詳細成分に対して強調処理を施す強調手段と、
前記骨格成分と前記強調された詳細成分とから輝度を復元し、前記色情報成分を用いて強調画像を生成する生成手段と、を備え、
前記強調手段が、
前記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とする診断装置。
A diagnostic device for diagnosing a lesion using a photographed image of an affected area,
An image storage unit for storing the captured image;
A processing unit that processes the captured image stored in the image storage unit,
The processing unit is
First separation means for separating the captured image into a luminance component and a color information component;
Second separation means for separating the luminance component into a skeleton component and a detailed component;
An emphasizing means for emphasizing the detailed components;
Generating means for restoring luminance from the skeleton component and the emphasized detailed component, and generating an enhanced image using the color information component;
The highlighting means is
The diagnostic apparatus characterized in that the detailed component is emphasized in accordance with the likelihood of a site to be diagnosed.
前記強調手段が、
第1の色空間の赤系の色相方向に応じた前記色情報成分を取得し、前記色情報成分の所定の範囲を正規化し、前記正規化して得られる前記部位のそれらしさを示す尤度を前記詳細成分の強調係数に反映させて強調された前記詳細画像を生成することを特徴とする請求項1に記載の診断装置。
The highlighting means is
Obtaining the color information component corresponding to the red hue direction of the first color space, normalizing a predetermined range of the color information component, and a likelihood indicating the likelihood of the part obtained by the normalization The diagnostic apparatus according to claim 1, wherein the detailed image enhanced by reflecting the enhancement coefficient of the detailed component is generated.
前記生成手段が、
前記骨格成分と前記強調された詳細成分とを加算して前記輝度を復元し、前記復元された輝度と、第1の色空間の赤系の色相方向と青色の色相方向に応じた前記色情報成分とから第2の色空間に変換して前記強調画像を生成することを特徴とする請求項1に記載の診断装置。
The generating means is
The luminance information is restored by adding the skeleton component and the emphasized detailed component, and the color information corresponding to the restored luminance and the red hue direction and the blue hue direction of the first color space The diagnostic apparatus according to claim 1, wherein the emphasized image is generated by converting the component into a second color space.
前記第1の色空間がCIELab色空間であることを特徴とする請求項2又は3の診断装置。   4. The diagnostic apparatus according to claim 2, wherein the first color space is a CIELab color space. 前記第2の色空間がRGB色空間であることを特徴とする請求項3の診断装置。   4. The diagnostic apparatus according to claim 3, wherein the second color space is an RGB color space. 患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、
記憶された撮影画像を輝度成分と色情報成分とに分離する第1の分離ステップと、
前記輝度成分を骨格成分と詳細成分とに分離する第2の分離ステップと、
前記詳細成分に対して強調処理を施す強調ステップと、
前記骨格成分と前記強調された詳細成分とから輝度画像を復元し、前記色情報成分を用いて強調画像を生成する生成ステップと、を有し、
前記強調ステップが、
記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とする画像処理方法。
An image processing method in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
A first separation step of separating the stored captured image into a luminance component and a color information component;
A second separation step of separating the luminance component into a skeleton component and a detailed component;
An emphasizing step of emphasizing the detailed component;
Generating a luminance image from the skeletal component and the enhanced detail component, and generating an enhanced image using the color information component, and
The emphasis step comprises:
An image processing method comprising: emphasizing the detailed component according to the likelihood of the site to be diagnosed.
患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、
コンピュータに、
記憶された撮影画像を輝度成分と色情報成分とに分離する第1の分離機能と、
前記輝度成分を骨格成分と詳細成分とに分離する第2の分離機能と、
前記詳細成分に対して強調処理を施す強調機能と、
前記骨格成分と前記強調された詳細成分とから輝度画像を復元し、前記色情報成分を用いて強調画像を生成する生成機能と、を実行させ、
前記強調機能が、
記詳細成分を診断の対象の部位のそれらしさに応じて前記詳細成分を強調することを特徴とするプログラム。
An image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
On the computer,
A first separation function for separating a stored captured image into a luminance component and a color information component;
A second separation function for separating the luminance component into a skeleton component and a detailed component;
An emphasis function for emphasizing the detailed components;
Generating a luminance image from the skeletal component and the enhanced detail component, and generating a highlighted image using the color information component;
The emphasis function is
A program characterized by emphasizing the detailed component according to the likelihood of the site to be diagnosed.
JP2014227530A 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof Active JP6036790B2 (en)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2014227530A JP6036790B2 (en) 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof
US14/860,618 US9881368B2 (en) 2014-11-07 2015-09-21 Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
AU2015230737A AU2015230737B2 (en) 2014-11-07 2015-09-22 Diagnostic apparatus and image processing method in the same apparatus
EP16203645.3A EP3163534B1 (en) 2014-11-07 2015-09-24 Diagnostic apparatus and image processing method in the same apparatus
CA2905163A CA2905163C (en) 2014-11-07 2015-09-24 Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
EP15186621.7A EP3029629B1 (en) 2014-11-07 2015-09-24 Diagnostic apparatus and image processing method in the same apparatus
US15/843,657 US9996928B2 (en) 2014-11-07 2017-12-15 Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014227530A JP6036790B2 (en) 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof

Publications (2)

Publication Number Publication Date
JP2016087275A true JP2016087275A (en) 2016-05-23
JP6036790B2 JP6036790B2 (en) 2016-11-30

Family

ID=56016225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014227530A Active JP6036790B2 (en) 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof

Country Status (1)

Country Link
JP (1) JP6036790B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016173785A (en) * 2015-03-18 2016-09-29 カシオ計算機株式会社 Diagnostic device, and image processing method in the diagnostic device and program thereof
JP2018038789A (en) * 2016-09-02 2018-03-15 カシオ計算機株式会社 Diagnosis support device, method for processing image on diagnosis support device and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014057618A1 (en) * 2012-10-09 2014-04-17 パナソニック株式会社 Three-dimensional display device, three-dimensional image processing device and three-dimensional display method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014057618A1 (en) * 2012-10-09 2014-04-17 パナソニック株式会社 Three-dimensional display device, three-dimensional image processing device and three-dimensional display method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016173785A (en) * 2015-03-18 2016-09-29 カシオ計算機株式会社 Diagnostic device, and image processing method in the diagnostic device and program thereof
US10089735B2 (en) 2015-03-18 2018-10-02 Casio Computer Co., Ltd. Image processing method to diagnose cutaneous lesion, diagnostic apparatus used for the same method, and medium storing program associated with the same method
JP2018038789A (en) * 2016-09-02 2018-03-15 カシオ計算機株式会社 Diagnosis support device, method for processing image on diagnosis support device and program
JP2018171462A (en) * 2016-09-02 2018-11-08 カシオ計算機株式会社 Diagnosis support device, method for image processing in diagnosis support device, and program
JP2021191423A (en) * 2016-09-02 2021-12-16 カシオ計算機株式会社 Diagnosis support device, method for image processing in diagnosis support device, and program
JP7188514B2 (en) 2016-09-02 2022-12-13 カシオ計算機株式会社 Diagnosis support device, image processing method in diagnosis support device, and program

Also Published As

Publication number Publication date
JP6036790B2 (en) 2016-11-30

Similar Documents

Publication Publication Date Title
US9996928B2 (en) Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
JP6164238B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6003963B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
US9852503B2 (en) Diagnostic apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method
JP6036790B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6519703B2 (en) Image processing method, diagnostic device, and program
JP6003964B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
US20180262735A1 (en) Diagnosis support apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method
JP6187535B2 (en) Diagnosis support apparatus, image processing method in the diagnosis support apparatus, and program thereof
JP6319370B2 (en) DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF
JP6003965B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6265231B2 (en) Diagnostic device, image processing method, and program
JP6459410B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6838549B2 (en) Diagnostic support device, image processing method and its program
JP2016122325A (en) Diagnosis support system image processing method and program of the diagnosis support system
JP2018043042A (en) Diagnostic support apparatus, image processing method and program therefor

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160315

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20160315

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160623

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160809

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161017

R150 Certificate of patent or registration of utility model

Ref document number: 6036790

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150