JP2016190063A - Diagnostic system, image processing method in diagnostic system, and program therefor - Google Patents

Diagnostic system, image processing method in diagnostic system, and program therefor Download PDF

Info

Publication number
JP2016190063A
JP2016190063A JP2016124923A JP2016124923A JP2016190063A JP 2016190063 A JP2016190063 A JP 2016190063A JP 2016124923 A JP2016124923 A JP 2016124923A JP 2016124923 A JP2016124923 A JP 2016124923A JP 2016190063 A JP2016190063 A JP 2016190063A
Authority
JP
Japan
Prior art keywords
image
component
captured image
luminance component
diagnostic apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016124923A
Other languages
Japanese (ja)
Other versions
JP6319370B2 (en
JP2016190063A5 (en
Inventor
佐藤 俊次
Shunji Sato
俊次 佐藤
中嶋 光康
Mitsuyasu Nakajima
光康 中嶋
玲 浜田
Rei Hamada
玲 浜田
田中 勝
Masaru Tanaka
勝 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2016124923A priority Critical patent/JP6319370B2/en
Publication of JP2016190063A publication Critical patent/JP2016190063A/en
Publication of JP2016190063A5 publication Critical patent/JP2016190063A5/ja
Application granted granted Critical
Publication of JP6319370B2 publication Critical patent/JP6319370B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a diagnostic system capable of facilitating diagnosis by a doctor, by displaying a diagnostic object portion in the emphasized state by using a photographed image of an affected part.SOLUTION: A diagnostic system 100 for diagnosing a lesion by using a photographed image of an affected part includes an image storage part 102 for storing the photographed image, and a processing part 101 for processing the photographed image stored in the image storage part 102. The processing part 101 includes separation means 101a for separating the photographed image into a luminance component and a color information component, and extraction means 101b for extracting a diagnostic object portion by the luminance component or the color information component of the photographed image in order to emphasize a characteristic of the portion.SELECTED DRAWING: Figure 1

Description

本発明は、診断装置並びに当該診断装置における画像処理方法及びそのプログラムに関する。   The present invention relates to a diagnostic apparatus, an image processing method in the diagnostic apparatus, and a program thereof.

一般に、皮膚病変の診断として視診が必ず行われ、多くの情報を得ることが出来る。しかしながら、肉眼やルーペだけでは、例えば、ホクロとしみの判別さえ難しく、良性腫瘍と悪性腫瘍の鑑別も難しい。このため、従来、ダーモスコープ付きカメラを用いて病変を撮影するダーモスコピー診断が行われている。   In general, visual inspection is always performed as a diagnosis of skin lesions, and a lot of information can be obtained. However, with the naked eye or loupe alone, for example, it is difficult to discriminate between moles and spots, and it is also difficult to distinguish benign tumors from malignant tumors. For this reason, dermoscopy diagnosis is conventionally performed in which a lesion is imaged using a camera with a dermoscope.

ダーモスコープとは、ハロゲンランプ等で病変部を明るく照射し、エコージェルや偏光フィルタなどにより反射光の無い状態に設定し、10倍程度に拡大して観察する非侵襲性診察器具である。この器具を用いた観察法をダーモスコピー診断と呼んでいる。ダーモスコピー診断については、インターネットURL(http://www.twmu.ac.jp/DNH/department/dermatology/dermoscopy.html)<平成26年9月1日閲覧>に詳細に記載されている。このダーモスコピー診断によれば、角質による乱反射がなくなることにより、表皮内から真皮浅層までの色素分布が良く見えてくる。   A dermoscope is a non-invasive diagnostic instrument that illuminates a lesion with a halogen lamp or the like, sets it to a state without reflected light using an echo gel or a polarizing filter, and observes the magnified image about 10 times. The observation method using this instrument is called dermoscopy diagnosis. The dermoscopy diagnosis is described in detail in the Internet URL (http://www.twmu.ac.jp/DNH/department/dermatology/dermoscopy.html) <browse September 1, 2014>. According to this dermoscopy diagnosis, the pigment distribution from within the epidermis to the superficial dermis can be clearly seen by eliminating irregular reflection due to the keratin.

例えば、特許文献1に、上記したダーモスコープで撮影された皮膚画像に対して、色調、テクスチャ、非対称度、円度等の値を用いて診断を行う色素沈着部位の遠隔診断システムの技術が開示されている。特許文献1に開示された技術によれば、ダーモスコープを付したカメラ付き携帯電話を用い、ダーモスコープを通して、メラノーマの心配がある良性色素性母斑などがある皮膚を撮影する。そして、携帯電話のネットワーク接続機能を用いてインターネットに接続し、撮影した皮膚画像を遠隔診断装置に送信して診断を要求するものである。そして、要求に基づき皮膚画像を受信した遠隔診断装置は、メラノーマ診断プログラムを用い、皮膚画像から、それがメラノーマであるか否か、あるいはメラノーマであった場合にどの病期のメラノーマであるかを診断し、その結果を要求者である医師に返信する。   For example, Patent Document 1 discloses a technique of a remote diagnosis system for a pigmentation site that performs diagnosis using skin tone images taken with the above-described dermoscope using values such as color tone, texture, asymmetry, and circularity. ing. According to the technique disclosed in Patent Document 1, a camera-equipped mobile phone with a dermoscope is used to photograph skin with benign pigmented nevus that is a concern for melanoma through the dermoscope. Then, the mobile phone is connected to the Internet using the network connection function, and the photographed skin image is transmitted to the remote diagnosis device to request diagnosis. Then, the remote diagnostic device that has received the skin image based on the request uses the melanoma diagnostic program to determine whether the melanoma is a melanoma from the skin image or what stage of the melanoma is. Diagnose and return the result to the requesting doctor.

特開2005−192944号JP-A-2005-192944

ところで、皮膚病については上記したダーモスコープ画像による診断が普及しつつあるが、明瞭な形状変化や模様を得られないことも多く、画像の観察や病変の判断は医師の熟練度に依存しているのが現状である。したがって、ダーモスコープ画像の病変部分を強調する等、画像処理によって、容易、かつ的確に診断可能なツールの出現がのぞまれていた。   By the way, although the diagnosis by dermoscope image mentioned above is spreading about dermatosis, it is often not possible to obtain a clear shape change or pattern, and the observation of the image and the determination of the lesion depend on the skill level of the doctor. is the current situation. Therefore, the emergence of tools that can be easily and accurately diagnosed by image processing, such as emphasizing a lesion part of a dermoscope image, has been expected.

本発明は上記した課題を解決するためになされたものであり、医師の診断を容易にするとともに診断精度の向上をはかる、診断装置並びに当該診断装置における画像処理方法及びそのプログラムを提供することを目的とする。   The present invention has been made to solve the above-described problems, and provides a diagnostic device, an image processing method in the diagnostic device, and a program thereof that facilitate diagnosis by a doctor and improve diagnostic accuracy. Objective.

上記した課題を解決するために本発明は、患部の撮影画像を用いて病変を診断する診断装置であって、前記撮影画像を記憶する画像記憶部と、前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、前記処理部が、前記撮影画像を輝度成分と色情報成分に分離する分離手段と、診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出することを特徴とする。   In order to solve the above-described problem, the present invention provides a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, the image storage unit storing the captured image, and the imaging stored in the image storage unit A processing unit for processing an image, wherein the processing unit separates the captured image into a luminance component and a color information component, and a part to be diagnosed is used to emphasize the likelihood of the part , And extracting the luminance component or the color information component of the photographed image.

また、本発明は、患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、前記撮影画像を輝度成分と色情報成分に分離するステップと、診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出するステップと、を有することを特徴とする。   Further, the present invention is an image processing method in a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, the step of separating the captured image into a luminance component and a color information component, Extracting the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.

さらに、本発明は、患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、コンピュータに、記憶した前記撮影画像を輝度成分と色情報成分に分離する機能と、診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出する機能と、を実行させることを特徴とする。   Furthermore, the present invention is an image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area, and a function for separating the photographed image stored in a computer into a luminance component and a color information component; And a function of extracting the target part of the target image using the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.

本発明によれば、医師の診断を容易にするとともに診断精度の向上をはかる、診断装置並びに当該診断装置における画像処理方法及びそのプログラムを提供することができる。   According to the present invention, it is possible to provide a diagnostic apparatus, an image processing method in the diagnostic apparatus, and a program thereof that facilitate diagnosis of a doctor and improve diagnostic accuracy.

本発明の実施の形態に係る診断装置の構成を示すブロック図である。It is a block diagram which shows the structure of the diagnostic apparatus which concerns on embodiment of this invention. 本発明の実施の形態に係る診断装置の基本処理動作を示すフローチャートである。It is a flowchart which shows the basic processing operation | movement of the diagnostic apparatus which concerns on embodiment of this invention. 図3の血管らしさ抽出処理理動作の詳細を示すフローチャートである。It is a flowchart which shows the detail of the blood vessel likelihood extraction process operation | movement of FIG. 本発明の実施の形態に係る診断装置の表示画面構成の一例を示す図である。It is a figure which shows an example of the display screen structure of the diagnostic apparatus which concerns on embodiment of this invention.

以下、添付図面を参照して、本発明を実施するための形態(以下、「実施形態」と称する)について詳細に説明する。なお、実施形態の説明の全体を通して同じ要素には同じ番号を付している。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as “embodiments”) will be described in detail with reference to the accompanying drawings. Note that the same number is assigned to the same element throughout the description of the embodiment.

(実施形態の構成)
図1は、本実施形態に係る診断装置100の構成を示すブロック図である。図1に示すように、本実施形態に係る診断装置100には、ダーモスコープ付き撮影装置110が接続されている。ダーモスコープ付き撮影装置110は、診断装置100(処理部101)からの指示により患部の撮影を行ない、撮影画像(ダーモスコープ画像)を画像記憶部102に格納するとともに表示装置120に表示する。また、撮影画像は、処理部101により強調処理が施されて画像記憶部102に保存されると共に表示装置120に表示される。なお、入力装置130は、ダーモスコープ画像の撮影開始指示、後述するダーモスコープ画像中の部位選択操作等を行う。
(Configuration of the embodiment)
FIG. 1 is a block diagram illustrating a configuration of a diagnostic apparatus 100 according to the present embodiment. As shown in FIG. 1, an imaging device 110 with a dermoscope is connected to the diagnostic device 100 according to the present embodiment. The imaging device 110 with a dermoscope performs imaging of an affected area according to an instruction from the diagnostic device 100 (processing unit 101), stores the captured image (dermoscope image) in the image storage unit 102, and displays the image on the display device 120. Further, the captured image is subjected to enhancement processing by the processing unit 101, stored in the image storage unit 102, and displayed on the display device 120. The input device 130 performs an instruction to start capturing a dermoscope image, a part selection operation in the dermoscope image, which will be described later, and the like.

なお、表示装置120、例えば、LCD(Liquid Crystal Display)モニタであり、入力装置130は、例えば、マウス等の入力デバイスである。   The display device 120 is an LCD (Liquid Crystal Display) monitor, for example, and the input device 130 is an input device such as a mouse.

処理部101は、画像記憶部102に記憶されたダーモスコピー画像等、患部の撮影画像を処理するもので、図1に示すように、分離手段101aと、抽出手段101bと、生成手段101cと、を含む。   The processing unit 101 processes a captured image of an affected part such as a dermoscopy image stored in the image storage unit 102. As shown in FIG. 1, the processing unit 101 includes a separating unit 101a, an extracting unit 101b, and a generating unit 101c. Including.

分離手段101aは、撮影画像を輝度成分と色情報成分に分離する手段として機能する。抽出手段101bは、血管相当部位等、診断の対象の部位を、部位のそれらしさを強調するために、撮影画像の輝度成分又は色情報成分により抽出する手段として機能する。   The separating unit 101a functions as a unit that separates a captured image into a luminance component and a color information component. The extraction unit 101b functions as a unit that extracts a region to be diagnosed, such as a blood vessel-corresponding region, using a luminance component or a color information component of the captured image in order to emphasize the likelihood of the region.

生成手段101cは、上記した部位の抽出された結果を背景画像と再合成して生成する手段として機能する。このとき、背景画像は、医師が入力装置130を操作することにより選択される、撮影画像、撮影画像のグレー変換画像、撮影画像のコントラスト強調画像、及び撮影画像の輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像からなる群のうちの少なくとも1つである。   The generation unit 101c functions as a unit that re-synthesizes the extracted result of the above-described part with a background image. At this time, the background image is selected by the doctor operating the input device 130. The captured image, the gray-converted image of the captured image, the contrast-enhanced image of the captured image, and the luminance component of the captured image are converted into a global variation component and a local component. It is at least one of a group of luminance component enhanced images that are separated into variable components and subjected to different enhancements.

上記した分離手段101a、抽出手段101b、生成手段101cは、いずれも、処理部101が、処理部101が有する本実施形態に係るプログラムを逐次読み出し実行することにより、それぞれが持つ上記した機能を実現する。   The separation unit 101a, the extraction unit 101b, and the generation unit 101c described above each realize the above-described functions when the processing unit 101 sequentially reads and executes the program according to the present embodiment included in the processing unit 101. To do.

(実施形態の動作)
以下、図1に示す本実施形態に係る診断装置100の動作について、図2以降を参照しながら詳細に説明する。
(Operation of the embodiment)
Hereinafter, the operation of the diagnostic apparatus 100 according to the present embodiment shown in FIG. 1 will be described in detail with reference to FIG.

図2に、本実施形態に係る診断装置100の基本処理動作の流れが示されている。図2によれば、処理部101は、まず、ダーモスコープ付き撮影装置110で撮影された患部(皮膚病変部位)の撮影画像を取得する(ステップS11)。そして、取得した撮影画像を画像記憶部102の所定の領域に格納するとともに、表示装置120に表示する(ステップS12)。   FIG. 2 shows a flow of basic processing operations of the diagnostic apparatus 100 according to the present embodiment. According to FIG. 2, the processing unit 101 first acquires a captured image of an affected part (skin lesion site) captured by the imaging device 110 with a dermoscope (step S <b> 11). The acquired captured image is stored in a predetermined area of the image storage unit 102 and displayed on the display device 120 (step S12).

図4に表示装置120に表示される表示画面イメージの一例が示されている。画面に向かって左に撮影画像表示領域121が、右に、例えば、血管の強調画像表示領域122が割り当てられ、それぞれの領域に、撮影画像、強調画像が表示される。医師が、図面右下に割り当てられている「撮影開始」ボタン123を、入力装置130を使用してクリックすることで、ダーモスコープ付き撮影装置110による患部の撮影が開始され、処理部101が、撮影画像を取得し、表示装置120の撮影画像表示領域121に表示することができる。   FIG. 4 shows an example of a display screen image displayed on the display device 120. A captured image display area 121 is assigned to the left and a blood vessel emphasized image display area 122 is assigned to the right, for example, and a captured image and an emphasized image are displayed in each area. When the doctor clicks the “start imaging” button 123 assigned to the lower right of the drawing using the input device 130, imaging of the affected area is started by the imaging device 110 with a dermoscope, and the processing unit 101 performs imaging. An image can be acquired and displayed in the captured image display area 121 of the display device 120.

なお、画面左下には、血管領域の表示方法(表示形態)を指定するために用意されたチェックボックス124,125,126が割り付けられており、撮影画像上に赤色で強調して表示する場合、白黒撮影画像上に赤色で強調して表示する場合、血管画像を表示する場合に、医師が入力装置130を使用して選択操作(クリック)することで、該当のチェックボックス124,125,126にチェックマークが付される。   In the lower left of the screen, check boxes 124, 125, and 126 prepared for designating the display method (display form) of the blood vessel region are allocated, and when displayed highlighted in red on the captured image, When displaying a highlighted black image on a black and white photographed image, or displaying a blood vessel image, the doctor performs a selection operation (clicks) using the input device 130, so that the corresponding check boxes 124, 125, 126 are displayed. A check mark is added.

説明を図2のフローチャートに戻す。処理部101は、取得した撮影画像を表示装置120の撮影画像表示領域121に表示した後、その撮影画像から血管領域を尤度Aとして抽出する(ステップS13)。ここで、血管領域は2値の場合、“0”または“1”の値を持ち、多値の場合、0から1の範囲で値を持つ。ここでは、“0”が非血管領域で、“1”が血管領域を表し、この血管領域を尤度Aとして抽出する処理については後述する。   The description returns to the flowchart of FIG. The processing unit 101 displays the acquired captured image in the captured image display region 121 of the display device 120, and then extracts a blood vessel region as the likelihood A from the captured image (step S13). Here, the blood vessel region has a value of “0” or “1” in the case of binary, and has a value in the range of 0 to 1 in the case of multiple values. Here, “0” represents a non-blood vessel region, “1” represents a blood vessel region, and processing for extracting this blood vessel region as the likelihood A will be described later.

次に、処理部101は、表示装置120の表示画面上でのチェックボックス124,125,126の状態から医師により指定される表示方法(表示形態)な関する情報を取得する。医師が、所望のチェックボックス124,125,126のいずれかを選択操作することで、処理部101は、その選択された方法(形態)で血管相当部位を強調して表示装置120の強調画像表示領域122に表示する。   Next, the processing unit 101 acquires information regarding the display method (display form) designated by the doctor from the states of the check boxes 124, 125, and 126 on the display screen of the display device 120. When the doctor selects one of the desired check boxes 124, 125, and 126, the processing unit 101 emphasizes the blood vessel equivalent portion by the selected method (form) and displays the highlighted image on the display device 120. Display in area 122.

具体的に、チェックボックス124が選択されていた場合(ステップS14“撮影画像と合成”)、処理部101は、生成手段101cが、撮影画像IMG上に、血管領域を赤色で描画した血管強調画像Eを生成する(ステップS15)。ここで、血管強調画像Eは、E=IMG.*(1−A)+Red*Aにより生成することができる。ここで、IMG.は撮影画像を、Redは赤色を、*は乗算を、「.*」は要素毎の乗算を表す。続いて処理部101は、生成した血管強調画像Eを、表示装置120の撮影画像表示領域121に表示されている撮影画像とともに強調画像表示領域122に並べて表示する(ステップS16)。   Specifically, when the check box 124 is selected (step S14 “composite with captured image”), the processing unit 101 causes the generation unit 101c to display a blood vessel emphasized image in which a blood vessel region is drawn in red on the captured image IMG. E is generated (step S15). Here, the blood vessel emphasized image E is E = IMG. * (1-A) + Red * A. Here, IMG. Represents a captured image, Red represents red, * represents multiplication, and “. *” Represents multiplication for each element. Subsequently, the processing unit 101 displays the generated blood vessel emphasized image E side by side in the emphasized image display area 122 together with the captured image displayed in the captured image display area 121 of the display device 120 (step S16).

一方、チェックボックス125が選択されていた場合(ステップS14“グレー画像と合成”)、処理部101は、生成手段101cが、撮影画像をグレー画像に変換した後、血管領域を赤色で描画した血管強調画像Eを生成する(ステップS17)。ここで、血管強調画像Eは、E=Grey(IMG).*(1−A)+Red*Aにより生成することができる。なお、Grey()は、グレー画像への変換を表している。続いて処理部101は、生成した血管強調画像Eを、表示装置120の撮影画像表示領域121に表示されている撮影画像とともに強調画像表示領域122に並べて表示する(ステップS16)。   On the other hand, when the check box 125 is selected (step S14 “composite with a gray image”), the processing unit 101 converts the captured image into a gray image by the generation unit 101c and then draws the blood vessel region in red. An enhanced image E is generated (step S17). Here, the blood vessel emphasized image E is E = Grey (IMG). * (1-A) + Red * A. Grey () represents conversion to a gray image. Subsequently, the processing unit 101 displays the generated blood vessel emphasized image E side by side in the emphasized image display area 122 together with the captured image displayed in the captured image display area 121 of the display device 120 (step S16).

また、チェックボックス126が選択されていた場合(ステップS14“血液画像を表示”)、処理部101は、生成手段101cが、血管部分を赤で描画し、非血管部分を黒で描画する血管強調画像を生成する(ステップS18)。ここで、血管強調画像Eは、E=Red*Aにより生成することができる。なお、血管領域は赤で示しているが、任意であり、赤に限定されない。続いて処理部101は、生成した血管強調画像Eを、表示装置120の撮影画像表示領域121に表示されている撮影画像とともに強調画像表示領域122に並べて表示する(ステップS16)。   When the check box 126 is selected (step S14 “display blood image”), the processing unit 101 causes the generation unit 101c to draw a blood vessel portion in red and draw a non-blood vessel portion in black. An image is generated (step S18). Here, the blood vessel enhanced image E can be generated by E = Red * A. Although the blood vessel region is shown in red, it is arbitrary and is not limited to red. Subsequently, the processing unit 101 displays the generated blood vessel emphasized image E side by side in the emphasized image display area 122 together with the captured image displayed in the captured image display area 121 of the display device 120 (step S16).

ここで、ステップS13の血管領域を尤度Aとして抽出する処理について図3のフローチャートを用いて詳述する。図3によれば、処理部101は、まず、分離手段101aが、RGB色空間の撮影画像を、Lab色空間(正確にはCIE 1976 L*a*b色空間)に変換する。Lab色空間については、例えば、インターネットURL(http://Ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93)<平成26年9月1日閲覧>にその詳細が記述されている。   Here, the process of extracting the blood vessel region in step S13 as the likelihood A will be described in detail with reference to the flowchart of FIG. According to FIG. 3, in the processing unit 101, first, the separation unit 101 a converts a captured image in the RGB color space into a Lab color space (more precisely, CIE 1976 L * a * b color space). For the Lab color space, for example, an Internet URL (http://Ja.wikipedia.org/wiki/Lab%E8%89%B2%E7%A9%BA%E9%96%93)<September 2014 The details are described in <Browsing Date>.

続いて、処理部101は、抽出手段101bが、分離手段101aにより取得されたLab色空間のL画像(輝度画像)を利用し、輝度画像Lに対して画素毎にヘシアン行列Hを取得する(ステップS132)。ヘシアン行列Hは、各画素で、x方向への2階微分、y方向への2階微分、xy方向への2階部分の3つの要素を持つ。それぞれの要素を、Hxx,Hxy,Hyyとすれば、
Hxx=s^2*(Dxx※L)
Hyy=s^2*(Dyy※L)
Hxy=s^2*(Dxy※L)
で示される。
Subsequently, in the processing unit 101, the extraction unit 101b uses the L image (luminance image) in the Lab color space acquired by the separation unit 101a, and acquires a Hessian matrix H for each pixel from the luminance image L ( Step S132). The Hessian matrix H has three elements for each pixel: a second-order derivative in the x direction, a second-order derivative in the y direction, and a second-order part in the xy direction. If each element is Hxx, Hxy, Hyy,
Hxx = s ^ 2 * (Dxx * L)
Hyy = s ^ 2 * (Dyy * L)
Hxy = s ^ 2 * (Dxy * L)
Indicated by

ここで、※は畳み込み(コンポリューション)を示し、Dxxは、ガウスカーネルをx方向に2階微分したもので、
Dxx=1/(2*pi*σ^*4)*((X.^2)/s^2−1).*exp(−(X.^2+Y.^2)/(2*s^2))で与えられる。
Here, * indicates convolution, and Dxx is a second derivative of the Gaussian kernel in the x direction.
Dxx = 1 / (2 * pi * σ ^ * 4) * ((X. ^ 2) / s ^ 2-1). * Exp (-(X. ^ 2 + Y. ^ 2) / (2 * s ^ 2) )).

ここで、sは、検出する血管の太さに応じたスケール値である。なお、複数の太さの血管を抽出する場合には、血管の太さごとに後述する血管らしさAを求め、画素毎に最大となるAの値を選択すればよい。piは円周率、X及びYは、カーネル内の位置、「.*」は、行列の要素毎の乗算、「.^」は要素毎の累乗を表す。   Here, s is a scale value corresponding to the thickness of the blood vessel to be detected. When blood vessels having a plurality of thicknesses are extracted, a blood vessel likelihood A described later is obtained for each blood vessel thickness, and the maximum value A may be selected for each pixel. pi represents the circumference, X and Y represent the positions in the kernel, “. *” represents the multiplication for each element of the matrix, and “. ^” represents the power for each element.

Dyyは、ガウスカーネルをY方向に2階微分したものであり、Dxxの転置で与えられる。
Dyy=Dxx'
ここで、'は転置を表す。
Dyy is a second-order derivative of the Gaussian kernel in the Y direction, and is given by transposing Dxx.
Dyy = Dxx '
Here, 'represents transposition.

Dxyは、ガウスカーネルをx方向に1階、y方向に1階微分したもので、
Dxy=1/(2*pi*σ^*6)*(Y.*Y).*exp(−(X.^2+Y.^2)/(2*s^2))で与えられる。
Dxy is the first derivative of the Gaussian kernel in the x direction and the first derivative in the y direction.
Dxy = 1 / (2 * pi * σ ^ * 6) * (Y. * Y). * Exp (− (X. ^ 2 + Y. ^ 2) / (2 * s ^ 2)).

ヘシアン行列Hは、
H=[Hxx Hxy; Hxy Hyy]で表される。
Hessian matrix H is
H = [Hxx Hxy; Hxy Hyy].

次に、抽出手段101bは、画素毎にヘシアン行列Hの固有値λ1、λ2を取得する(ステップS133)。ヘシアン行列Hは、実対象行列であるため、固有値λ1、λ2は必ず実数になり、以下で求めることができる。
λ1=0.5*(Dxx+Dyy+tmp)
λ2=0.5*(Dxx;Dyy−tmp)
ここで、tmp=sqrt((Dxx−Dyy).*(Dxx−Dyy)+4*Dxy.*Dxy)である。
Next, the extraction unit 101b acquires eigenvalues λ1 and λ2 of the Hessian matrix H for each pixel (step S133). Since the Hessian matrix H is a real target matrix, the eigenvalues λ1 and λ2 are always real numbers and can be obtained as follows.
λ1 = 0.5 * (Dxx + Dyy + tmp)
λ2 = 0.5 * (Dxx; Dyy-tmp)
Here, tmp = sqrt ((Dxx-Dyy). * (Dxx-Dyy) + 4 * Dxy. * Dxy).

そして、抽出手段101bは、ステップS133で取得した各画素での固有値λ1とλ2から以下の式にしたがい血管領域Aを抽出する(ステップS135)。血管領域Aは、A=1−exp((K.^2)/2*σ^2))で示される。但し、Kは、ステップS134で示されるように、K=sqrt(λ1.*λ1+λ2.*λ2)で掲載された値である。ここで、σは調整係数であり、sqrt()は要素ごとの平方根を表している。   Then, the extraction unit 101b extracts the blood vessel region A from the eigenvalues λ1 and λ2 obtained at step S133 according to the following formula (step S135). The blood vessel region A is represented by A = 1−exp ((K. ^ 2) / 2 * σ ^ 2)). However, K is a value posted as K = sqrt (λ1. * Λ1 + λ2. * Λ2) as shown in step S134. Here, σ is an adjustment coefficient, and sqrt () represents the square root for each element.

なお、処理部101は、血管領域を2値で表す場合、th1を閾値として2値化すれば良い。
すなわち、
A=0 if A<th1
A=1 else
Note that when the blood vessel region is represented by binary values, the processing unit 101 may binarize using th1 as a threshold.
That is,
A = 0 if A <th1
A = 1 else

(実施形態の効果)
以上説明のように本実施形態に係る診断装置100によれば、処理部101は、分離手段101aが、撮影画像を輝度成分と色情報成分に分離し、抽出手段101bが、血管相当部位等、診断の対象の部位を、部位のそれらしさを強調するために、撮影画像の輝度成分又は色情報成分により抽出し、抽出された結果を表示装置120に表示する。このため、医師は、診断の対象の部位について強調表示された画面を視認することで、容易、かつ的確に診断を行うことができ、その結果、診断精度が向上する。
(Effect of embodiment)
As described above, according to the diagnostic apparatus 100 according to the present embodiment, the processing unit 101 includes the separation unit 101a that separates a captured image into a luminance component and a color information component, and the extraction unit 101b includes a blood vessel equivalent site, etc. The region to be diagnosed is extracted by the luminance component or the color information component of the captured image in order to emphasize the likelihood of the region, and the extracted result is displayed on the display device 120. For this reason, the doctor can easily and accurately make a diagnosis by visually recognizing the screen highlighted for the site to be diagnosed, and as a result, the diagnostic accuracy is improved.

また、本実施形態に係る診断装置100によれば、処理部101は、生成手段101cが、部位の抽出された結果を背景画像と再合成して表示装置120に表示する。このとき、医師に、背景画像として、(1)撮影画像、(2)撮影画像のグレー変換画像、(3)撮影画像のコントラスト強調画像、及び(4)撮影画像の輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像からなる群の中から選択できるUI(User Interface)を提供することで、診断目的に応じた表示形態を動的に選択することができ、その結果、医師は、一層容易に、かつ的確に診断を行うことができ、診断精度が一段と向上する。   Further, according to the diagnostic apparatus 100 according to the present embodiment, the processing unit 101 causes the generation unit 101c to re-synthesize the result of the extracted part with the background image and display the result on the display device 120. At this time, as a background image, (1) a photographed image, (2) a gray converted image of the photographed image, (3) a contrast-enhanced image of the photographed image, and (4) a luminance component of the photographed image as a global variation component. By providing a UI (User Interface) that can be selected from a group of luminance component emphasized images that have been subjected to different emphasis after being separated into local variation components, it is possible to dynamically select a display form according to the diagnostic purpose. As a result, the doctor can perform diagnosis more easily and accurately, and the diagnosis accuracy is further improved.

なお、撮影画像の輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像が選択されると、分離手段101aが、Lab色空間で輝度に相当するL画像を用い、大域変動成分と局所変動成分を分離するためにエッジ保存型フィルタ処理を施す。ここで、エッジ保存型フィルタとして、例えば、バイラテラルフィルタを用いる。バイラテラルフィルタについては、例えば、インターネットURL(http://en.wikipedia.org/wiki/Bilateral filter)<平成26年9月1日閲覧>にその詳細が記載されている。   When a luminance component enhanced image obtained by separating the luminance component of the photographed image into a global variation component and a local variation component and performing different enhancement is selected, the separation unit 101a selects an L image corresponding to the luminance in the Lab color space. In order to separate the global variation component and the local variation component, edge preserving filter processing is performed. Here, for example, a bilateral filter is used as the edge preserving filter. Details of the bilateral filter are described in, for example, the Internet URL (http://en.wikipedia.org/wiki/Bilateralfilter) <browse September 1, 2014>.

以上、実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態及び実施例に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications and improvements can be made to the above-described embodiments and examples. Further, it is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲の通りである。   The invention described in the scope of claims attached to the application of this application will be added below. The item numbers of the claims described in the appendix are as set forth in the claims attached to the application of this application.

〔付記〕
[請求項1]
患部の撮影画像を用いて病変を診断する診断装置であって、
前記撮影画像を記憶する画像記憶部と、
前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、
前記処理部が、
前記撮影画像を輝度成分と色情報成分に分離する分離手段と、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出することを特徴とする診断装置。
[請求項2]
前記部位が血管相当部位であることを特徴とする請求項1に記載の診断装置。
[請求項3]
さらに、前記部位の抽出された結果を背景画像と再合成して生成する生成手段を備えることを特徴とする請求項1又は2に記載の診断装置。
[請求項4]
前記背景画像が、前記撮影画像、前記撮影画像のグレー変換画像、前記撮影画像のコントラスト強調画像、及び前記撮影画像の前記輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像からなる群から選択される少なくとも1つであることを特徴とする請求項3に記載の診断装置。
[請求項5]
患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、
前記撮影画像を輝度成分と色情報成分に分離するステップと、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出するステップと、を有することを特徴とする画像処理方法。
[請求項6]
患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、
コンピュータに、
記憶した前記撮影画像を輝度成分と色情報成分に分離する機能と、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出する機能と、を実行させることを特徴とするプログラム。
[Appendix]
[Claim 1]
A diagnostic device for diagnosing a lesion using a photographed image of an affected area,
An image storage unit for storing the captured image;
A processing unit that processes the captured image stored in the image storage unit,
The processing unit is
Separating means for separating the captured image into a luminance component and a color information component;
A diagnostic apparatus, wherein a part to be diagnosed is extracted by the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
[Claim 2]
The diagnostic apparatus according to claim 1, wherein the part is a blood vessel equivalent part.
[Claim 3]
The diagnostic apparatus according to claim 1, further comprising a generation unit configured to re-synthesize and generate the extracted result of the part with a background image.
[Claim 4]
The background image is subjected to different emphasis by separating the luminance component of the captured image, the gray-converted image of the captured image, the contrast-enhanced image of the captured image, and the luminance component of the captured image into a global variation component and a local variation component. The diagnostic apparatus according to claim 3, wherein the diagnostic apparatus is at least one selected from the group consisting of luminance component enhanced images.
[Claim 5]
An image processing method in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
Separating the captured image into a luminance component and a color information component;
Extracting a region to be diagnosed from the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the region.
[Claim 6]
An image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
On the computer,
A function of separating the stored photographed image into a luminance component and a color information component;
A program for executing a function of extracting a part to be diagnosed by the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.

100…診断装置、101…処理部、101a…分離手段、101b…抽出手段、101c…生成手段、110…ダーモスコープ付き撮影装置、120…表示装置、121…撮影画像、122…強調画像、123…撮影開始ボタン、124,125,126…チェックボックス、130…入力装置   DESCRIPTION OF SYMBOLS 100 ... Diagnostic apparatus 101 ... Processing part 101a ... Separation means 101b ... Extraction means 101c ... Generation means 110 ... Imaging device with a dermoscope 120 ... Display device 121 ... Captured image 122 ... Enhanced image 123 ... Photography Start button, 124, 125, 126 ... check box, 130 ... input device

本発明の一態様は、患部の撮影画像を用いて病変を診断する診断装置であって、前記撮影画像を記憶する画像記憶部と、前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、前記処理部が、前記撮影画像を輝度成分と色情報成分に分離する分離手段と、診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出する抽出手段と、を備えることを特徴とする診断装置を提供するものである。 One aspect of the present invention is a diagnostic apparatus for diagnosing a lesion using a captured image of an affected area, and an image storage unit that stores the captured image, and a process that processes the captured image stored in the image storage unit A separation means for separating the photographed image into a luminance component and a color information component, and a region to be diagnosed to emphasize the likelihood of the portion of the photographed image. And an extraction unit that extracts the luminance component or the color information component.

Claims (6)

患部の撮影画像を用いて病変を診断する診断装置であって、
前記撮影画像を記憶する画像記憶部と、
前記画像記憶部に記憶された前記撮影画像を処理する処理部と、を備え、
前記処理部が、
前記撮影画像を輝度成分と色情報成分に分離する分離手段と、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出することを特徴とする診断装置。
A diagnostic device for diagnosing a lesion using a photographed image of an affected area,
An image storage unit for storing the captured image;
A processing unit that processes the captured image stored in the image storage unit,
The processing unit is
Separating means for separating the captured image into a luminance component and a color information component;
A diagnostic apparatus, wherein a part to be diagnosed is extracted by the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
前記部位が血管相当部位であることを特徴とする請求項1に記載の診断装置。   The diagnostic apparatus according to claim 1, wherein the part is a blood vessel equivalent part. さらに、前記部位の抽出された結果を背景画像と再合成して生成する生成手段を備えることを特徴とする請求項1又は2に記載の診断装置。   The diagnostic apparatus according to claim 1, further comprising a generation unit configured to re-synthesize and generate the extracted result of the part with a background image. 前記背景画像が、前記撮影画像、前記撮影画像のグレー変換画像、前記撮影画像のコントラスト強調画像、及び前記撮影画像の前記輝度成分を大域変動成分と局所変動成分に分離して異なる強調を施した輝度成分強調画像からなる群から選択される少なくとも1つであることを特徴とする請求項3に記載の診断装置。   The background image is subjected to different emphasis by separating the luminance component of the captured image, the gray-converted image of the captured image, the contrast-enhanced image of the captured image, and the luminance component of the captured image into a global variation component and a local variation component. The diagnostic apparatus according to claim 3, wherein the diagnostic apparatus is at least one selected from the group consisting of luminance component enhanced images. 患部の撮影画像を用いて病変を診断する診断装置における画像処理方法であって、
前記撮影画像を輝度成分と色情報成分に分離するステップと、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出するステップと、を有することを特徴とする画像処理方法。
An image processing method in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
Separating the captured image into a luminance component and a color information component;
Extracting a region to be diagnosed from the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the region.
患部の撮影画像を用いて病変を診断する診断装置における画像処理のプログラムであって、
コンピュータに、
記憶した前記撮影画像を輝度成分と色情報成分に分離する機能と、
診断の対象の部位を、前記部位のそれらしさを強調するために、前記撮影画像の前記輝度成分又は前記色情報成分により抽出する機能と、を実行させることを特徴とするプログラム。
An image processing program in a diagnostic apparatus for diagnosing a lesion using a photographed image of an affected area,
On the computer,
A function of separating the stored photographed image into a luminance component and a color information component;
A program for executing a function of extracting a part to be diagnosed by the luminance component or the color information component of the photographed image in order to emphasize the likelihood of the part.
JP2016124923A 2016-06-23 2016-06-23 DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF Active JP6319370B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016124923A JP6319370B2 (en) 2016-06-23 2016-06-23 DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016124923A JP6319370B2 (en) 2016-06-23 2016-06-23 DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014227527A Division JP6003964B2 (en) 2014-11-07 2014-11-07 Diagnostic device, image processing method in the diagnostic device, and program thereof

Publications (3)

Publication Number Publication Date
JP2016190063A true JP2016190063A (en) 2016-11-10
JP2016190063A5 JP2016190063A5 (en) 2016-12-22
JP6319370B2 JP6319370B2 (en) 2018-05-09

Family

ID=57245940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016124923A Active JP6319370B2 (en) 2016-06-23 2016-06-23 DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF

Country Status (1)

Country Link
JP (1) JP6319370B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021060358A1 (en) * 2019-09-26 2021-04-01 東洋紡株式会社 Analysis device and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003093342A (en) * 2001-09-27 2003-04-02 Fuji Photo Optical Co Ltd Electronic endoscope system
JP2009000494A (en) * 2007-05-23 2009-01-08 Noritsu Koki Co Ltd Porphyrin detection method, porphyrin display method, and porphyrin detector
JP2010115243A (en) * 2008-11-11 2010-05-27 Hoya Corp Image signal processing apparatus for electronic endoscope
WO2013098512A1 (en) * 2011-12-26 2013-07-04 Chanel Parfums Beaute Method and device for detecting and quantifying cutaneous signs on an area of skin
JP2013534851A (en) * 2010-07-02 2013-09-09 シャネル パルファン ボーテ Method and apparatus for detecting and quantizing skin symptoms in skin zone

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003093342A (en) * 2001-09-27 2003-04-02 Fuji Photo Optical Co Ltd Electronic endoscope system
JP2009000494A (en) * 2007-05-23 2009-01-08 Noritsu Koki Co Ltd Porphyrin detection method, porphyrin display method, and porphyrin detector
JP2010115243A (en) * 2008-11-11 2010-05-27 Hoya Corp Image signal processing apparatus for electronic endoscope
JP2013534851A (en) * 2010-07-02 2013-09-09 シャネル パルファン ボーテ Method and apparatus for detecting and quantizing skin symptoms in skin zone
WO2013098512A1 (en) * 2011-12-26 2013-07-04 Chanel Parfums Beaute Method and device for detecting and quantifying cutaneous signs on an area of skin
JP2015500722A (en) * 2011-12-26 2015-01-08 シャネル パルファン ボーテChanel Parfums Beaute Method and apparatus for detecting and quantifying skin symptoms in a skin zone

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021060358A1 (en) * 2019-09-26 2021-04-01 東洋紡株式会社 Analysis device and program
JPWO2021060358A1 (en) * 2019-09-26 2021-04-01

Also Published As

Publication number Publication date
JP6319370B2 (en) 2018-05-09

Similar Documents

Publication Publication Date Title
US9996928B2 (en) Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
JP6003963B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
EP3038051B1 (en) Diagnostic apparatus and image processing method in the same apparatus
JP6471559B2 (en) Diagnostic device, image processing method, image processing system, and program for the diagnostic device
JP6003964B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6519703B2 (en) Image processing method, diagnostic device, and program
JP6319370B2 (en) DIAGNOSIS DEVICE, IMAGE PROCESSING METHOD IN THE DIAGNOSIS DEVICE, AND PROGRAM THEREOF
US10291893B2 (en) Diagnosis support apparatus for lesion, image processing method in the same apparatus, and medium storing program associated with the same method
JP6036790B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
EP3038052B1 (en) Diagnosis support apparatus and image processing method in the same apparatus
JP6459410B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6265231B2 (en) Diagnostic device, image processing method, and program
JP6003965B2 (en) Diagnostic device, image processing method in the diagnostic device, and program thereof
JP6503733B2 (en) Diagnosis support apparatus, image processing method in the diagnosis support apparatus, and program thereof
JP2018043041A (en) Diagnostic support apparatus, image processing method and program therefor
JP2018043042A (en) Diagnostic support apparatus, image processing method and program therefor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161003

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6319370

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150